Ceph Days India

将 Ceph 带到印度

Registration SOLD OUT

一场为分享 Ceph 的变革力量并与印度的社区一起培养充满活力的 Ceph 社区的为期一天的活动!

Ceph 专家团队、Ceph 的客户和合作伙伴以及 Ceph 社区将携手讨论 Ceph 项目的状态、最近的 Ceph 项目改进和路线图以及 Ceph 社区新闻。 一天结束时将举行社交招待会,以促进更多的 Ceph 学习。

The CFP is now open and registration is limited!

重要日期

  • 征稿开始 2023-02-21
  • 征稿结束 2023-03-29
  • 演讲者收到接受确认 2023-04-03
  • 日程安排公布 2023-04-05
  • 活动日期 2023-05-05

日程安排

时间摘要演讲者
9:00主题演讲:社区更新启动

Gaurav Sitlani
IBM
9:20CephFS 幕后揭秘

本次演讲将深入探讨 Ceph 文件系统在幕后的工作原理。我们将从解释 CephFS 开始,说明它如何优于其他分布式文件系统。接着,我们将揭示磁盘格式,详细解释 CephFS 如何以及在哪里存储其元数据和用户数据。此外,我们将介绍快照的概念。了解磁盘格式对于理解这一点至关重要。最后,我们将简单提及“caps”(功能)的概念。

Venky Shankar

IBM India Pvt. Ltd.

10:05Ceph RBD 与 DPU 集成

DPU 将开始运行 CEPH 客户端、Crush 和 librbd 库来虚拟化 rbd,并以 PCIe 连接的 NVMe 磁盘(如 NVMeOF)的形式将 rbd 呈现给主机。所有对集群的读写请求都从 pcie 请求转换为 rados 请求。一个特殊的守护进程在核心上运行,并成为 ceph 集群的客户端。它可以获取集群地图,运行 crush。它可以理解故障并将 TCP 连接重定向到新的 OSD 以获取数据,并很好地平衡流量。

Varada Raja Kumar Kari

AMD India Pvt Ltd

10:40我们应该使用 cephadm 还是 cephadm-ansible?

“在 Octopus 版本中,引入了 cephadm 实用程序来妥善管理单个 Ceph 集群。然而,如果我们需要扩展多个地理上分布的 Ceph 集群的大小,或者我们想要自动化调优单个集群的步骤,我们就不能使用 cephadm。

因此,要在多个集群或单个集群上的多个任务中自动化和管理简单任务,我们可以使用 Ansible 来大规模执行这些任务,而不是使用 cephadm,而是使用 cephadm-ansible。”

Kritik Sachdeva

IBM

11:00休息
11:20Rook 集群的关键故障排除工具

虽然 Rook 简化了 Ceph 在 Kubernetes 中的部署和管理,但排除出现的问题仍然具有挑战性。常见问题包括网络连接、丢失 mon 仲裁、移除失败的 OSD 等等。本次演讲将介绍管理员用于从单个健康的 mon 恢复 mon 仲裁、移除失败的 OSD、调试 mon 和 OSD pod 等的工具。

Subham Kumar Rai

Red Hat

11:55使用 Rook 为工作负载启用读取亲和性

Rook 使用节点拓扑标签将 OSD 分散到集群的各个节点上,以提供冗余和可用性,这些标签也被添加到 CRUSH 地图中的所需级别。目前,容器化工作负载(pod)的读取是从 PG 的主 OSD 提供的,而该主 OSD可能位于不同的节点、区域甚至地区。

利用读取亲和性功能,读取从靠近客户端的 OSD 提供,从而减少数据传输并提高性能。

Rakshit

IBM

12:20 PMRADOS Gateway 与 Hashicorp Vault 集成

RGW 与 Vault 的集成使得加密更加灵活。虽然 OSD 加密为每个底层块设备使用一个密钥,但使用密钥管理服务配置的加密通过存储桶策略使过程更加灵活;现在密钥可以对存储桶级别甚至对象级别唯一。Vault本身可以配置为高可用性并提供加密即服务。这确保了密钥安全地存储在 Vault 中,就像 HSM 的情况一样。

K Gopal Krishna

croit GmbH

12:55使用 Ceph 中的跟踪功能增强可观测性

随着 Ceph 中 opentelemetry 跟踪的引入,我们可以更轻松地识别

Ceph 集群中的异常情况。这将使您的

Ceph 集群达到大大改进的监控状态,支持对其

后台分布式过程的可见性。这反过来又增加了 Ceph

调试方式,“使 Ceph 更透明”,以便识别异常情况

和排除性能问题。

Deepika Upadhyay

Koor Technologies Inc.

1:15休息
2:00测验
2:15IBM Ceph 和 Storage Insights 集成策略和计划

Storage Insights 集成将帮助多个 Ceph 集群进行多集群监控。这将提供一个单一工具来监控高级集群指标,例如集群健康状况、满度和其他已确定的指标,无需深入钻取和点击。大多数 Ceph 客户部署了不止一个集群,多集群监控一直是 Ceph 管理工具中的一个长期空白。因此,SI 集成将有助于填补这一空白。Storage Insights 将集成到 IBM Ceph 的 call-home 工作流程中。IBM Ceph 也将集成到 Storage Insights 的警报工作流程中。SI 中的这种近实时警报功能将为 Ceph 带来重大价值。

Vijay Patidar

IBM

2:35Ceph 中的监控和集中式日志记录

本次演讲的目的是强调可观测性的两个支柱:Ceph 存储集群中的指标和日志的各个方面和重要性。我们将讨论当前指标收集和日志记录的架构、使用的技术栈以及如何轻松地在 Ceph 中部署它们。本次演讲还将强调集中式日志记录的各个方面和重要性,这对于在仪表板视图中查看和管理日志非常有用。最后包括一个简短的演示。

Avan Thakkar & Aashish Sharma

IBM

3:15使用 KEDA 为 Ceph 对象存储(又称 RGW)实现自动扩缩

扩缩对象存储很复杂,有效负载大小各异——对象可以像虚拟机镜像一样大,也可以像电子邮件一样小。在行为上,有些主要是读取、写入和列出对象。其他有效负载会删除对象,有些则永远保留它们。使用 CPU 和 RAM 进行 pod 的水平或垂直自动扩缩是有限的,可能会产生不利影响。将我们的对象存储视为一个排队系统:将 HTTP 请求转换为磁盘上的操作可能就是解决方案!

Jiffin Tony Thottan

IBM

3:50外部 Rook Ceph 集群

您可能有一个现有的 Ceph 集群想要与 Kubernetes 集成,或者希望在连接到多个 Kubernetes 集群的单个集群中实现集中式 ceph 管理,解决方案是什么?外部 Rook-Ceph 集群。

外部集群是在本地 K8s 集群外部管理的 Ceph 配置。

本次闪电演讲将快速概述 Rook 外部集群,包括其部署、演示以及如何使用最新的 ceph 功能。

Parth Arora

IBM

4:15休息
4:45Ceph 的 NVMeOF 支持

通过通用 NVMe 块设备提供对 RBD 卷的访问

Rahul Lepakshi

IBM

5:20Teuthology - 集成测试框架

Teuthology 是 Ceph 的一个测试框架,用于运行绝大多数 Ceph 测试。在演示中,我们将讨论其基础设施、安装以及如何开始使用它。

Subhashree Mishra & Yash Ajgaonkar

Red Hat

测验
5:50Ceph Days 闭幕致辞

加入 Ceph 公告列表,或在社交媒体上关注 Ceph 以获取 Ceph 活动更新