Ceph Days India

将 Ceph 带到印度 ¶
一场为分享 Ceph 的变革力量并与印度的社区一起培养充满活力的 Ceph 社区的为期一天的活动!
Ceph 专家团队、Ceph 的客户和合作伙伴以及 Ceph 社区将携手讨论 Ceph 项目的状态、最近的 Ceph 项目改进和路线图以及 Ceph 社区新闻。 一天结束时将举行社交招待会,以促进更多的 Ceph 学习。
The CFP is now open and registration is limited!
重要日期 ¶
- 征稿开始 2023-02-21
- 征稿结束 2023-03-29
- 演讲者收到接受确认 2023-04-03
- 日程安排公布 2023-04-05
- 活动日期 2023-05-05
日程安排 ¶
| 时间 | 摘要 | 演讲者 | |
| 9:00 | 主题演讲:社区更新启动 | ![]() Gaurav Sitlani IBM | |
| 9:20 | CephFS 幕后揭秘 本次演讲将深入探讨 Ceph 文件系统在幕后的工作原理。我们将从解释 CephFS 开始,说明它如何优于其他分布式文件系统。接着,我们将揭示磁盘格式,详细解释 CephFS 如何以及在哪里存储其元数据和用户数据。此外,我们将介绍快照的概念。了解磁盘格式对于理解这一点至关重要。最后,我们将简单提及“caps”(功能)的概念。 | Venky ShankarIBM India Pvt. Ltd. | |
| 10:05 | Ceph RBD 与 DPU 集成 DPU 将开始运行 CEPH 客户端、Crush 和 librbd 库来虚拟化 rbd,并以 PCIe 连接的 NVMe 磁盘(如 NVMeOF)的形式将 rbd 呈现给主机。所有对集群的读写请求都从 pcie 请求转换为 rados 请求。一个特殊的守护进程在核心上运行,并成为 ceph 集群的客户端。它可以获取集群地图,运行 crush。它可以理解故障并将 TCP 连接重定向到新的 OSD 以获取数据,并很好地平衡流量。 | Varada Raja Kumar Kari AMD India Pvt Ltd | |
| 10:40 | 我们应该使用 cephadm 还是 cephadm-ansible? “在 Octopus 版本中,引入了 cephadm 实用程序来妥善管理单个 Ceph 集群。然而,如果我们需要扩展多个地理上分布的 Ceph 集群的大小,或者我们想要自动化调优单个集群的步骤,我们就不能使用 cephadm。 因此,要在多个集群或单个集群上的多个任务中自动化和管理简单任务,我们可以使用 Ansible 来大规模执行这些任务,而不是使用 cephadm,而是使用 cephadm-ansible。” | Kritik SachdevaIBM | |
| 11:00 | 休息 | ||
| 11:20 | Rook 集群的关键故障排除工具 虽然 Rook 简化了 Ceph 在 Kubernetes 中的部署和管理,但排除出现的问题仍然具有挑战性。常见问题包括网络连接、丢失 mon 仲裁、移除失败的 OSD 等等。本次演讲将介绍管理员用于从单个健康的 mon 恢复 mon 仲裁、移除失败的 OSD、调试 mon 和 OSD pod 等的工具。 | Subham Kumar Rai Red Hat | |
| 11:55 | 使用 Rook 为工作负载启用读取亲和性 Rook 使用节点拓扑标签将 OSD 分散到集群的各个节点上,以提供冗余和可用性,这些标签也被添加到 CRUSH 地图中的所需级别。目前,容器化工作负载(pod)的读取是从 PG 的主 OSD 提供的,而该主 OSD可能位于不同的节点、区域甚至地区。 利用读取亲和性功能,读取从靠近客户端的 OSD 提供,从而减少数据传输并提高性能。 | Rakshit IBM | |
| 12:20 PM | RADOS Gateway 与 Hashicorp Vault 集成 RGW 与 Vault 的集成使得加密更加灵活。虽然 OSD 加密为每个底层块设备使用一个密钥,但使用密钥管理服务配置的加密通过存储桶策略使过程更加灵活;现在密钥可以对存储桶级别甚至对象级别唯一。Vault本身可以配置为高可用性并提供加密即服务。这确保了密钥安全地存储在 Vault 中,就像 HSM 的情况一样。 | K Gopal Krishna croit GmbH | |
| 12:55 | 使用 Ceph 中的跟踪功能增强可观测性 随着 Ceph 中 opentelemetry 跟踪的引入,我们可以更轻松地识别 Ceph 集群中的异常情况。这将使您的 Ceph 集群达到大大改进的监控状态,支持对其 后台分布式过程的可见性。这反过来又增加了 Ceph 调试方式,“使 Ceph 更透明”,以便识别异常情况 和排除性能问题。 | Deepika UpadhyayKoor Technologies Inc. | |
| 1:15 | 休息 | ||
| 2:00 | 测验 | ||
| 2:15 | IBM Ceph 和 Storage Insights 集成策略和计划 Storage Insights 集成将帮助多个 Ceph 集群进行多集群监控。这将提供一个单一工具来监控高级集群指标,例如集群健康状况、满度和其他已确定的指标,无需深入钻取和点击。大多数 Ceph 客户部署了不止一个集群,多集群监控一直是 Ceph 管理工具中的一个长期空白。因此,SI 集成将有助于填补这一空白。Storage Insights 将集成到 IBM Ceph 的 call-home 工作流程中。IBM Ceph 也将集成到 Storage Insights 的警报工作流程中。SI 中的这种近实时警报功能将为 Ceph 带来重大价值。 | Vijay Patidar IBM | |
| 2:35 | Ceph 中的监控和集中式日志记录 本次演讲的目的是强调可观测性的两个支柱:Ceph 存储集群中的指标和日志的各个方面和重要性。我们将讨论当前指标收集和日志记录的架构、使用的技术栈以及如何轻松地在 Ceph 中部署它们。本次演讲还将强调集中式日志记录的各个方面和重要性,这对于在仪表板视图中查看和管理日志非常有用。最后包括一个简短的演示。 | Avan Thakkar & Aashish SharmaIBM | |
| 3:15 | 使用 KEDA 为 Ceph 对象存储(又称 RGW)实现自动扩缩 扩缩对象存储很复杂,有效负载大小各异——对象可以像虚拟机镜像一样大,也可以像电子邮件一样小。在行为上,有些主要是读取、写入和列出对象。其他有效负载会删除对象,有些则永远保留它们。使用 CPU 和 RAM 进行 pod 的水平或垂直自动扩缩是有限的,可能会产生不利影响。将我们的对象存储视为一个排队系统:将 HTTP 请求转换为磁盘上的操作可能就是解决方案! | Jiffin Tony Thottan IBM | |
| 3:50 | 外部 Rook Ceph 集群 您可能有一个现有的 Ceph 集群想要与 Kubernetes 集成,或者希望在连接到多个 Kubernetes 集群的单个集群中实现集中式 ceph 管理,解决方案是什么?外部 Rook-Ceph 集群。 外部集群是在本地 K8s 集群外部管理的 Ceph 配置。 本次闪电演讲将快速概述 Rook 外部集群,包括其部署、演示以及如何使用最新的 ceph 功能。 | Parth AroraIBM | |
| 4:15 | 休息 | ||
| 4:45 | Ceph 的 NVMeOF 支持 通过通用 NVMe 块设备提供对 RBD 卷的访问 | Rahul Lepakshi IBM | |
| 5:20 | Teuthology - 集成测试框架 Teuthology 是 Ceph 的一个测试框架,用于运行绝大多数 Ceph 测试。在演示中,我们将讨论其基础设施、安装以及如何开始使用它。 | Subhashree Mishra & Yash Ajgaonkar Red Hat | |
| 测验 | |||
| 5:50 | Ceph Days 闭幕致辞 |
加入 Ceph 公告列表,或在社交媒体上关注 Ceph 以获取 Ceph 活动更新

Venky Shankar
Kritik Sachdeva
Deepika Upadhyay
Avan Thakkar & Aashish Sharma
Parth Arora