OpenNebula 4.0 中的 Ceph 支持

scuttlemonkey

Ceph 团队非常感谢有如此多的新朋友选择以某种方式参与到我们的社区中。更令人兴奋的是,投入代码和集成工作的人数不断增加,OpenNebula 的团队就是这方面的绝佳例子。

在二月底,一位 OpenNebula 的开发者联系我们,告知他们的 Ceph 集成工作即将完成。以下是 Ceph 在 OpenNebula 环境中的行为的简要概述,以及如何设置它的链接。请继续阅读以获取详细信息!

scuttlemonkey:值得注意的是,4.0 版本仍在测试阶段,并且在 Ceph 驱动程序中发现了一个错误。幸运的是,文档中已经记录了 解决方法,并且已经提交了 补丁 以供发布。如果您遇到任何问题,请随时访问 #opennebula 频道并告知他们。

OpenNebula 继续扩展对新型存储技术的支持。OpenNebula 4.0 带来了与 Ceph 的全新集成,这是一种令人印象深刻的分布式对象存储和文件系统。

OpenNebula 提供了一个用于 Ceph RBD (RADOS 块设备) 的接口,允许您将镜像直接注册到 Ceph 存储池中,并使用该后端运行虚拟机。

有一个详尽的 OpenNebula Ceph 指南,但可以概括如下:

  • OpenNebula 工作节点应属于一个 正在运行的 Ceph 集群
  • 应提供“one”Ceph 存储池(名称可配置)。
  • 使用 Libvirt/KVM 作为虚拟机管理程序。Xen 尚未支持。

一旦设置好,使用起来就非常简单!

  1. 确保我们拥有“one”Ceph 存储池

    $ ceph osd lspools 0 data,1 metadata,2 rbd,3 one,

  2. 创建 Ceph 数据存储

    $ cat ceph.one NAME = ceph DS_MAD = ceph TM_MAD = ceph

    DISK_TYPE = RBD

    HOST = ceph0 POOL_NAME = one SAFE_DIRS="/"

    $ onedatastore create ceph.one ID: 101

  3. 注册镜像

    $ oneimage create --name centos-6.4 --path /tmp/centos-6.4.img -d ceph ID: 4

  4. 运行您的虚拟机

    $ onevm create --name centos-6.4 --cpu 1 --memory 768 --nic 1 --disk centos-6.4 --nic net_172 ID: 10

在后台,OpenNebula 与 Ceph 集群交互并克隆基本镜像。Libvirt/KVM 部署文件将该克隆镜像用作操作系统

所有镜像处理和操作(克隆、重命名、删除等)都在数据存储模板中定义的特定服务器上执行,在本例中为“HOST = ceph0”,使用“qemu-img”的“rbd”功能进行新镜像的注册。
注册新镜像。

感谢 OpenNebula 团队完成这项集成工作,我们很高兴看到 Ceph 的新用例!

如果您有自己的用例故事,我们很乐意听取(并与世界分享)。请随时通过建议的博客标题、您希望我们撰写散文的原始数据或我们可以发布到社区的完整博客文章的形式告诉我们。感谢,并祝您 Ceph 使用愉快。

(也发布在 OpenNebula 博客 上)

scuttlemonkey 结束