v19.2.0 Squid 发布

Laura Flores

Squid 是 Ceph 的第 19 个稳定版本。

这是 Ceph Squid 的第一个稳定版本。

注意

iSCSI 用户请注意,Ceph 上游开发人员在从 Ceph 19.1.1 升级到 Ceph 19.2.0 的过程中遇到了一个 bug。在尝试升级到 19.2.0 之前,请阅读 Tracker Issue 68215

目录

相较于 Reef 的重大变化

亮点

RADOS

  • BlueStore 经过优化,在快照密集型工作负载中具有更好的性能。
  • BlueStore RocksDB LZ4 压缩现已默认启用,以提高平均性能和“快速设备”空间利用率。
  • 其他改进包括更灵活的 EC 配置、OpTracker 以帮助调试 mgr 模块问题,以及改进的 scrub 调度。

Dashboard

  • 改进的导航布局

CephFS

  • 支持管理 CephFS 快照和克隆,以及快照调度管理
  • 管理 CephFS 资源的授权功能
  • 挂载 CephFS 卷的帮助程序

RBD

  • diff-iterate 现在可以在本地执行,为 QEMU 实时磁盘同步和备份用例带来显著的性能改进。
  • 增加了对从非用户类型快照克隆的支持。
  • rbd-wnbd 驱动程序获得了多路复用镜像映射的能力。

RGW

  • 用户帐户功能解锁了几个新的兼容 AWS IAM 的 API,用于用户的自助管理、密钥、组、角色、策略等。

Crimson/Seastore

Ceph

  • ceph:一个新的 --daemon-output-file 开关可用于 ceph tell 命令,用于将输出转储到守护程序本地的文件中。对于产生大量输出的命令,这可以避免守护程序上内存使用量可能出现的峰值,允许更快地将数据流写入守护程序本地的文件,并减少执行命令所需锁的持有时间。为了进行分析,有必要手动从运行守护程序的主机检索文件。目前仅支持 --format=json|json-pretty

  • cls_cxx_gather 被标记为已弃用。

  • Tracing:blkin 追踪功能(请参阅 https://docs.ceph.net.cn/en/reef/dev/blkin/)现已弃用,取而代之的是 Opentracing(https://docs.ceph.net.cn/en/reef/dev/developer_guide/jaegertracing/),并将在更高版本中移除。

  • PG dump:ceph pg dump --format json 的默认输出已更改。在大型集群中,默认的 JSON 格式会产生相当庞大的输出且不可扩展,因此我们已从输出中删除了 'network_ping_times' 部分。详细信息请参阅 tracker:https://tracker.ceph.com/issues/57460

CephFS

  • CephFS:现在可以使用一套新的 subvolume quiesce 命令来暂停文件系统中某个树上的写入 I/O 和元数据修改。这旨在支持分布式应用程序的崩溃一致性快照。请参阅 CephFS 子卷文档中的相关部分以获取更多信息。

  • CephFS:MDS 会驱逐未推进其请求 tid 的客户端,这会导致大量的会话元数据堆积,从而导致 MDS 由于 RADOS 操作超过大小阈值而变为只读。mds_session_metadata_threshold 配置控制(编码的)会话元数据可以增长的最大大小。

  • CephFS:一个新的 "mds last-seen" 命令可用于查询 MDS 最后一次出现在 FSMap 中的时间,但受限于剪枝阈值。

  • CephFS:对于具有多个 CephFS 文件系统的集群,所有 snap-schedule 命令现在都期望使用 '--fs' 参数。

  • CephFS:周期说明符 m 现在表示分钟,周期说明符 M 现在表示月份。这与系统的其余部分保持一致。

  • CephFS:对现有实体运行 "ceph fs authorize" 命令现在会升级实体的功能,而不是打印错误。它现在还可以更改实体已经拥有的功能中的读/写权限。如果用户传递的功能与实体已拥有的功能之一相同,则保持幂等性。

  • CephFS:现在可以使用 "ceph fs swap" 命令交换两个 FS 名称,可以选择同时交换它们的 ID。此 API 的功能是促进灾难恢复的文件系统交换。特别是,它避免了命名文件系统暂时丢失的情况,这种情况会促使更高级别的存储操作员(如 Rook)重新创建丢失的文件系统。请参阅 https://docs.ceph.net.cn/en/latest/cephfs/administration/#file-systems 文档以获取更多信息。

  • CephFS:在运行 "ceph fs rename" 命令之前,要重命名的文件系统必须处于离线状态,并且必须为其设置配置 "refuse_client_session"。重命名操作完成后,可以移除/取消设置配置 "refuse_client_session",并且文件系统可以上线。

  • CephFS:禁止将预分配的 inode 范围委托给客户端。配置 mds_client_delegate_inos_pct 默认为 0,这会禁用 kclient 中的 async dirops。

  • CephFS:MDS 日志修剪现在由一个单独的线程驱动,该线程尝试每秒修剪日志(mds_log_trim_upkeep_interval 配置)。此外,还有几个配置控制 MDS 在修剪日志上花费的时间。这些配置是 mds_log_trim_thresholdmds_log_trim_decay_rate

  • CephFS:现已全面支持子卷和子卷组

  • CephFS:subvolume snapshot clone 命令现在依赖于配置选项 snapshot_clone_no_wait,当所有克隆线程都忙时,该选项用于拒绝克隆操作。此配置选项默认启用,这意味着如果没有空闲的克隆线程,克隆请求将因 EAGAIN 错误而失败。可以使用以下命令获取配置选项的值:ceph config get mgr mgr/volumes/snapshot_clone_no_wait,并且可以使用以下命令禁用它:ceph config set mgr mgr/volumes/snapshot_clone_no_wait false(针对 snap_schedule Manager 模块)。

  • CephFS:当某些 MDS 出现健康警告 MDS_TRIM 或 MDS_CACHE_OVERSIZED 时,命令 ceph mds failceph fs fail 现在需要一个确认标志。这是为了防止意外的 MDS 故障转移导致恢复进一步延迟。

  • CephFS:通过 cephx mds 功能在客户端凭证上启用的 root_squash 机制的实现修复需要一个新的客户端功能位 client_mds_auth_caps。使用带有 root_squash 但没有此功能的凭证的客户端将触发 MDS 提高集群上的 HEALTH_ERR(MDS_CLIENTS_BROKEN_ROOTSQUASH)。有关此警告和新功能位的更多信息,请参阅文档。

  • CephFS:扩展了对 cephfs 虚拟扩展属性的 removexattr 支持。以前必须使用 setxattr 来恢复默认值才能“删除”。您现在可以正确使用 removexattr 来删除。您现在也可以删除根 inode 上的布局,这将把布局恢复为默认布局。

  • CephFS:cephfs-journal-tool 受到保护,不能在在线文件系统上运行。'cephfs-journal-tool --rank <fs_name>:<mds_rank> journal reset' 和 'cephfs-journal-tool --rank <fs_name>:<mds_rank> journal reset --force' 命令需要 '--yes-i-really-really-mean-it'。

  • CephFS:"ceph fs clone status" 命令现在将打印有关克隆进度的统计信息,包括已克隆的数据量(以百分比和字节为单位)以及已克隆的文件数。

  • CephFS:"ceph status" 命令现在将在克隆正在进行时打印进度条。如果克隆作业多于克隆线程,它将打印另一个进度条,显示正在进行和待处理克隆的总进度。两个进度都伴随着消息,显示相应类别中的克隆作业数量以及每个克隆作业已完成的进度。

  • cephfs-shell:cephfs-shell 实用程序现已打包用于 RHEL 9 / CentOS 9,因为所需的 python 依赖项现已在 EPEL9 中可用。

  • CephFS 自动元数据负载(有时称为“默认”)平衡器现已默认禁用。新的文件系统标志 balance_automate 可用于切换其开启或关闭。它可以通过 ceph fs set <fs_name> balance_automate <bool> 启用或禁用。

CephX

  • cephx:现在可以使用 ceph auth rotate 进行密钥轮换。以前,只能通过删除然后重新创建密钥来实现。

Dashboard

  • Dashboard:重新排列的导航布局:导航布局已重新组织,以提高可用性并更容易访问关键功能。

  • Dashboard:CephFS 改进

    • 支持管理 CephFS 快照和克隆,以及快照调度管理

    • 管理 CephFS 资源的授权功能

    • 挂载 CephFS 卷的帮助程序

  • Dashboard:RGW 改进

    • 支持管理桶策略

    • 添加/删除桶标签

    • ACL 管理

    • 对桶表单的几项 UI/UX 改进

MGR

  • MGR/REST:REST manager 模块将根据 'max_requests' 选项修剪请求。如果没有此功能,并且在没有手动删除旧请求的情况下,请求在数组中的积累可能导致内存不足 (OOM) 问题,从而导致管理器崩溃。

  • MGR:现已提供 OpTracker,用于帮助调试 mgr 模块问题。

Monitoring

  • Monitoring:Grafana 仪表板现在是在运行时加载到容器中的,而不是通过 grafana 仪表板构建 grafana 镜像。官方 Ceph grafana 镜像可在 quay.io/ceph/grafana 中找到

  • Monitoring:RGW S3 分析:现在提供了一个新的 Grafana 仪表板,使您能够可视化每个桶和用户的分析数据,包括总 GETs、PUTs、Deletes、Copies 和列表指标。

  • mon_cluster_log_file_levelmon_cluster_log_to_syslog_level 选项已被移除。今后,用户应使用新的通用选项 mon_cluster_log_level 来控制集群日志文件的集群日志级别详细程度以及所有外部实体。

RADOS

  • RADOS:如果池未启用应用程序,无论池是否在使用中,现在都会报告 A POOL_APP_NOT_ENABLED 健康警告。始终使用 ceph osd pool application enable 命令为池标记应用程序,以避免报告该池的 POOL_APP_NOT_ENABLED 健康警告。用户可以使用 ceph health mute POOL_APP_NOT_ENABLED 暂时静音此警告。

  • RADOS:get_pool_is_selfmanaged_snaps_mode C++ API 已弃用,因为它容易产生误报结果。更安全的替代品是 pool_is_in_selfmanaged_snaps_mode

  • RADOS:对于 bug 62338 (https://tracker.ceph.com/issues/62338),我们没有选择将修复条件限制在服务器标志上,以简化向后移植。因此,在极少数情况下,在升级到带有修复的版本期间,PG 可能会在两个 acting sets 之间翻转。如果您观察到此行为,您应该能够通过完成升级或通过在所有 OSD 上将 osd_async_recovery_min_cost 设置为非常大的值来禁用异步恢复,直到升级完成:ceph config set osd osd_async_recovery_min_cost 1099511627776

  • RADOS:balancer 模块中现已提供 balancer status CLI 命令的详细版本。用户可以运行 ceph balancer status detail 来查看有关平衡器上次优化中更新了哪些 PG 的更多详细信息。请参阅 https://docs.ceph.net.cn/en/latest/rados/operations/balancer/ 以获取更多信息。

  • RADOS:现在可以通过 balancer manager 模块自动管理读取平衡。用户可以在两种新模式之间进行选择:upmap-read,它同时提供 upmap 和读取优化,或者 read,它可用于仅优化读取。有关更详细的信息,请参阅 https://docs.ceph.net.cn/en/latest/rados/operations/read-balancer/#online-optimization

  • RADOS:BlueStore 经过优化,在快照密集型工作负载中具有更好的性能。

  • RADOS:BlueStore RocksDB LZ4 压缩现已默认启用,以提高平均性能和“快速设备”空间利用率。

  • RADOS:一种新的 CRUSH 规则类型 MSR(Multi-Step Retry)允许更灵活的 EC 配置。

  • RADOS:Scrub 调度行为已得到改进。

Crimson/Seastore

RBD

  • RBD:在 fast-diff 模式下对起始时间进行差异比较时(fromsnapname == NULL),如果独占锁可用,则保证 diff-iterate 在本地执行(whole_object == true 且启用了 fast-diff 镜像功能且有效)。这为 QEMU 实时磁盘同步和备份用例带来了显著的性能改进。

  • RBD:rbd-nbd 的 try-netlink 映射选项已成为默认选项,现已弃用。如果内核不支持 NBD netlink 接口,则会使用旧版 ioctl 接口重试映射。

  • RBD:已将选项 --image-id 添加到 rbd children CLI 命令中,因此可以为回收站中的镜像运行该命令。

  • RBD:Image::access_timestampImage::modify_timestamp Python API 现在返回 UTC 时间戳。

  • RBD:增加了对从非用户类型快照克隆的支持。这主要用作从使用 rbd group snap create 命令创建的组快照克隆新组的构建块,但也可以通过 rbd clone 命令的新 --snap-id 选项进行公开。

  • RBD:rbd snap ls --all 命令的输出现在包括回收站中快照的原始类型。

  • RBD:RBD_IMAGE_OPTION_CLONE_FORMAT 选项已通过 clonedeep_copymigration_prepare 方法的 clone_format 可选参数在 Python 绑定中公开。

  • RBD:RBD_IMAGE_OPTION_FLATTEN 选项已通过 deep_copymigration_prepare 方法的 flatten 可选参数在 Python 绑定中公开。

  • RBD:rbd-wnbd 驱动程序获得了多路复用镜像映射的能力。以前,每个镜像映射都会派生自己的 rbd-wnbd 守护程序,这导致消耗过多的 TCP 会话和其他资源,最终超出 Windows 限制。通过此更改,每个主机只派生一个 rbd-wnbd 守护程序,并且大多数操作系统资源在镜像映射之间共享。此外,ceph-rbd 服务的启动速度更快。

RGW

  • RGW:GetObject 和 HeadObject 请求现在为复制的对象返回 x-rgw-replicated-at 标头。可以将此时间戳与 Last-Modified 标头进行比较,以确定对象复制所需的时间。

  • RGW:使用服务器端加密的 S3 分段上传现在在多站点中正确复制。以前,此类对象的副本在解密时会损坏。新的工具 radosgw-admin bucket resync encrypted multipart 可用于识别这些原始分段上传。任何已识别对象的 LastModified 时间戳都会增加 1ns,以导致对等区域再次复制它。对于使用服务器端加密的任何多站点部署,我们建议在所有区域升级后对每个区域中的每个桶运行此命令。

  • RGW:为与 S3 桶通知相关的 Topic 元数据引入了一种新的数据布局,其中每个 Topic 作为单独的 RADOS 对象存储,并且桶通知配置存储在桶属性中。这种新的表示形式通过元数据同步支持多站点复制,并且可以扩展到许多主题。新部署默认启用此功能,但升级时默认不启用。一旦所有 radosgw 都已升级(在多站点配置中的所有区域上),就可以启用 notification_v2 区域功能以迁移到新格式。请参阅 https://docs.ceph.net.cn/en/squid/radosgw/zone-features 获取详细信息。"v1" 格式现在被视为已弃用,并可能在 2 个主要版本后移除。

  • RGW:已向 radosgw-admin 添加了新工具,用于识别和纠正版本化桶索引中的问题。版本化桶索引事务工作流中的历史 bug 使索引可能积累多余的“簿记” olh 条目和纯占位符条目。在某些特定场景中,当客户端并发引用同一对象键时,很可能会积累大量额外的索引条目。当单个桶索引分片中存在大量此类条目时,它们可能导致桶列表延迟高和生命周期处理失败。为了检查版本化桶是否具有不必要的 olh 条目,用户现在可以运行 radosgw-admin bucket check olh。如果使用 --fix 标志,则将安全地移除额外的条目。与上述问题不同,也可能出现一些版本化桶保留了 S3/Swift API 无法列出的额外未链接对象。这些额外的对象通常是由于 PUT 请求异常退出(在桶索引事务中间)造成的,因此客户端不会收到成功的响应。先前版本中的 bug 使这些未链接对象很容易在对正在主动重新分片的桶进行的任何 PUT 请求中重现。除了这些隐藏的、未链接的对象占用的额外空间之外,在某些场景中可能还会产生另一个副作用,这是由产生它们的故障模式的性质引起的,即受此 bug 影响的桶的客户端可能会发现与键关联的对象处于不一致状态。为了检查版本化桶是否具有未链接条目,用户现在可以运行 radosgw-admin bucket check unlinked。如果使用 --fix 标志,则将安全地移除未链接的对象。最后,第三个问题使得版本化桶索引统计信息可能被错误地计算。用于重新计算版本化桶统计信息的工具也有一个 bug,以前无法修复这些不准确之处。此版本解决了这些问题,用户现在可以期望现有的 radosgw-admin bucket check 命令会产生正确的结果。我们建议具有版本化桶的用户,尤其是那些存在于先前版本上的桶,使用这些新工具来检查他们的桶是否受到影响并相应地清理它们。

  • RGW:用户帐户功能解锁了几个新的兼容 AWS IAM 的 API,用于用户的自助管理、密钥、组、角色、策略等。现有用户可以被采纳到新帐户中。此过程是可选的,但不可逆转。请参阅 https://docs.ceph.net.cn/en/squid/radosgw/accounthttps://docs.ceph.net.cn/en/squid/radosgw/iam 获取详细信息。

  • RGW:在启动时,radosgw 和 radosgw-admin 现在验证 rgw_realm 配置选项。以前,它们会忽略无效或缺失的 realm,并继续加载不同 realm 中的 zone/zonegroup。如果启动失败并出现“failed to load realm”错误,请修复或移除 rgw_realm 选项。

  • RGW:radosgw-admin 命令 realm createrealm pull 不再在没有 --default 的情况下设置默认 realm。

  • RGW:修复了 S3 Object Lock 中的一个 bug,该 bug 涉及指定 RetainUntilDate 在 2106 年之后的 PutObjectRetention 请求。此日期在存储时被截断为 32 位,因此使用了一个更早的日期进行对象锁定强制执行。这不影响 PutBucketObjectLockConfiguration,其中给出了以天为单位的持续时间。RetainUntilDate 编码已针对新的 PutObjectRetention 请求进行了修复,但无法修复现有对象锁的日期。此类对象可以通过基于 x-amz-object-lock-retain-until-date 响应标头的 HeadObject 请求来识别。

  • S3 Get/HeadObject 现在支持查询参数 partNumber 来读取已完成的分段上传的特定部分。

  • RGW:SNS CreateTopic API 现在强制执行与 AWS 相同的主题命名要求:主题名称必须仅由大小写 ASCII 字母、数字、下划线和连字符组成,且长度必须在 1 到 256 个字符之间。

  • RGW:通知主题现在归创建它们的用户所有。默认情况下,只有所有者可以读取/写入其主题。现在支持主题策略文档以授予其他用户这些权限。预先存在的主题被视为没有所有者,任何用户都可以使用 SNS API 读取/写入它们。如果使用 CreateTopic 重新创建此类主题,则发布用户将成为新所有者。为了向后兼容,所有用户仍然有权将桶通知发布到其他用户拥有的主题。可以启用新的配置参数 rgw_topic_require_publish_policy 以拒绝 sns:Publish 权限,除非主题策略明确授予。

  • RGW:修复了持久通知中的一个问题,即在持久通知排队时修改的主题参数更改将反映在通知中。因此,如果用户设置了配置不正确(密码/ssl)的主题,导致无法将通知传递给代理,现在可以修改不正确的主题属性,并在重试尝试传递通知时使用新配置。

  • RGW:在桶通知中,ownerIdentity 中的 principalId 现在包含完整的用户 ID,并带有租户 ID 前缀。

遥测

  • 遥测中的 basic 通道现在捕获池标志,这使我们能够更好地了解功能采用情况,例如 Crimson。要选择加入遥测,请运行 ceph telemetry on

从 Quincy 或 Reef 升级

在开始之前,请确保您的集群稳定且正常(没有关闭或恢复的 OSD)。(这是可选的,但建议这样做。)您可以使用 noautoscale 标志在升级期间禁用所有池的自动缩放器。

注意

您可以使用 ceph versions 命令在每个阶段监控升级进度,该命令将告诉您正在运行的 ceph 版本以及每种守护程序的版本。

升级 cephadm 集群

如果您的集群使用 cephadm 部署(首次在 Octopus 中引入),则升级过程完全自动化。要启动升级,

ceph orch upgrade start --image quay.io/ceph/ceph:v19.2.0

使用相同过程升级到未来的次要版本。

可以使用以下命令监控升级进度

ceph orch upgrade status

还可以使用 ceph -s(提供一个简单的进度条)或更详细地使用以下命令监控升级进度

ceph -W cephadm

可以使用以下命令暂停或恢复升级

ceph orch upgrade pause # 暂停 ceph orch upgrade resume # 恢复

或使用以下命令取消

ceph orch upgrade stop

请注意,取消升级只是停止该过程;无法降级回 Quincy 或 Reef。

升级非 cephadm 集群

注意

  1. 如果您的集群正在运行 Quincy (17.2.x) 或更高版本,您可以选择首先将其转换为使用 cephadm,以便自动升级到 Squid(请参阅上文)。有关更多信息,请参阅 https://docs.ceph.net.cn/en/squid/cephadm/adoption/

  2. 如果您的集群正在运行 Quincy (17.2.x) 或更高版本,systemd 单元文件名已更改为包含集群 fsid。要查找集群的正确 systemd 单元文件名,请运行以下命令

    systemctl -l | grep <daemon type>
    

    示例

    $ systemctl -l | grep mon | grep active
    ceph-6ce0347c-314a-11ee-9b52-000af7995d6c@mon.f28-h21-000-r630.service                                           loaded active running   Ceph mon.f28-h21-000-r630 for 6ce0347c-314a-11ee-9b52-000af7995d6c
    
  1. 在升级期间设置 noout 标志。(可选,但建议这样做。)

    ceph osd set noout
    
  2. 通过安装新软件包并重新启动 monitor 守护程序来升级 monitor。例如,在每个 monitor 主机上

    systemctl restart ceph-mon.target
    

    所有 monitor 启动后,通过在 mon map 中查找 squid 字符串来验证 monitor 升级是否完成。命令

    ceph mon dump | grep min_mon_release
    

    应报告

    min_mon_release 19 (squid)
    

    如果不是,则表示一个或多个 monitor 尚未升级和重新启动和/或 quorum 不包括所有 monitor。

  3. 通过安装新软件包并重新启动所有管理器守护程序来升级 ceph-mgr 守护程序。例如,在每个管理器主机上,

    systemctl restart ceph-mgr.target
    

    通过检查 ceph -s 验证 ceph-mgr 守护程序是否正在运行

    ceph -s
    
    ...
    services:
    mon: 3 daemons, quorum foo,bar,baz
    mgr: foo(active), standbys: bar, baz
    ...
    
  4. 通过安装新软件包并在所有 OSD 主机上重新启动 ceph-osd 守护程序来升级所有 OSD

    systemctl restart ceph-osd.target
    
  5. 升级所有 CephFS MDS 守护程序。对于每个 CephFS 文件系统,

    1. 禁用 standby_replay

      ceph fs set <fs_name> allow_standby_replay false
      
    2. 将 ranks 数量减少到 1。(如果您计划稍后恢复它,请先记下原始 MDS 守护程序数量。)

      ceph status # ceph fs set <fs_name> max_mds 1
      
    3. 定期检查状态,等待集群停用任何非零 ranks

      ceph status
      
    4. 使用以下命令在适当的主机上关闭所有 standby MDS 守护程序

      systemctl stop ceph-mds@<daemon_name>
      
    5. 确认只有一个 MDS 在线,并且它是您的 FS 的 rank 0

      ceph status
      
    6. 通过安装新软件包并重新启动守护程序来升级最后一个剩余的 MDS 守护程序

      systemctl restart ceph-mds.target
      
    7. 重新启动所有已关闭的 standby MDS 守护程序

      systemctl start ceph-mds.target
      
    8. 恢复卷的原始 max_mds

      ceph fs set <fs_name> max_mds <original_max_mds>
      
  6. 通过升级软件包并在所有主机上重新启动守护程序来升级所有 radosgw 守护程序

    systemctl restart ceph-radosgw.target
    
  7. 通过禁止 pre-Squid OSD 并启用所有新的仅限 Squid 的功能来完成升级

    ceph osd require-osd-release squid
    
  8. 如果您在开始时设置了 noout,请务必使用以下命令清除它

    ceph osd unset noout
    
  9. 考虑将您的集群转换为使用 cephadm 部署和编排框架,以简化集群管理和未来的升级。有关将现有集群转换为 cephadm 的更多信息,请参阅 https://docs.ceph.net.cn/en/squid/cephadm/adoption/

升级后

  1. 使用 ceph health 验证集群是否健康。如果您的集群正在运行 Filestore,并且您正在从 Quincy 直接升级到 Squid,则会出现弃用警告。可以使用以下命令暂时静音此警告

    ceph health mute OSD_FILESTORE
    
  2. 考虑启用 遥测模块以将匿名使用统计信息和崩溃信息发送给 Ceph 上游开发人员。要查看将报告的内容(而无需实际向任何人发送任何信息),

    ceph telemetry preview-all
    

    如果您对报告的数据感到满意,可以使用以下命令选择自动报告高级集群元数据

    ceph telemetry on
    

    可以在 https://telemetry-public.ceph.com/ 找到聚合 Ceph 遥测的公共仪表板。

从 Quincy 之前的版本(例如 Pacific)升级

必须先升级到 Quincy (17.2.z)Reef (18.2.z),然后才能升级到 Squid。

感谢我们的贡献者

我们向 Ceph 社区的所有成员表示感谢,他们通过提出 pull 请求、测试此版本、提供反馈和提出宝贵建议来做出贡献。

如果您有兴趣帮助测试下一个版本 Tentacle,请加入 #ceph-at-scale Slack 频道。

Squid 版本的发布离不开社区的贡献

Aashish Sharma ▪ Abhishek Lekshmanan ▪ Adam C. Emerson ▪ Adam King ▪ Adam Kupczyk ▪ Afreen Misbah ▪ Aishwarya Mathuria ▪ Alexander Indenbaum ▪ Alexander Mikhalitsyn ▪ Alexander Proschek ▪ Alex Wojno ▪ Aliaksei Makarau ▪ Alice Zhao ▪ Ali Maredia ▪ Ali Masarwa ▪ Alvin Owyong ▪ Andreas Schwab ▪ Ankush Behl ▪ Anoop C S ▪ Anthony D Atri ▪ Anton Turetckii ▪ Aravind Ramesh ▪ Arjun Sharma ▪ Arun Kumar Mohan ▪ Athos Ribeiro ▪ Avan Thakkar ▪ barakda ▪ Bernard Landon ▪ Bill Scales ▪ Brad Hubbard ▪ caisan ▪ Casey Bodley ▪ chentao.2022 ▪ Chen Xu Qiang ▪ Chen Yuanrun ▪ Christian Rohmann ▪ Christian Theune ▪ Christopher Hoffman ▪ Christoph Grüninger ▪ Chunmei Liu ▪ cloudbehl ▪ Cole Mitchell ▪ Conrad Hoffmann ▪ Cory Snyder ▪ cuiming_yewu ▪ Cyril Duval ▪ daegon.yang ▪ daijufang ▪ Daniel Clavijo Coca ▪ Daniel Gryniewicz ▪ Daniel Parkes ▪ Daniel Persson ▪ Dan Mick ▪ Dan van der Ster ▪ David.Hall ▪ Deepika Upadhyay ▪ Dhairya Parmar ▪ Didier Gazen ▪ Dillon Amburgey ▪ Divyansh Kamboj ▪ Dmitry Kvashnin ▪ Dnyaneshwari ▪ Dongsheng Yang ▪ Doug Whitfield ▪ dpandit ▪ Eduardo Roldan ▪ ericqzhao ▪ Ernesto Puerta ▪ ethanwu ▪ Feng Hualong ▪ Florent Carli ▪ Florian Weimer ▪ Francesco Pantano ▪ Frank Filz ▪ Gabriel Adrian Samfira ▪ Gabriel BenHanokh ▪ Gal Salomon ▪ Gilad Sid ▪ Gil Bregman ▪ gitkenan ▪ Gregory O'Neill ▪ Guido Santella ▪ Guillaume Abrioux ▪ gukaifeng ▪ haoyixing ▪ hejindong ▪ Himura Kazuto ▪ hosomn ▪ hualong feng ▪ HuangWei ▪ igomon ▪ Igor Fedotov ▪ Ilsoo Byun ▪ Ilya Dryomov ▪ imtzw ▪ Ionut Balutoiu ▪ ivan ▪ Ivo Almeida ▪ Jaanus Torp ▪ jagombar ▪ Jakob Haufe ▪ James Lakin ▪ Jane Zhu ▪ Javier ▪ Jayanth Reddy ▪ J. Eric Ivancich ▪ Jiffin Tony Thottan ▪ Jimyeong Lee ▪ Jinkyu Yi ▪ John Mulligan ▪ Jos Collin ▪ Jose J Palacios-Perez ▪ Josh Durgin ▪ Josh Salomon ▪ Josh Soref ▪ Joshua Baergen ▪ jrchyang ▪ Juan Miguel Olmo Martínez ▪ junxiang Mu ▪ Justin Caratzas ▪ Kalpesh Pandya ▪ Kamoltat Sirivadhna ▪ kchheda3 ▪ Kefu Chai ▪ Ken Dreyer ▪ Kim Minjong ▪ Konstantin Monakhov ▪ Konstantin Shalygin ▪ Kotresh Hiremath Ravishankar ▪ Kritik Sachdeva ▪ Laura Flores ▪ Lei Cao ▪ Leonid Usov ▪ lichaochao ▪ lightmelodies ▪ limingze ▪ liubingrun ▪ LiuBingrun ▪ liuhong ▪ Liu Miaomiao ▪ liuqinfei ▪ Lorenz Bausch ▪ Lucian Petrut ▪ Luis Domingues ▪ Luís Henriques ▪ luo rixin ▪ Manish M Yathnalli ▪ Marcio Roberto Starke ▪ Marc Singer ▪ Marcus Watts ▪ Mark Kogan ▪ Mark Nelson ▪ Matan Breizman ▪ Mathew Utter ▪ Matt Benjamin ▪ Matthew Booth ▪ Matthew Vernon ▪ mengxiangrui ▪ Mer Xuanyi ▪ Michaela Lang ▪ Michael Fritch ▪ Michael J. Kidd ▪ Michael Schmaltz ▪ Michal Nasiadka ▪ Mike Perez ▪ Milind Changire ▪ Mindy Preston ▪ Mingyuan Liang ▪ Mitsumasa KONDO ▪ Mohamed Awnallah ▪ Mohan Sharma ▪ Mohit Agrawal ▪ molpako ▪ Mouratidis Theofilos ▪ Mykola Golub ▪ Myoungwon Oh ▪ Naman Munet ▪ Neeraj Pratap Singh ▪ Neha Ojha ▪ Nico Wang ▪ Niklas Hambüchen ▪ Nithya Balachandran ▪ Nitzan Mordechai ▪ Nizamudeen A ▪ Nobuto Murata ▪ Oguzhan Ozmen ▪ Omri Zeneva ▪ Or Friedmann ▪ Orit Wasserman ▪ Or Ozeri ▪ Parth Arora ▪ Patrick Donnelly ▪ Patty8122 ▪ Paul Cuzner ▪ Paulo E. Castro ▪ Paul Reece ▪ PC-Admin ▪ Pedro Gonzalez Gomez ▪ Pere Diaz Bou ▪ Pete Zaitcev ▪ Philip de Nier ▪ Philipp Hufnagl ▪ Pierre Riteau ▪ pilem94 ▪ Pinghao Wu ▪ Piotr Parczewski ▪ Ponnuvel Palaniyappan ▪ Prasanna Kumar Kalever ▪ Prashant D ▪ Pritha Srivastava ▪ QinWei ▪ qn2060 ▪ Radoslaw Zarzynski ▪ Raimund Sacherer ▪ Ramana Raja ▪ Redouane Kachach ▪ RickyMaRui ▪ Rishabh Dave ▪ rkhudov ▪ Ronen Friedman ▪ Rongqi Sun ▪ Roy Sahar ▪ Sachin Punadikar ▪ Sage Weil ▪ Sainithin Artham ▪ sajibreadd ▪ Samarah ▪ Samarah ▪ Samuel Just ▪ Sascha Lucas ▪ sayantani11 ▪ Seena Fallah ▪ Shachar Sharon ▪ Shilpa Jagannath ▪ shimin ▪ ShimTanny ▪ Shreyansh Sancheti ▪ sinashan ▪ Soumya Koduri ▪ sp98 ▪ spdfnet ▪ Sridhar Seshasayee ▪ Sungmin Lee ▪ sunlan ▪ Super User ▪ Suyashd999 ▪ Suyash Dongre ▪ Taha Jahangir ▪ tanchangzhi ▪ Teng Jie ▪ tengjie5 ▪ Teoman Onay ▪ tgfree ▪ Theofilos Mouratidis ▪ Thiago Arrais ▪ Thomas Lamprecht ▪ Tim Serong ▪ Tobias Urdin ▪ tobydarling ▪ Tom Coldrick ▪ TomNewChao ▪ Tongliang Deng ▪ tridao ▪ Vallari Agrawal ▪ Vedansh Bhartia ▪ Venky Shankar ▪ Ville Ojamo ▪ Volker Theile ▪ wanglinke ▪ wangwenjuan ▪ wanwencong ▪ Wei Wang ▪ weixinwei ▪ Xavi Hernandez ▪ Xinyu Huang ▪ Xiubo Li ▪ Xuehan Xu ▪ XueYu Bai ▪ xuxuehan ▪ Yaarit Hatuka ▪ Yantao xue ▪ Yehuda Sadeh ▪ Yingxin Cheng ▪ yite gu ▪ Yonatan Zaken ▪ Yongseok Oh ▪ Yuri Weinstein ▪ Yuval Lifshitz ▪ yu.wang ▪ Zac Dover ▪ Zack Cerza ▪ zhangjianwei ▪ Zhang Song ▪ Zhansong Gao ▪ Zhelong Zhao ▪ Zhipeng Li ▪ Zhiwei Huang ▪ 叶海丰 ▪ 胡玮文