首页 > ceph nautilus相对于minic的主要改动

ceph nautilus相对于minic的主要改动

改动信息 详情可以查看ceph官网nautilus

Dashboard功能
增加的新功能
  • 支持多用户
  • 使用SSO的用户验证模式
  • 支持审计模式
  • 新的登录页,可以展示更多的集群健康指标
  • 使用swagger api的rest api文档
增加的新的管理特性
  • 对于OSD的管理(将osd标记为down,out,修改osd的config ,恢复配置文件)
  • 可以对集群配置(ceph.conf)进行编辑
  • 资源池的管理(创建/修改/删除)
  • ECP(开源云计算平台)的管理
  • rbd镜像的配置
  • 针对ceph指标的服务器Embedded Grafana可视化显示
  • crush map的查看器
  • NFS Ganesha 管理
  • iscsi链接管理
  • rbd服务质量(qos)的配置
  • mgr模块配置
  • Prometheus(用于为监控平台服务的软件) alert管理

    关于ceph dashboard已经被独立分割为单独的包,叫做ceph-mgr-dashboard
RADOS
  • 现在每个资源池的pg数量可以随意减少,并且集群可以根据集群利用率或者管理员自己去调整集群pg数量
  • 新的msgr2协议并支持线路加密
  • osd和mon消耗的物理存储设备现在可以由集群(SMART)跟踪健康指标,集群可以通过预先训练的预测模型或基于云的预测来对未来可能消耗的hdd或者ssd进行告警
  • ceph可以通过ceph osd numa-status命令很容易得监控到numa()节点,并且通过配置via来对numa阶段osd配置进行更改

    NUMA(非一致内存访问,Non-Uniform Memory Access) 技术将多个 CPU 划分为不同的 NUMA 节点,在物理分布上,每个 NUMA 节点的处理器和内存块的物理距离更小,访问它自己的本地内存比非本地内存的速度更快。对于进程来说如果让其运行在已经分配内存的 NUMA 节点上,那么其访问效率可以最大化

    使用如下子命令可以进行numa节点配置

    osd_numa_node: 用于手动绑定 OSD 和 NUMA 节点

    osd_numa_auto_affinity: 如果网络和存储在同一 NUMA 节点上会自动设置 affinity

    osd_numa_prefer_iface: OSD 选择 IP 时会尽量选同一 NUMA 节点上的

    ceph osd numa-status 命令显示所有 OSD 的 NUMA 信息

  • 使用bluetore osd的时候空间利用率的计算会结合当前对象数据,omap数据,核心元数据在资源池中压缩器和压缩后的大小进行计算
  • 在backfill和recovery的时候osd可以更有效地筛选出最重要的pg并优先其处理
  • 在设备出现问题之后,像recovery这种长时间在台运行的pg状态现在可以由ceph status命令查看进度
  • 添加了实验性的Coupled-Layer “Clay” erasure code插件,可以有效减少大多数recovery操作所需要的io带宽
RGW
  • 在S3生命周期可以在缓存pool和数据pool之间进行转换
  • Beast取代了civetweb成为默认的网络前端,对整体性能有提高
  • 一个新的支持发布/订阅功能的基础架构,该架构允许rgw将事件无偿提供给无服务框架,像kafka或者数据管道knative
  • 新增一系列身份验证功能,使用OAuth2和OpenID :: connect的STS联合以及OPA(开放策略代理)身份验证委派原型
  • 新的归档合并功能,可以在一个单独的区域内保留所有的对象(其中包括历史对象)
CephFs
  • MDS的稳定性已经得到了巨大的改善,尤其是针对于ram的大型缓存以及长期运行的客户端。缓存功能的回收以及客户端功能的回调可以有效防止MDS的过载。
  • 通过ROOK管理环境中的NFS-Ganesha集群可以导出cephfs,这种方式的ceph集群管理可以保证高可用性以及扩展性。该功能的演示如下introduction关于该功能更多的自动化特性将会在将来N版本的小版本中合入
  • MDS的部分配置mds_standby_for_*mon_force_standby_activemds_standby_replay配置已经过时了,并且由allow_standby_replay对cephfs的文件系统设置新的标记。此设置会让文件系统由等待状态变为等待回应状态,并且该设置在任何可用序列中都会生效。
  • MDS支持客户端释放缓存的同时释放自己的存储端缓存,这个过程可由命令MDS 套接字命令cache drop来完成
  • 能够支持查看在MDS中正在进行的srcub进度,此外,可以终止或暂停正在运行的scrub。查看the scrub documentation来了解详细信息。
  • 支持使用ceph volume接口来为via创建新的volume空间
  • 支持使用一个cephfs脚本工具在不用挂载文件系统的前提下进行文件系统的配置
  • 在命令ceph status中关于Cephfs的相关输出已经重新格式化,更加简洁,清晰和有用
  • 信息量较少的IO被重新改造。该修改主要体现在客户端使用新的标记CEPH_O_LAZY来打开文件或者通过via的配置选项client_force_lazyio
  • cephfs现在可以通过ceph fs fail命令将文件系统设置为down,从而不接受数据。可以通过the administration page来擦看详细信息
RBD
  • rbd镜像可以在最小的集群down时间内进行迁移,由资源池迁移到新的布局中
  • 新的命令rbd perf image iotoprbd perf image iostat命令可以对所有的镜像提供像iostatiotop一样的监控管理
  • ceph-mgr组件为普罗米修斯告警平台为所有rbd镜像导入io moniter
  • 在一个资源池内为不同的rbd镜像分割出对应的用户组空间

更多相关:

  • 现在制作个人网页越来越流行,你会发现很多设计师、媒体人、职场人都建立了自己的网站,用来积累粉丝、展示作品、或者找工作。那么不懂技术知识、也没有太多资金的学生,可以建立自己的网站吗?当然也是可以的!其实个人网站建立的原理都差不多,不懂技术的情况下,可以使用自助建站系统,快速生成个人网站。个人网页制作教程如下:进入「上线了」官网,注册账号...

  • 在plugin.config中添加 stats_over_http.so 然后重启服务器,在浏览器中输入下面的地址查询 http://host:port/_stats 这里host是ATS所在的hostname或是ip,port就是侦听http连接的端口,按照配置我这里分别是10.10.110.162和8081 http:/...

  • 1.Proteus中添加组件后双击引脚可以快速生成一个最近的端口。 2.按A调出设置界面 3.在String中写:net=H#,"H"可以换成自定义前缀。count为起始值,increment为增量。 4.依次点击想要编号的引脚。 转载于:https://www.cnblogs.com/viaduct/p/5842429.html...

  • 1.Goto Anything-快速查找(ctrl + P)   输入@+函数名可以快速找到函数输入#+文本可以快速进行文件内文本匹配2.命令模式Ctrl+Shift+P:打开命令面板    Ctrl+P:搜索项目中的文件   Ctrl+W:关闭当前打开文件  Ctrl+Shift+W:关闭所有打开文件 Ctrl+Shift+V:粘贴...

  • 文章目录1. 解决问题2. 应用场景3. 实现方式C++实现C语言实现4. 缺点5. 和其他三种创建模式的对比(单例,工厂,建造者) 1. 解决问题 如果对象的创建成本较大,而同一个类的不同对象之间的差别不大(大部分字段相同),在这种情况下,我们可以利用已有对象(原型)进行赋值(拷贝)的方式,创建新的对象,从而达到节省对象创...

  • 混合osd的部署 先部署所有的ssd 在/etc/ceph.conf中最后添加ssd做osd的block大小如下: 比如部署中有两个ssd,则添加 [osd.0] bluestore_block_size = xxxx [osd.1] bluestore_block_size = xxx 如上的size大小计算如下,如ssd容量...

  • 文章目录Pool创建ec pool创建副本pool创建Pool参数创建根故障域及添加osd其他命令Tier相关 Pool创建 ec pool创建 创建profile ceph osd erasure-code-profile set $profile_name k=$k m=$m crush-failure-domain...

  • 文章目录简介使用OSD相关操作PG相关操作对象相关操作总结 简介 ceph-objectstore-tool工具,能够操作到ceph最底层的数据,包括pg,对象层级。它能够对底层pg以及对象相关数据进行获取、修改。并能够对一些问题pg和对象进行简单修复。所以使用该工具进行操作的时候需要谨慎(涉及到修改的操作最好备份一份数据)...

  • 文章目录ceph版本:环境配置:异常问题:问题解决:总结 ceph版本: ceph 12.2.1 环境配置: tier_pool 16个分区大小800G 的osd容量 3副本 data_pool 32个4T盘 3副本 异常问题: ps:在分布式存储中遇到任何问题都不要先去通过重设存储节点,清除磁盘数据来解决,一定要...

  • 本文主要是在梳理cephfs内核方式挂载的内核代码逻辑所做的准备 环境:Centos 7.5 内核源码版本:3.10.0-862.el7.x86_64 打开ceph模块的debug信息 单独编译ceph模块的.ko文件 ceph在内核的通用模块主要有三个: ceph.ko 模块路径:/usr/src/kernels/3.10....

  • 文章目录安装使用使用`ceph tell`产生堆栈信息文使用`pprof`工具分析内存及`ceph tell`释放内存火焰图`FlameGraph`可视化进程堆栈信息 pprof是一个google开发的支持可视化、且可分析profile文件而达到对内存的分析。并且能够输出文本和图像来支持分析过程,pprof源码 安装...

  • 目前有两种动态修改的方式来让ceph中各个组件的配置生效,所以介绍如下两种方式方便我们进行功能或者代码的调试 使用ceph daemon方式修改 ceph daemon osd.0 help用于osd的daemon服务ceph daemon mon.ceph-node1 help用于mon的admin socket命令、ceph...

  • 我们内核挂载的前提是:看到centos7.5 中默认内核3.10.0-862.11.6.el7.x86_64的挂载fs执行文件读写性能更优良,所以尝试将3.10.0-862.11.6.el7.x86_64模块中与ceph fs挂载相关的ceph.ko,libceph.ko,dns_resolver.ko,libcrc32c.ko拷贝...