比较维度 | Glusterfs | Moosefs | Lustre | Ceph |
成熟度 | 2005年发布第一个GA版1.2.3,2013年GA版3.3.2,具有成熟的系统架构和完整的工程代码 | 2008年发布第一个开源版本v1.5,13年发布GA版v1.6.27,稳定,比较成熟的开源DFS | 2003发布第一个版本lustre1.0,2013年发布v2.4.0,相当成熟,在HPC领域占有绝大比例 | 2013年发布v0.71,并已添加到linux kernel中作实验内核,目前不成熟有较多bug,更新稳定都是实验版 |
稳定性 | 较稳定,无重大bug,已有较多组织或机构应用于生产环境 | 较稳定,无重大bug | 很稳定,在HPC领域应用很多 | 核心组件RADOS较稳定,每3个月更新一次稳定版,有部分企业用于生产环境 |
复杂度 | 简单,无元数据服务,用户空间实现,架构清晰,xlator树形结构 | 简单,用户空间实现,代码规模较小,高度模块化 | 复杂度较高,依赖内核实现 | 较复杂,c++实现,功能较多 |
高性能 | 解除元数据瓶颈,并行化数据访问 | 元数据单点瓶颈 | 高性能,HPC领域表现卓越 | 数据分布均衡,并行化度高 |
扩展性 | 弹性hash代替元数据服务,线性扩展,可轻松扩展到数百PB量级,支持动态扩容 | 可增加存储server,不能增加MDS | 高扩展性,容量可达数百PB,可在不打断任何操作的情况下,通过增加新的OSS来实现动态扩展 | 高扩展性,支持10-1000台server,支持TB到PB的扩展,当组件发生变化时(添加或删除),自动进行数据的重分布 |
可用性 | 多元数据服务设计,数据分布提供三种方式的分割:AFR、DHT、stripe,支持自动复制和自动修复 | 元数据+日志服务器,保障元数据server,运行时元数据放内存,可设置副本 | 元数据集群,可部署主备切换工作方式,无副本设计,OSS之间可利用共享存储实现自动故障恢复 | 元数据集群,没有单点故障,多数据副本,自动管理、自动修复,monitor监控集群中所有节点状态,且可有多个monitor保证可靠性 |
可管理性 | 部署简单,易于管理和维护,使用底层FS,ext3/zfs,客户端负载增加;提供管理工具,如卷的扩容、数据LB、目录配额及相关监控等 | 部署简单,提供web gui监控界面,元数据恢复,文件恢复,回收站功能,快照 | 部署复杂,需升级kernel等,提供管理工具,如设置目录stripe | 部署较复杂,提供工具对集群进行监控管理,包括集群状态,各组件状态等 |
研发成本 | 用户空间实现,模块化堆栈式架构 | 用户空间实现,小规模 | 高,内核空间实现,且代码规模大 | 较高,代码规模大,功能多 |
适用性 | 适用以文件为对象的存储体系,适合大文件存储 | 小规模集群,元数据瓶颈,内存消耗大 | 大文件,HPC领域 | |
NAS兼容 | 支持NFS、CIFS、HTTP、FTP、gluster原生协议,与POSIX标准兼容 | 支持CIFS、NFS,支持标准POSIX接口 | 支持CIFS、NFS,支持标准POSIX接口 | 支持CIFS、NFS,支持标准POSIX接口 |
采用指数 | ☆☆☆☆ | ☆☆☆ | ☆☆☆ | ☆☆ |