Skip to content

Latest commit

 

History

History
82 lines (59 loc) · 3.14 KB

app-best-practices.rst

File metadata and controls

82 lines (59 loc) · 3.14 KB

分布式文件系统之上的应用程序最佳实践

CephFS 与 POSIX 标准兼容的、所以它应该适用于使用 POSIX 文件系统的任意应用程序。然而, 由于它是一个网络文件系统(不像诸如 XFS 的) 并且是强一致性的(不像诸如 NFS 的),所以, 应用程序作者了解一下某些后果是有好处的。

下面几节描述了分布式文件系统与本地文件系统在性能表现上有明显差异的一些地方。

ls -l

当你运行 ls -l 命令时, ls 程序会先罗列目录、 然后对其内每一个文件调用一次 stat

这通常远超一个应用程序的真实需求,而且在大目录上会很慢。 如果你不是真的需要各文件的所有此类元数据,那就只用一个 ls 吧。

文件的 ls/stat 操作扩展了

如果另一个客户端当时正在要罗列的目录里扩充文件, 那么 ls -l 就需要特别长的时间才能完成, 因为罗列器必须等着写入器刷回数据之后, 它才能合法地读取每个文件的尺寸。所以, 除非你 特别想 知道目录里每个文件的确切尺寸,否则别做这种操作。

另一个节点在向文件追加时,这种问题同样适用于任何直接发出 stat 系统调用的应用程序代码。

巨型目录

你真的需要有 10,000,000 个文件的目录? 即便目录分片技术能让 CephFS 处理它, 和拆分成中等规模的很多目录相比,它总是低效的。

操作很大的目录时,即使是标准的用户空间工具也会变得很慢。 例如, ls 的默认行为是给出按字母顺序排列好的结果, 但是 readdir 系统调用给出的可不是排序好的结果 (一般来说是这样的,不止是 CephFS )。 所以,当你 ls 一个有百万个文件的目录时, 它得把一百万个名字的列表加载进内存、排序列表、然后写出到显示器。

硬链接

硬链接在内部管理上有个固有代价, 一个文件系统必须维护同一份数据的两个引用。 在 CephFS 文件系统中有特殊的性能代价, 因为普通文件的 inode 是嵌入在目录里的 (也就是,查找到路径后不会额外读取其它 inode )。

工作集的尺寸

MDS 是作为 RADOS 里面元数据的缓存运作的。 工作载荷的元数据是否能装进缓存对元数据的性能影响非常大。

如果你的工作载荷文件太多,未必能全部装进缓存(用 mds_cache_memory_limit 选项配置), 那么确保你测试得没问题:不要用少量文件测试完系统, 就期望文件数巨大时也有差不多的性能。

你真的需要文件系统么?

记着, Ceph 还有对象存储接口。如果你的应用程序需要存储海量扁平文件, 而且都是一次读写整个文件,那么你可能更适合用 :ref:`对象网关 <object-gateway>`