DOIT|以武会友,闪存时刻:与浪潮“叶问”畅谈切磋

7月29日 , 2020全球闪存峰会晚20:00 , 《百易堂?闪存时刻》准时开播 。 百易数智研究院负责人宋家雨继续担任节目主持人 , 浪潮存储产品线资深架构师叶毓睿应邀做客 。
DOIT|以武会友,闪存时刻:与浪潮“叶问”畅谈切磋
文章图片
没有更多寒暄 , 节目直接进入刀光剑影般的主题:
剑指性能/容量兼顾 , 叶大师见招拆招
针对智算中心新存储设计 , 浪潮提出从七个方面进行极致设计 , 分别是极简架构、极致安全、极致稳定、极致容量、极致性能、极致云化和极易管理 , 通过一套软件栈 , 实现一个存储平台支持一个数据中心 。 话题由此展开 。
宋家雨:七个极致中设计比较难的性能、容量同时兼顾 , 鱼和熊掌兼得 , 如何才能够做到?
叶毓睿:极致性能、极致容量是存储系统设计的两大块 , 能不能很好的统一起来 , 我相信这是未来一个长期的发展目标 , 背后原因也很简单 , 一是在于数据迅猛增长 , 同时面临各种各样的应用 , 如多云、多元的数据的形态 , 由此带来运维、管理的巨大挑战 。
站在用户的角度 , 即便今天可能没有意识到 , 但是到未来的某个时刻 , 管理工作量、管理复杂度 , 会呈现10倍速增长 , 届时就会意识到简单、易用、灵活、扩展的重要性 。 在这个过程中 , 特定业务场景还需要保持高性能 , 同时又要满足海量数据存放的需要 , 我相信这样的设计会提上日程 。
从当下来看 , 浪潮存储主要还是分成两大块 。 就是我们说的一个数据中心 , 有两套存储平台 , 用集中式存储去响应用户在性能上的挑战 。 比如说更高的IOPS、更低的延时 。 这部分也体现在最近这几个月的SPC-1测试成绩 , 浪潮破了世界记录 , 比如说包含在16个控制器里面 , 我们做到全球第一 , 能够做到752万IOPS , 而且时延小于0.5毫秒 。 在8控制器的存储 , 浪潮做到了300多万IOPS , 延时也非常低 。
所以我们用集中式存储去响应到对极致性能的需求 。
针对极致容量 , 也就是海量非结构化数据 , 浪潮使用分布式存储AS13000系列 , 能够提供几十PB , 甚至上千PB的容量支撑 , 完成用户对存储容量的需求 。
宋家雨:SPC-1测试 , 有没有一些故事能分享一下?此次测试 , 有没有用到NVMeSSD这样的技术?有没有采用SCM , 如Optane速技术?
叶毓睿:SPC-1我也简单介绍一下 , 它是以IOPS作为标测值的一个权威评测 。 老实说 , 在我没有深入了解SPC-1的时候 , 我也以为可能就是70%/30%读写 , 4K/8K数据小IO的测试 。 但是经过深入分析以后 , 我发现并不是 。
SPC-1测试实际上是一个科学的 , 而且又很复杂IO模型负载组合 , 实际可以分成几种不同负载 , 如ASU1、ASU2、ASU3 , 分别对应不同的应用场景 , 可以是数据库业务类型,也可以是高带宽持续写入 , 把这些场景综合加以考量 , 这对存储是一个很大挑战 。
性能之外 , 对可靠性、持久性等也会有严格限定 。 比如在测SPC-1时候 , 我们采用全闪存阵列 , 会由内存来作为控制器缓存 , 如果没有一个科学测试的方法 , 访问压力实际在控制器的缓存上 , 如此会造成IOPS的虚高 。 另外还有一种考量 , 就是在全闪存SSD的介质上 , 有一个反复擦写的过程 , 如此测出来的IOPS , 才能更接近于实际应用 , 也是用户希望看到的测试结果 。
在SPC-1中 , 根据存储系统的配置 , 如16控制器的产品 , 需要长达8个小时不停的压测 , 而这样的一个压测的数据的写入 , 会使得全闪存阵列SSD介质至少完完全全写入两遍以上 , 这样就可以排除结果虚高的问题 。
我认为SPC-1所测出来的性能 , 能够贴近于用户的真实场景 。
我们此次参测的产品是集中式存储AS5600、AS5500 , 目前还没有用到最新的SCM存储介质 , 如OptaneMemory , 也就是AEP 。 如果能够把这样的一些新介质使用进去的话 , 有可能我们还能再破世界记录 , 同样的也没有使用NVMeSSD这样的技术 。


推荐阅读