SSD优化最佳实践——IDF2013技术抢先看
ChinaByte比特网 4月10日 - 在“Xeon+SSD+Lustre:IDF2013企业存储之旅预览”一文中,我已经提到了SSD仍是今年Intel在企业计算领域发力的重点之一。本文的介绍和讨论将围绕技术课程《利用英特尔固态硬盘加速云计算》的内容展开。
利用英特尔固态硬盘加速云计算.pdf | 点击下载 |
在SAS RAID和HBA卡层面对SSD驱动器的优化,相信许多国内用户都已经不陌生了。我们在深度评测《Adaptec maxCache测试:SSD缓存加速验证篇》中也写过相关的东西。FastPath是LSI 6Gb/s SAS RAID卡(12Gb/s产品想必也会带)Firmware上可通过License打开的一个选项。
此外,上面还给出了条带大小的建议、关闭读缓存(即使用Direct IO)、应用层IO对列深度/线程建议等。
通过这个柱状图,在Linux系统中优化I/O配置能够充分发挥出SSD的性能。比如Intel SSD 910 MLC 800GB默认状态下4KB随机读IOPS只有150,000,优化之后的Deadline则超过了200,000。
上面的图表为4个Intel SSD DC S3700使用LSI-9271-8i RAID卡分别做RAID 0/5的随机读写性能曲线,左边小数据块的参考价值大一些。与HDD最大的区别是,SSD的写入性能通常要明显低于读取性能,这在RAID 5随机写方面显得比较突出。我们以前做过的SSD 710 RAID 1测试成绩也提供给大家作为参考。
随着闪存在企业存储应用中的增加,内存数据库反而被人们更多地提及了,因为闪存可以作为DRAM容量的补充并具备非易失性(永久性存储)。不只是Intel,Fusion-io等厂商也在该领域下了不少功夫。上图中给出了一个Oracle TimesTen的SSD推荐配置,官方提供的性能测试数值在这里就不列出了。据了解,在SAP HANA内存计算系统中也有PCIe闪存卡的应用,因为它们可以兼顾性能、容量、数据的可用性和一致性。
我们看到了Intel CAS缓存加速软件(Cache Acceleration Software)的原理图。这里非易失性的闪存被用于L2读缓存——针对较热读取数据,而DRAM系统内存则用于L1读缓存——针对最热的读取。因此称为多层读缓存。
上图为SSD在提升Hadoop混合工作负载集群性能上的贡献。我们看到相对于传统机械硬盘,Intel CAS闪存缓存方案性能提升了31%,而纯SSD配置则进一步提升到51%。虽然后者性能是前者的1.5倍,但CAS的性价比显然会更好。
这里补充一点,用闪存来提高Hadoop(应该主要是HDFS文件系统)的性能,我们在上个月的2013 LSI亚太存储论坛上也看到过相关演示。