ZFS 100TB硬件设置

我们收到了以下服务器设置的报价:

> Intel Xeon E5-2609V2
> 2 x WD RE 2TB SATA III
> 34 x WD RE 4TB SAS II
> 32 GB内存(ECC)
> LSI MegaRAID 9271-8i批量,8 x SATA III / SAS II内部硬件RAID
> LSI CacheVault voor 9266-9271系列

我们想(直接)将JBOD添加到该服务器,一半装满8TB驱动器,我们可以稍后延长.他们建议:

> LSI MegaRAID 9380-8e
> 22 x HGST Ultrastar 8TB He8企业,SAS III

现在这是基于我们之前的服务器,我们将其设置为ZFS服务器并且没有太多的“乐趣”. (虽然配置是责备我猜)

我对此设置有几个问题:
– 采用2x2TB的参数是,使用它作为系统的镜像,因为当必须替换磁盘时IO在重建期间是缓慢的.速度不是我们真正的问题,空间是,我们还有一个在线备份,它将仅用作阅读平台(在问题期间). 36 x 4TB会是更好的选择吗? (36 =池中3 * 12盘)
– 32 Gb内存够吗? (Linux上的ZFS,最大容量考虑JBOD 44 * 8 32 * 4)
– 这是一个raid控制器,JBOD / HBA(?)会是更好的选择吗?如果是这样,我应该寻找什么样的JBOD?
– 我如何最好地设置这个系统以“准备好”升级JBOD中的下22个磁盘? (它的44个磁盘JBOD,22个插槽已填充)

根据评论获得更多信息:

>正常运行时间/可用性:我们并不关心它是否会在几分钟内消失,只要这不是常见的.不需要HA.实质上,这将是我们当前存储服务器的热备份.我们主要是读写不受速度限制. (到目前为止)
>阅读速度很重要,但我们不想放弃它
>写入速度并不重要,主要是来自机器的流,而大型文件则写在那里,因此它可以在一夜之间运行.

最佳答案
我会与专门研究基于ZFS的解决方案的ZFS专业人士或供应商合作.你说的是100TB的数据,而且在那个规模上,有太多机会搞砸了.

ZFS并非易事;特别是当您将高可用性和设计融入弹性时.

我不会计划半填充存储机箱或类似的东西.使用RAIDZ1 / 2/3不能轻松扩展ZFS阵列,扩展ZFS镜像可能会使您获得不平衡的数据.

转载注明原文:ZFS 100TB硬件设置 - 代码日志