侵权投诉
订阅
纠错
加入自媒体

Tier 1/超大规模数据中心何以弃25G而就50G?

2016-02-16 11:09
汉水狂客
关注

  LightCounting在1月份的2016 IEEE会议上发布了一份关于以太网如何改变的研究报告。

  LightCounting认为数据中心和高速光学行业“可预见未来(the foreseeable future)”的不断变化对于市场研究公司来说是挑战。在超大规模数据中心行业,IEEE标准、行业工会和多源协议一年一变,甚至缓慢又按部就班的标准流程都可以在短短两次会议中大变样。事实上,在2016 IEEE 802.3会议上,这样的事情就发生了。

  在2014年7月,微软和其他公司表示他们的服务器连接需要25G而且他们的需求很急切。他们很快得到了一个标准和所需产品。但是今天的新闻是:Tier 1或超大规模数据中心将不使用25G。他们已经在迈向50G,现阶段是通过2*25G连接的方式。Tier 2云服务提供商才会使用大量的25G。

  为什么会有这样的变化?大型数据中心的存储服务器(目前已到40G)已经转移到直接连接存储(Direct Attached Storage),这需要存储服务器网卡提供更多的带宽。少为人知的是,对于计算机服务器,处理器技术正在改变,并且超大规模玩家们已经学会了如何从这些变化中最大限度地获取利益。

  从2004年开始,高性能计算中,每个处理器的内核数量急剧增长。下图展示了高性能计算中处理器内核是如何以1.67的年均复合增长率增长的。超大规模数据中心建设者正受益于这些发展。他们的处理器中的内核数量已经从几年前的4-7增长到目前的12-18,并且接下来有可能增长到22或更多。内核数量不断增长的重要性使得微软将其Windows Server 2016的许可变为每核心授权模式。

  图:高性能(超级计算机)处理器中内核的增长

  每个内核可以处理多个虚拟机(VM)。所以内核的增长加速了服务器连接带宽的增长。

声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号