未来五年企业服务器架构将是什么样子?

日期: 2016-02-14 作者:Jim O'Reilly翻译:邹雅玲 来源:TechTarget中国 英文

过去几年,服务器架构一直止步不前,原因是CPU缺乏竞争力,并满足于已有的IT业设计。接下来的五年里,服务器架构将从根本上发生变化。 我们将会看到,企业服务器模块将发生重大改变:性能提升,成本降低,当然了,我们还需要重新考虑如何部署商业化成品装置。 服务器技术改革创新已步入行动阶段。

固态硬盘(简称SSD)和闪存已经克服主要障碍,完成架构革新。为了实现更快速访问,服务器引擎不得不继续更新。外围组件快速互连(简称PCIe)带宽已不堪重负,操作系统的中断处理程序服务速度已经满足不了硬盘需求。如今这个时代,任何事情都不再神秘。

动态RAM(简称DRAM)正面临重大压力。互联网在性能方面必须要有一个明显的提……

我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。

我原创,你原创,我们的内容世界才会更加精彩!

【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】

微信公众号

TechTarget微信公众号二维码

TechTarget

官方微博

TechTarget中国官方微博二维码

TechTarget中国

电子邮件地址不会被公开。 必填项已用*标注

敬请读者发表评论,本站保留删除与本文无关和不雅评论的权力。

过去几年,服务器架构一直止步不前,原因是CPU缺乏竞争力,并满足于已有的IT业设计。接下来的五年里,服务器架构将从根本上发生变化。

我们将会看到,企业服务器模块将发生重大改变:性能提升,成本降低,当然了,我们还需要重新考虑如何部署商业化成品装置。

服务器技术改革创新已步入行动阶段。固态硬盘(简称SSD)和闪存已经克服主要障碍,完成架构革新。为了实现更快速访问,服务器引擎不得不继续更新。外围组件快速互连(简称PCIe)带宽已不堪重负,操作系统的中断处理程序服务速度已经满足不了硬盘需求。如今这个时代,任何事情都不再神秘。动态RAM(简称DRAM)正面临重大压力。互联网在性能方面必须要有一个明显的提升。数据中心每件事情都需要实现自动操作。到2020年,数据中心将会推翻今天的部署方式。

企业服务器即将发生重大变革。在短期内,想要实现SSD快速处理也就意味着PCIe 3.0将成为主流趋势(每秒8千兆数据传输率),而PCIe 4.0时代也即将到来(每秒16千兆数据传输率)。即使实现以上提升,DRAM易失性存储界面仍未改变,而非易失性存储却受到了服务器性能因素限制,这些都是因为检索数据延迟造成的。

要想解决DRAM问题有许多种方法。下一代服务器将需要一种更快、更大的DRAM。服务器架构将会在CPU模块中增加DRAM,可以实现紧密的电耦合及串行接口。借助Hybrid Memory Cube(简称HMC)方法,首先可以设计出一款智能手机,然后,2016年下半年该方法将成为服务器的一种主流方向,也许这将成为服务器专属变革。

HMC可以将DRAM改成连续型界面,有点类似于闪存产品内部结构。这可以让更多的独立渠道与内存芯片进行沟通交互,从而显著提高带宽。未来五年内,我们应该会将带宽提升到每秒约384千兆,甚至会提升到每秒1TB。紧密耦合节省功耗,下一代服务器每单位都可以节省更多内存,因此,我们预测未来TB将成为一种常见的单位。

服务器架构中的DRAM容量及带宽现有状态对DRAM连接到永久内存构成一定的压力。HMC架构中增加紧耦合闪存会使永久存储实现更高的带宽,但尚不清楚的是,这会不会是个闪存系统。英特尔及其他公司正努力研发电阻式RAM(简称RRAM)以及一种可以取代闪存的相变存储设计,将访问延迟缩短到纳秒级。这是一个相当不错的变革,并将成为未来五年的主流发展方向。

随着越来越多的DRAM及真正的快速持久存储的出现,服务器芯片的CPU核心数量势必会大幅增加。与现有架构相比,未来服务器性能将会取得更完善的提升。将扩展后的CPU转移到Docker容器中,我们可以实现相当于每台服务器提升了10倍的运行速度。下一代服务器将会实现更大的容量,CPU制造商会影响到服务器成本。最终,数据中心技术路线图会做出一定的调整,只需要更少的服务器就可以实现同样的效果。

让我们一起告别使用键盘、鼠标及视频连接到服务器的方法吧。这种方法对于那些还不太习惯服务器自动化及编程的管理员来说也许太过激进。

从下一代服务器到下一代数据中心

这种加强版服务器的性能将会对数据中心处理存储和网络的方式产生一定的影响。CPU模块中的持久RRAM用一种激进的方法改变了存储的流量模式。本地SSD超级性能压力会有所减少,但是,RRAM却可以成为服务器集群可共享的资源。

是时候将数据中心路线图中高速、低延时的网络与这些高效资源进行连接了。在一年的时间里,我们有希望用25千兆以太网(简称GbE)取代10GbE网络。到2017年,40GbE将成为主流趋势,100GbE销售价格将会下跌并取而代之。软件定义网络将会改变交换机架构、降低延迟并自动处理网络过程。同样,到2020年,Converged Ethernet中的RDMA很有可能会击败InfiniBand。

产品营销人员称,超融合基础架构将会成为主流服务器架构,可以覆盖同一个盒子内的所有存储及计算,并且处理网络中所有数据服务。这种结构非常符合RRAM和高速SSD所共享的数据格式要求。即使这种类型的应用程序也许会与超融合服务器存在很多相似之处,但是大多数低速SSD或者硬盘驱动器中将会继续使用大容量存储。随着数据中心更青睐于使用以太网存储,光纤通道很有可能被取代。这种方法可以简化并缩小服务器间的连接配置。

随着RRAM存储速度的增快,服务器没有磁盘插槽或者PCIe磁卡空间不足的问题也会显现出来。我们可能会限定HMC模块中底板卡槽的大小,这样可以满足高密度要求。我们应该重视存储数TB的HMC模块。例如,当我们使用电子交换机时,可以实现更高的互联性能。

除了x86处理器架构

英特尔与AMD争夺服务器架构路线图的胜负结果难以预测。双方在图形处理器(简称GPU)及加速器核心存在一定的差异。并行计算方法在许多应用程序中都起到了重要作用,AMD具有访问GPU技术的权限,因此,未来我们一定会看到以加速处理单位为基础的服务器架构。ARM与CPU及系统芯片制造商NVIDIA公司进行合作,共同设计服务器解决大数据处理GPU的能力问题。英特尔在GPU能力方面存在很严重的问题,但是他们会推出更多Xeon Phi并行协同处理产品设计及扩展的SIMD指南来解决以上问题。

采用如加密或者压缩的方式将这些选项聚集在专业加速器功能中,其结果是,设计出一种定位到局域网、宽域网络或者存储以及大数据应用程序的专用数据中心IT基础架构产品。

相关推荐