快捷搜索:  汽车  科技

传统数据中心与模块化对比(数据中心架构升级)

传统数据中心与模块化对比(数据中心架构升级)此外,由于机器对机器的通信增加,数据本身也变得越来越复杂,所需的带宽也更多。随着数据量和数据复杂性增加,超融合计算平台应运而生。这类平台依赖PCI Express® 和以太网等高速接口来实现高吞吐量连接,并依赖CXL 2.0和CXL 3.0来实现高效的内存共享。服务器的电源、冷却与机架管理将在服务器之间共享,并通过铜互连进行连接。社交媒体、电子商务和软件平台等行业的数据密集型企业都在投资建设自己的超大规模数据中心,用于容纳数千至数万台服务器,以提供可扩展性来支持一系列强大的在线业务和交易。可以说,数据中心对于这个追求万物智能的世界来说是必需品,而日渐庞大的数据量和日益复杂的数据本身让数据中心的架构也在发生重大转变,比如出现了能汇集所有资源的超融合服务器平台。现在还有一种新的趋势,即“数据中心解耦架构”,也就是将资源分散到不同的模块中,并以光学方式进行连接。这条发展路径就是为了能更有效地处理

传统数据中心与模块化对比(数据中心架构升级)(1)

图片来源@视觉中国

文|新思科技

提到数据中心,也许大家并不觉得自己跟它有什么强关联。顺畅的网购、在线观看自己喜欢的高清视频、随时查看航班飞行情况、高铁站刷脸进站、刷身份证检票、随时掌握世界动态…

这些看起来只是打开几个APP就能实现的场景,背后流动着的是海量的数据。这些便利都得益于数据中心所提供的强大算力。所以,没有数据中心,真的不行。

可以说,数据中心对于这个追求万物智能的世界来说是必需品,而日渐庞大的数据量和日益复杂的数据本身让数据中心的架构也在发生重大转变,比如出现了能汇集所有资源的超融合服务器平台。

现在还有一种新的趋势,即“数据中心解耦架构”,也就是将资源分散到不同的模块中,并以光学方式进行连接。这条发展路径就是为了能更有效地处理未来日益庞大的工作负载。

数据密集型应用推动着数字世界不断向前

根据IEEE 802.3以太网带宽评估报告,推动数据增长的相关数字十分震撼:

  • 2020年,接入互联网的设备数量约为290亿台;到2025年,该数字预计会增长至约380亿台
  • 2017年到2020年,每个用户和家庭的平均流量预计增加了近200%
  • 视频是导致带宽激增的一个主要驱动因素,2017年视频所消耗的数据份额为75%(每月约90EB),2020年已达82%(每月约325EB)

社交媒体、电子商务和软件平台等行业的数据密集型企业都在投资建设自己的超大规模数据中心,用于容纳数千至数万台服务器,以提供可扩展性来支持一系列强大的在线业务和交易。

此外,由于机器对机器的通信增加,数据本身也变得越来越复杂,所需的带宽也更多。随着数据量和数据复杂性增加,超融合计算平台应运而生。这类平台依赖PCI Express® 和以太网等高速接口来实现高吞吐量连接,并依赖CXL 2.0和CXL 3.0来实现高效的内存共享。服务器的电源、冷却与机架管理将在服务器之间共享,并通过铜互连进行连接。

光互连为数据中心解耦架构照亮前路

为了让数据中心能够更灵活、更高密度、以及资源分配利用率更高,开发者们正在努力实现数据中心的解耦架构。在解耦架构中,同类资源(存储、计算、网络等)通过光互连进行连接。

这种架构的优势之一就是不会浪费资源:一个工作负载需要一定数量的存储(x)、计算(y)和网络(z)资源,在解耦架构中,每个工作负载所需的资源会被分配好,并从每个模块按需调取,再由光学互连提供用于数据传输的高速线路,其余资源则会释放用于其他工作负载。

相比之下,在超融合服务器中,不管工作负载实际需要多少资源,对于给定作业的所有存储、计算和网络资源都会被锁定,因此会浪费造成一些资源的浪费。铜互连凭借其高导电性、低成本、柔软性和耐热性,一直发挥着重要作用。

目前,铜主要用于服务器机架中。随着网络速度提升,通过铜缆长距离可靠地驱动数据信号所需的功耗和带宽也随之增加。这一趋势为光互连铺平了道路。光互连现已成为机架到机架、房间到房间和建筑物到建筑物配置中的主要连接方式。光互连是通过光来传输信号,因此光互连与金属互连相比,带宽更高、速度更快,延迟和功耗也更低,因而非常适合数据中心的解耦架构。

此外,光互连还可充分利用一些新推出的技术来实现网络基础设施升级,例如支持400G、800G和1.6T以太网的技术。这种便利性是通过使用光缆连接可插拔光学模块来实现的,这类模块为将光纤电缆连接到网络设备这一过程提供了一种相对简单灵活的方式。

随着网络速度增加到400Gbps以上,将电信号驱动到各个模块所需的功耗是个挑战,而这正是共封装光学技术(CPO)在芯片上的用武之地。共封装光学是在单个封装内集成电芯片和光芯片而成。传统上,电子组件和光子组件通过可插拔模块来实现,这些设备连接在PCB的边缘并朝向服务器机架。

但是,由于小型化的发展趋势及相关的要求,在单个封装内集成所有功能会更加可行。如果是连接到共封装光学中的封装器件,而不是连接到机架面板中的可插拔模块上,主机SoC与光接口之间的距离会变得更短,因而功耗会更低。

共封装光学技术推动die-to-die接口IP需求大涨

在系统中采用共封装光学技术意味着,光互连必须支持多芯片模块(MCM),因而也就需要die-to-die控制器和PHY来实现连接。为了在服务器、网络和高性能计算SoC中提供高效的die-to-die连接,这些控制器应针对延迟、带宽、功耗和面积进行优化。循环冗余校验(CRC)和前向纠错(FEC)等功能有助于降低误码率(BER)。

至于PHY,开发者一直使用的是铜互连的长距离连接方式,但对于具有数百个PHY通道的大型SoC,这种连接方式逐渐超出物理定律的极限,于是很多开发者开始转向采用可插拔光学模块的Very Short Reach(VSR)PHY。随着共封装光学日益普及,Extra Short Reach(XSR)PHY以及未来的通用芯片高速互连(UCIe)PHY日后可能会更加受欢迎,因为它们可实现将光子芯片放在非常靠近主机芯片的地方,甚至是放在同一个封装基板上。

传统数据中心与模块化对比(数据中心架构升级)(2)

新思科技提供了多种解决方案来应对设计解耦数据中心架构时所面临的挑战,其中包括:

  • DesignWare® Die-to-Die 控制器IP
  • 面向每通道112Gbps晶粒间连接的DesignWare XSR PHY IP
  • 面向VSR的DesignWare 112G以太网PHY IP

DesignWare die-to-die控制器IP与DesignWare XSR PHY IP相集成,为端到端的die-to-die链路提供了出色的低延迟性能。

这一完整解决方案让开发者无需开发协议转换栈,即可连接到SoC结构。为了进一步实现先进的多裸晶系统设计和集成,新思科技提供了面向2.5D和3D设计的3DIC Compiler统一平台,该平台构建在Fusion Design Platform™的通用单数据模型基础架构之上。

对于共封装光学器件,新思科技的产品组合中还包含了OptoCompiler™,这是一个面向电气与光子芯片设计、布局、仿真和验证的集成平台。

在这个数据驱动的世界,只要上网,我们活动所产生的数据就会在数据中心走一程。为了能够更好地处理更加庞大的数据量以及更加复杂的数据,数据中心的架构也在不断优化和改进,超大规模计算中心和解耦架构也因此诞生并逐渐普及。

数据解耦即通过分离每个组件,让工作负载只是用它所需要的资源,从而避免其他架构中存在的资源浪费情况。光互连为数据中心解耦架构提供了高速连接,赋能我们的生活更加“畅通无阻”。

猜您喜欢: