据Cumulus网络公司CEO兼联合创始人JR Rivers说,网络芯片厂商如Broadcom和Mellanox所提供的网络处理器的性价比要高于通用CPU。还有,带网络功能的中央CPU的性能会下降,从而会使其价值降低。就像Rivers所言:“要在CPU上多增加一个方块,回报肯定会受损。”
River称,之前也曾有企业评估过光纤互连和背板,但由于成本太高,太过复杂而没能启动。而解耦和池化计算、网络及存储资源则可以通过软件让IT机架更为灵活、敏捷,利用硅光子互连架构可将所有这些池化资源都连接起来。
然而这种方式仍可能被证明过于复杂而不切实际,Rivers称。
“光背板太过复杂,所以才没能普及开来,”他说。“RackScale与今天的数据中心环境耦合得相当紧密,而且是经过良好设计的系统,这一点与能够在全网上快速迁移的松耦合系统是不同的。RackScale似乎想一招鲜吃遍天,但这是不可能的,而且其客户往往也无法从中获益。”
他将这种努力比喻做嵌入刀片服务器中的刀片式交换机,用户一般都会忽略其存在,仍然会继续让刀片与思科的交换机端口连接。
依照同样的思路,River对数据中心使用光技术,绕开ToR交换机,直连服务器的做法也表示了怀疑。
“传输一个大文件不到一秒,所以很难看到这种技术的好处,”River说。“要想看到光交叉技术成为永久改变网络的基础技术要素也很困难。更何况它们已存在了相当一段时间了。”
按照英特尔的说法,即便服务器将会承担更多的交换智能和本地功能,但ToR仍将作为物理上独立的交换机存在。
“ToR仍将在数据中心内部发挥重要作用,”英特尔通信基础设施部门总经理Steve Price说。“目前的趋势是,在服务器机架上还会不断增加网络智能。例如,策略执行和多租户隧道功能今天或者发生在vSwitch上,或者发生在ToR上。随着机架内计算密度的增加,以及服务器上SDN和NFV的出现,机架内每个隔板上跨虚拟和物理交换机的东西向流量将会增加。服务器将会成为能够通过IA架构上的软件处理数据包的混合平台,利用隔板内的交换可汇聚和管理跨多台服务器的工作负载。”
Price说,隔板内交换可以为本机架内的多台服务器提供低延迟的连接性,然后通过100G以太网将流量汇聚给ToR。不过他也承认,在每个服务器隔板上提供高密度端口的交换会增加布线成本,所以英特尔建议可将所有服务器隔板上的流量汇聚起来,通过100G以太网再上行链路给ToR。
英特尔的战略就是增加在Open vSwitch社区项目上的投入,关注数据平面开发工具套件(DPDK),同时提升IA架构上虚拟交换的性能,在需要的时候可以让硬件卸载流量给NIC和/或物理交换机。Price称,DPDK目前已计划纳入Open vSwitch 2.4。
Price认为,RackScale架构更关注的则是超大规模数据中心,此类数据中心的管理者希望降低TCO,提高资源的灵活性和敏捷性。
思科计算系统产品事业部的技术营销总监Dan Hanson说,英特尔和思科之间已对RackScale架构,以及一般地对服务器/交换机的解耦和分布式内存体系都进行了讨论。Hanson认为,思科对交换机解耦的观点是与英特尔互补的,但在如何最好地实现解耦方面存在分歧。
“这个概念包含了很多的承诺,也有很多人在推动这件事情,”Hanson说。“思科只是想寻找到实现它的最佳途径。”
Hanson认为,英特尔的DPDK是一种可能的途径,因为它可以用一些硬件来辅助思科的UCS服务器在网络功能虚拟化应用中能力的发挥,而通用的x86平台是缺乏这些功能的。但如何最佳地实现分布式、非汇聚交换以及内存管理,业界何时才能做好这方面的准备,目前依然处在开放讨论阶段。