描述相符
服务态度
发货速度
关注人数
UPS2000-G-20KRTL
由于人工智能几乎改变了每个数据中心应用程序,它也在重塑软件开发生命周期(SDLC)。传统应用程序通过程序化更改演变为其底层代码库,然后使用严格测试进行验证,并以受控、可管理、可重复方式部署到生产过程中。但是,基于人工智能的应用程序不依赖于代码更改或单向部署。相反,许多人在开发环境中发展更智能模型并将其部署到生产中,而其他人则在生产中进行自我训练,在那里他们从现实世界数据中学习并将这些知识传播回开发环境。这种双向细微差别对数据中心网络拓扑结构具有根本性影响。 无论是嵌入在更加传统的第三方应用程序中还是内部开发的人工智能算法,在对尽可能真实且相关的大量数据进行训练时效果。因此,在许多情况下,实时生产数据较适合训练,但在其他应用中,非生产环境中的外部数据系统,以及由此产生的智能模型被部署到生产中。在这两种情况下,人工智能应用程序不只是从非生产部门应用到生产部门中,还在两者之间应用,而要求环境之间的网络分割变得更具渗透性。 人工智能训练需要大量的计算和大量的数据,数据越多越好。为了满足这种对计算能力的巨大需求,人工智能训练越来越多地发生在以CPU为中心的非CPU服务器上,这些服务器基于GPU、FPGA、定制ASIC或专用的深度学习单元,可提供数量级的性能提升。不幸的是,这些计算系统耗电量大,功率密度高达30-50kW/机架,而且预测下一代计算系统的功率密度将达到惊人的100kW/机架。拥有并运营40多个数据中心的数据中心运营商Flexential公司云计算主管JasonCarolan表示,“如果没有对诸如液体冷却之类的冷却遏制解决方案进行实质性的重新设计,现有的大多数数据中心在规模上根本无法支持这一点。” UPS2000-G-20KRTL
交谈
店铺
0 评