时间:2019-08-07 09:01
人气:
作者:admin
在一组针对语音翻译(深度学习推断加速)、数据库分析(数据分析加速)、数据压缩(计算存储加速)、电子交易(网络加速)和金融建模(网格计算)的加速测试中,与GPU和CPU加速相比,U50的表现优异。其中,语音翻译的时延降低25倍,吞吐量扩大10倍,在翻译性能方面,和英伟达T4 相比,U50 性能提升高达10倍;在运行TPC-H Query基准测试(数据库分析)时,相比CPU,U50每小时吞吐量提升4倍,运营成本降低3倍;在数据压缩上,U50将压缩/解压缩吞吐量提高了20倍,实现了更快的Hadoop和大数据分析,同时相比仅CPU节点将每节点成本降低了40%;在电子交易中,U50相比仅CPU的10us延时,能将时延降低20%,交易时间不到500ns;在金融建模时,运行蒙特卡洛模拟,U50的功效相比GPU提升了7倍。图:U50在吞吐量,延迟和功效方面实现了10-20倍的改善 总的来说,U50在吞吐量,延迟和功效方面实现了10-20倍的改善。“我们的战略是致力于让赛灵思灵活应变的加速技术应用于数据中心的所有领域,具体来说就是计算、网络和存储,”Bowen说,“所有的计算工作负载都是这三个领域的一部分,这也是我们看到Alveo可以大展宏图的地方。”
开发堆栈解决了FPGA加速卡的开发难题,接下来就是大规模部署落地的难题。Alveo系列的应用领域包括数据分析、视频与图象处理、机器学习、生命科学和金融计算——不仅是云的覆盖,还要部署落地。在诸多调动IT业者积极性的因素中,“充分商业化的标准化产品”是重要的一个,这使得赛灵思的标准产品的开源框架很容易被Kubernetes和docker这类免费的微服务内容平台连接。“因为我们是一个非常标准化的产品,所以Kubernetes可以在系统内反映出Alveo插件,开发者也可以把它和docker配合起来,通过对Alveo进行编程而在系统中体现出加速应用。”Bowen解释道,“所有编排、云管理和应用都和这些免费的生态系统结合,如果没有这样一个标准化的产品配置,客户可能需要花费大量的投资才能够实现这样一个功能,这对于一些超大规模数据中心的应用来说是非常有必要的,既可以在云端,也可以用Alveo在本地进行加速,而且是一个非常开放式的框架,可以进行全面的加速。” 这个生态就是一个大规模部署堆栈,赛灵思在其中开发了一个标准框架,然后提供Alveo产品,让开发者像加速软件那样给服务器加速——重要的是,通过开发这个标准框架,赛灵思决定了应用场景的加速方式。 图:大规模部署堆栈 据悉,赛灵思选择在今天(8月7日)发布Alveo U50,是因为这两天(8月6-8日),闪存峰会(Flash Memory Summit (FMS) 2019)正在美国加州圣克拉拉会议中心举办,赛灵思执行副总裁兼数据中心部总经理Salil Raje将发表有关高速存储系统加速的的主题演讲,该公司同时也会在现场演示这款最新的产品。
Fidus Sidewinder-100集成PCIe NVMe 控制系统,有