今年9月份,半导体企业Cerebras Systems发布的世界最大芯片“WSE”震撼行业,台积电16nm工艺制造的它拥有46225平方毫米面积、1.2万亿个晶体管、40万个AI核心、18GB SRAM缓存、9PB/s内存带宽、100Pb/s互连带宽,而功耗也高达15千瓦。
如此史无前例超大规模的芯片开发起来难,应用起来更难,尤其是如何喂饱它的计算能力,还得保证散热。
在此之前,Cerabras已经宣布和美国能源部达成合作,如今终于拿出了与美国能源部下属阿贡国家实验室合作、基于WSE芯片打造的一套系统“CS-1”。
该系统只有15个标准机架高度,也就是大约66厘米,需要三套才能填满一个机架,但性能方面十分恐怖,一套就相当于一个拥有1000颗GPU的集群,而后者需要占据15个机架空间,功耗也要500千瓦,同时相当于Google TPU v3系统的三倍还多,但功耗只有其1/5,体积则只有1/30。
一套CS-1系统的功耗为20千瓦,其中处理器本身15千瓦,另外4千瓦专门用于散热子系统,包括风扇、水泵、导热排等等,还有1千瓦损失在供电转换效率上。
系统还配备多达12个100GbE十万兆网口,并且可以扩展组成海量计算节点,而且测试过超大集群,能够以单个异构系统的方式进行管理,并行处理数据。
那么,这样一套系统能干什么呢?它主要会用来和传统大型超级计算机配合,后者处理完数据后,就会交给CS-1进行更深入的AI处理。