Cerebras Systems 近日宣布了一项重大扩展计划,将在北美和欧洲新建六座数据中心,以提升其人工智能(AI)推理能力。这一举措不仅将显着增强公司的算力,还将为各类AI 应用的发展提供强有力的支持。随着AI 技术的快速发展,Cerebras 的这一布局无疑将为其在竞争激烈的市场中占据有利位置。
根据计划,85% 的计算能力将集中在美国,其中已有三座设施在加州的圣克拉拉、斯托克顿和德克萨斯州的达拉斯投入运营。接下来,新中心将分别在明尼阿波利斯(预计2025年第二季度)、俄克拉荷马城和蒙特利尔(预计2025年第三季度),以及亚特兰大和法国(预计2025年第四季度)开张。这些新数据中心的建设将进一步提升Cerebras 在全球范围内的服务能力。

新数据中心的核心将是Cerebras 公司研发的“晶圆规模引擎”(Wafer Scale Engine),这是一种专为AI 应用优化的特殊芯片架构。公司表示,其CS-3系统能够每秒处理4000万条Llama-70B 模型的令牌数据,极大提升了推理任务的处理速度。在俄克拉荷马城的设施中,预计将配置超过300台CS-3系统。该中心按照三级加三标准建设,具备抗龙卷风和地震的能力,并且配备了三重冗余电源,预计于2025年6月开始运营。这种高标准的建设确保了数据中心在各种极端条件下的稳定运行。
目前,已有多家知名AI 公司与Cerebras 签署了合作协议,包括法国初创公司Mistral 及其Le Chat 助手,还有AI 问答引擎Perplexity。 HuggingFace 和AlphaSense 也加入了使用Cerebras 平台的行列。这项技术特别适合需要长时间计算和生成大量令牌的推理模型,如Deepseek-R1和OpenAI o3。这些合作进一步证明了Cerebras 技术在AI 领域的广泛应用前景。
此次扩展是Cerebras2025年整体扩张战略的一部分,一些设施将与阿联酋公司G42合作运营。在蒙特利尔,由比特数字子公司Enovum 管理的新中心预计将于2025年7月上线,其推理速度将比当前的GPU 快十倍。这一速度的提升将大大缩短AI 模型的处理时间,提高整体效率。
Cerebras Systems 是一家美国公司,专注于开发AI 芯片,其独特的设计理念是将整个晶圆作为单个芯片来使用,目前已推出第三代晶圆规模引擎WSE-3。该系统已在阿贡国家实验室、匹兹堡超级计算中心和葛兰素史克等机构中使用。尽管其技术具有优势,但也存在一定局限性,比如不支持原生CUDA(Nvidia 的标准),以及在服务器兼容性方面不如Nvidia 解决方案。然而,Cerebras 的独特设计仍然在特定应用场景中展现出巨大的潜力。
划重点:
Cerebras 计划在北美和欧洲新建六座数据中心,重点集中在美国,预计于2025年全面运营。
数据中心将采用独特的晶圆规模芯片,具备每秒处理4000万条令牌的能力。
多家知名AI 公司已与Cerebras 达成合作,共同利用其高速推理能力。