AI 算力是 GPU 的 28 倍。
作者 | ZeR0
编辑 | 漠影
芯东西 10 月 1 日报道,9 月 30 日,美国 AI 芯片独角兽 Cerebras Systems 宣布完成超额认购的11 亿美元(约合人民币 78 亿元)G 轮融资,投后估值达81 亿美元(约合人民币 577 亿元)。
Cerebras 计划利用这笔资金扩展其前沿技术组合,持续在 AI 芯片设计、封装、系统设计、AI 超级计算机领域进行创新。该公司还将扩大其在美国的制造能力和数据中心容量,以满足市场对其产品和服务爆炸式增长的需求。
Cerebras 成立于 2016 年,自评为 " 业界速度最快的 AI 基础设施制造商 "、" 全球最快的推理提供商 "。
该公司构建的晶圆级引擎 3(WSE-3)是迄今全球最大的 AI 芯片,采用 5nm 制程工艺,面积为 46225 平方毫米,包含 4 万亿颗晶体管,通过 90 万个 AI 优化核心提供 125PFLOPS 的 AI 算力——是英伟达 B200 晶体管数量的 19 倍、AI 算力的 28 倍。
凭借 44GB 的片上 SRAM 和 21PB/s 的内存带宽,WSE-3 消除了传统的内存瓶颈。其晶圆级结构提供每秒 27PB/s 的内部带宽,是新一代 NVLink 带宽的 206 倍。
晶圆级引擎可相互连接并扩展到 2048 个系统,具有 256EFLOPS 的 AI 算力。通过利用其权重流编程模型,AI 开发者可训练拥有 24 万亿个参数的模型,而无需多 GPU 编排和并行化策略的复杂性。
自 2024 年底推出推理服务以来,Cerebras 发展迅速,运行开源和闭源模型的速度通常比英伟达 GPU 快 20 倍以上。
根据第三方独立基准测试公司 Artificial Analysis 的测试,在正面比较中,Cerebras 在每个领先的开源模型上的表现都比英伟达 GPU 高出几个数量级。
" 自成立以来,我们已经在数百种模型中测试了每个 AI 推理提供商。Cerebras 始终是最快的。" 基准测试公司 Artificial Analysis CEO Micah Hill-Smith 说。
如今,Cerebras 每月在其自有云平台、客户本地以及领先的合作伙伴平台上提供数万亿个 token。
2025 年,AWS、Meta、IBM、Mistral、Cognition、AlphaSense、Notion 等数百家 AI 企业选择 Cerebras。许多个人开发者也选择 Cerebras 进行 AI 开发。在全球最大 AI 开源平台 Hugging Face 上,Cerebras 是排名第一的推理提供商,每月处理超过 500 万个请求。
登录后才可以发布评论哦
打开小程序可以发布评论哦