切换到宽版
  • 235阅读
  • 2回复

[智能应用]当AI从“烧钱”走向“算账” 超节点能否实现普惠破局? [复制链接]

上一主题 下一主题
在线姜谷粉丝

UID: 1569053

精华: 2
职务: 山庄囚徒
级别: 玉清道君
 

发帖
181914
金币
629274
道行
20030
原创
769
奖券
480
斑龄
0
道券
30
获奖
0
座驾
设备
摄影级
在线时间: 22966(小时)
注册时间: 2012-06-21
最后登录: 2026-05-03
只看楼主 倒序阅读 楼主  发表于: 03-28
— 本帖被 兵马大元帅 执行加亮操作(2026-04-18) —
用户被禁言,该主题自动屏蔽!
山庄提示: 道行不够,道券不够?---☆点此充值☆
 
在线姜谷粉丝

UID: 1569053

精华: 2
职务: 山庄囚徒
级别: 玉清道君

发帖
181914
金币
629274
道行
20030
原创
769
奖券
480
斑龄
0
道券
30
获奖
0
座驾
设备
摄影级
在线时间: 22966(小时)
注册时间: 2012-06-21
最后登录: 2026-05-03
只看该作者 沙发  发表于: 03-28
用户被禁言,该主题自动屏蔽!
如何不发帖就快速得到金币道行
 
在线jjybzxw

UID: 551814


发帖
246207
金币
896902
道行
2006
原创
2465
奖券
3580
斑龄
45
道券
1580
获奖
0
座驾
设备
摄影级
在线时间: 52323(小时)
注册时间: 2008-10-01
最后登录: 2026-05-03
只看该作者 板凳  发表于: 03-28
文章主要讨论了中科曙光在中关村论坛年会上发布的无线缆箱式超节点——scaleX40,以及AI算力供给的结构性调整。以下是核心内容的整理:
scaleX40产品发布
产品特点  
性能:集成40张GPU,总算力超过28PFLOPS(FP8精度)。  
设计:无线缆正交架构,计算与交换节点直接对插,减少光纤与铜缆使用;标准19英寸箱式设计,适配现有数据中心。  
成本与收益:成本与传统5台8卡机相当,但训练性能提升120%,推理性能提升330%。  
目标:填补市场空白,在数百卡级超节点与主流8卡服务器之间寻找性能与成本的最佳平衡点。
AI算力需求的结构性变化
从训练到推理的转型  
随着智能体技术(如OpenClaw)兴起,AI算力使用模式从以训练为主转向以推理和服务为主。  
算力基础设施角色从“算力工厂”转变为“Token工厂”,需关注并发能力、稳定性及Token产出成本。  
分层需求  
市场需求分层:超大规模集群需求减少,企业级和行业应用场景需求增加。  
算力配置重点:平衡性能、成本与灵活性,而非单纯追求规模。
超节点的技术逻辑与部署优势
技术路径  
scaleX40采用全栈协同优化,包括存储、网络、管理平台及软件栈。  
通信效率:访存带宽超80TB/s,延迟降低近10倍,内存语义直接访问。  
部署门槛降低  
箱式系统可直接放入标准机柜,适配常规供电和冷却设备,减少定制化需求。
成本与收益的平衡
投入产出比  
普惠算力:花同样钱,收益提升4到5倍。  
配套系统:ParaStor存储、ScaleFabric网络、SothisAI平台,开箱即用。
产业融合与未来算力形态
AI应用转折点  
智能体技术推动AI从“对话”走向“行动”,算力需求转向并发能力与稳定性。  
行业预期  
算力与应用协同优化,ASIC芯片及协议统一将提升灵活性。  
算力供给的未来路径  
系统级协同优化:芯片到系统软件到模型应用的垂直跨层协同。  
产品矩阵:从尖端(scaleX640)到普惠(scaleX40),实现分层供给。
结语
AI技术的应用普及对算力供给提出了新的挑战和要求。中科曙光通过发布scaleX40,旨在降低算力使用门槛,提高效率,推动AI技术在更多领域的广泛应用。
如何不发帖就快速得到金币道行
 
快速回复
限120 字节
认真回复加分,灌水扣分~
 
上一个 下一个