Nvidia(英伟达)在年度开发者大会上发布了当前最强AI芯片Blackwell B200 GPU以及GB200(2个Blackwell GPU和1个Grace CPU结合在一起的超级芯片),B200拥有2080亿个晶体管,而上一代芯片Hopper H100 是800亿个晶体管,虽然晶体管多了两倍多,但是实现了5倍性能提升。
与H100相比,对于大模型推理工作负载,GB200超级芯片提供高达30倍的性能提升。
不言而喻,Blackwell B200 GPU,是如今世界上最强大的AI芯片,也将为万亿级参数大模型提供强大的AI动力。
“有意见”留言板
@不倒翁:芯片性能的极限在哪里?老黄不断打破记录值得肯定,对于马斯克担心芯片消耗电力问题,完全不用担心,既然这么牛的芯片都能生产出来,电力的创新难道比这个还难?
@周一见:这些技术的进步对一般用户而言可能感觉遥远,但未来可能会以我们目前还未完全预料到的形式,通过更加智慧化的应用程序和服务,间接地提升我们的社会和生活品质。
好文章,需要你的鼓励
亚马逊云服务部门与OpenAI签署了一项价值380亿美元的七年协议,为ChatGPT制造商提供数十万块英伟达图形处理单元。这标志着OpenAI从研究实验室向AI行业巨头的转型,该公司已承诺投入1.4万亿美元用于基础设施建设。对于在AI时代竞争中处于劣势的亚马逊而言,这项协议证明了其构建和运营大规模数据中心网络的能力。
Meta FAIR团队发布的CWM是首个将"世界模型"概念引入代码生成的32亿参数开源模型。与传统只学习静态代码的AI不同,CWM通过学习Python执行轨迹和Docker环境交互,真正理解代码运行过程。在SWE-bench等重要测试中表现卓越,为AI编程助手的发展开辟了新方向。
当今最大的AI数据中心耗电量相当于一座小城市。美国数据中心已占全国总电力消费的4%,预计到2028年将升至12%。电力供应已成为数据中心发展的主要制约因素。核能以其清洁、全天候供电特性成为数据中心运营商的新选择。核能项目供应链复杂,需要创新的采购模式、标准化设计、早期参与和数字化工具来确保按时交付。
卡内基梅隆大学研究团队发现AI训练中的"繁荣-崩溃"现象,揭示陈旧数据蕴含丰富信息但被传统方法错误屏蔽。他们提出M2PO方法,通过改进数据筛选策略,使模型即使用256步前的陈旧数据也能达到最新数据的训练效果,准确率最高提升11.2%,为大规模异步AI训练开辟新途径。