Nvidia(英伟达)在年度开发者大会上发布了当前最强AI芯片Blackwell B200 GPU以及GB200(2个Blackwell GPU和1个Grace CPU结合在一起的超级芯片),B200拥有2080亿个晶体管,而上一代芯片Hopper H100 是800亿个晶体管,虽然晶体管多了两倍多,但是实现了5倍性能提升。
与H100相比,对于大模型推理工作负载,GB200超级芯片提供高达30倍的性能提升。
不言而喻,Blackwell B200 GPU,是如今世界上最强大的AI芯片,也将为万亿级参数大模型提供强大的AI动力。
“有意见”留言板
@不倒翁:芯片性能的极限在哪里?老黄不断打破记录值得肯定,对于马斯克担心芯片消耗电力问题,完全不用担心,既然这么牛的芯片都能生产出来,电力的创新难道比这个还难?
@周一见:这些技术的进步对一般用户而言可能感觉遥远,但未来可能会以我们目前还未完全预料到的形式,通过更加智慧化的应用程序和服务,间接地提升我们的社会和生活品质。
好文章,需要你的鼓励
OpenAI CEO描绘了AI温和变革人类生活的愿景,但现实可能更复杂。AI发展将带来真正收益,但也会造成社会错位。随着AI系统日益影响知识获取和信念形成,共同认知基础面临分裂风险。个性化算法加剧信息茧房,民主对话变得困难。我们需要学会在认知群岛化的新地形中智慧生存,建立基于共同责任而非意识形态纯洁性的社区。
杜克大学等机构研究团队通过三种互补方法分析了大语言模型推理过程,发现存在"思维锚点"现象——某些关键句子对整个推理过程具有决定性影响。研究表明,计划生成和错误检查等高层次句子比具体计算步骤更重要,推理模型还进化出专门的注意力机制来跟踪这些关键节点。该发现为AI可解释性和安全性研究提供了新工具和视角。
传统数据中心基础设施虽然对企业至关重要,但也是预算和房地产的重大负担。模块化数据中心正成为强有力的替代方案,解决企业面临的运营、财务和环境复杂性问题。这种模块化方法在印度日益流行,有助于解决环境问题、满足人工智能的电力需求、降低成本并支持新一代分布式应用。相比传统建设需要数年时间,工厂预制的模块化数据中心基础设施可在数周内部署完成。
法国索邦大学团队开发出智能医学文献管理系统Biomed-Enriched,通过AI自动从PubMed数据库中识别和提取高质量临床案例及教育内容。该系统采用两步注释策略,先用大型AI模型评估40万段落质量,再训练小型模型处理全库1.33亿段落。实验显示该方法仅用三分之一训练数据即可达到传统方法效果,为医学AI发展提供了高效可持续的解决方案。