英伟达发布了目前最强的AI芯片H200,性能较H100提升了60%到90%,还能和H100兼容。H200采用HBM3e GPU,拥有高达141GB显存,4.8TB/s带宽。而且通过英伟达NVLink和NVSwitch高速互连技术,8路HGX H200可提供超过32 Petaflops的FP8深度学习计算能力和1.1TB的超高显存带宽。在处理Llama 2等大语言模型时,H200的推理速度比H100提高了接近1倍。
“有意见”留言板
@不倒翁:最强的AI芯片需求更多的电力,马斯克说最担心的是美国明后年的电力会严重不足。那么老黄这些芯片如果在美国跑不起来,那么最终会流通到哪里?值得中间商去提前准备。
@贰言:人工智能技术的突飞猛进正推动着对硬件性能更高的追求。英伟达所推出的H200芯片不仅标志着AI硬件领域的一大飞跃,更进一步巩固了其在全球AI芯片设计与制造的领先地位。尽管国内AI芯片产业与世界顶尖的芯片制造商相比差距还很大,但是其发展空间还是很大的,期待国产芯片技术的崛起。
@周一见:H200对AI和HPC应用的影响是显著的,但成本和可用性是关键因素。此外,英伟达对未来芯片的展望显示了其长远规划,这些发展对整个技术和计算生态系统都有可能产生重要影响。
好文章,需要你的鼓励
南洋理工大学研究团队开发了WorldMem框架,首次让AI拥有真正的长期记忆能力,解决了虚拟世界模拟中的一致性问题。该系统通过记忆银行存储历史场景,并使用智能检索机制,让AI能准确重现之前的场景和事件,即使间隔很长时间。实验显示在Minecraft和真实场景中都表现出色,为游戏、自动驾驶、机器人等领域带来广阔应用前景。
AWS通过升级SageMaker机器学习平台来扩展市场地位,新增观测能力、连接式编码环境和GPU集群性能管理功能。面对谷歌和微软的激烈竞争,AWS专注于为企业提供AI基础设施支撑。SageMaker新功能包括深入洞察模型性能下降原因、为开发者提供更多计算资源控制权,以及支持本地IDE连接部署。这些更新主要源于客户需求,旨在解决AI模型开发中的实际问题。
MTS AI研究团队提出RewardRanker系统,通过重排序模型和迭代自训练显著提升AI代码生成质量。该方法让13.4B参数模型超越33B大模型,在多种编程语言上表现优异,甚至在C++上超越GPT-4。通过引入困难负样本和PPO优化,系统能从多个代码候选中选出最优方案,为AI编程助手的实用化奠定基础。