3月22日,英伟达召开GTC开发者大会。会上,英伟达带来了专门为ChatGPT这样的大型语言模型设计的显卡——带有双GPU NVLink的H100 NVL,并推出了AI超级计算服务DXG Cloud,企业可按月租用。此外,英伟达还宣布与台积电、ASML、新思科技三大半导体巨头合作,将加速计算带入计算光刻领域,推出用于计算光刻的软件库“cuLitho”。黄仁勋在会上反复强调,“AI的「iPhone时刻」已经到来”。
“有意见”留言板
@卡卡卡卡西:ChatGPT背后需要大量的算力支撑,所以最开心的就是老黄了,GTC上老黄的欣喜已经溢于言表,老黄再加加油,为AI降降本,让类ChatGPT尽快在C端打开应用缺口,让更多人体会到这次AI大爆发的实际应用和价值产出。
@阿里嘎多美羊羊桑:不得不说黄老板真的很有战略眼光,印象里十年前就宣传过AI概念了,现在借着GPT的风口,真的有了可以落地的H100 NVL GPU产品,我当时还以为只是大公司的宣传噱头,没想到你小子来真的啊。
@Ada:看了英伟达2023 GTC大会,“皮衣刀客”黄仁勋向我们展示了英伟达在AI领域的最新成果,从超级计算机到超级芯片,从生成式AI到元宇宙,英伟达几乎涵盖了AI应用的方方面面。印象深刻的一点是他们推出的计算光刻应用,大幅提升芯片制造效率,能为2nm制程做好准备。
好文章,需要你的鼓励
工业升级的关键,或许在于智能本身。“工业+机器人”将成为通向下一阶段工业体系的核心抓手。——黄仁勋。
浙江大学等联合研究发现,AI强化学习效果取决于"模型-任务对齐"程度。当AI擅长某任务时,单样本训练、错误奖励等非常规方法也有效;但面对陌生任务时,这些方法失效,只有标准训练有用。研究团队通过大量实验证实,这种"舒适圈"现象比数据污染更能解释训练差异,为AI训练策略优化提供了新思路。
瑞士政府正式发布了自主研发的人工智能模型,该模型完全基于公共数据进行训练。这一举措标志着瑞士在AI技术自主化方面迈出重要一步,旨在减少对外国AI技术的依赖,同时确保数据安全和隐私保护。该模型的推出体现了瑞士对发展本土AI能力的战略重视。
巴赫切希尔大学研究团队通过对五种不同规模YOLO模型的量化鲁棒性测试发现,静态INT8量化虽能带来1.5-3.3倍速度提升,但会显著降低模型对噪音等图像损伤的抵抗能力。他们提出的混合校准策略仅在大型模型处理噪音时有限改善,揭示了效率与鲁棒性平衡的复杂挑战。