杰弗里·辛顿在谷歌工作了23年,参与了谷歌搜索、谷歌翻译、谷歌大脑等重要项目,在业内被称为“人工智能之父”。近日,杰弗里·辛顿宣布离开谷歌。并在采访中说,人工智能正在变得比人类更聪明,他想“吹响哨子”,提醒人们思考如何阻止被人工智能控制。他对自己在人工智能领域的贡献感到后悔,觉得自己可能为未来的灾难埋下了种子。
“有意见”留言板
@bicmao:AI技术是人类生产力革命的必需阶段,AI技术和量子技术一样是变革性技术进步。技术本身并没有错,与其恐惧AI,倒不如说AI的演进放大的是人类本身的“原罪”。从社会层面看,掌握生产资料的人,更能利用AI扩大生产效率,进而加速扩大自己的财富规模,于是AI越强大,贫富分化越严重。AI技术带来的“恶果”也许本身就是个社会学问题。
@利刃:AI与任何工具一样都是把双刃剑,用好了可造福人类,用不好将伤及无辜。AI的监管确实势在必行,虚假的信息如果在互联网上泛滥,将产生更大的数字鸿沟和数字茧房。
@隔壁二大爷:人工智能在为我们的生活带来便利和创新的同时,也带来了许多挑战和风险。我们应该在人工智能发展的过程中积极采取措施,确保技术的应用能够真正造福人类,而非成为隐患。
好文章,需要你的鼓励
工业升级的关键,或许在于智能本身。“工业+机器人”将成为通向下一阶段工业体系的核心抓手。——黄仁勋。
浙江大学等联合研究发现,AI强化学习效果取决于"模型-任务对齐"程度。当AI擅长某任务时,单样本训练、错误奖励等非常规方法也有效;但面对陌生任务时,这些方法失效,只有标准训练有用。研究团队通过大量实验证实,这种"舒适圈"现象比数据污染更能解释训练差异,为AI训练策略优化提供了新思路。
瑞士政府正式发布了自主研发的人工智能模型,该模型完全基于公共数据进行训练。这一举措标志着瑞士在AI技术自主化方面迈出重要一步,旨在减少对外国AI技术的依赖,同时确保数据安全和隐私保护。该模型的推出体现了瑞士对发展本土AI能力的战略重视。
巴赫切希尔大学研究团队通过对五种不同规模YOLO模型的量化鲁棒性测试发现,静态INT8量化虽能带来1.5-3.3倍速度提升,但会显著降低模型对噪音等图像损伤的抵抗能力。他们提出的混合校准策略仅在大型模型处理噪音时有限改善,揭示了效率与鲁棒性平衡的复杂挑战。