杰弗里·辛顿在谷歌工作了23年,参与了谷歌搜索、谷歌翻译、谷歌大脑等重要项目,在业内被称为“人工智能之父”。近日,杰弗里·辛顿宣布离开谷歌。并在采访中说,人工智能正在变得比人类更聪明,他想“吹响哨子”,提醒人们思考如何阻止被人工智能控制。他对自己在人工智能领域的贡献感到后悔,觉得自己可能为未来的灾难埋下了种子。
“有意见”留言板
@bicmao:AI技术是人类生产力革命的必需阶段,AI技术和量子技术一样是变革性技术进步。技术本身并没有错,与其恐惧AI,倒不如说AI的演进放大的是人类本身的“原罪”。从社会层面看,掌握生产资料的人,更能利用AI扩大生产效率,进而加速扩大自己的财富规模,于是AI越强大,贫富分化越严重。AI技术带来的“恶果”也许本身就是个社会学问题。
@利刃:AI与任何工具一样都是把双刃剑,用好了可造福人类,用不好将伤及无辜。AI的监管确实势在必行,虚假的信息如果在互联网上泛滥,将产生更大的数字鸿沟和数字茧房。
@隔壁二大爷:人工智能在为我们的生活带来便利和创新的同时,也带来了许多挑战和风险。我们应该在人工智能发展的过程中积极采取措施,确保技术的应用能够真正造福人类,而非成为隐患。
好文章,需要你的鼓励
Adobe 周二宣布推出适用于 Android 系统的 Photoshop 应用测试版,提供与桌面版相似的图像编辑工具和 AI 功能,初期免费使用,旨在吸引更多偏好手机创作的年轻用户。
弗吉尼亚大学研究团队开发了TruthHypo基准和KnowHD框架,用于评估大语言模型生成生物医学假设的真实性及检测幻觉。研究发现大多数模型在生成真实假设方面存在困难,只有GPT-4o达到60%以上的准确率。通过分析推理步骤中的幻觉,研究证明KnowHD提供的基础依据分数可有效筛选真实假设。人类评估进一步验证了KnowHD在识别真实假设和加速科学发现方面的价值,为AI辅助科学研究提供了重要工具。
文章详细介绍了Character.AI这款主要面向娱乐、角色扮演和互动叙事的AI聊天工具的原理、用户群体、特色功能以及面临的法律与伦理争议,同时揭示了其新推出的视频和游戏互动体验。
亚马逊Nova责任AI团队与亚利桑那州立大学共同开发了AIDSAFE,这是一种创新的多代理协作框架,用于生成高质量的安全策略推理数据。不同于传统方法,AIDSAFE通过让多个AI代理进行迭代讨论和精炼,产生全面且准确的安全推理链,无需依赖昂贵的高级推理模型。实验证明,使用此方法生成的数据训练的语言模型在安全泛化和抵抗"越狱"攻击方面表现卓越,同时保持了实用性。研究还提出了"耳语者"代理技术,解决了偏好数据创建中的困难,为直接策略优化提供了更有效的训练材料。