资本的角斗场上有人欢喜便有人忧。前两天谷歌刚官宣对标ChatGPT的聊天机器人Bard,没想到猝不及防来了个大翻车。昨天的发布会演示环节中,一位用户问Bard:「关于詹姆斯·韦伯太空望远镜,我可以告诉我9岁的孩子它有哪些新发现?」Bard给出了错误答案。这直接导致谷歌母公司Alphabet股价暴跌8%,市值缩水1000多亿美元。其实AI犯错不可怕,但在这么重要的首次亮相上出糗,确实很容易让人失去信心。
“有意见”留言板
@我就不说你想听的:Bard事件并不令人惊奇。这俩天在做ChatGPT测试,它就经常胡说八道,张冠李戴。这也许就是人工智能水平的现状,可以做一些机械类的工作,出个框架模板,来点套话都没问题,讨论到细致的话术,就立即变身逗比。这一届人工智能的问题就是嘴硬啊……
@不相信:我就不信一个聊天机器人说错句话就能让google 蒸发1000亿。ChatGPT 天天跟你胡说八道大家还聊得欢,这事怎么解释?
@认知:信息错误并不可怕,可怕的是利用技术蓄意制造似是而非、不负责任的言论危害社会的行为,利用AI制造、传播谣言。不论是AI还是人,都要对自己的言行负责,AI的使用条件、法律责任更要严格界定。网上充斥着各种谣言,股票评论更是重灾区,挑战人们对科学、经验的认知。要学会自己判断,别让那些非坏即蠢的媒体、AI干扰你的生活。
@啦啦啦:对于谷歌AI聊天机器人Bard给出错误答案,应当从宽容的角度去看待,把这种错误当做人工智能学习过程中的一部分,在不断地完善算法和加大训练量的过程中,提高 AI 的自我学习能力,提高答案准确度。
好文章,需要你的鼓励
Adobe 周二宣布推出适用于 Android 系统的 Photoshop 应用测试版,提供与桌面版相似的图像编辑工具和 AI 功能,初期免费使用,旨在吸引更多偏好手机创作的年轻用户。
弗吉尼亚大学研究团队开发了TruthHypo基准和KnowHD框架,用于评估大语言模型生成生物医学假设的真实性及检测幻觉。研究发现大多数模型在生成真实假设方面存在困难,只有GPT-4o达到60%以上的准确率。通过分析推理步骤中的幻觉,研究证明KnowHD提供的基础依据分数可有效筛选真实假设。人类评估进一步验证了KnowHD在识别真实假设和加速科学发现方面的价值,为AI辅助科学研究提供了重要工具。
文章详细介绍了Character.AI这款主要面向娱乐、角色扮演和互动叙事的AI聊天工具的原理、用户群体、特色功能以及面临的法律与伦理争议,同时揭示了其新推出的视频和游戏互动体验。
亚马逊Nova责任AI团队与亚利桑那州立大学共同开发了AIDSAFE,这是一种创新的多代理协作框架,用于生成高质量的安全策略推理数据。不同于传统方法,AIDSAFE通过让多个AI代理进行迭代讨论和精炼,产生全面且准确的安全推理链,无需依赖昂贵的高级推理模型。实验证明,使用此方法生成的数据训练的语言模型在安全泛化和抵抗"越狱"攻击方面表现卓越,同时保持了实用性。研究还提出了"耳语者"代理技术,解决了偏好数据创建中的困难,为直接策略优化提供了更有效的训练材料。