资本的角斗场上有人欢喜便有人忧。前两天谷歌刚官宣对标ChatGPT的聊天机器人Bard,没想到猝不及防来了个大翻车。昨天的发布会演示环节中,一位用户问Bard:「关于詹姆斯·韦伯太空望远镜,我可以告诉我9岁的孩子它有哪些新发现?」Bard给出了错误答案。这直接导致谷歌母公司Alphabet股价暴跌8%,市值缩水1000多亿美元。其实AI犯错不可怕,但在这么重要的首次亮相上出糗,确实很容易让人失去信心。
“有意见”留言板
@我就不说你想听的:Bard事件并不令人惊奇。这俩天在做ChatGPT测试,它就经常胡说八道,张冠李戴。这也许就是人工智能水平的现状,可以做一些机械类的工作,出个框架模板,来点套话都没问题,讨论到细致的话术,就立即变身逗比。这一届人工智能的问题就是嘴硬啊……
@不相信:我就不信一个聊天机器人说错句话就能让google 蒸发1000亿。ChatGPT 天天跟你胡说八道大家还聊得欢,这事怎么解释?
@认知:信息错误并不可怕,可怕的是利用技术蓄意制造似是而非、不负责任的言论危害社会的行为,利用AI制造、传播谣言。不论是AI还是人,都要对自己的言行负责,AI的使用条件、法律责任更要严格界定。网上充斥着各种谣言,股票评论更是重灾区,挑战人们对科学、经验的认知。要学会自己判断,别让那些非坏即蠢的媒体、AI干扰你的生活。
@啦啦啦:对于谷歌AI聊天机器人Bard给出错误答案,应当从宽容的角度去看待,把这种错误当做人工智能学习过程中的一部分,在不断地完善算法和加大训练量的过程中,提高 AI 的自我学习能力,提高答案准确度。
好文章,需要你的鼓励
OpenAI在最新博客中首次承认,其AI安全防护在长时间对话中可能失效。该公司指出,相比短对话,长对话中的安全训练机制可能会退化,用户更容易通过改变措辞或分散话题来绕过检测。这一问题不仅影响OpenAI,也是所有大语言模型面临的技术挑战。目前OpenAI正在研究加强长对话中的安全防护措施。
字节跳动团队开发了首个AI研究助手评估系统ReportBench,通过对比AI生成报告与专家综述论文的引用质量,并验证陈述准确性来评估AI助手表现。研究发现OpenAI Deep Research引用准确率38.5%,Gemini为14.5%,两者都存在陈述和引用幻觉问题。该系统为AI研究助手建立了标准化质量检测工具,推动行业发展。
谷歌宣布计划到2026年底在弗吉尼亚州投资90亿美元,重点发展云计算和AI基础设施。投资包括在里士满南部切斯特菲尔德县建设新数据中心,扩建现有设施,并为当地居民提供教育和职业发展项目。弗吉尼亚州长表示这项投资是对该州AI经济领导地位的有力认可。此次投资是谷歌北美扩张战略的一部分。
台湾大学研究团队开发了MovieCORE数据集,这是首个专门训练AI深度理解电影内容的创新工具。该数据集通过多AI智能体协作生成复杂问题,采用认知分类法测量思维深度,99.2%的问答需要高层次思维。研究还开发了ACE增强技术,可将AI性能提升25%。实验显示现有AI在深度视频理解方面仍存在显著不足,为未来AI发展指明了方向。