AI领域又有大动作了。谷歌宣布将旗下两大AI团队谷歌大脑和DeepMind合并为Google DeepMind,携手对抗OpenAI。其实从这次合并也能看出谷歌在AI上的一些问题,谷歌大脑与DeepMind都是世界顶尖的AI团队,但以往谷歌在AI上的成果多停留在研究层面,在产品化和应用化上有所欠缺,而OpenAI更擅长将AI技术与商业模式、社区生态、用户需求结合,打造出有影响力的产品和服务。
“有意见”留言板
@TOFU:先不说AI做得怎么样,仅就DeepMind被Google收购后改名为Google DeepMind,又改回DeepMind,现在又要改回Google DeepMind这件事来看,Google显然更需要一个像微软那样的改名部。
@集中力量干大事:Google Brain最初的工作重点是深度学习,特别是通过建立大规模神经网络来改进语音识别和图像识别任务。DeepMind以开发能够学习和自我进化的人工智能系统为主要目标,探索人工智能在多个领域的应用,包括医疗保健、游戏和自然语言处理等.Demis Hassabis希望他们的AI系统能够模拟人类的思维和学习方式,并具有自我学习和自我进化的能力。Brain与DeepMind并后拥有更多的研究人员、更丰富的数据和更多的计算能力很可能取代OpenAI的地位。
@老董:关键还是在于合并后可以开发出什么样的应用,现在搜索引擎技术已经十分成熟,如果只是用AI来增强搜索能力,恐怕不会有太明显的效果,而在其它专业领域,谷歌是否具备相关的数据积累又是一个问题,但谁也无法预料AI大模型技术的发展,希望通过这次合并,可以让谷歌提供出一个让人眼睛一亮的新应用。
好文章,需要你的鼓励
谷歌发布新的AI学术搜索工具Scholar Labs,旨在回答详细研究问题。该工具使用AI识别查询中的主要话题和关系,目前仅对部分登录用户开放。与传统学术搜索不同,Scholar Labs不依赖引用次数或期刊影响因子等传统指标来筛选研究质量,而是通过分析文档全文、发表位置、作者信息及引用频次来排序。科学界对这种忽略传统质量评估方式的新方法持谨慎态度,认为研究者仍需保持对文献质量的最终判断权。
Meta公司FAIR实验室与UCLA合作开发了名为HoneyBee的超大规模视觉推理数据集,包含250万训练样本。研究揭示了构建高质量AI视觉推理训练数据的系统方法,发现数据质量比数量更重要,最佳数据源比最差数据源性能提升11.4%。关键创新包括"图片说明书"技术和文字-图片混合训练法,分别提升3.3%和7.5%准确率。HoneyBee训练的AI在多项测试中显著超越同规模模型,同时降低73%推理成本。
Meta发布第三代SAM(分割一切模型)系列AI模型,专注于视觉智能而非语言处理。该模型擅长物体检测,能够精确识别图像和视频中的特定对象。SAM 3在海量图像视频数据集上训练,可通过点击或文本描述准确标识目标物体。Meta将其应用于Instagram编辑工具和Facebook市场功能改进。在野生动物保护方面,SAM 3与保护组织合作分析超万台摄像头捕获的动物视频,成功识别百余种物种,为生态研究提供重要技术支持。
上海AI实验室团队提出ViCO训练策略,让多模态大语言模型能够根据图像语义复杂度智能分配计算资源。通过两阶段训练和视觉路由器,该方法在压缩50%视觉词汇的同时保持99.6%性能,推理速度提升近一倍,为AI效率优化提供了新思路。