在刚举办的腾讯全球数字生态大会上,腾讯推出了超千亿参数规模、超2万亿tokens预训练语料,具有减少“胡言乱语”、能识别“陷阱”、可生成千字长文的腾讯自研通用大语言模型——腾讯混元大模型。其可以完成专业领域的多轮问答;支持文学创作、文本摘要、角色扮演;能够基于已有数据或信息进行推理、分析;同时有效解决事实性、时效性问题。
“有意见”留言板
@裂变:腾讯发布了基于超2万亿token的大模型,几乎同时,Technology Innovation Institute也开源了 3.5 万亿 token 训练的大模型,大家在训练 token 规模上基本处于同一量级,但腾讯更加认识到“AI必须应用到具体实践中,才能发挥最大价值”。人工智能正在成为下一轮数字化发展的关键动力、大模型基于产业场景,与企业数据融合,才能释放出最大的价值,已成为业界共识。相信在各个领域的技术突破将呈现出百花齐放的盛况。
@Betty:腾讯在全球数字生态大会上推出的混元大模型无疑是数字技术和AI领域的一个重要里程碑。这不仅彰显了腾讯在人工智能领域的技术实力,也预示着未来AI将在各行各业中扮演更加核心的角色。特别是在多个核心业务中的成功接入,足以说明该技术的实用性和可靠性。
@bic:腾讯云通过大模型深入产业全链条,推动产业智能化落地,这无疑将为各行各业带来巨大的变革和机遇。无论是在研发智能、生产智能、营销智能、服务智能还是管理智能等方面,腾讯云都展现出了强大的实力和广阔的前景。
好文章,需要你的鼓励
在“PEC 2025 AI创新者大会暨第二届提示工程峰会”上,一场以“AIGC创作新范式——双脑智能时代:心智驱动的生产力变革”为主题的分论坛,成为现场最具张力的对话空间。
人民大学团队开发了Search-o1框架,让AI在推理时能像侦探一样边查资料边思考。系统通过检测不确定性词汇自动触发搜索,并用知识精炼模块从海量资料中提取关键信息无缝融入推理过程。在博士级科学问题测试中,该系统整体准确率达63.6%,在物理和生物领域甚至超越人类专家水平,为AI推理能力带来突破性提升。
Linux Mint团队计划加快发布周期,在未来几个月推出两个新版本。LMDE 7代号"Gigi"基于Debian 13开发,将包含libAdapta库以支持Gtk4应用的主题功能。新版本将停止提供32位版本支持。同时Cinnamon桌面的Wayland支持持续改进,在菜单、状态小程序和键盘输入处理方面表现更佳,有望成为完整支持Wayland的重要桌面环境之一。
Anthropic研究团队开发的REINFORCE++算法通过采用全局优势标准化解决了AI训练中的"过度拟合"问题。该算法摒弃了传统PPO方法中昂贵的价值网络组件,用统一评价标准替代针对单个问题的局部基准,有效避免了"奖励破解"现象。实验显示,REINFORCE++在处理新问题时表现更稳定,特别是在长文本推理和工具集成场景中展现出优异的泛化能力,为开发更实用可靠的AI系统提供了新思路。