大语言模型有个弱点是偏科,由于是基于语言文本训练的,它们更擅长文科,在解决数学问题方面显得力不从心。比如之前好几个大模型都没算明白鸡兔同笼。近日,学而思宣布正在自研数学大模型MathGPT,并将于年内推出基于该模型的产品级应用。学而思AI团队表示,MathGPT需要结合大语言模型和计算引擎两者的能力,大语言模型负责理解题目、分步解析,并在合适的步骤自行调用计算引擎。
“有意见”留言板
@不倒翁:打造一个能力超强的会教数学、做数学题的大模型是完全可能的。可惜现在缺少高斯、牛顿、华罗庚等数学天才。要是这些天才把自己的学习方法喂给AI,那AI的数学能力肯定超强的。目前AI唯一缺陷就是能耗太高。人脑消耗1瓦特做的算术题,AI可能需要10万瓦特。
@黑咕隆咚:学而思关于自研数学大模型的研发,还是比较有前瞻性的。数学在各个领域都发挥着举足轻重的作用,也许以后还能为数学教育和科研发展带来革命性的影响呢。
@周一见:从目前发布的应用来看,这一轮大模型的星星之火,率先在教育产业点燃。这对于个性化辅导、提高学习效率,或许会有非常大的价值,长期看,对于教育普惠也将带来更多想象空间。
好文章,需要你的鼓励
当AI遇到空间推理难题:最新研究揭示GPT-4等顶尖模型在传送门解谜和立体拼图中集体"挂科",复杂智能远比我们想象的更难实现。
这项研究首次系统评估了AI代码智能体在科学研究扩展方面的能力。研究团队设计了包含12个真实研究任务的REXBENCH基准,测试了九个先进AI智能体的表现。结果显示,即使最优秀的智能体成功率也仅为25%,远低于实用化要求,揭示了当前AI在处理复杂科学推理任务时的显著局限性。
2025施耐德电气智算峰会上,全新EcoStruxure(TM) Energy Operation电力综合运营系统正式亮相,定位场站级智慧能源管理中枢,集技术领先性与本土适配性于一体。
俄罗斯莫斯科国立大学研究团队开发出MEMFOF光流估计新方法,在保持顶尖精度的同时将1080p视频分析的GPU内存消耗从8GB降至2GB,实现约4倍内存节省。该方法通过三帧策略、相关性体积优化和高分辨率训练在多个国际基准测试中取得第一名成绩,为高清视频分析技术的普及奠定基础。