李开复旗下 AI 公司零一万物也宣布开源了其 Yi-9B 模型,官方称它是当前 Yi 系列模型中的“理科状元”——代码和数学能力表现最佳;不偏科,中文能力也很强。其全部参数量为 8.8B,有效参数8.31B,默认上下文长度为 4K tokens。Yi-9B(BF 16)在消费级显卡上轻松部署,使用成本较低,开发者友好。
除此之外,早先,包括阿里云对外开源了通义千问7B大模型,Meta开源了大模型Llama 2,谷歌开源大模型Gemma 7B,巨头已经纷纷开源,来加速端侧AI 落地。
“有意见”留言板
@本土化:中国的大模型公司应该更加注重模型的中文表现能力,毕竟主要服务中文人。中文语义的理解远比英文以及字母文字语言更加难理解。但 Yi 的模型评测里并没给出中文的测试评分,此外,从数据上看9B 好像没比别人的7B好多少。到底是不是套壳,开源后大家就好审查代码了。
@Betty:并不是开发,而是完全100% Meta的llama
好文章,需要你的鼓励
多伦多大学研究团队提出Squeeze3D压缩框架,巧妙利用3D生成模型的隐含压缩能力,通过训练映射网络桥接编码器与生成器的潜在空间,实现了极致的3D数据压缩。该技术对纹理网格、点云和辐射场分别达到2187倍、55倍和619倍的压缩比,同时保持高视觉质量,且无需针对特定对象训练网络,为3D内容传输和存储提供了革命性解决方案。
浙江大学与腾讯联合研究团队提出MoA异构适配器混合方法,通过整合不同类型的参数高效微调技术,解决了传统同质化专家混合方法中的表征坍塌和负载不均衡问题。该方法在数学和常识推理任务上显著优于现有方法,同时大幅降低训练参数和计算成本,为大模型高效微调提供了新的技术路径。
耶鲁、哥大等四校联合研发的RKEFino1模型,通过在Fino1基础上注入XBRL、CDM、MOF三大监管框架知识,显著提升了AI在数字监管报告任务中的表现。该模型在知识问答准确率提升超过一倍,数学推理能力从56.87%提升至70.69%,并在新颖的数值实体识别任务中展现良好潜力,为金融AI合规应用开辟新路径。
加州大学圣巴巴拉分校研究团队开发出能够自我进化的AI智能体,通过《卡坦岛拓荒者》桌游测试,这些AI能在游戏过程中自主修改策略和代码。实验显示,具备自我进化能力的AI显著超越静态版本,其中Claude 3.7模型性能提升达95%。研究验证了AI从被动工具向主动伙伴转变的可能性,为复杂决策场景中的AI应用开辟新路径。