在OpenAI文生视频生成模型 Sora 火爆的同时,已经有天真的AI专家们忧心忡忡的关注起AI 的安全治理,来自 OpenAI、人工智能治理中心(GovAI)、剑桥大学 Leverhulme 未来智能中心等机构的 19 位学界、业界人士忧心忡忡、把酒言欢的搞了一篇论文,把 AI 治理聚焦到了“硬件”和“算力”上。
其中一个选项是建立一个全球登记处,跟踪用于 AI 超级计算机的芯片流动,从而帮助防止 AI 的滥用和灾难。嗯,这个主意在乌托邦社会可以实现。
“有意见”留言板
@不倒翁:这些专家没事情干了吗,这是什么馊主意,忘记棱镜门事件了?哪个芯片厂商敢在硬件上留后门让你跟踪AI芯片流动和使用?好好的搞你的科研吧,AI 的安全治理最终还是由各个国家的相关部门出台政策制定的。
@周一见:未来的AI治理需要全球合作,各国政府应加强沟通,共同制定和执行政策。同时需加强技术研发,提供先进治理手段,并提升公众对AI的认知,增加其参与度和支持度。
好文章,需要你的鼓励
伊斯法罕大学研究团队通过分析Google Play商店21款AI教育应用的用户评论,发现作业辅导类应用获得超80%正面评价,而语言学习和管理系统类应用表现较差。用户赞赏AI工具的快速响应和个性化指导,但抱怨收费过高、准确性不稳定等问题。研究建议开发者关注自适应个性化,政策制定者建立相关规范,未来发展方向为混合AI-人类模型。
谷歌发布基于Gemini 3的快速低成本模型Flash,并将其设为Gemini应用和AI搜索的默认模型。新模型在多项基准测试中表现优异,在MMMU-Pro多模态推理测试中得分81.2%超越所有竞品。该模型已向全球用户开放,并通过Vertex AI和API向企业及开发者提供服务。定价为每百万输入token 0.5美元,输出token 3美元,速度比2.5 Pro快三倍且更节省token用量。
这项由伊利诺伊大学香槟分校等四所院校联合完成的研究,提出了名为DaSH的层次化数据选择方法。该方法突破了传统数据选择只关注单个样本的局限,通过建模数据的天然层次结构,实现了更智能高效的数据集选择。在两个公开基准测试中,DaSH相比现有方法提升了高达26.2%的准确率,同时大幅减少了所需的探索步数。