在OpenAI文生视频生成模型 Sora 火爆的同时,已经有天真的AI专家们忧心忡忡的关注起AI 的安全治理,来自 OpenAI、人工智能治理中心(GovAI)、剑桥大学 Leverhulme 未来智能中心等机构的 19 位学界、业界人士忧心忡忡、把酒言欢的搞了一篇论文,把 AI 治理聚焦到了“硬件”和“算力”上。
其中一个选项是建立一个全球登记处,跟踪用于 AI 超级计算机的芯片流动,从而帮助防止 AI 的滥用和灾难。嗯,这个主意在乌托邦社会可以实现。
“有意见”留言板
@不倒翁:这些专家没事情干了吗,这是什么馊主意,忘记棱镜门事件了?哪个芯片厂商敢在硬件上留后门让你跟踪AI芯片流动和使用?好好的搞你的科研吧,AI 的安全治理最终还是由各个国家的相关部门出台政策制定的。
@周一见:未来的AI治理需要全球合作,各国政府应加强沟通,共同制定和执行政策。同时需加强技术研发,提供先进治理手段,并提升公众对AI的认知,增加其参与度和支持度。
好文章,需要你的鼓励
CoreWeave发布AI对象存储服务,采用本地对象传输加速器(LOTA)技术,可在全球范围内高速传输对象数据,无出口费用或请求交易分层费用。该技术通过智能代理在每个GPU节点上加速数据传输,提供高达每GPU 7 GBps的吞吐量,可扩展至数十万个GPU。服务采用三层自动定价模式,为客户的AI工作负载降低超过75%的存储成本。
KAIST研究团队开发出RL-ZVP方法,首次让AI从训练中的"无用数据"学习。传统方法遇到全对或全错答案时会停止学习,但RL-ZVP通过分析词汇重要性给予精确反馈。在数学推理测试中,该方法比现有技术提升高达8.6个准确率点,且训练过程更稳定。这项突破重新定义了AI训练范式,证明了被忽视的训练数据实际蕴含巨大学习潜力。
谷歌DeepMind与核聚变初创公司CFS合作,运用先进AI模型帮助管理和改进即将发布的Sparc反应堆。DeepMind开发了名为Torax的专用软件来模拟等离子体,结合强化学习等AI技术寻找最佳核聚变控制方式。核聚变被视为清洁能源的圣杯,可提供几乎无限的零碳排放能源。谷歌已投资CFS并承诺购买其200兆瓦电力。
中国传媒大学团队发现,通过巧妙设计"视觉句子"框架,一个预训练的视频生成模型经过轻量级调整后能够统一处理多种视觉任务,包括图像生成、深度预测、物体分割等。该方法无需大量任务特定数据,每个任务仅用20个样本就能实现良好效果,展现了从专用AI向通用AI转变的可能性。