生成式人工智能技术快速发展,为经济社会发展带来新机遇的同时,也产生了传播虚假信息、侵害个人信息权益、数据安全和偏见歧视等问题。国家网信办等七部门联合公布《生成式人工智能服务管理暂行办法》,既是促进生成式人工智能健康发展的重要要求,也是防范生成式人工智能服务风险的现实需要。
“有意见”留言板
@老董:AI技术已经可以达到以假乱真的程度,没说过的话、没做过的事,都可以用音、视频智能生成,这样的技术用在正途,可以给人们带来全新的体验,可用在不正常的地方,就会给造谣污蔑、网络诈骗打开一条全新的通道只能说这个办法出台的非常及时,的AI也能有法可依,希望未来也可以执法必严。
@TOFU:厂商有责任尽量防止大模型不去侵害个人信息权益、危害数据安全和造成偏见歧视,但语言的博大精深, 钻空子也不是做不到的,ChatGPT刚出现那段时间,很多人都在尝试挑战它的“底线”,在这一层面,厂商想防患于未然,恐怕也有难度。对于虚假信息,相比辟谣、标记这些措施,对个人来说,培养良好的新闻素养,提高辨别能力更重要。
@独木舟:这项管理法为人工智能服务的开发、使用和监管提供了明确的法律依据,保护相关利益者的权益,防止人工智能技术的滥用,降低相关风险。
好文章,需要你的鼓励
多伦多大学研究团队提出Squeeze3D压缩框架,巧妙利用3D生成模型的隐含压缩能力,通过训练映射网络桥接编码器与生成器的潜在空间,实现了极致的3D数据压缩。该技术对纹理网格、点云和辐射场分别达到2187倍、55倍和619倍的压缩比,同时保持高视觉质量,且无需针对特定对象训练网络,为3D内容传输和存储提供了革命性解决方案。
浙江大学与腾讯联合研究团队提出MoA异构适配器混合方法,通过整合不同类型的参数高效微调技术,解决了传统同质化专家混合方法中的表征坍塌和负载不均衡问题。该方法在数学和常识推理任务上显著优于现有方法,同时大幅降低训练参数和计算成本,为大模型高效微调提供了新的技术路径。
耶鲁、哥大等四校联合研发的RKEFino1模型,通过在Fino1基础上注入XBRL、CDM、MOF三大监管框架知识,显著提升了AI在数字监管报告任务中的表现。该模型在知识问答准确率提升超过一倍,数学推理能力从56.87%提升至70.69%,并在新颖的数值实体识别任务中展现良好潜力,为金融AI合规应用开辟新路径。
加州大学圣巴巴拉分校研究团队开发出能够自我进化的AI智能体,通过《卡坦岛拓荒者》桌游测试,这些AI能在游戏过程中自主修改策略和代码。实验显示,具备自我进化能力的AI显著超越静态版本,其中Claude 3.7模型性能提升达95%。研究验证了AI从被动工具向主动伙伴转变的可能性,为复杂决策场景中的AI应用开辟新路径。