所谓的AI 换脸,就是通过换脸工具,将视频中的人脸换成另一个人,以用作一些特殊用途。前两年 DeepFace 软件出炉,就有不少人利用这款软件,直接将一些女明星的脸换到了其他视频上,还有借助名人的面孔发布不实信息甚至进行金融诈骗……
如今AI 换脸终于有人进行管理了,国家互联网信息办公室、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》(以下简称《规定》),自2023年1月10日起施行。
《规定》明确了深度合成相关用语的含义,以及制定目的依据、适用范围、部门职责、导向要求、监督检查与法律责任;明确在中华人民共和国境内应用深度合成技术提供互联网信息服务,适用本规定。
国家互联网信息办公室有关负责人指出,深度合成服务治理需要政府、企业、社会、网民等多方主体共同参与,推动深度合成技术的依法、合理、有效使用,积极防范化解深度合成技术带来的风险,促进互联网信息服务健康发展,维护网络空间良好生态。
我们的科技留言板“有意见”如下
@不倒翁:不仅AI换脸要进行显著标识,AI合成声音也应该标识,这背后是深度合成技术带来了新的隐患。虽说技术无善恶,但是不乏别有用心者,小到一些蝇营狗苟进行违法和不良信息内容合成,大到用于国际互联网战场,危害国家安全和社会稳定。相信这次制度完善仅仅是开始,之后会有更细则的规定出台,来让大家既能实现AI价值,又能保证应用健康。
@黑咕隆咚:虽然本次规定深度合成应当进行显著标识,而且任何组织和个人不得采用技术手段删除、篡改、隐匿相关标识。这些规定也许只是对正常经营者有效吧,并不能约束不法分子仿冒他人身份实施诈骗,这些人会利用各种手段去做违法的事情,重要的还是想想有什么方法能去解决这些不法分子吧。
@TOFU:平台有责任对深度合成内容进行显著标识,而类似技术也很容易遭到滥用,像是通过 Deep Fake 换脸来诋毁、侮辱他人,甚至以此获利,对被害人造成严重影响。种种情况都需要更详细、透明的规章制度,例如在处置滥用 Deep Fake 等技术时,可以对未遂、购买与持有、胁迫等行为细化配套措施,并且对公众进行教育宣导,从源头杜绝相关犯罪行为的发生。
@周一见:《规定》是对深度度合成服务提供者和技术支持者的约束,深度伪造的本质问题是透明度不足,提高公众对深度合成技术的认知也很重要。只有将门槛降低到所有受众能够在共同框架下认识、讨论、理解这个问题的时候,深度合成技术才能健康良性发展。
好文章,需要你的鼓励
浙江大学研究团队开发了ContextGen,这是首个能够同时精确控制多个对象位置和外观的AI图像生成系统。该系统通过情境布局锚定和身份一致性注意力两大创新机制,解决了传统AI在多对象场景中位置控制不准确和身份保持困难的问题,并创建了业界首个10万样本的专业训练数据集,在多项测试中超越现有技术。
谷歌推出升级版图像生成模型Nano Banana Pro,基于最新Gemini 3语言模型构建。新模型支持更高分辨率(2K/4K)、准确文本渲染、网络搜索功能,并提供专业级图像控制能力,包括摄像角度、场景光照、景深等。虽然质量更高但成本也相应增加,1080p图像费用为0.139美元。模型已集成到Gemini应用、NotebookLM等多个谷歌AI工具中,并通过API向开发者开放。
上海交通大学研究团队开发的SR-Scientist系统实现了人工智能在科学发现领域的重大突破。该系统能够像真正的科学家一样,从实验数据中自主发现数学公式,通过工具驱动的数据分析和长期优化机制,在四个科学领域的测试中比现有方法提高了6%-35%的精确度。这标志着AI从被动工具转变为主动科学发现者的重要里程碑。