所谓的AI 换脸,就是通过换脸工具,将视频中的人脸换成另一个人,以用作一些特殊用途。前两年 DeepFace 软件出炉,就有不少人利用这款软件,直接将一些女明星的脸换到了其他视频上,还有借助名人的面孔发布不实信息甚至进行金融诈骗……
如今AI 换脸终于有人进行管理了,国家互联网信息办公室、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》(以下简称《规定》),自2023年1月10日起施行。
《规定》明确了深度合成相关用语的含义,以及制定目的依据、适用范围、部门职责、导向要求、监督检查与法律责任;明确在中华人民共和国境内应用深度合成技术提供互联网信息服务,适用本规定。
国家互联网信息办公室有关负责人指出,深度合成服务治理需要政府、企业、社会、网民等多方主体共同参与,推动深度合成技术的依法、合理、有效使用,积极防范化解深度合成技术带来的风险,促进互联网信息服务健康发展,维护网络空间良好生态。
我们的科技留言板“有意见”如下
@不倒翁:不仅AI换脸要进行显著标识,AI合成声音也应该标识,这背后是深度合成技术带来了新的隐患。虽说技术无善恶,但是不乏别有用心者,小到一些蝇营狗苟进行违法和不良信息内容合成,大到用于国际互联网战场,危害国家安全和社会稳定。相信这次制度完善仅仅是开始,之后会有更细则的规定出台,来让大家既能实现AI价值,又能保证应用健康。
@黑咕隆咚:虽然本次规定深度合成应当进行显著标识,而且任何组织和个人不得采用技术手段删除、篡改、隐匿相关标识。这些规定也许只是对正常经营者有效吧,并不能约束不法分子仿冒他人身份实施诈骗,这些人会利用各种手段去做违法的事情,重要的还是想想有什么方法能去解决这些不法分子吧。
@TOFU:平台有责任对深度合成内容进行显著标识,而类似技术也很容易遭到滥用,像是通过 Deep Fake 换脸来诋毁、侮辱他人,甚至以此获利,对被害人造成严重影响。种种情况都需要更详细、透明的规章制度,例如在处置滥用 Deep Fake 等技术时,可以对未遂、购买与持有、胁迫等行为细化配套措施,并且对公众进行教育宣导,从源头杜绝相关犯罪行为的发生。
@周一见:《规定》是对深度度合成服务提供者和技术支持者的约束,深度伪造的本质问题是透明度不足,提高公众对深度合成技术的认知也很重要。只有将门槛降低到所有受众能够在共同框架下认识、讨论、理解这个问题的时候,深度合成技术才能健康良性发展。
好文章,需要你的鼓励
继苹果和其他厂商之后,Google正在加大力度推广其在智能手机上的人工智能功能。该公司试图通过展示AI在移动设备上的实用性和创新性来吸引消费者关注,希望说服用户相信手机AI功能的价值。Google面临的挑战是如何让消费者真正体验到AI带来的便利,并将这些技术优势转化为市场竞争力。
麻省理工学院研究团队发现大语言模型"幻觉"现象的新根源:注意力机制存在固有缺陷。研究通过理论分析和实验证明,即使在理想条件下,注意力机制在处理多步推理任务时也会出现系统性错误。这一发现挑战了仅通过扩大模型规模就能解决所有问题的观点,为未来AI架构发展指明新方向,提醒用户在复杂推理任务中谨慎使用AI工具。
Meta为Facebook和Instagram推出全新AI翻译工具,可实时将用户生成内容转换为其他语言。该功能在2024年Meta Connect大会上宣布,旨在打破语言壁垒,让视频和短视频内容触达更广泛的国际受众。目前支持英语和西班牙语互译,后续将增加更多语言。创作者还可使用AI唇形同步功能,创造无缝的口型匹配效果,并可通过创作者控制面板随时关闭该功能。
中科院自动化所等机构联合发布MM-RLHF研究,构建了史上最大的多模态AI对齐数据集,包含12万个精细人工标注样本。研究提出批评式奖励模型和动态奖励缩放算法,显著提升多模态AI的安全性和对话能力,为构建真正符合人类价值观的AI系统提供了突破性解决方案。