近日,《纽约时报》报道, OpenAI和谷歌被指涉嫌使用YouTube视频的转录文本来训练其人工智能模型,这一行为可能侵犯了YouTube创作者的版权。
据报道,OpenAI通过使用其Whisper语音识别工具,转录了超过一百万小时的YouTube视频内容,并将这些数据用于训练其GPT-4模型。同时,谷歌也被曝出使用YouTube视频来训练自家的人工智能模型。然而,这两家公司的行为似乎并未得到所有创作者的授权。
如果可以随意使用创作者的公开内容进行AI训练,那么创作者的权益将如何得到保障?
“有意见”留言板
@媒体搬运工:大模型就像是“饕餮”,对于数据有着先天的嗜好,互联网上的论坛、贴吧、短视频等都是大模型眼中的“大餐”。对于这种可以抓取的信息,需要从法规上进行规范,而不是借助用户条款。
@辣腿堡不加酱:用于训练人工智能模型的这些数据来源是否可追溯,如果是公开展示的内容是否可直接用于训练,这些都需要进一步规范,而不是问及就含糊其辞
好文章,需要你的鼓励
Docker公司通过增强的compose框架和新基础设施工具,将自己定位为AI智能体开发的核心编排平台。该平台在compose规范中新增"models"元素,允许开发者在同一YAML文件中定义AI智能体、大语言模型和工具。支持LangGraph、CrewAI等多个AI框架,提供Docker Offload服务访问NVIDIA L4 GPU,并与谷歌云、微软Azure建立合作。通过MCP网关提供企业级安全隔离,解决了企业AI项目从概念验证到生产部署的断层问题。
哈佛大学研究团队开发出LangSplatV2系统,实现了超高速3D语言查询功能。该系统通过创新的稀疏编码技术和高效渲染算法,将3D场景语言理解速度提升了47倍,达到每秒384帧的实时处理能力。系统采用全局语义字典和稀疏系数表示,彻底解决了传统方法中解码器速度瓶颈问题,为AR/VR、智能机器人等应用提供了强大的技术基础。
马斯克的AI女友"Ani"引爆全球,腾讯RLVER框架突破情感理解边界:AI下半场竞争核心已转向对人性的精准把握。当技术学会共情,虚拟陪伴不再停留于脚本应答,而是通过"心与心的循环"真正理解人类孤独——这背后是强化学习算法与思考模式的化学反应,让AI从解决问题转向拥抱情感。
马里兰大学研究团队提出了CoLa(Chain-of-Layers)方法,让AI模型能够根据任务难度动态调整内部层的使用策略,实现"快思考"和"慢思考"的灵活切换。通过蒙特卡洛树搜索算法,该方法在推理任务上显著提升了模型的准确性和效率,为75%的正确答案找到了更短的处理路径,并纠正了60%的错误答案,为AI模型的架构优化开辟了新方向。