OpenAI于11月30日推出的ChatGPT聊天机器人,自上线那天就被网友称为要“超越谷歌搜索”。目前免费开放,发布的一周之内,用户量直冲百万级,甚至服务器一度被注册用户挤爆了。
ChatGPT不仅能回答各种问题,还能写剧本、写小说、给代码纠错,可以进行多轮对话,回复自然流畅。OpenAI表示,ChatGPT模型使用了“利用人类反馈强化学习”(RLHF)的训练方式,相比 GPT-3,ChatGPT的主要提升点在于记忆能力,可实现连续对话,极大地提升了对话交互模式下的用户体验。
我们的科技留言板“有意见”如下
@不倒翁:人们创造AI是为了什么?方向错了,回答得再好也没啥用,看了ChatGPT的答复,看似滴水不漏的回答,其实没有解决具体问题。比如你问“羊肉好吃吗”他回答“人们的看法可能会有所不同。有些人可能认为羊肉味道鲜美,适合烹饪各种菜肴。但也有人认为羊肉味道难以接受。这可能取决于个人口味和喜好。因此,关于羊肉是否好吃,并不能给出一个统一的答案。”这确实不是人话!
@周一见:一个更“高级”地、“训练有素”的AI,好玩但不止好玩,比起追求一个精准的答案,ChatGPT更适合充当文本生成、创意写作的工具。眼前最接近实际的应用场景是搜索引擎优化、营销媒体内容创作辅助和开发者编程,从模型的准确性和部署成本来看,今天的ChatGPT距离实际落地还有一段距离。
@黑咕隆咚:聊天机器人虽然能模仿类似人类对话,但对于很多具体的问题还是不能像人类一样给出准确性的回答,就好比一些购物网站的客服机器人,回答的都是标准化的问题,而我们问的又是个体化问题,得不到想要的答案,还是需要呼叫人工客服来解答,所以说AI想要真的替代人类还是会面临很多阻力的。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。