OpenAI于11月30日推出的ChatGPT聊天机器人,自上线那天就被网友称为要“超越谷歌搜索”。目前免费开放,发布的一周之内,用户量直冲百万级,甚至服务器一度被注册用户挤爆了。
ChatGPT不仅能回答各种问题,还能写剧本、写小说、给代码纠错,可以进行多轮对话,回复自然流畅。OpenAI表示,ChatGPT模型使用了“利用人类反馈强化学习”(RLHF)的训练方式,相比 GPT-3,ChatGPT的主要提升点在于记忆能力,可实现连续对话,极大地提升了对话交互模式下的用户体验。
我们的科技留言板“有意见”如下
@不倒翁:人们创造AI是为了什么?方向错了,回答得再好也没啥用,看了ChatGPT的答复,看似滴水不漏的回答,其实没有解决具体问题。比如你问“羊肉好吃吗”他回答“人们的看法可能会有所不同。有些人可能认为羊肉味道鲜美,适合烹饪各种菜肴。但也有人认为羊肉味道难以接受。这可能取决于个人口味和喜好。因此,关于羊肉是否好吃,并不能给出一个统一的答案。”这确实不是人话!
@周一见:一个更“高级”地、“训练有素”的AI,好玩但不止好玩,比起追求一个精准的答案,ChatGPT更适合充当文本生成、创意写作的工具。眼前最接近实际的应用场景是搜索引擎优化、营销媒体内容创作辅助和开发者编程,从模型的准确性和部署成本来看,今天的ChatGPT距离实际落地还有一段距离。
@黑咕隆咚:聊天机器人虽然能模仿类似人类对话,但对于很多具体的问题还是不能像人类一样给出准确性的回答,就好比一些购物网站的客服机器人,回答的都是标准化的问题,而我们问的又是个体化问题,得不到想要的答案,还是需要呼叫人工客服来解答,所以说AI想要真的替代人类还是会面临很多阻力的。
好文章,需要你的鼓励
是德科技高级副总裁兼通信解决方案事业部总裁Kailash Narayanan现场指出,算力固然重要,但如果能耗过高,技术的实用性将大打折扣,因此,所有的高速、高性能计算,都必须在极低的功耗下实现,这是AI等技术能否大规模落地的核心前提。
DeepSeek-AI团队通过创新的软硬件协同设计,仅用2048张GPU训练出性能卓越的DeepSeek-V3大语言模型,挑战了AI训练需要海量资源的传统观念。该研究采用多头潜在注意力、专家混合架构、FP8低精度训练等技术,大幅提升内存效率和计算性能,为AI技术的民主化和可持续发展提供了新思路。
来自上海交通大学和浙江大学等机构的研究团队开发出首个AI"记忆操作系统"MemOS,解决了AI系统无法实现人类般持久记忆和学习的根本限制。该系统将记忆视为核心计算资源进行调度、共享和演化,在时间推理任务中相比OpenAI记忆系统性能提升159%。MemOS采用三层架构设计,通过标准化记忆单元实现跨平台记忆迁移,有望改变企业AI部署模式。
加拿大女王大学研究团队首次系统评估了大型视频语言模型的因果推理能力,发现即使最先进的AI在理解视频中事件因果关系方面表现极差,大多数模型准确率甚至低于随机猜测。研究创建了全球首个视频因果推理基准VCRBench,并提出了识别-推理分解法(RRD),通过任务分解显著提升了AI性能,最高改善幅度达25.2%。