今年世界人工智能大会,大模型和生成式AI是重头戏。大会首次设置了“迈向通用人工智能”主题展区,集中展示国内外30多款大模型,百度文心、阿里通义、华为盘古、讯飞星火、商汤日日新等大模型悉数登场。仅过去两个月内,星环科技、科大讯飞、火山引擎、小i机器人等多家公司都发布了大模型的进展,目前中国10亿以上参数规模的大模型已经接近80个。
“有意见”留言板
@老董:大模型是“群魔乱舞”还是“百家争鸣”,最后还要看实际的应用效果。当前大模型可以为用户提供出强大的数据整理归纳能力,但如何使用好这种能力获得企业及用户的认同,还需要经过一段时间的摸索。百花齐放后将会是大浪淘沙,只有经过实践的检验,是金子总是会发出光来。
@Futon:行业大模型是一个有前景的方向,不过30多个大模型也太能卷了!希望这里面没有套壳的,也期待有一天能看到中国的OpenAI是什么样子。
@独木舟:大模型的可解释性和透明度不足,可能会导致一些潜在的风险。比如说模型可能会学习到有偏见的信息,或者在一些重要的决策场景中做出错误判断。如果是我一点不了解的事情,我是不敢完全依赖模型的。
好文章,需要你的鼓励
在技术快速发展的时代,保护关键系统越来越依赖AI、自动化和行为分析。数据显示,2024年95%的数据泄露源于人为错误,64%的网络事件由员工失误造成。虽然先进的网络防御技术不断发展,但人类判断仍是最薄弱环节。网络韧性不仅是技术挑战,更是人员和战略需求。建立真正的韧性需要机器精确性与人类判断力的结合,将信任视为战略基础设施的关键要素,并将网络韧性提升为国家安全的核心组成部分。
华南师范大学团队开发的GraphTracer框架,通过构建信息依赖图解决多智能体系统高失败率问题。该方法摒弃传统时间序列分析,追踪信息流网络精确定位错误根源,在失败归因准确率上比现有方法提升18.18%,并已开源供实际应用。
自计算机诞生以来,人们就担心机器会背叛创造者。近期AI事件包括数据泄露、自主破坏行为和系统追求错误目标,暴露了当前安全控制的弱点。然而这种结果并非不可避免。AI由人类构建,用我们的数据训练,在我们设计的硬件上运行。人类主导权仍是决定因素,责任仍在我们。
杜克大学研究团队通过几何框架分析发现,AI推理过程呈现连续"流动"特征而非离散跳跃。研究表明逻辑结构像河床般调节推理流的速度和方向,即使面对不同语言和领域的内容,相同逻辑结构的任务在AI内部表现出惊人的几何相似性。这一发现颠覆了AI为"随机鹦鹉"的传统认知,证明AI具备真正的逻辑理解能力,为AI可解释性和系统优化开辟新方向。