人类是如何成为智慧生命体的?如果一个人在荒岛长大会怎样?这是个庞大的问题,但我想人之所以成为现在的人,一定蕴含着两个关键词——信息和连接。
“万物互联时代,没有人会是一座孤岛。”这是余承东在华为HarmonyOS 2发布时所说的话,转眼一年过去,鸿蒙HarmonyOS 3(简称鸿蒙3.0)如期而至。鸿蒙3.0主要围绕分布式能力,对适配性、操作流畅性进行了功能升级,超级终端将支持包括打印机、智能眼镜、车机在内的12款设备组合协同。鸿蒙3.0创新性的新增异构组网技术,可实现真正意义上的万物互联。
我们的科技留言板“有意见”如下
@海雾菌目:鸿蒙系统还很年轻,但它是个潜力无限的OS,甚至你没想到的打印机、汽车都能安装,因为它从一开始就是面向万物互联全场景的分布式操作系统。目前华为鸿蒙设备数突破3亿,与安卓、iOS“三足鼎立”还有距离,但鸿蒙3.0问世,意味国产“少魂”问题渐解。
@原野:华为支付借鸿蒙3.0进行规模扩张,但全局来看,支付仅是华为鸿蒙生态布局中的一环,华为瞄准的是背后的全场景平台,形成商业和用户的入口,提供更多增值服务。未来,B端有可能会成为鸿蒙OS的重点方向。
@隔壁二大爷:随着华为鸿蒙3.0正式发布,第三方互联网支付市场迎来了软硬结合的“新生力量”鸿蒙+华为支付,在移动支付交易高额流水费率的经济利益驱动下,华为支付与支付宝支付、微信支付的“对标与竞争”在所难免,广大用户做好把钱存放在华为钱包的准备了吗?
好文章,需要你的鼓励
谷歌发布新的AI学术搜索工具Scholar Labs,旨在回答详细研究问题。该工具使用AI识别查询中的主要话题和关系,目前仅对部分登录用户开放。与传统学术搜索不同,Scholar Labs不依赖引用次数或期刊影响因子等传统指标来筛选研究质量,而是通过分析文档全文、发表位置、作者信息及引用频次来排序。科学界对这种忽略传统质量评估方式的新方法持谨慎态度,认为研究者仍需保持对文献质量的最终判断权。
Meta公司FAIR实验室与UCLA合作开发了名为HoneyBee的超大规模视觉推理数据集,包含250万训练样本。研究揭示了构建高质量AI视觉推理训练数据的系统方法,发现数据质量比数量更重要,最佳数据源比最差数据源性能提升11.4%。关键创新包括"图片说明书"技术和文字-图片混合训练法,分别提升3.3%和7.5%准确率。HoneyBee训练的AI在多项测试中显著超越同规模模型,同时降低73%推理成本。
Meta发布第三代SAM(分割一切模型)系列AI模型,专注于视觉智能而非语言处理。该模型擅长物体检测,能够精确识别图像和视频中的特定对象。SAM 3在海量图像视频数据集上训练,可通过点击或文本描述准确标识目标物体。Meta将其应用于Instagram编辑工具和Facebook市场功能改进。在野生动物保护方面,SAM 3与保护组织合作分析超万台摄像头捕获的动物视频,成功识别百余种物种,为生态研究提供重要技术支持。
上海AI实验室团队提出ViCO训练策略,让多模态大语言模型能够根据图像语义复杂度智能分配计算资源。通过两阶段训练和视觉路由器,该方法在压缩50%视觉词汇的同时保持99.6%性能,推理速度提升近一倍,为AI效率优化提供了新思路。