北京时间5月12日晚,事件视界望远镜(EHT)合作组织正式发布了银河系中心黑洞Sgr A*的首张照片。
此次照片与2019年的M87中央黑洞照片,都是由EHT合作组织在2017年,通过8个射电望远镜组成的、一个堪比地球大小的“虚拟望远镜”捕获。当时29岁的MIT博士Katie Bouman收到了来自超过半吨的硬盘,里面装着八台望远镜的5PB黑洞观测数据。她带领团队研发了一种机器学习算法CHIRP,将M87星云照片拼接在一起,得到了世界第一张黑洞照片。
而此次的Sgr A*照片,是研究人员又历时三年,将数千张使用不同算法得到的图像平均起来生成的,所有图像都可准确拟合EHT数据。
我们的科技留言板及Twitter用户对此事“有意见”如下
@非洲大象:科技进步的一大重要使命就是变“看不见”到“看得见”。看不见月亮地面的时候,它是嫦娥的家,看见了就是荒凉卫星;看不见微生物的时候,瘟疫是瘴气,看见了就是细菌病毒。现在我们看见了黑洞,而如果有一天人类能像候鸟一样看见磁场,世界会变成怎样?
@dr. Jordy Davelaar:EHT的分辨率是如此之高,足以从巴黎看清纽约市的百吉饼是普通的还是带芝麻的。
@Younis Dar:我们都在一个巨大的旋转木马边缘旋转,旋转木马的中心将银河系在一起,这个中心是一个超大质量黑洞,它的图像终于被捕捉到了。
@老董:研究团队用超级计算机合成和分析数据才确定这张黑洞照片,可不可以说是科研人员为此打造了一个黑洞的元宇宙?
@木杉:从银河系外黑洞到银河系内黑洞,我们终有一天将看到奇点的另一面。
@媒体搬运工:我想到《圣经》创世纪篇的一句话:神说,要有光,就有了光。神看光是好的,就把光暗分开了。
@一刀:技术进步能捕捉到黑洞很牛,100多年前爱因斯坦广义相对论预言黑洞存在更牛。
好文章,需要你的鼓励
南洋理工大学研究团队开发了WorldMem框架,首次让AI拥有真正的长期记忆能力,解决了虚拟世界模拟中的一致性问题。该系统通过记忆银行存储历史场景,并使用智能检索机制,让AI能准确重现之前的场景和事件,即使间隔很长时间。实验显示在Minecraft和真实场景中都表现出色,为游戏、自动驾驶、机器人等领域带来广阔应用前景。
AWS通过升级SageMaker机器学习平台来扩展市场地位,新增观测能力、连接式编码环境和GPU集群性能管理功能。面对谷歌和微软的激烈竞争,AWS专注于为企业提供AI基础设施支撑。SageMaker新功能包括深入洞察模型性能下降原因、为开发者提供更多计算资源控制权,以及支持本地IDE连接部署。这些更新主要源于客户需求,旨在解决AI模型开发中的实际问题。
MTS AI研究团队提出RewardRanker系统,通过重排序模型和迭代自训练显著提升AI代码生成质量。该方法让13.4B参数模型超越33B大模型,在多种编程语言上表现优异,甚至在C++上超越GPT-4。通过引入困难负样本和PPO优化,系统能从多个代码候选中选出最优方案,为AI编程助手的实用化奠定基础。