北京时间5月12日晚,事件视界望远镜(EHT)合作组织正式发布了银河系中心黑洞Sgr A*的首张照片。
此次照片与2019年的M87中央黑洞照片,都是由EHT合作组织在2017年,通过8个射电望远镜组成的、一个堪比地球大小的“虚拟望远镜”捕获。当时29岁的MIT博士Katie Bouman收到了来自超过半吨的硬盘,里面装着八台望远镜的5PB黑洞观测数据。她带领团队研发了一种机器学习算法CHIRP,将M87星云照片拼接在一起,得到了世界第一张黑洞照片。
而此次的Sgr A*照片,是研究人员又历时三年,将数千张使用不同算法得到的图像平均起来生成的,所有图像都可准确拟合EHT数据。
我们的科技留言板及Twitter用户对此事“有意见”如下
@非洲大象:科技进步的一大重要使命就是变“看不见”到“看得见”。看不见月亮地面的时候,它是嫦娥的家,看见了就是荒凉卫星;看不见微生物的时候,瘟疫是瘴气,看见了就是细菌病毒。现在我们看见了黑洞,而如果有一天人类能像候鸟一样看见磁场,世界会变成怎样?
@dr. Jordy Davelaar:EHT的分辨率是如此之高,足以从巴黎看清纽约市的百吉饼是普通的还是带芝麻的。
@Younis Dar:我们都在一个巨大的旋转木马边缘旋转,旋转木马的中心将银河系在一起,这个中心是一个超大质量黑洞,它的图像终于被捕捉到了。
@老董:研究团队用超级计算机合成和分析数据才确定这张黑洞照片,可不可以说是科研人员为此打造了一个黑洞的元宇宙?
@木杉:从银河系外黑洞到银河系内黑洞,我们终有一天将看到奇点的另一面。
@媒体搬运工:我想到《圣经》创世纪篇的一句话:神说,要有光,就有了光。神看光是好的,就把光暗分开了。
@一刀:技术进步能捕捉到黑洞很牛,100多年前爱因斯坦广义相对论预言黑洞存在更牛。
好文章,需要你的鼓励
Docker公司通过增强的compose框架和新基础设施工具,将自己定位为AI智能体开发的核心编排平台。该平台在compose规范中新增"models"元素,允许开发者在同一YAML文件中定义AI智能体、大语言模型和工具。支持LangGraph、CrewAI等多个AI框架,提供Docker Offload服务访问NVIDIA L4 GPU,并与谷歌云、微软Azure建立合作。通过MCP网关提供企业级安全隔离,解决了企业AI项目从概念验证到生产部署的断层问题。
中科院联合字节跳动开发全新AI评测基准TreeBench,揭示当前最先进模型在复杂视觉推理上的重大缺陷。即使OpenAI o3也仅获得54.87%分数。研究团队同时提出TreeVGR训练方法,通过要求AI同时给出答案和精确定位,实现真正可追溯的视觉推理,为构建更透明可信的AI系统开辟新路径。
马斯克的AI女友"Ani"引爆全球,腾讯RLVER框架突破情感理解边界:AI下半场竞争核心已转向对人性的精准把握。当技术学会共情,虚拟陪伴不再停留于脚本应答,而是通过"心与心的循环"真正理解人类孤独——这背后是强化学习算法与思考模式的化学反应,让AI从解决问题转向拥抱情感。
PyVision是上海AI实验室开发的革命性视觉推理框架,让AI系统能够根据具体问题动态创造Python工具,而非依赖预设工具集。通过多轮交互机制,PyVision在多项基准测试中实现显著性能提升,其中在符号视觉任务上提升达31.1%。该框架展现了从"工具使用者"到"工具创造者"的AI能力跃迁,为通用人工智能的发展开辟了新路径。