未来你看到的画家可能不是在画画,而是在写文字。
最近,谷歌研究出了一个文字-图像生成模型DreamBooth,用户只需上传3-5张某物体的照片,再用文字描述想要生成的背景、动作或表情,就能生成相应的图片,且动作表情都能达到“以假乱真”的程度。
DreamBooth可以在保留物体关键特征的前提下,完成换景、加滤镜、修改外观和艺术渲染等任务。DreamBooth在Imagen的基础上做了调整,它会给物体加上一个独特的“标识符”,这个唯一的标识符就可以用来合成该物体在不同场景中的逼真图像。
我们的科技留言板“有意见”如下
@媒体搬运工:这就是paper级的美图秀秀,AI在尝试从爬行到直立行走的越迁,只是这种过程能不能实现类似猿到人的进化,也许时间才能证明。
@大内密探:DreamBooth用了微调的思路,模型会通过独特标识符来学习指定物体的个性化细节,再加上模型在这一物体大类中学到的共性,从而生成合理又有个性的照片。
@有想法的向日葵:DreamBooth的换景、指定动作、表情服饰、更迭风格等功能,能让不会PS的人也能成“大神”了。不久的将来,朋友圈里就分不清哪些是真的,哪些是假的。
好文章,需要你的鼓励
萨提亚回忆起90年代在微软评审会上听到的场景。Gates当时说:"软件只有一个品类--信息管理。
南洋理工大学团队开发了Uni-MMMU基准测试,专门评估AI模型的理解与生成协同能力。该基准包含八个精心设计的任务,要求AI像人类一样"边看边想边画"来解决复杂问题。研究发现当前AI模型在这种协同任务上表现不平衡,生成能力是主要瓶颈,但协同工作确实能提升问题解决效果,为开发更智能的AI助手指明了方向。
Anthropic周一发布了旗舰模型Opus 4.5,这是4.5系列的最后一个模型。新版本在编程、工具使用和问题解决等基准测试中表现出色,是首个在SWE-Bench验证测试中得分超过80%的模型。同时推出Claude for Chrome和Claude for Excel产品,分别面向不同用户群体。Opus 4.5还改进了长文本处理的内存管理,支持付费用户的"无限聊天"功能,并针对智能体应用场景进行了优化,将与OpenAI的GPT 5.1和谷歌的Gemini 3展开竞争。
360 AI Research团队发布的FG-CLIP 2是一个突破性的双语精细视觉语言对齐模型,能够同时处理中英文并进行精细的图像理解。该模型通过两阶段训练策略和多目标联合优化,在29个数据集的8类任务中均达到最先进性能,特别创新了文本内模态对比损失机制。团队还构建了首个中文多模态评测基准,填补了该领域空白,为智能商务、安防监控、医疗影像等应用开辟新可能。