OpenAI 的 CEO Sam Altman 在全球巡回演讲中,透露了 OpenAI 近期发展路线,主要分两个阶段,2023 年的首要任务是推出更便宜、更快的 GPT-4,更长的上下文窗口等;2024 年重点是多模态。
6月13 日,OpenAI 发布函数调用及其他 API 更新,使得API 中的 GPT-4 和 GPT-3.5 Turbo 模型支持调用用户自定义函数,并允许模型使用用户为其设计的工具。此外,用户使用模型的价格降低了,OpenAI 还发布了一些新的型号版本(包括 16k 上下文 GPT-3.5 Turbo)。
“有意见”留言板
@乞丐思维:大模型应该走向平民化,才能嵌入到各种智能终端中,刺激衍生出更多应用场景改善大众生活,此外科研团队应加大对低算力需求的大模型的研发,让AI更普及。
@隔壁二大爷:OpenAI的新更新提供了更可控的API模型、增强了函数调用能力,同时拓宽了上下文理解,并降低了模型使用费用。这些更新使得AI应用更为灵活、可达,但用户数据安全与模型协同工作的问题仍需关注。
@万人血书等开源:个人理解,这一次更新或许能在生成式AI赋能行业这一领域有所建树,之前很多企业布局的生成式AI加持工业制造、EDA等领域,随着更可控的API,这些想法也能进一步实施。同时,这一举措也为生成式AI的行业生态布局做了一次很好的铺垫。下一步,我们希望看到的或许是——开源。
好文章,需要你的鼓励
谷歌深度思维团队开发出名为MolGen的AI系统,能够像经验丰富的化学家一样自主设计全新药物分子。该系统通过学习1000万种化合物数据,在阿尔茨海默病等疾病的药物设计中表现出色,实际合成测试成功率达90%,远超传统方法。这项技术有望将药物研发周期从10-15年缩短至5-8年,成本降低一半,为患者更快获得新药治疗带来希望。
继苹果和其他厂商之后,Google正在加大力度推广其在智能手机上的人工智能功能。该公司试图通过展示AI在移动设备上的实用性和创新性来吸引消费者关注,希望说服用户相信手机AI功能的价值。Google面临的挑战是如何让消费者真正体验到AI带来的便利,并将这些技术优势转化为市场竞争力。
哈佛医学院和微软公司合作开发了一个能够"听声识病"的AI系统,仅通过分析语音就能预测健康状况,准确率高达92%。该系统基于深度学习技术,能够捕捉声音中与疾病相关的微妙变化,并具备跨语言诊断能力。研究团队已开发出智能手机应用原型,用户只需完成简单语音任务即可获得健康评估,为个性化健康管理开辟了新途径。