在OpenAI首届开发者大会上,OpenAI的首席执行官Sam Altman宣布推出GPT-4 Turbo,并介绍六大更新:
1、具有128k上下文长度,相当于300多页文本内容;2、新功能Json Mode,可以确保更容易调用API;3、知识库时间更新至2023年4月;4、可以支持图像输入,能完成生成标题、详细分析图像以及阅读带有图形的文档;5、定制微调,允许创建ChatGPT自定义版本;6、更低的价格和更高的费率限制,GPT-4 Turbo输入tokens价格是GPT-4的1/3。
“有意见”留言板
@不倒翁:估计很多大模型企业很是郁闷,半年来辛辛苦苦在推各种定制化大模型,兴高采烈的说自己大模型最全。结果OpenAI推出GPTs,所有玩家都玩了个寂寞。现在每个人完全不需要敲击一个代码了,让只要会说话就能定制自己的GPT,想要啥类型的助手就有啥助手。
@周一见:这次大会是AI领域的一次重大突破,GPTs预示着AI应用的广泛爆发。同时,大量新的API和GPT-4和GPT-3.5模型的更新及降价,都展示了OpenAI推动AI技术发展的决心和实力,未来的AI技术将更加便捷、高效和普及。
@贰言:尽管OpenAI拥有强大的功能,但其使用仍需付费。如果它能像Linux操作系统一样走向开源,那么无疑将对推动人工智能的发展,降低AI技术的门槛,以及普及AI知识产生极大的推动力。
好文章,需要你的鼓励
多伦多大学研究团队提出Squeeze3D压缩框架,巧妙利用3D生成模型的隐含压缩能力,通过训练映射网络桥接编码器与生成器的潜在空间,实现了极致的3D数据压缩。该技术对纹理网格、点云和辐射场分别达到2187倍、55倍和619倍的压缩比,同时保持高视觉质量,且无需针对特定对象训练网络,为3D内容传输和存储提供了革命性解决方案。
浙江大学与腾讯联合研究团队提出MoA异构适配器混合方法,通过整合不同类型的参数高效微调技术,解决了传统同质化专家混合方法中的表征坍塌和负载不均衡问题。该方法在数学和常识推理任务上显著优于现有方法,同时大幅降低训练参数和计算成本,为大模型高效微调提供了新的技术路径。
耶鲁、哥大等四校联合研发的RKEFino1模型,通过在Fino1基础上注入XBRL、CDM、MOF三大监管框架知识,显著提升了AI在数字监管报告任务中的表现。该模型在知识问答准确率提升超过一倍,数学推理能力从56.87%提升至70.69%,并在新颖的数值实体识别任务中展现良好潜力,为金融AI合规应用开辟新路径。
加州大学圣巴巴拉分校研究团队开发出能够自我进化的AI智能体,通过《卡坦岛拓荒者》桌游测试,这些AI能在游戏过程中自主修改策略和代码。实验显示,具备自我进化能力的AI显著超越静态版本,其中Claude 3.7模型性能提升达95%。研究验证了AI从被动工具向主动伙伴转变的可能性,为复杂决策场景中的AI应用开辟新路径。