OpenAI推出新的GPT-4o,更直观的AI模型

阅读量67299

发布时间 : 2024-05-14 11:12:29

Sam Altman 的 OpenAI 周一在其位于加利福尼亚州旧金山总部的直播演示活动中推出了新的 GPT 模型以及 ChatGPT 和 GTP4 的其他几个新升级。
“春季更新”社区活动中最大的公告是推出了新的旗舰型号 – GPT-4o,其中“o”代表omnimodel(全能模型),为包括免费用户在内的所有人带来 GPT4 级别的智能。
OpenAI 首席技术官 Mira Murati 启动了太平洋时间上午 10:00 的直播活动,他表示,新的 GPT-4o 是原生多模态模型,能够通过语音、文本和视觉进行实时推理。
在官方演示中,ChatGPT可以直接通过摄像头,判断演示者的心情、正在做的事;可以感受演示者过于急促的呼吸,并引导他一步步放松;可以在不给出最终答案的情况下,指导演示者一步步思考并解开不等式;还可以调整语音的感情,变得更冷静、更激烈、更讽刺,甚至可以唱歌。在官方演示中,ChatGPT的语音交流速度非常快,已经接近人类反应时间,并且可以随时打断模型的语音输出,创造出反馈更实时、更自然的对话。
这家人工智能初创公司还推出了新的 ChatGPT 桌面应用程序版本和更新的 UI,据称将使流行的聊天机器人更易于使用且更加自然。
“我们知道模型会变得更加复杂,但我们希望人们关注协作而不是 UI 流程,”Murati 说。
她说,新的 GPT-4o 提高了 50 种不同语言的质量和速度,使 OpenAI 能够将 ChatGPT 体验带给尽可能多的人。
Marathi 解释说,在 4o 之前,GPT4 用于提供语音模式的三个组件——转录、智能和文本转语音——此前曾给再现过程带来大量延迟。
“借助 GPT-4o,这将自然发生,让我们能够为每个人带来效率,”她说。
通过添加“视觉”功能,用户现在可以上传屏幕截图、照片、包含文本和图像的文档,以开始与 ChatGPT 进行对话。
穆拉蒂指出,旗舰产品集成“记忆”的能力将为用户带来所有对话的连续感,而“浏览”能力则允许用户在对话中搜索实时信息。
此外,“数据分析”将允许用户上传图表和图表等文档,并要求聊天机器人为他们分析信息。
Mirati 表示,这将扩大对创建自定义特定用途 GPT 的用户和开发人员的访问范围,并使其在 GPT 商店中可用。
最后,GPT-4o 被引入 API – 便宜 50%,速度提高 2 倍,速率限制提高 5 倍 – 因此工程师可以开始使用 4o 进行开发,
Murati 表示,那些付费订阅更高效的 GPT-4o 的用户还将获得比免费用户多 5 倍的容量限制。该公司在 X 上发布消息称,Plus 用户还可以提前使用“例如我们新的 macOS 桌面应用程序和下一代语音和视频功能”等功能。
OpenAI 一直面临着扩大其 ChatGPT 用户群的压力,根据 SEO.ai 统计的最新统计数据,该用户群拥有超过“1.8 亿用户”或“每月约 16 亿次访问量”。
就在这一举动发生的前一天,Alphabet 的 Goggle I/O举办了备受期待的开发者大会,预计将推出自己的人工智能软件集成,例如与谷歌搜索和代号 Vanilla Ice Cream 的 Android OS 15 的集成。

本文转载自:

如若转载,请注明出处: https://cybernews.com/tech/openai--gpt-4o-new-flagship-ai-model/

安全KER - 有思想的安全新媒体

分享到:微信
+10赞
收藏
安全客
分享到:微信

发表评论

Copyright © 北京奇虎科技有限公司 三六零数字安全科技集团有限公司 安全KER All Rights Reserved 京ICP备08010314号-66