ChatGPT 4o是什么?OpenAI为什么免费开放使用
Chat GPT-4o刚发布就免费,那么它是什么,相比Chat GPT-4有什么差异呢?GPT-4o是OpenAI最新的旗舰型号,它提供 GPT-4 级别的智能,但速度更快,并且改进了其跨文本、语音和视觉的功能。免费并不以为着相对GPT-4性能更差,或者比不上GPT-4。实际上无论是语言处理还是语音识别,GPT-4o都远超GPT-4。
从官方的解释来看,GPT-4o(“o”代表“omni”)是迈向更自然的人机交互的一步——它接受文本、音频、图像和视频的任意组合作为输入,并生成文本、音频和图像的任意组合输出。它可以在短至 232 毫秒的时间内响应音频输入,平均为 320 毫秒,与人类的响应时间相似。在一次谈话中。它在英语文本和代码上的性能与 GPT-4 Turbo 的性能相匹配,在非英语文本上的性能显着提高,同时 API 的速度也更快,成本降低了 50%。与现有模型相比,GPT-4o 在视觉和音频理解方面尤其出色。
在 GPT-4o 之前,您可以使用语音模式与 ChatGPT 对话,平均延迟为 2.8 秒 (GPT-3.5) 和 5.4 秒 (GPT-4)。为了实现这一目标,语音模式是由三个独立模型组成的管道:一个简单模型将音频转录为文本,GPT-3.5 或 GPT-4 接收文本并输出文本,第三个简单模型将该文本转换回音频。这个过程意味着主要智能来源GPT-4丢失了大量信息——它无法直接观察音调、多个说话者或背景噪音,也无法输出笑声、歌唱或表达情感。
借助 GPT-4o,我们跨文本、视觉和音频端到端地训练了一个新模型,这意味着所有输入和输出都由同一神经网络处理。由于 GPT-4o 是Openai第一个结合所有这些模式的模型,因此仍然只是浅尝辄止地探索该模型的功能及其局限性。
GPT-4o 是Openai突破深度学习界限的最新举措,这次是朝着实用性的方向发展。在过去的两年里,Openai花费了大量的精力来提高堆栈每一层的效率。作为这项研究的第一个成果,Openai能够更广泛地提供 GPT-4 级别模型。 GPT-4o 的功能将迭代推出(从今天开始扩大红队访问权限)。
GPT-4o 的文本和图像功能今天开始在 ChatGPT 中推出。Openai正在免费套餐中提供 GPT-4o,并向 Plus 用户提供高达 5 倍的消息限制。Openai将在未来几周内在 ChatGPT Plus 中推出新版本的语音模式 GPT-4o alpha。
开发人员现在还可以在 API 中访问 GPT-4o 作为文本和视觉模型。与 GPT-4 Turbo 相比,GPT-4o 速度提高 2 倍,价格降低一半,速率限制提高 5 倍。Openai计划在未来几周内在 API 中向一小部分值得信赖的合作伙伴推出对 GPT-4o 新音频和视频功能的支持。
由于部分文章来自用户发布,或者网络收集,我们无法考证原作者并及时联系。如您认为该文章或内容有侵权,请在发布后与我们取得联系删除。您可以点击网站下方的投诉举报,或者文章内页的举报图标按钮进行举报。我们会及时删除信息。部分用户创作内容可能标记版权信息,如您转载请提前联系并获得书面许可(盖章)。
欢迎发布评论
登录后即可发言
最近评论
当前评论为精选或存在缓存,点击阅读更多查看最新
暂无更多数据