• GPT-4o是GPT5的未完成版?
  • 发布于 1个月前
  • 74 热度
    0 评论
昨晚,OpenAI 宣布推出新的语言模型 GPT-4o,GPT-4o 中的 “o ”代表 “omni”,表示该模型能够处理文本、语音和视频,它是一个全能模型。有人猜测这是GPT5的未完成版

GPT-4o 可以跨文本、音频和视频进行实时推理,这是向更自然的人机交互迈出的重要一步。在发布会上,看了几个印象很深的例子,比如一个盲人可以通过GPT-4o模型帮助他描述身边的世界。

几个不同语言国家的人在围桌上交流时,通过ChatGPT实时翻译,不需要额外的操作,那种日常的翻译会丝滑很多,甚至以后那种大型的国事交流,身上揣个GPT就行。

还有一个更智能的例子,GPT-4o通过图片识别,教一个初中生解答数据问题,GPT就是一个完全没有情绪,从来不会跟你生气的老师,一步一步给你提示帮助你解答题目。

这个功能,对于家长来说,我觉得是一个革命性的改变,哈哈,我相信每个辅导还在的家长在辅导作业的时候都在崩溃的边缘,以后完全可以用机器人替代家长来辅导作业。

如果GPT3.5,GPT-4还只是在文字处理上有优势,那么GPT-4o将应用场景进一步放大了,因为他融合文本、语音和视频三种类型的数据,这个模型大有可为,不要多久,市面上一定会出现越来越多好玩的应用出来。作为开发者,开始先尝试接入GPT-4o体验一下,这个模型的价格比GPT-Trubo还要便宜50%,而且速度更快。


最重要的这个版本不再是Plus用户专属,OpenAI计划面向所有用户开放。
用户评论