昨天,OpenAI 召开春季发布会,推出了一款名为GPT-4o的“旗舰级”生成式人工智能模型,全网一片沸腾欢呼,感觉类似GPT4.0、Sora发布的颠覆性的惊艳!
官方对此介绍是:
1.GPT-4o 不仅在文本处理方面表现出色,还在图像和音频处理能力上实现了显著增强;(小编评价:这个国内的字节、讯飞、百度等大厂,已经开发很多图片、音频对话处理效果很好的智能体)
2. 用户现在可以直接打断模型,无需等待模型完成发言即可插话,大大提高了对话的自然流畅度,并且可以实时翻译;(小编评价:这个靠GPU来堆出来)
3. GPT-4o 在理解和探讨用户分享的图片方面已超越所有现存模型(小编评价:和GPT4差距不大,感知不出来)
4.GPT-4o可以检测人的情绪。(小编评价:就是分析一张图片啊,GPT4也可以)
官方也给出了和GPT4的对比:
可以看出来,各项指标都要稍好一些,并且重要的是多模态。
小编马上打开ChatGPT,来实际测试一下:
1. 在模型选择,多了一个GPT4o。
2. 测试一下图片理解能力
上传一张中国节日喜庆图片:
让GPT-4o,分析“这个画里面,表达了什么意思”,GPT-4o的输出:
感觉和GPT4的输出差不多。
再测试一下能否识别图片里面人物表情:
输入:“你觉得我开心吗?”,GPT-4o回复:
好像和GPT4回复的差不多,GPT4的回复是:
并且响应回复的速度也差不多。是不是一下子用户访问太多的原因?
GPT-4o 中的“o”代表“omni”,指的是 GPT-4o 的多模态。
可能是小编还没有用到GPT-4o里面的精髓,但是据OpenAI说的,GPT-4oj将免费开放给到用户使用!当然有免费消息数量限制,一旦超过,自动切换GPT3.5!
小编感觉OpenAI推出这个GPT-4o,只是一个过渡产品。现在用户都在满怀期待的等待GPT5-这个划时代的产品推出。
由于期待过高,所以OpenAI 宁可超预期地推出 GPT-4.5,也不想因 GPT-5 的高期待而栽跟头。这算是一种争取时间的明智之举。
本文链接:https://houze.cc/gpt5/78.html
GPT-4oGPT4ogpt-4o检测人的情绪gpt-4o多模态大模型发布GPT-4o免费GPT-4o官网GPT4o官网
网友评论