OpenAI 发表GPT-4 模型API,支持图像辨识!全新9 大特色一次了解

借ChatGPT 掀起人工智能(AI)应用热潮的OpenAI 发布了最新作品——GPT-4。得到这种新模型支持的ChatGPT 将迎来升级。

美东时间3 月14 日周二,OpenAI 宣布,推出大型的多模态模型GPT-4,称它可以接收图像和文本输入,输出文本,「比以往任何更具创造性和协作性」,并且「由于它有更广泛的常识和解决问题的能力,可以更准确地解决难题。」

OpenAI 表示,已经与多家公司合作,要将GPT-4 结合到他们的产品中,包括Duolingo、Stripe 和Khan Academy。GPT-4 模型也将以API 的形式,提供给付费版ChatGPT Plus 的订阅用户。开发者可以注册,用它打造应用。

微软:GPT-4 将上线Bing

微软此后表示,新款的Bing 搜索引擎将运行于GPT-4 系统之上。

GPT-4 全称生成式预训练转换器4。它的两位「前辈」GPT-3 和GPT3.5 分别用于创造Dall-E 和ChatGPT,都吸引了公众关注,刺激其他科技公司大力投入AI 应用领域。

OpenAI:比前版准确度高上40%

OpenAI 介绍,相比支持ChatGPT 的前代GPT-3.5,GPT-4 和用户的对话只有微妙的差别,但在面对更覆杂的任务时,两者的差异更为明显。

在我们的内部评估中,它产生正确回应的可能性比GPT-3.5 高40%。

OpenAI 还称,GPT-4 参加了多种基准考试测试,包括美国律师资格考试Uniform Bar Exam、法学院入学考试LSAT、「美国高考」SAT 数学部分和证据性阅读与写作部分的考试,在这些测试中,它的得分高于88% 的应试者。

可解读图片、影片?

上周,微软德国的首席技术官(CTO)Andreas Braun 在德国出席一个AI 活动时透露,本周将发布多模态的系统GPT-4,它「将提供截然不同的可能性,比如影片」。这让外界猜测,GPT-4 应该能让用户将文本转换为视频,因为他说该系统将是多模态的,也就在暗示,不仅能生成文本,还会有其他媒介。

本周二OpenAI 介绍的GPT-4 的确是多模态的,但它能融合的媒介没有一些人预测的多。OpenAI 表示,GPT-4 能同时解析文本和图像,所以能解读更覆杂的输入内容。

在下面的示例中,我们可以看到GPT-4 系统如何应答图像输入内容,比如像以下截图那样解释图片的不同寻常之处、图片的幽默之处、一个搞怪图片的用意。

8cec5d7c-5a4b-43d8-9877-4d9b9448965e

4ba40f1c-9a40-4147-b996-38207abcb137

71ba4f73-4339-4985-8ae9-938f51948e47

原创文章,作者:校长,如若转载,请注明出处:https://www.yundongfang.com/Yun220082.html

(0)
打赏 微信扫一扫不于多少! 微信扫一扫不于多少! 支付宝扫一扫礼轻情意重 支付宝扫一扫礼轻情意重
上一篇 2023年3月15日 下午8:58
下一篇 2023年3月15日

相关推荐