【资料图】
OpenAI 宣布推出新版本的高级 GPT-4 语言模型。与之前的版本不同,GPT-4 已经成为一个多模式模型,现在不仅可以处理文本,还可以处理图片。
开发人员解释说,在正常对话中,GPT-3.5 和 GPT-4 之间的差异几乎无法察觉,但一旦任务的复杂性达到一定阈值,差异就会开始显现。GPT-4 比 GPT-3.5 更健壮、更有创意,也能够处理更精细的查询。
然而,最重要的创新是 GPT-4 能够将图像作为输入并将它们与文本结合起来。现在神经网络可以理解照片中显示的内容,并在解决问题时考虑到图纸和图表。此外,例如,神经网络可以解释以图表形式呈现的数据。目前,图像处理处于封闭测试阶段,尚未向公众开放。
新版 GPT-4 目前可以由付费的 Plus 订阅者通过 ChatGPT 机器人进行测试,费用为每月 20 美元。OpenAI 表示,它将根据工作量调整机器人的使用限制,并允许引入额外的付费费率来使用新版本的模型。对于那些想要访问 API 的人,该公司发布了一个等候名单,您可以在其中提出请求。
开发人员指出,尽管 GPT-4 的功能有所改进,但该模型仍然容易产生“幻觉”,即它可能会试图将虚假信息当作真实信息传递,并用不存在的事实来强化它。由于这个问题仍然存在,该公司建议查看AI给出的信息。同时,与之前的模型相比,GPT-4 出现“幻觉”的频率要低得多,在准确率方面比 GPT-3.5 高出 40%。
标签: