OpenAI发布GPT-4,做题能力更强,还接受图片输入,看懂梗图无障碍!

简介: OpenAI发布GPT-4,做题能力更强,还接受图片输入,看懂梗图无障碍!

GPT-4终于发布了!


资本市场狂欢之后,GPT-4在万众瞩目下诞生,OpenAI在其官网以《GPT-4是 OpenAI 最先进的系统,能够产生更安全、更有用的响应》为题发布了这一最新模型。


这一迭代速度不可谓不快,仅仅四个月前,ChatGPT 刚刚推出,并成为历史上增长最快的消费者应用程序。


总的来说,GPT-4提高了 ChatGPT 的核心技术,使得它相比此前的版本,具有更广泛的一般知识和解决问题的能力,使得聊天软件能够以更高的准确度解决更难的问题。


另外,它还增加了一些新功能,比如接受图像作为输入,生成标题、分类和分析。


GPT-4还能够处理超过25000字的文本,允许用例如长形式的内容创建、扩展会话、文档搜索和分析等。

image.png

新能力:看懂梗图无障碍


GPT-4 模型中最大的更新之一是它引入了图像作为输入,并对其生成标题、分类和分析,而GPT-3.5 只能接受文本。


比如下面这个例子:

image.png

问题:这幅图有什么好笑的? 一点一点描述它。 GPT-4 回答:该图像显示了一个包含三个图片的“Lightning Cable”适配器。 图1: 一个智能手机与 VGA 连接器(一个大型,蓝色,15针连接器通常用于计算机显示器)插入其充电端口。 图2: “Lightning Cable”适配器的封装,上面有一个 VGA 连接器的图片。 图3: VGA 连接器的特写镜头,最后是一个小型Lightning连接器(用于为 iPhone 和其他苹果设备充电)。 这张图片中的幽默来自于将一个过时的大型 VGA 连接器插入一个小型的现代智能手机充电端口的荒谬。


目前,虽然 GPT-4 的能力不足以实现文本到视频的生成和其他动态生成内容,但它确实提供了一个多元素聊天在未来将会是什么样子的一瞥,很容易想象,在未来,视频、音频、图像和所有其他形式的内容将如何集成到聊天中。


旧能力:当任务足够复杂,GPT-4 就会比 GPT-3.5 高出一截


GPT-4 作为 OpenAI 在扩展深度学习方面的最新里程碑,本质上是一个大型的多模态模型(接受图像和文本输入,发出文本输出) ,虽然在许多现实世界的场景中不如人类,但在各种专业和学术基准上,其能力已经接近甚至超过人类水平的表现。


例如,它通过了模拟律师资格考试,成绩在前10% 左右; 相比之下,GPT-3.5的成绩在后10% 左右。


如果只是随意的交谈,GPT-3.5和 GPT-4 之间的区别可能是微妙的,但是当任务的复杂性达到一个足够的阈值时,差异就会显现出来ーー与 GPT-3.5相比,GPT-4更可靠、更有创造性,并且能够处理更多细微差别的指令。


为了理解这两个模型之间的区别,OpenA测试了各种基准,包括模拟最初为人类设计的考试,可以看出,在更高级的测试中,GPT-4 表现比 GPT-3.5 好很多。

image.pngimage.png

OMT:引入更多人工反馈


为了增加模型的复杂性,GPT-4还加入了更多的人工反馈,包括 ChatGPT 用户提交的反馈,以改进 GPT-4的行为。OpenAI 表示,该公司“与50多位专家合作,在包括人工智能安全和安保在内的领域提供早期反馈。”


作为声明的一部分,OpenAI 分享了几个已经测试过 GPT-4的公司的用例,包括 Duolingo,Stripe,Morgan Stanley 和冰岛政府。该公司还分享了一个 GPT-4 的研究博客,并强调“ GPT-4仍然有许多已知的限制,我们正在努力解决,如社会偏见,幻觉和对抗性提示。”


计算机科学家、布朗大学(Brown University)教授苏雷什•文卡塔苏布拉曼尼亚(Suresh Venkatasubramanian)对这一消息仍持谨慎乐观态度。在VentureBeat的一次采访中,他说: “我很想看看 ChatGPT 在公众注视下进行的压力测试中,它是如何表现的,我特别感兴趣的是,它是否以及如何产生欺骗性的真实内容,以及有什么保护措施可以防止这种情况发生。”



相关文章
|
存储 自然语言处理 API
【网安AIGC专题11.1】12 CODEIE用于NER和RE:顶刊OpenAI API调用、CodeX比chatgpt更好:提示工程设计+控制变量对比实验(格式一致性、模型忠实度、细粒度性能)(下)
【网安AIGC专题11.1】12 CODEIE用于NER和RE:顶刊OpenAI API调用、CodeX比chatgpt更好:提示工程设计+控制变量对比实验(格式一致性、模型忠实度、细粒度性能)
111 0
|
28天前
|
JSON 人工智能 自然语言处理
Way To Prompt系列(1): 为什么大模型连"Strawberry"的"r"都数不对?一招“理由先行”显著提升模型思考能力
本文将从两个常见的大模型翻车问题入手解析这些问题背后体现的大模型技术原理(Tokenization与预测下一个Token),并解释了为什么会导致这些问题,接着我们利用CoT(思维链)方法解决这些问题并基于上述原理试图剖析CoT方法起作用的可能原因,最后提出【理由先行】风格这一简单有效的Prompt Trick。
63 2
|
2月前
|
人工智能 前端开发
大模型体验体验报告:OpenAI-O1内置思维链和多个llm组合出的COT有啥区别?传统道家理论+中学生物理奥赛题测试,名不虚传还是名副其实?
一个月前,o1发布时,虽然让人提前体验,但自己并未进行测试。近期终于有机会使用,却仍忘记第一时间测试。本文通过两个测试案例展示了o1的强大能力:一是关于丹田及练气的详细解答,二是解决一道复杂的中学生物理奥赛题。o1的知识面广泛、推理迅速,令人印象深刻。未来,或许可以通过赋予o1更多能力,使其在更多领域发挥作用。如果你有好的测试题,欢迎留言,一起探索o1的潜力。
|
2月前
|
机器学习/深度学习 弹性计算 自然语言处理
前端大模型应用笔记(二):最新llama3.2小参数版本1B的古董机测试 - 支持128K上下文,表现优异,和移动端更配
llama3.1支持128K上下文,6万字+输入,适用于多种场景。模型能力超出预期,但处理中文时需加中英翻译。测试显示,其英文支持较好,中文则需改进。llama3.2 1B参数量小,适合移动端和资源受限环境,可在阿里云2vCPU和4G ECS上运行。
124 1
|
7月前
|
人工智能 编解码 自然语言处理
OpenAI 全新发布文生视频模型 Sora,支持 60s 超长长度,有哪些突破?将带来哪些影响?
OpenAI 全新发布文生视频模型 Sora,支持 60s 超长长度,有哪些突破?将带来哪些影响?
176 1
|
5月前
|
数据采集 边缘计算 自然语言处理
谷歌推出创新方法:通过自然文本提示,快速训练视觉模型
【7月更文挑战第5天】谷歌研究者提出新方法,通过自然语言提示训练视觉模型,减少人工标注需求。"建模合作者"框架结合大型语言模型与视觉语言模型,以对话理解视觉概念并自动生成标注,降低训练成本,提高效率。实验显示定义概念工作量减少90%,并在多种任务上超越现有技术。尽管有限制,但此框架为资源受限环境提供了更高效模型训练方案。[论文链接](https://arxiv.org/abs/2403.02626)
34 1
|
7月前
|
机器学习/深度学习 自然语言处理
【大模型】如何处理微调LLM来编写创意内容?
【5月更文挑战第7天】【大模型】如何处理微调LLM来编写创意内容?
|
6月前
|
存储 人工智能 安全
微软升级365 Copilot,加入GPT-4 Turbo、无限信息、100张图片生成加成等功能
微软升级365 Copilot,加入GPT-4 Turbo、无限信息、100张图片生成加成等功能
|
存储 Java API
【网安AIGC专题11.7】17ASAP如何更好地改进少样本提示:在LLMs的prompt中添加语义信息,来提高代码摘要生成+代码补全任务的性能。CodeSearchNet数据集(下)
【网安AIGC专题11.7】17ASAP如何更好地改进少样本提示:在LLMs的prompt中添加语义信息,来提高代码摘要生成+代码补全任务的性能。CodeSearchNet数据集(下)
163 0
|
7月前
|
人工智能 前端开发 测试技术
研究人员测试:GPT-4V生成网页超一半情况比人类效果更好
【2月更文挑战第17天】研究人员测试:GPT-4V生成网页超一半情况比人类效果更好
121 4
研究人员测试:GPT-4V生成网页超一半情况比人类效果更好
下一篇
DataWorks