OpenAI发布GPT-4,做题能力更强,还接受图片输入,看懂梗图无障碍!

简介: OpenAI发布GPT-4,做题能力更强,还接受图片输入,看懂梗图无障碍!

GPT-4终于发布了!


资本市场狂欢之后,GPT-4在万众瞩目下诞生,OpenAI在其官网以《GPT-4是 OpenAI 最先进的系统,能够产生更安全、更有用的响应》为题发布了这一最新模型。


这一迭代速度不可谓不快,仅仅四个月前,ChatGPT 刚刚推出,并成为历史上增长最快的消费者应用程序。


总的来说,GPT-4提高了 ChatGPT 的核心技术,使得它相比此前的版本,具有更广泛的一般知识和解决问题的能力,使得聊天软件能够以更高的准确度解决更难的问题。


另外,它还增加了一些新功能,比如接受图像作为输入,生成标题、分类和分析。


GPT-4还能够处理超过25000字的文本,允许用例如长形式的内容创建、扩展会话、文档搜索和分析等。

image.png

新能力:看懂梗图无障碍


GPT-4 模型中最大的更新之一是它引入了图像作为输入,并对其生成标题、分类和分析,而GPT-3.5 只能接受文本。


比如下面这个例子:

image.png

问题:这幅图有什么好笑的? 一点一点描述它。 GPT-4 回答:该图像显示了一个包含三个图片的“Lightning Cable”适配器。 图1: 一个智能手机与 VGA 连接器(一个大型,蓝色,15针连接器通常用于计算机显示器)插入其充电端口。 图2: “Lightning Cable”适配器的封装,上面有一个 VGA 连接器的图片。 图3: VGA 连接器的特写镜头,最后是一个小型Lightning连接器(用于为 iPhone 和其他苹果设备充电)。 这张图片中的幽默来自于将一个过时的大型 VGA 连接器插入一个小型的现代智能手机充电端口的荒谬。


目前,虽然 GPT-4 的能力不足以实现文本到视频的生成和其他动态生成内容,但它确实提供了一个多元素聊天在未来将会是什么样子的一瞥,很容易想象,在未来,视频、音频、图像和所有其他形式的内容将如何集成到聊天中。


旧能力:当任务足够复杂,GPT-4 就会比 GPT-3.5 高出一截


GPT-4 作为 OpenAI 在扩展深度学习方面的最新里程碑,本质上是一个大型的多模态模型(接受图像和文本输入,发出文本输出) ,虽然在许多现实世界的场景中不如人类,但在各种专业和学术基准上,其能力已经接近甚至超过人类水平的表现。


例如,它通过了模拟律师资格考试,成绩在前10% 左右; 相比之下,GPT-3.5的成绩在后10% 左右。


如果只是随意的交谈,GPT-3.5和 GPT-4 之间的区别可能是微妙的,但是当任务的复杂性达到一个足够的阈值时,差异就会显现出来ーー与 GPT-3.5相比,GPT-4更可靠、更有创造性,并且能够处理更多细微差别的指令。


为了理解这两个模型之间的区别,OpenA测试了各种基准,包括模拟最初为人类设计的考试,可以看出,在更高级的测试中,GPT-4 表现比 GPT-3.5 好很多。

image.pngimage.png

OMT:引入更多人工反馈


为了增加模型的复杂性,GPT-4还加入了更多的人工反馈,包括 ChatGPT 用户提交的反馈,以改进 GPT-4的行为。OpenAI 表示,该公司“与50多位专家合作,在包括人工智能安全和安保在内的领域提供早期反馈。”


作为声明的一部分,OpenAI 分享了几个已经测试过 GPT-4的公司的用例,包括 Duolingo,Stripe,Morgan Stanley 和冰岛政府。该公司还分享了一个 GPT-4 的研究博客,并强调“ GPT-4仍然有许多已知的限制,我们正在努力解决,如社会偏见,幻觉和对抗性提示。”


计算机科学家、布朗大学(Brown University)教授苏雷什•文卡塔苏布拉曼尼亚(Suresh Venkatasubramanian)对这一消息仍持谨慎乐观态度。在VentureBeat的一次采访中,他说: “我很想看看 ChatGPT 在公众注视下进行的压力测试中,它是如何表现的,我特别感兴趣的是,它是否以及如何产生欺骗性的真实内容,以及有什么保护措施可以防止这种情况发生。”



相关文章
|
存储 自然语言处理 API
【网安AIGC专题11.1】12 CODEIE用于NER和RE:顶刊OpenAI API调用、CodeX比chatgpt更好:提示工程设计+控制变量对比实验(格式一致性、模型忠实度、细粒度性能)(下)
【网安AIGC专题11.1】12 CODEIE用于NER和RE:顶刊OpenAI API调用、CodeX比chatgpt更好:提示工程设计+控制变量对比实验(格式一致性、模型忠实度、细粒度性能)
109 0
|
人工智能 自然语言处理 开发者
ChatGPT4的生图功能你们都用了吗?
ChatGPT4的生图功能你们都用了吗?
488 0
|
1月前
|
机器学习/深度学习 弹性计算 自然语言处理
前端大模型应用笔记(二):最新llama3.2小参数版本1B的古董机测试 - 支持128K上下文,表现优异,和移动端更配
llama3.1支持128K上下文,6万字+输入,适用于多种场景。模型能力超出预期,但处理中文时需加中英翻译。测试显示,其英文支持较好,中文则需改进。llama3.2 1B参数量小,适合移动端和资源受限环境,可在阿里云2vCPU和4G ECS上运行。
|
6月前
|
人工智能 编解码 自然语言处理
OpenAI 全新发布文生视频模型 Sora,支持 60s 超长长度,有哪些突破?将带来哪些影响?
OpenAI 全新发布文生视频模型 Sora,支持 60s 超长长度,有哪些突破?将带来哪些影响?
166 1
|
4月前
|
数据采集 边缘计算 自然语言处理
谷歌推出创新方法:通过自然文本提示,快速训练视觉模型
【7月更文挑战第5天】谷歌研究者提出新方法,通过自然语言提示训练视觉模型,减少人工标注需求。"建模合作者"框架结合大型语言模型与视觉语言模型,以对话理解视觉概念并自动生成标注,降低训练成本,提高效率。实验显示定义概念工作量减少90%,并在多种任务上超越现有技术。尽管有限制,但此框架为资源受限环境提供了更高效模型训练方案。[论文链接](https://arxiv.org/abs/2403.02626)
32 1
|
5月前
|
存储 人工智能 安全
微软升级365 Copilot,加入GPT-4 Turbo、无限信息、100张图片生成加成等功能
微软升级365 Copilot,加入GPT-4 Turbo、无限信息、100张图片生成加成等功能
|
存储 Java API
【网安AIGC专题11.7】17ASAP如何更好地改进少样本提示:在LLMs的prompt中添加语义信息,来提高代码摘要生成+代码补全任务的性能。CodeSearchNet数据集(下)
【网安AIGC专题11.7】17ASAP如何更好地改进少样本提示:在LLMs的prompt中添加语义信息,来提高代码摘要生成+代码补全任务的性能。CodeSearchNet数据集(下)
153 0
|
6月前
|
Unix 编译器 iOS开发
苹果AppleMacOs系统Sonoma本地部署无内容审查(NSFW)大语言量化模型Causallm
最近Mac系统在运行大语言模型(LLMs)方面的性能已经得到了显著提升,尤其是随着苹果M系列芯片的不断迭代,本次我们在最新的MacOs系统Sonoma中本地部署无内容审查大语言量化模型Causallm。 这里推荐使用koboldcpp项目,它是由c++编写的kobold项目,而MacOS又是典型的Unix操作系统,自带clang编译器,也就是说MacOS操作系统是可以直接编译C语言的。
苹果AppleMacOs系统Sonoma本地部署无内容审查(NSFW)大语言量化模型Causallm
|
6月前
|
自然语言处理 测试技术 算法
|
6月前
|
人工智能
AI批量写文章伪原创:基于ChatGPT长文本模型,实现批量改写文章、批量回答问题(长期更新)
AI批量写文章伪原创:基于ChatGPT长文本模型,实现批量改写文章、批量回答问题(长期更新)
230 1