不会出错的ChatGPT毫无意义

简介: 不会出错的ChatGPT毫无意义

记得第一次听说ChatGPT是在去年底,看到新闻的时候被它的成熟度惊掉了下巴,但国内一开始并没有掀起很大范围的讨论,只不过是IT圈内人传颂和把玩罢了。到了春节收假的时候,情况突然变得不太一样了,一夜之间全世界,全领域,全年龄的人都在讨论ChatGPT,连续霸榜各大平台头版头条长达一个月之久。金融市场也在狂欢,人工智能全产业链的股票全都涨疯了,疯到完全无视美元指数的强硬上涨。各大公司纷纷抢着宣布自己早已在布局相关产业,都想蹭一波热度提提股价,又或许它们只是怕自己落后丢脸而已。总之,过去的一个月,地球沸腾了,因为ChatGPT沸腾了,因为AIGC沸腾了。前阵子我在公司内网的学堂里听了一门课,是陈铭老师的分享(没错,奇葩说那个站在宇宙中心呼唤爱的陈铭)。他在课上提到一个哲学观点:

语言的意义是从可能错的部分流淌出来的

什么意思?让我们来想一句话,这句话无论放在什么语境,什么时间,什么条件下,都不会错,你能想到哪句话?给你三秒钟思考。3,2,1!好,我来揭晓:几乎所有的话都必然存在错误,但这句话不会错:人是人为什么?因为这句话毫无意义。不输出有效信息,也不产生价值交换但如果你说的是:我是人,这句话就有了意义,因为你表达了一个观点,你认为你是一个人,这是有效表达,是有信息量的。然而,有意义的表达一定是存在出错的可能性的:你为什么能确定你是人呢?你确定你知道人是什么吗?你确定你知道你是什么吗?你怎么能确定自己不是一个泡在福尔马林里的“缸中大脑”呢?是的,你很难证明这一切,就好像庄周和蝴蝶一样,到底是庄周梦到了蝴蝶,还是蝴蝶梦到了庄周?而“人是人”,这句话左右两边恒等,虽然正确,但毫无意义。粗鄙一点说,这就一句彻头彻尾的废话,正确的废话。我们不是在聊ChatGPT吗?我扯这些做什么?那是因为,如今火热的ChatGPT在某些场景下的回答,就是给我这种感觉:一本正经的胡说八道,满屏幕正确的废话我自己把玩过ChatGPT,也看过网上无数人把玩的案例,其中有一些案例比较经典,完美印证了上面的看法,比如这个:这是ChatGPT在模仿有名的胡锡进文体,众所周知,老胡的大多数文字都是口水话,突出一个模棱两可,左右互搏。ChatGPT在回答很多主观问题的时候,也会有类似遮遮掩掩,看似正确实则废话的表现。比如我问它,今天的恒生科技指数为什么暴跌,它会一本正经的给我铺垫一下什么是恒生科技,什么是指数,最后给我个结论:股市有涨有跌,存在一定的波动性……这不是句废话吗?我能从中拿到什么有效信息?类似的例子很多,大家可以自己去把玩ChatGPT,也可以上网搜搜网友的调戏案例,你会发现,震惊全世界的ChatGPT,在某些场景下,有时候就像个傻子一样。这是我一个月前发的朋友圈:



配图是我当时看到的一篇文章里的一段话,是这样的:

image.png


为什么ChatGPT在小孩子的测试面前突然失效了?因为小孩的思维模型,尚未经过专业的逻辑训练,他们的想法天马行空,脑子装着十万个为什么,而且这十万个为什么你甚至无法在任何强大的搜索引擎里找到合适的答案。而成年人,经过漫长的逻辑思维训练,和社会教条的规训,思维模型早已成定势,越聪明的人越具备极强的理性推导能力,那么,这也恰好就是ChatGPT最擅长的能力:逻辑推演。ChatGPT的背后是超级强大的算力,超级丰富的语料库,和超级严谨的逻辑推演能力。于是,在一场场与AI的正面逻辑硬碰硬中,人类屡屡败下阵来。前不久,和大名鼎鼎的“AlphaGo同级别的AI围棋程序“KataGo”,宣布被一个业余棋手给打败了。image.png要知道,作为AI围棋的代表,AlphaGo曾经打遍天下无敌手,对战类顶级围棋天才柯洁(8次世界冠军的时候,更是3场全胜

image.png


如此猖狂的AI围棋程序,竟然被一个业余棋手打败了?为什么?是因为KataGo比AlphaGo弱?还是人类棋艺又进步了?都不是。

外行看热闹,内行看门道。

之前和AI对战的都是职业选手,他们在下棋时都在用受过多年训练的定势思维推演棋局,而这位业余选手,用的却是“旁门左道”,通过在各种违背常理的地方落子,躲避掉AI程序的预判,并最终获胜。

说到底,AI程序,不管是AlphaGo,还是ChatGPT,都是依附于人类过往的数据训练出来的,我们正常的成年人,也都是从同样的数据环境里训练出来的,不同的是,任何一个人类个体成长所用的数据量,远远少于AI训练用的数据量(仅限逻辑训练层面,非逻辑领域不一定),所以人类在面对AI的时候必然是一败涂地。

这也是为什么ChatGPT面世之后,全世界人类都在散播着失业焦虑。在逻辑理性领域,人类毫无胜算
人类的命运就这么绝望了吗?显然不是。在聊AI领域话题的时候,我经常说一句话:连三体人都猜不透人类的脑子里在想什么,AI怎么可能猜透?人之所以为人,其思想系统的复杂性远超过任何一个已知的实体(包括生物和非生物)。你会发现在非常多的主观题面前,ChatGPT的表现并不好,因为它猜不透你的心。为了让ChatGPT能更好的理解你的意思,人们通常会用一大段极其精准的词汇,用严谨的语法拼接在一起,这样AI程序就能更加有效的进行词法语法分析。可是你忘记了,当你在用极其精确的词汇描述问题的时候,你已经不是一个人类了。或者说,这已经不是一个正常人的交流方式了。语言的意义是从可能错的部分流淌出来的当语言过于追求精准,正确的时候,此次表达本身就已经丢失了信息,或者至少损失了可讨论的空间。更何况,AIGC(AI Generated Content)是有宿命,有边界的任何的数据,都会在进行模型训练之前,设置一段人工审核流程,为的是确保输入的数据不违背伦理,道德,政策等人类红线。输出内容的时候亦是如此。极致理性的机器于是便戴上了桎梏。它可以不追求卓越,不追求创新,不追求颠覆,但必须保证不越轨,不出错。阉割的理性,何以战胜人类智慧的光芒?

虫子从来就没有被真正战胜过”,这是《三体》里很经典的一句话,“虫子”指人类

AI再强大,也只是人类手里的工具(当然不可否认这个工具确实好用)

它可以GC(Generate Content 生成内容)出全世界,只有人类,才能创造意义


目录
相关文章
|
2月前
|
自然语言处理 搜索推荐 自动驾驶
【ChatGPT 指令大全】怎么利用ChatGPT写报告
【ChatGPT 指令大全】怎么利用ChatGPT写报告
38 0
|
2月前
|
人工智能 缓存 自然语言处理
ChatGPT消息发不出去?ChatGPT没反应?那是这个步骤少做了!
今天在工作的过程中,我正准备登陆ChatGPT咨询一些关于文案的问题,但突然发现自己无法发送消息了。 “ChatGPT消息发送故障,但历史对话仍可查看。为了解决问题,您可以先访问OpenAI官方网站:https://status.openai.com/。 这个网站提供了Open AI系统的实时状态监控,非常方便实用。”
24 0
ChatGPT消息发不出去?ChatGPT没反应?那是这个步骤少做了!
|
2月前
|
人工智能 搜索推荐
【ChatGPT 指令大全】怎么使用ChatGPT来辅助学习英语
【ChatGPT 指令大全】怎么使用ChatGPT来辅助学习英语
36 1
|
2月前
|
存储 JavaScript 前端开发
【ChatGPT 指令大全】怎么使用ChatGPT辅助程式开发
【ChatGPT 指令大全】怎么使用ChatGPT辅助程式开发
28 0
|
2月前
|
数据采集 人工智能 搜索推荐
【ChatGPT 指令大全】怎么使用ChatGPT来辅助知识学习
【ChatGPT 指令大全】怎么使用ChatGPT来辅助知识学习
24 0
|
4月前
ChatGPT - 提示词
ChatGPT - 提示词
36 0
|
6月前
|
PyTorch 算法框架/工具 计算机视觉
ChatGPT写程序如何?
ChatGPT最近挺火的,据说还能写程序,感到有些惊讶。于是在使用ChatGPT有一周左右后,分享一下用它写程序的效果如何。
47 1
|
6月前
|
数据采集 人工智能 监控
【网安AIGC专题11.1】论文13:理解和解释代码,GPT-3大型语言模型&学生创建的代码解释比较+错误代码的解释(是否可以发现并改正)
【网安AIGC专题11.1】论文13:理解和解释代码,GPT-3大型语言模型&学生创建的代码解释比较+错误代码的解释(是否可以发现并改正)
93 0
|
人工智能
ChatGPT 常见错误原因及解决方案:报错、回答不完整等
最近,由人工智能实验室 OpenAI 发布的对话式大型语言模型 ChatGPT 火得一塌糊涂。它可以与人类轻松地对话,无论是多么奇葩的问题 ChatGPT 都不在话下。在体验 ChatGPT 的同时我们也会遇到各种各样的问题,这里我总结了其对话过程中可能会发生的错误以及如何去解决它们。
204277 5
ChatGPT 常见错误原因及解决方案:报错、回答不完整等
|
11月前
|
JavaScript 前端开发
【ChatGPT】一文教你怎么编写清晰有效的(Prompt)提示词~(二)
【ChatGPT】一文教你怎么编写清晰有效的(Prompt)提示词~(二)