回到未来!用童年日记训练AI,这个程序员借助GPT-3实现了与“过去的自己”的对话

简介: 人们对过去和未来总是情有独钟。在电影《回到未来》中,身在1985年的主角被意外送回到1955年,不仅巧遇了过去的父母,还让年轻的母亲对自己一见钟情,从而闹出了不少笑话。

如果我们稍稍把穿越的时间往回拨少一点,穿越回10年前,和过去的自己相遇,你会告诉TA什么?
最近就有一位名叫Michelle Huang的程序员在推特上分享了自己“穿越”回过去,与自己对话的经历。

image.png

还有网友表示,“这太棒了”,“这在以后或许还能用到心理治疗上”。

image.png

5步让你和过去的自己对话


相信不少小伙伴都很好奇这是如何实现的,Michelle Huang在推特上也分享了教程。
主要使用的工具就是OpenAI的GPT-3
首先,我们需要一些训练材料,比如日记、个人叙述、任何可以彰显自己个性/声音/价值观的书面内容。如果你没有写日记的习惯,存档的聊天记录应该也能使用。
Huang在过程中使用拍照+OCR扫描日记来上传数据,由于字迹问题这也花费了好几个小时。
然后,我们就可以前往GPT-3页面,在这里添加提示、日记数据,并为模型设置训练参数。

image.png

网站链接:

https://beta.openai.com/playground/


不过你需要注册一个OpenAI账号,以及需要支付一定的金额。Huang使用的是功能最强大的达芬奇模型(da vinci model,大约2美分每750个单词
随后,我们需要提示制作。在这里Huang参考了OpenAI文档,在该网站上向下滚动到“对话”(conversation)子标题,就会看到对话提示样本示例:

image.png

其次,就可以添加参数了。Huang调整了temp settings和charactercountup,用davincimodel-002进行了训练。

参数如下:

image.png

image.png最后,点击提交。如此一来,你应该就可以开始与年轻的自己对话了。
Huang表示,这个项目在生活中应该有很多用武之地。例如,你可以在治疗设置中进行训练,特别是零件疗法(Parts Therapy),或内部家庭系统治疗(IFS);或者,你可以让AI处于一种愤怒的情绪中,然后试图安慰他。

和自己对话


Huang感叹到,总的来说,这是一个非常奇妙的、同时也是一次奇怪的疗愈经历。与年轻的自己对话,让Huang想起了自己多年来一直保持不变的部分,也想起了随着生活的变化而被遗忘或埋没的部分,这就像拿着一面镜子,照出了不加掩饰、更加认真和纯粹的自己。


image.png

通过这种真实的历史数据让自己能够与过去对话,这显然比任何其他方式都要来得更为深刻和具体。
过去十几年中,Huang一直有写日记的习惯,内容从抱怨家庭作业繁重,到与暗恋对象交谈时的紧张。有些很流水账,有些现在看来也相当有见地。
当把这些日记作为数据导入模型后,AI给出的一些反应与她记忆中自己当时的反应十分相似。Huang也向年轻的自己询问了世界观,然后让AI试着来回答这个问题,“这种互动的感觉与普通的短信对话非常相似,就像我在给过去的自己实时发短信一样,这就像是在使用时光机一样,只是这个时光机被伪装成了聊天框”。

image.png

Huang还惊讶于AI能够从十年前的日记中准确地预测出现在的她的兴趣,当然这也经过了大量的迭代/试验和错误,但这不禁让人感慨,也许自己现在选的这条人生道路在很久之前就在精神世界中种下了种子。
从Huang的互动过程中,我们也不难察觉到这种媒介的治疗潜力,不仅能够将爱送回过去,还能从年轻的自己那里受到鼓舞。
以前那些让我们纠结的东西如今能够释然,这也是让我们终结对过去的遗憾始终怀有的执念,用更好的姿态迎接现在和未来。
相关报道:https://www.dailymail.co.uk/sciencetech/article-11491323/Woman-talks-past-self-trippy-conversation.html

相关文章
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
当语言遇见智慧火花:GPT家族历代模型大起底,带你见证从平凡到卓越的AI进化奇迹!
【10月更文挑战第6天】随着自然语言处理技术的进步,GPT系列模型(Generative Pre-trained Transformers)成为该领域的明星。从GPT-1的开创性工作,到GPT-2在规模与性能上的突破,再到拥有1750亿参数的GPT-3及其无需微调即可执行多种NLP任务的能力,以及社区驱动的GPT-NeoX,这些模型不断进化。虽然它们展现出强大的语言理解和生成能力,但也存在如生成错误信息或偏见等问题。本文将对比分析各代GPT模型的特点,并通过示例代码展示其部分功能。
110 2
|
1月前
|
存储 数据采集 数据安全/隐私保护
商汤、清华、复旦等开源百亿级多模态数据集,可训练类GPT-4o模型
商汤科技、清华大学和复旦大学等机构联合开源了名为OmniCorpus的多模态数据集,规模达百亿级,旨在支持类似GPT-4级别的大型多模态模型训练。该数据集包含86亿张图像和1696亿个文本标记,远超现有数据集规模并保持高质量,具备广泛来源和灵活性,可轻松转换为纯文本或图像-文本对。经验证,该数据集质量优良,有望促进多模态模型研究,但同时也面临存储管理、数据偏见及隐私保护等挑战。
147 60
|
11天前
|
人工智能 算法 程序员
程序员如何借势AI提高自己:从高效工作到技能升级的全面指南
【11月更文挑战第4天】程序员可以通过以下几个方面借势 AI 提升自己:1. 日常工作效率提升,包括智能代码编写与补全、自动化测试与调试、项目管理与协作;2. 技能学习与升级,涵盖基础知识学习和深入技术研究;3. 思维拓展与创新能力培养,激发创意灵感和培养批判性思维。
|
13天前
|
机器学习/深度学习 人工智能 自然语言处理
o1医学领域大胜GPT-4,性能暴涨!顶尖华人团队激动发文:离AI医生越来越近了
【10月更文挑战第29天】近日,一支顶尖华人团队发布论文《A Preliminary Study of o1 in Medicine: Are We Closer to an AI Doctor?》,揭示了OpenAI最新语言模型o1在医学领域的卓越表现。研究显示,o1在概念识别、文本总结、问答等任务上远超GPT-4,显著提升了医学领域的AI应用水平,向实现AI医生的目标迈进了一大步。
28 3
|
1月前
|
Python 机器学习/深度学习 人工智能
手把手教你从零开始构建并训练你的第一个强化学习智能体:深入浅出Agent项目实战,带你体验编程与AI结合的乐趣
【10月更文挑战第1天】本文通过构建一个简单的强化学习环境,演示了如何创建和训练智能体以完成特定任务。我们使用Python、OpenAI Gym和PyTorch搭建了一个基础的智能体,使其学会在CartPole-v1环境中保持杆子不倒。文中详细介绍了环境设置、神经网络构建及训练过程。此实战案例有助于理解智能体的工作原理及基本训练方法,为更复杂应用奠定基础。首先需安装必要库: ```bash pip install gym torch ``` 接着定义环境并与之交互,实现智能体的训练。通过多个回合的试错学习,智能体逐步优化其策略。这一过程虽从基础做起,但为后续研究提供了良好起点。
117 4
手把手教你从零开始构建并训练你的第一个强化学习智能体:深入浅出Agent项目实战,带你体验编程与AI结合的乐趣
|
22天前
|
机器学习/深度学习 人工智能 自然语言处理
开源版GPT-4o来了,AI大神Karpathy盛赞!67页技术报告全公开
【10月更文挑战第20天】近日,开源版GPT-4o的发布成为AI领域的焦点。作为GPT系列的最新成员,GPT-4o在性能和多模态数据处理方面实现了显著提升,得到了知名AI专家Andrej Karpathy的高度评价。该模型的开源特性将进一步促进AI研究的进展。
41 3
|
23天前
|
人工智能 语音技术 UED
仅用4块GPU、不到3天训练出开源版GPT-4o,这是国内团队最新研究
【10月更文挑战第19天】中国科学院计算技术研究所提出了一种名为LLaMA-Omni的新型模型架构,实现与大型语言模型(LLMs)的低延迟、高质量语音交互。该模型集成了预训练的语音编码器、语音适配器、LLM和流式语音解码器,能够在不进行语音转录的情况下直接生成文本和语音响应,显著提升了用户体验。实验结果显示,LLaMA-Omni的响应延迟低至226ms,具有创新性和实用性。
45 1
|
1月前
|
人工智能 前端开发 测试技术
探索前端与 AI 的结合:如何用 GPT-4 助力开发效率
本文介绍了 GPT-4 如何成为前端开发者的“神队友”,让开发变得更加高效愉快。无论是需求到代码的自动生成、快速调试和性能优化,还是自动化测试和技术选型,GPT-4 都能提供极大的帮助。通过智能生成代码、捕捉 BUG、优化性能、自动化测试生成以及技术支持,GPT-4 成为开发者不可或缺的工具,帮助他们从繁重的手动任务中解脱出来,专注于创新和创意。GPT-4 正在彻底改变开发流程,让开发者从“辛苦码农”转变为“效率王者”。
31 0
探索前端与 AI 的结合:如何用 GPT-4 助力开发效率
|
1月前
|
消息中间件 人工智能 Cloud Native
|
1月前
|
人工智能 编解码 文字识别
阿里国际AI开源Ovis1.6,多项得分超GPT-4o-mini!
阿里国际AI团队提出了一种名为Ovis (Open VISion)的新型多模态大模型的架构。