回到未来!用童年日记训练AI,这个程序员借助GPT-3实现了与“过去的自己”的对话

简介: 人们对过去和未来总是情有独钟。在电影《回到未来》中,身在1985年的主角被意外送回到1955年,不仅巧遇了过去的父母,还让年轻的母亲对自己一见钟情,从而闹出了不少笑话。

如果我们稍稍把穿越的时间往回拨少一点,穿越回10年前,和过去的自己相遇,你会告诉TA什么?
最近就有一位名叫Michelle Huang的程序员在推特上分享了自己“穿越”回过去,与自己对话的经历。

image.png

还有网友表示,“这太棒了”,“这在以后或许还能用到心理治疗上”。

image.png

5步让你和过去的自己对话


相信不少小伙伴都很好奇这是如何实现的,Michelle Huang在推特上也分享了教程。
主要使用的工具就是OpenAI的GPT-3
首先,我们需要一些训练材料,比如日记、个人叙述、任何可以彰显自己个性/声音/价值观的书面内容。如果你没有写日记的习惯,存档的聊天记录应该也能使用。
Huang在过程中使用拍照+OCR扫描日记来上传数据,由于字迹问题这也花费了好几个小时。
然后,我们就可以前往GPT-3页面,在这里添加提示、日记数据,并为模型设置训练参数。

image.png

网站链接:

https://beta.openai.com/playground/


不过你需要注册一个OpenAI账号,以及需要支付一定的金额。Huang使用的是功能最强大的达芬奇模型(da vinci model,大约2美分每750个单词
随后,我们需要提示制作。在这里Huang参考了OpenAI文档,在该网站上向下滚动到“对话”(conversation)子标题,就会看到对话提示样本示例:

image.png

其次,就可以添加参数了。Huang调整了temp settings和charactercountup,用davincimodel-002进行了训练。

参数如下:

image.png

image.png最后,点击提交。如此一来,你应该就可以开始与年轻的自己对话了。
Huang表示,这个项目在生活中应该有很多用武之地。例如,你可以在治疗设置中进行训练,特别是零件疗法(Parts Therapy),或内部家庭系统治疗(IFS);或者,你可以让AI处于一种愤怒的情绪中,然后试图安慰他。

和自己对话


Huang感叹到,总的来说,这是一个非常奇妙的、同时也是一次奇怪的疗愈经历。与年轻的自己对话,让Huang想起了自己多年来一直保持不变的部分,也想起了随着生活的变化而被遗忘或埋没的部分,这就像拿着一面镜子,照出了不加掩饰、更加认真和纯粹的自己。


image.png

通过这种真实的历史数据让自己能够与过去对话,这显然比任何其他方式都要来得更为深刻和具体。
过去十几年中,Huang一直有写日记的习惯,内容从抱怨家庭作业繁重,到与暗恋对象交谈时的紧张。有些很流水账,有些现在看来也相当有见地。
当把这些日记作为数据导入模型后,AI给出的一些反应与她记忆中自己当时的反应十分相似。Huang也向年轻的自己询问了世界观,然后让AI试着来回答这个问题,“这种互动的感觉与普通的短信对话非常相似,就像我在给过去的自己实时发短信一样,这就像是在使用时光机一样,只是这个时光机被伪装成了聊天框”。

image.png

Huang还惊讶于AI能够从十年前的日记中准确地预测出现在的她的兴趣,当然这也经过了大量的迭代/试验和错误,但这不禁让人感慨,也许自己现在选的这条人生道路在很久之前就在精神世界中种下了种子。
从Huang的互动过程中,我们也不难察觉到这种媒介的治疗潜力,不仅能够将爱送回过去,还能从年轻的自己那里受到鼓舞。
以前那些让我们纠结的东西如今能够释然,这也是让我们终结对过去的遗憾始终怀有的执念,用更好的姿态迎接现在和未来。
相关报道:https://www.dailymail.co.uk/sciencetech/article-11491323/Woman-talks-past-self-trippy-conversation.html

相关文章
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
当语言遇见智慧火花:GPT家族历代模型大起底,带你见证从平凡到卓越的AI进化奇迹!
【10月更文挑战第6天】随着自然语言处理技术的进步,GPT系列模型(Generative Pre-trained Transformers)成为该领域的明星。从GPT-1的开创性工作,到GPT-2在规模与性能上的突破,再到拥有1750亿参数的GPT-3及其无需微调即可执行多种NLP任务的能力,以及社区驱动的GPT-NeoX,这些模型不断进化。虽然它们展现出强大的语言理解和生成能力,但也存在如生成错误信息或偏见等问题。本文将对比分析各代GPT模型的特点,并通过示例代码展示其部分功能。
140 2
|
13天前
|
机器学习/深度学习 存储 人工智能
【AI系统】感知量化训练 QAT
本文介绍感知量化训练(QAT)流程,旨在减少神经网络从FP32量化至INT8时的精度损失。通过在模型中插入伪量化节点(FakeQuant)模拟量化误差,并在训练中最小化这些误差,使模型适应量化环境。文章还探讨了伪量化节点的作用、正向与反向传播处理、TensorRT中的QAT模型高效推理,以及QAT与PTQ的对比,提供了实践技巧,如从良好校准的PTQ模型开始、采用余弦退火学习率计划等。
51 2
【AI系统】感知量化训练 QAT
|
13天前
|
机器学习/深度学习 存储 人工智能
【AI系统】训练后量化与部署
本文详细介绍了训练后量化技术,涵盖动态和静态量化方法,旨在将模型权重和激活从浮点数转换为整数,以优化模型大小和推理速度。通过KL散度等校准方法和量化粒度控制,文章探讨了如何平衡模型精度与性能,同时提供了端侧量化推理部署的具体实现步骤和技术技巧。
37 1
【AI系统】训练后量化与部署
|
11天前
|
人工智能 PyTorch 测试技术
【AI系统】并行训练基本介绍
分布式训练通过将任务分配至多个节点,显著提升模型训练效率与精度。本文聚焦PyTorch2.0中的分布式训练技术,涵盖数据并行、模型并行及混合并行等策略,以及DDP、RPC等核心组件的应用,旨在帮助开发者针对不同场景选择最合适的训练方式,实现高效的大模型训练。
47 8
|
1月前
|
人工智能 算法 程序员
程序员如何借势AI提高自己:从高效工作到技能升级的全面指南
【11月更文挑战第4天】程序员可以通过以下几个方面借势 AI 提升自己:1. 日常工作效率提升,包括智能代码编写与补全、自动化测试与调试、项目管理与协作;2. 技能学习与升级,涵盖基础知识学习和深入技术研究;3. 思维拓展与创新能力培养,激发创意灵感和培养批判性思维。
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
o1医学领域大胜GPT-4,性能暴涨!顶尖华人团队激动发文:离AI医生越来越近了
【10月更文挑战第29天】近日,一支顶尖华人团队发布论文《A Preliminary Study of o1 in Medicine: Are We Closer to an AI Doctor?》,揭示了OpenAI最新语言模型o1在医学领域的卓越表现。研究显示,o1在概念识别、文本总结、问答等任务上远超GPT-4,显著提升了医学领域的AI应用水平,向实现AI医生的目标迈进了一大步。
53 3
|
21天前
|
机器学习/深度学习 存储 人工智能
【AI系统】谷歌 TPU v2 训练芯片
2017年,谷歌推出TPU v2,专为神经网络训练设计,标志着从推理转向训练的重大转变。TPU v2引入多项创新,包括Vector Memory、Vector Unit、MXU及HBM内存,以应对训练中数据并行、计算复杂度高等挑战。其高效互联技术构建了TPU v2超级计算机,显著提升大规模模型训练的效率和性能。
38 0
|
2月前
|
Python 机器学习/深度学习 人工智能
手把手教你从零开始构建并训练你的第一个强化学习智能体:深入浅出Agent项目实战,带你体验编程与AI结合的乐趣
【10月更文挑战第1天】本文通过构建一个简单的强化学习环境,演示了如何创建和训练智能体以完成特定任务。我们使用Python、OpenAI Gym和PyTorch搭建了一个基础的智能体,使其学会在CartPole-v1环境中保持杆子不倒。文中详细介绍了环境设置、神经网络构建及训练过程。此实战案例有助于理解智能体的工作原理及基本训练方法,为更复杂应用奠定基础。首先需安装必要库: ```bash pip install gym torch ``` 接着定义环境并与之交互,实现智能体的训练。通过多个回合的试错学习,智能体逐步优化其策略。这一过程虽从基础做起,但为后续研究提供了良好起点。
186 4
手把手教你从零开始构建并训练你的第一个强化学习智能体:深入浅出Agent项目实战,带你体验编程与AI结合的乐趣
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
开源版GPT-4o来了,AI大神Karpathy盛赞!67页技术报告全公开
【10月更文挑战第20天】近日,开源版GPT-4o的发布成为AI领域的焦点。作为GPT系列的最新成员,GPT-4o在性能和多模态数据处理方面实现了显著提升,得到了知名AI专家Andrej Karpathy的高度评价。该模型的开源特性将进一步促进AI研究的进展。
59 3
|
2月前
|
人工智能 语音技术 UED
仅用4块GPU、不到3天训练出开源版GPT-4o,这是国内团队最新研究
【10月更文挑战第19天】中国科学院计算技术研究所提出了一种名为LLaMA-Omni的新型模型架构,实现与大型语言模型(LLMs)的低延迟、高质量语音交互。该模型集成了预训练的语音编码器、语音适配器、LLM和流式语音解码器,能够在不进行语音转录的情况下直接生成文本和语音响应,显著提升了用户体验。实验结果显示,LLaMA-Omni的响应延迟低至226ms,具有创新性和实用性。
69 1
下一篇
DataWorks