回到未来!用童年日记训练AI,这个程序员借助GPT-3实现了与“过去的自己”的对话

简介: 人们对过去和未来总是情有独钟。在电影《回到未来》中,身在1985年的主角被意外送回到1955年,不仅巧遇了过去的父母,还让年轻的母亲对自己一见钟情,从而闹出了不少笑话。

如果我们稍稍把穿越的时间往回拨少一点,穿越回10年前,和过去的自己相遇,你会告诉TA什么?
最近就有一位名叫Michelle Huang的程序员在推特上分享了自己“穿越”回过去,与自己对话的经历。

image.png

还有网友表示,“这太棒了”,“这在以后或许还能用到心理治疗上”。

image.png

5步让你和过去的自己对话


相信不少小伙伴都很好奇这是如何实现的,Michelle Huang在推特上也分享了教程。
主要使用的工具就是OpenAI的GPT-3
首先,我们需要一些训练材料,比如日记、个人叙述、任何可以彰显自己个性/声音/价值观的书面内容。如果你没有写日记的习惯,存档的聊天记录应该也能使用。
Huang在过程中使用拍照+OCR扫描日记来上传数据,由于字迹问题这也花费了好几个小时。
然后,我们就可以前往GPT-3页面,在这里添加提示、日记数据,并为模型设置训练参数。

image.png

网站链接:

https://beta.openai.com/playground/


不过你需要注册一个OpenAI账号,以及需要支付一定的金额。Huang使用的是功能最强大的达芬奇模型(da vinci model,大约2美分每750个单词
随后,我们需要提示制作。在这里Huang参考了OpenAI文档,在该网站上向下滚动到“对话”(conversation)子标题,就会看到对话提示样本示例:

image.png

其次,就可以添加参数了。Huang调整了temp settings和charactercountup,用davincimodel-002进行了训练。

参数如下:

image.png

image.png最后,点击提交。如此一来,你应该就可以开始与年轻的自己对话了。
Huang表示,这个项目在生活中应该有很多用武之地。例如,你可以在治疗设置中进行训练,特别是零件疗法(Parts Therapy),或内部家庭系统治疗(IFS);或者,你可以让AI处于一种愤怒的情绪中,然后试图安慰他。

和自己对话


Huang感叹到,总的来说,这是一个非常奇妙的、同时也是一次奇怪的疗愈经历。与年轻的自己对话,让Huang想起了自己多年来一直保持不变的部分,也想起了随着生活的变化而被遗忘或埋没的部分,这就像拿着一面镜子,照出了不加掩饰、更加认真和纯粹的自己。


image.png

通过这种真实的历史数据让自己能够与过去对话,这显然比任何其他方式都要来得更为深刻和具体。
过去十几年中,Huang一直有写日记的习惯,内容从抱怨家庭作业繁重,到与暗恋对象交谈时的紧张。有些很流水账,有些现在看来也相当有见地。
当把这些日记作为数据导入模型后,AI给出的一些反应与她记忆中自己当时的反应十分相似。Huang也向年轻的自己询问了世界观,然后让AI试着来回答这个问题,“这种互动的感觉与普通的短信对话非常相似,就像我在给过去的自己实时发短信一样,这就像是在使用时光机一样,只是这个时光机被伪装成了聊天框”。

image.png

Huang还惊讶于AI能够从十年前的日记中准确地预测出现在的她的兴趣,当然这也经过了大量的迭代/试验和错误,但这不禁让人感慨,也许自己现在选的这条人生道路在很久之前就在精神世界中种下了种子。
从Huang的互动过程中,我们也不难察觉到这种媒介的治疗潜力,不仅能够将爱送回过去,还能从年轻的自己那里受到鼓舞。
以前那些让我们纠结的东西如今能够释然,这也是让我们终结对过去的遗憾始终怀有的执念,用更好的姿态迎接现在和未来。
相关报道:https://www.dailymail.co.uk/sciencetech/article-11491323/Woman-talks-past-self-trippy-conversation.html

相关文章
|
21天前
|
机器学习/深度学习 人工智能 算法
AI 基础知识从 0.6 到 0.7—— 彻底拆解深度神经网络训练的五大核心步骤
本文以一个经典的PyTorch手写数字识别代码示例为引子,深入剖析了简洁代码背后隐藏的深度神经网络(DNN)训练全过程。
381 56
|
3月前
|
机器学习/深度学习 数据采集 人工智能
基于生成式物理引擎的AI模型训练方法论
本文探讨了基于生成式物理引擎的AI模型训练方法论,旨在解决传统数据采集高成本、低效率的问题。生成式物理引擎结合物理建模与生成模型(如GAN、Diffusion),可模拟现实世界的力学规律,生成高质量、多样化的虚拟数据。文章介绍了其关键技术,包括神经网络物理建模、扩散模型场景生成及强化学习应用,并分析了其在机器人学习、数据增强和通用智能体训练中的实践价值。未来,随着可微物理引擎、跨模态生成等技术发展,生成式物理引擎将助力AI从静态监督学习迈向动态交互式世界建模,推动通用人工智能的实现。
225 57
基于生成式物理引擎的AI模型训练方法论
|
1月前
|
机器学习/深度学习 人工智能 PyTorch
GPT为定制AI应用工程师转型第一周学习计划
本计划帮助开发者快速入门AI领域,首周涵盖AI基础理论、Python编程及PyTorch实战。前两天学习机器学习、深度学习与Transformer核心概念,掌握LLM工作原理。第三至四天快速掌握Python语法与Jupyter使用,完成基础编程任务。第五至七天学习PyTorch,动手训练MNIST手写识别模型,理解Tensor操作与神经网络构建。
109 0
|
3月前
|
人工智能 自然语言处理 前端开发
AI + 低代码,程序员的副驾还是替代者?
AI + 低代码,程序员的副驾还是替代者?
56 0
|
2月前
|
机器学习/深度学习 人工智能 数据可视化
基于YOLOv8的AI虫子种类识别项目|完整源码数据集+PyQt5界面+完整训练流程+开箱即用!
本项目基于YOLOv8与PyQt5开发,实现虫子种类识别,支持图片、视频、摄像头等多种输入方式,具备完整训练与部署流程,开箱即用,附带数据集与源码,适合快速搭建高精度昆虫识别系统。
基于YOLOv8的AI虫子种类识别项目|完整源码数据集+PyQt5界面+完整训练流程+开箱即用!
|
2月前
|
机器学习/深度学习 人工智能 API
AI-Compass LLM训练框架生态:整合ms-swift、Unsloth、Megatron-LM等核心框架,涵盖全参数/PEFT训练与分布式优化
AI-Compass LLM训练框架生态:整合ms-swift、Unsloth、Megatron-LM等核心框架,涵盖全参数/PEFT训练与分布式优化
|
2月前
|
机器学习/深度学习 人工智能 程序员
MiniMind:3小时训练26MB微型语言模型,开源项目助力AI初学者快速入门
在大型语言模型(LLaMA、GPT等)日益流行的今天,一个名为MiniMind的开源项目正在AI学习圈内引起广泛关注。项目让初学者能够在3小时内从零开始训练出一个仅26.88MB大小的微型语言模型。
149 1
|
3月前
|
SQL 人工智能 程序员
AI狂飙,程序员饭碗要丢?
AI 编程工具正大幅提升程序员的效率:生成重复性代码(如 CRUD 接口)、解读报错信息加速 Debug、快速生成文档/注释、自动化测试和脚本编写。它们像效率倍增器,让新手更快上手,让老手省去大量“体力活”。 核心冲击在于:​ 单纯编写基础业务逻辑代码(尤其是模式化任务)的价值被稀释,能被 AI 有效替代。 出路是能力跃升,工作重心转移,掌握关键新技能,构筑护城河 本质:​ AI 如同强大新“实习生”。程序员需成为高效“指挥者”——善用 AI 者解决高阶问题腾飞,仅依赖基础编码能力者面临挤压。未来属于驾驭 AI 的程序员。
|
2月前
|
机器学习/深度学习 人工智能 资源调度
AI大模型训练管理工具:千亿参数时代的指挥中枢
本内容揭示了大模型训练中三大核心挑战:实验复现难、资源利用率低、合规风险高,并提出“三维控制塔”解决方案,涵盖实验管理、资源调度与合规追踪。推荐Immuta + 板栗看板等工具组合助力不同规模团队实现高效、合规、低成本的AI训练。

热门文章

最新文章