数字化诗人:这可能是第一位用算法写诗的诺贝尔文学奖得主

简介: 一位英国教授发现,一些优秀的诗人早在20世纪60年代就开始使用编码算法来写诗了。

一位英国教授发现,一些优秀的诗人早在20世纪60年代就开始使用编码算法来写诗了。

image

著名作家J.M.Coetzee,在早期的英国超级计算机上开发了创作诗歌的软件

当我们回顾历史上探索科技应用的人才时,通常不会想到英语教授。但是伦敦国王学院现代文学博士后研究员Rebecca Roach去年在研究J.M. Coetzee的档案时,发现了一箱“难以置信的材料”。J.M. Coetzee是在德克萨斯大学奥斯丁分校的Harry Ransom中心获得了诺贝尔文学奖的诗人与小说家。(相关链接:http://www.hrc.utexas.edu/

在Roach发现的这个箱子里,装满了电脑打印出来的看似随机的单词。Roach记得,Coetzee在2002年出版了一本小说化的自传体回忆录《青春》。而这本回忆录的主人公John,为了好找工作,在大学学的是数学,但他从未放弃成为一个世界级诗人和小说家的梦想。

正如Coetzee自己所经历的那样,John在上世纪60年代从他的祖国南非移居到伦敦,并从事编程工作,他一开始供职于IBM,后来进入了英国原子能研究所,利用Atlas 2超级计算机进行编程。

John欣赏计算机的方式和他的同事们不同,Coetzee是这样写的:“虽然Atlas不是一台用来处理文本资料的机器,但在夜深人静的时候,John用它打印了成千上万的文字,这些文字带有Pablo Neruda(智利诗人)的风格,使用了《马楚·比楚高峰》中最有力的词汇。”(相关链接:http://elearn.cs.man.ac.uk/~atlas/

John对他的程序所产生的独特的词汇联想感到非常惊奇,比如“茶壶的怀旧(the nostalgia of teapots)”和“狂怒的骑兵(furious horsemen)”。他挑选了其中最好的作品,编写并发表在文学周刊上。

Roach意识到,这些随机词汇可能是Coetzee进行电脑辅助诗歌写作时打印出来的。箱子里还有她怀疑是Coetzee的原始代码的东西,所以她拍摄了照片,并将它们带回英国,交给一个研究过Atlas的人。

由源代码可以确认这个软件就是为Atlas编写的。Roach说:“他盯着我拍的这些模糊的照片,分析出它们没有使用任何我们所熟知的高级计算机语言进行编写,而是使用了Atlas自动编码,这是为这台特定计算机而设计的特殊语言。”

由于无法访问Atlas的工作路径,Roach无法自己运行这些程序,但她可以找到已经发表的由Coetzee的程序生产的诗歌。这些诗歌在南非一些出版物中都有迹可循,例如1963年的《狮子和黑斑羚》(The Lion and the Impala),以及1978年发表在Staffrider上的,描述了Coetzee在60年代进行的数字化实验的作品。

Staffrider上的诗歌《史诗中的英雄与坏母亲》(Hero and Bad Mother in Epic)中有很多重复的单词,比如“瞌睡之剑(sword drowses)”、“假寐之剑(drowsy sword)”、“假寐(fiction drowses)”、“虚拟之剑(sword of fiction)”和“守时之剑(punctual sword)”等。它还包含了像“谨慎的地理(the geography of caution)”和“女性的王国(the feminine kingdom)”等这些有着奇妙转折的短语。

在《狮子与黑斑羊》中,Coetzee诠释了他自己的美学思想。他说,他的程序生成的代码包含各种可能的诗句组合,在这基础上再进行筛选:“‘作者’在已输出的内容(假设以每分钟75首诗的速度创作了2,100首诗)中选择合适的部分,将其缩减为标准格式,然后再发送给编辑。”

在他的先锋派实验中,Coetzee并不是孤军奋战的。其他的诗人先锋也有使用计算机进行创作的意向和机会。

据C.T. Funkhouser的《史前诗歌的数字化》(Prehistoric Digital Poetry)介绍,当时还有其他的数字化诗人先驱,包括意大利作家Nanni Balestrini,他1961年的诗歌《磁带标记》(Tape Mark)也是使用数字文本拼接技术创作而成的。(相关链接:http://www.uapress.ua.edu/product/Prehistoric-Digital-Poetry,1831.aspx

远在谷歌的Ngram查看器产生之前,这些实验就致力于推动计算机在人文科学领域的发展——而不只是专门用于金融、科学或工程计算。但是Roach说,这些实验一直被忽视了,因为“计算机领域的研究者对历史不感兴趣,而文学家又不理解计算机”。

然而,计算机程序生成的诗能称为真正的诗歌吗?随着Roach工作的展开,答案渐渐明朗,在正确的指导下,这样的诗成为真正的诗歌是“很有可能”的。

这篇文章以《诗人和机器》为名发表在2018年6月的印刷版上。

原文发布时间为:2018-06-29

本文来自云栖社区合作伙伴“数据与算法之美”,了解相关信息可以关注“数据与算法之美”。

相关文章
|
人工智能 边缘计算 算法
AI开发者大会之计算机视觉技术实践与应用:2020年7月3日《RPA+AI助力政企实现智能时代的人机协同》、《5G风口到来,边缘计算引领数据中心变革》、《数字化时代金融市场与AI算法如何结合?》
AI开发者大会之计算机视觉技术实践与应用:2020年7月3日《RPA+AI助力政企实现智能时代的人机协同》、《5G风口到来,边缘计算引领数据中心变革》、《数字化时代金融市场与AI算法如何结合?》
AI开发者大会之计算机视觉技术实践与应用:2020年7月3日《RPA+AI助力政企实现智能时代的人机协同》、《5G风口到来,边缘计算引领数据中心变革》、《数字化时代金融市场与AI算法如何结合?》
|
人工智能 算法 安全
7月3日云栖精选夜读丨数字化诗人:这可能是第一位用算法写诗的诺贝尔文学奖得主
著名作家J.M.Coetzee,在早期的英国超级计算机上开发了创作诗歌的软件当我们回顾历史上探索科技应用的人才时,通常不会想到英语教授。但是伦敦国王学院现代文学博士后研究员Rebecca Roach去年在研究J.M. Coetzee的档案时,发现了一箱“难以置信的材料”。
3310 0
7月3日云栖精选夜读丨数字化诗人:这可能是第一位用算法写诗的诺贝尔文学奖得主
|
4天前
|
机器学习/深度学习 自然语言处理 算法
m基于深度学习的OFDM+QPSK链路信道估计和均衡算法误码率matlab仿真,对比LS,MMSE及LMMSE传统算法
**摘要:** 升级版MATLAB仿真对比了深度学习与LS、MMSE、LMMSE的OFDM信道估计算法,新增自动样本生成、复杂度分析及抗频偏性能评估。深度学习在无线通信中,尤其在OFDM的信道估计问题上展现潜力,解决了传统方法的局限。程序涉及信道估计器设计,深度学习模型通过学习导频信息估计信道响应,适应频域变化。核心代码展示了信号处理流程,包括编码、调制、信道模拟、降噪、信道估计和解调。
25 8
|
6天前
|
算法
基于GA遗传优化的混合发电系统优化配置算法matlab仿真
**摘要:** 该研究利用遗传算法(GA)对混合发电系统进行优化配置,旨在最小化风能、太阳能及电池储能的成本并提升系统性能。MATLAB 2022a用于实现这一算法。仿真结果展示了一系列图表,包括总成本随代数变化、最佳适应度随代数变化,以及不同数据的分布情况,如负荷、风速、太阳辐射、弃电、缺电和电池状态等。此外,代码示例展示了如何运用GA求解,并绘制了发电单元的功率输出和年变化。该系统原理基于GA的自然选择和遗传原理,通过染色体编码、初始种群生成、适应度函数、选择、交叉和变异操作来寻找最优容量配置,以平衡成本、效率和可靠性。
|
7天前
|
机器学习/深度学习 算法
基于鲸鱼优化的knn分类特征选择算法matlab仿真
**基于WOA的KNN特征选择算法摘要** 该研究提出了一种融合鲸鱼优化算法(WOA)与K近邻(KNN)分类器的特征选择方法,旨在提升KNN的分类精度。在MATLAB2022a中实现,WOA负责优化特征子集,通过模拟鲸鱼捕食行为的螺旋式和包围策略搜索最佳特征。KNN则用于评估特征子集的性能。算法流程包括WOA参数初始化、特征二进制编码、适应度函数定义(以分类准确率为基准)、WOA迭代搜索及最优解输出。该方法有效地结合了启发式搜索与机器学习,优化特征选择,提高分类性能。
|
2天前
|
机器学习/深度学习 存储 算法
基于SFLA算法的神经网络优化matlab仿真
**摘要:** 使用MATLAB2022a,基于SFLA算法优化神经网络,降低训练误差。程序创建12个神经元的前馈网络,训练后计算性能。SFLA算法寻找最优权重和偏置,更新网络并展示训练与测试集的预测效果,以及误差对比。SFLA融合蛙跳与遗传算法,通过迭代和局部全局搜索改善网络性能。通过调整算法参数和与其他优化算法结合,可进一步提升模型预测精度。
|
7天前
|
机器学习/深度学习 算法 数据可视化
基于BP神经网络的64QAM解调算法matlab性能仿真
**算法预览图省略** MATLAB 2022A版中,运用BP神经网络进行64QAM解调。64QAM通过6比特映射至64复数符号,提高数据速率。BP网络作为非线性解调器,学习失真信号到比特的映射,对抗信道噪声和多径效应。网络在处理非线性失真和复杂情况时展现高适应性和鲁棒性。核心代码部分未显示。
|
5天前
|
算法 计算机视觉
基于Chan-Vese算法的图像边缘提取matlab仿真
**算法预览展示了4幅图像,从边缘检测到最终分割,体现了在matlab2022a中应用的Chan-Vese水平集迭代过程。核心代码段用于更新水平集并显示迭代效果,最后生成分割结果及误差曲线。Chan-Vese模型(2001)是图像分割的经典方法,通过最小化能量函数自动检测平滑区域和清晰边界的图像分割,适用于复杂环境,广泛应用于医学影像和机器视觉。**
|
10天前
|
机器学习/深度学习 算法 数据可视化
m基于PSO-LSTM粒子群优化长短记忆网络的电力负荷数据预测算法matlab仿真
在MATLAB 2022a中,应用PSO优化的LSTM模型提升了电力负荷预测效果。优化前预测波动大,优化后预测更稳定。PSO借鉴群体智能,寻找LSTM超参数(如学习率、隐藏层大小)的最优组合,以最小化误差。LSTM通过门控机制处理序列数据。代码显示了模型训练、预测及误差可视化过程。经过优化,模型性能得到改善。
28 6
|
7天前
|
缓存 算法
基于机会网络编码(COPE)的卫星网络路由算法matlab仿真
**摘要:** 该程序实现了一个基于机会网络编码(COPE)的卫星网络路由算法,旨在提升无线网络的传输效率和吞吐量。在MATLAB2022a中测试,结果显示了不同数据流个数下的网络吞吐量。算法通过Dijkstra函数寻找路径,计算编码机会(Nab和Nx),并根据编码机会减少传输次数。当有编码机会时,中间节点执行编码和解码操作,优化传输路径。结果以图表形式展示,显示数据流与吞吐量的关系,并保存为`R0.mat`。COPE算法预测和利用编码机会,适应卫星网络的动态特性,提高数据传输的可靠性和效率。