Nature曝惊人内幕:论文被天价卖出喂AI!出版商狂赚上亿,作者0收入

简介: 【9月更文挑战第8天】《自然》杂志近日揭露,学术出版商如泰勒·弗朗西斯与微软签订千万美元合约,及威利获高额报酬,将论文提供给科技巨头训练AI模型,引发学界对版权与收益分配的热议。此现象反映了AI对高质量数据的渴求,但亦使研究人员担忧成果被无偿商用,且可能影响学术独立性。尽管AI训练使用学术资源能提升模型科学性,助力科研进展,但如何保障作者权益及维持学术纯粹性仍是亟待解决的问题。https://www.nature.com/articles/d41586-024-02599-9

近期,国际顶尖学术期刊《自然》(Nature)曝光了一个令人震惊的现象:学术出版商正在将研究论文以天价卖给科技公司,用于训练人工智能(AI)模型。这一趋势引发了广泛的讨论和争议,让人们开始重新审视学术研究的价值和版权问题。

据报道,英国学术出版商泰勒·弗朗西斯(Taylor & Francis)与微软签署了一份价值1000万美元的合同,允许微软访问其数据以改进AI系统。同样,美国出版商威利(Wiley)也从一家未透露名称的公司获得了2300万美元的收入,用于训练生成式AI模型。这些数字令人咋舌,也引发了人们的质疑:为什么出版商能够从论文中获得如此巨大的利润,而论文的作者却几乎没有任何收入?

这一现象的背后,是AI技术的发展和对高质量数据的需求。大型语言模型(LLMs)需要大量的数据来进行训练,而学术论文因其长度和高信息密度而成为理想的训练材料。通过吸收这些数据中的模式,AI模型能够生成流畅的文本、图像或代码。因此,对于AI开发者来说,学术论文是宝贵的资源。

然而,这种趋势也引发了一些担忧。首先,研究人员担心他们的工作被使用而没有得到适当的认可或补偿。尽管许多科学家愿意分享他们的研究成果,但他们可能并不希望自己的工作被商业化而自己却得不到任何回报。其次,人们担心这种做法可能会对学术研究的独立性和公正性产生影响。如果出版商和科技公司之间的利益关系过于紧密,可能会导致对某些研究领域的偏见或忽视。

为了解决这些问题,一些研究人员正在探索技术手段来帮助作者确定他们的论文是否被用作AI训练数据。例如,通过在论文中设置“版权陷阱”,研究人员可以检测到他们的论文是否被AI模型使用过。然而,即使能够证明论文被使用,目前还不清楚应该采取什么措施来保护作者的权益。

从积极的方面来看,将学术论文用于AI训练可以提高模型的准确性和科学性。通过接触大量的科学信息,AI模型能够更好地理解和处理科学问题。这对于推动科学研究和解决现实世界的问题具有重要意义。此外,一些科学家也表示,他们并不介意自己的工作被用作AI训练数据,只要能够为科学进步做出贡献。

然而,我们也必须认识到这种做法可能带来的负面影响。如果处理不当,可能会导致学术研究的商品化和异化。因此,我们需要找到一种平衡的方式,既能够利用AI技术来推动科学进步,又能够保护研究人员的权益和学术的独立性。

https://www.nature.com/articles/d41586-024-02599-9

目录
相关文章
|
2月前
|
机器学习/深度学习 人工智能
打开AI黑匣子,三段式AI用于化学研究,优化分子同时产生新化学知识,登Nature
【10月更文挑战第11天】《自然》杂志发表了一项突破性的化学研究,介绍了一种名为“Closed-loop transfer”的AI技术。该技术通过数据生成、模型训练和实验验证三个阶段,不仅优化了分子结构,提高了光稳定性等性质,还发现了新的化学现象,为化学研究提供了新思路。此技术的应用加速了新材料的开发,展示了AI在解决复杂科学问题上的巨大潜力。
33 1
|
2月前
|
机器学习/深度学习 人工智能 算法
Nature子刊:AI模型测大脑年龄,究竟哪些因素会加速大脑衰老?
【10月更文挑战第7天】《自然医学》杂志近期发布了一项研究,介绍了一种名为BrainAge的人工智能模型,该模型可预测个体的大脑年龄并分析影响大脑衰老的因素。研究团队来自美国加州大学旧金山分校,利用英国生物银行的近50,000名参与者的数据,发现高血压、糖尿病、肥胖、吸烟、饮酒、缺乏运动及遗传因素均与大脑衰老有关。尽管存在数据集限制等局限性,BrainAge模型仍为研究大脑衰老和相关疾病提供了重要工具。
51 1
|
4月前
|
数据采集 人工智能
Nature封面:AI训练AI,越训越离谱
【8月更文挑战第16天】新发表于《自然》杂志的论文显示,当AI模型基于其他AI生成的数据训练时,会出现“模型崩溃”现象,即模型逐渐遗忘真实数据分布细节,偏向生成更常见模式而非罕见模式。这一研究由牛津、剑桥等高校合作完成,通过实验验证了不同AI模型均可能出现此问题,尤其是在低质或少量数据训练下更为显著。但通过数据增强或模型正则化可缓解该现象。研究强调了训练数据质量和来源的重要性,并引发了关于AI发展和应用的讨论。
202 58
|
2月前
|
人工智能
用AI人模拟社会学实验,居然成功了?斯坦福、NYU用GPT-4模仿人类,准确度惊人!
斯坦福大学和纽约大学的研究团队利用GPT-4模型成功模拟了人类在社交互动中的行为模式,实验结果显示AI能以惊人准确度模仿人类对话,甚至在在线论坛和社交媒体上与真人难以区分。这一突破不仅展示了AI在社会学研究中的巨大潜力,还引发了对AI伦理和透明度的深入探讨。尽管存在一些局限性和挑战,这项研究为未来社会学实验提供了新工具和方法。[论文地址:https://docsend.com/view/qeeccuggec56k9hd]
62 2
|
4月前
|
人工智能 算法 数据安全/隐私保护
无表情人脸预测政治信仰,AI准确率惊人!斯坦福研究登国际顶刊
【8月更文挑战第10天】斯坦福大学的研究揭示了面部识别技术的新应用:通过分析无表情人脸图片预测政治倾向。研究在《American Psychologist》发表,表明人类评估者与AI均能在控制人口统计学特征的情况下准确预测政治取向,相关系数分别为0.21和0.22。利用年龄、性别和种族信息时,算法准确性提升至0.31。研究还发现保守派倾向于有更大的下半部面部。尽管成果引人注目,但其局限性和潜在的隐私问题仍需审慎考量。
145 62
|
4月前
|
机器学习/深度学习 人工智能
AI训AI惨遭投毒9次大崩溃,牛津剑桥等惊天发现登Nature封面!
【8月更文挑战第11天】牛津与剑桥大学研究揭示,AI模型若反复在自身生成的数据上训练,将遭遇“模型崩溃”,即性能严重退化,甚至遗忘真实世界的数据分布。此现象在《自然》杂志刊出,警示AI进化之路暗藏风险。实验显示,随着训练代际增加,模型倾向于生成更简单内容,丢失稀有信息,最终可能导致对现实世界的误解加深。此发现对AI领域的持续发展及模型可靠性提出了新的挑战。
201 60
|
3月前
|
人工智能 数据处理
Nature:AI让抄袭问题更加复杂,科学家该如何应对?
【9月更文挑战第16天】《自然》杂志一篇文章指出,AI在科研领域的应用日益增长,带来了加速数据处理、提升计算效率等益处,同时也引发了对科学标准、数据偏见及研究诚信的挑战。一项针对1600多名研究人员的调查显示,超半数认为未来十年AI将成为其研究领域不可或缺的工具。AI能够显著提升科研效率,但也可能增加对模式识别的依赖,加剧数据偏见,并引发研究不可重复性等问题。尤其是大型语言模型如ChatGPT,虽有助于改进论文语法和翻译,但也可能传播错误信息。此外,部分科学家面临计算资源和高质量数据不足等使用障碍。
42 3
|
3月前
|
机器学习/深度学习 人工智能 算法
首个像人类一样思考的网络!Nature子刊:AI模拟人类感知决策
【9月更文挑战第8天】近日,《自然》子刊发表的一篇关于RTNet神经网络的论文引起广泛关注。RTNet能模拟人类感知决策思维,其表现与人类相近,在反应时间和准确率上表现出色。这项研究证明了神经网络可模拟人类思维方式,为人工智能发展带来新启示。尽管存在争议,如是否真正理解人类思维机制以及潜在的伦理问题,但RTNet为人工智能技术突破及理解人类思维机制提供了新途径。论文详细内容见《自然》官网。
65 3
|
4月前
|
机器学习/深度学习 人工智能
谷歌AI天气神算登Nature:30秒模拟22天天气,效率暴涨10万倍!
【8月更文挑战第9天】NeuralGCM是由谷歌AI团队开发的革命性天气预测模型,结合机器学习与传统大气物理模型,大幅提高了预测效率与准确性。它能在30秒内完成22天的天气模拟,效率比传统模型提升10万倍。NeuralGCM通过学习大量历史数据,其1至10天内的预测精度媲美甚至超过顶级模型,在极端天气预测方面也有出色表现。尽管尚存局限,如长期气候预测的精确度待提升,但NeuralGCM展现了在应对气候变化及气象挑战中的巨大潜力。【论文链接:https://www.nature.com/articles/s41586-024-07744-y】
50 7
|
5月前
|
数据采集 机器学习/深度学习 人工智能
AI小分子药物发现的百科全书,康奈尔、剑桥、EPFL等研究者综述登Nature子刊
【7月更文挑战第12天】康奈尔、剑桥及EPFL科学家合作,详述AI在药物发现中的突破与挑战[^1]。AI现用于新化合物生成、现有药物优化及再利用,加速研发进程。尽管取得进展,可解释性不足、数据质量和伦理监管仍是待解难题。 [^1]: [论文链接](https://www.nature.com/articles/s42256-024-00843-5)
67 3