计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-12(上)

本文涉及的产品
NLP自然语言处理_基础版,每接口每天50万次
NLP 自学习平台,3个模型定制额度 1个月
NLP自然语言处理_高级版,每接口累计50万次
简介: 计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-12(上)

计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-12

1. PharmaBench: Enhancing ADMET benchmarks with large language models

Z Niu, X Xiao, W Wu, Q Cai, Y Jiang, W Jin, M Wang… - Scientific Data, 2024

大语言模型在药物发现中的应用:PharmaBench

文章由MindRank AI、伦敦帝国理工学院、华中科技大学和其他机构的研究人员共同撰写。

背景与总结

  • ADMET(吸收、分布、代谢、排泄和毒性)特性的优化在药物发现中起着关键作用。
  • 计算方法的发展为药物发现提供了快速且成本效益高的手段,减少了实验工作量和时间。
  • 现有的基准数据集存在局限性,如覆盖的生物测定数据有限,与工业药物发现流程中的实体差异较大。

方法

  • 利用大型语言模型(LLMs)作为核心引擎,从生物医学数据库中的测定描述中提取实验条件。
  • 建立了自动化数据处理框架,用于处理数据,以便编制ADMET基准数据集。
  • 实施了从ChEMBL数据库处理生物测定数据并提取缺失的实验条件的流程。
  • 通过多步骤验证过程确认数据质量、分子特性和PharmaBench的建模能力。

数据处理工作流程

  • 数据收集:主要来源是ChEMBL数据库,包括实验值、化学结构、测定描述等。
  • 数据挖掘:使用GPT-4模型作为数据挖掘任务的核心,通过少量示例学习来提取实验条件。
  • 数据标准化:包括结构格式、实验条件和实验值的标准化。
  • 数据过滤:移除异常分子和不规则实验结果,构建最终基准集。
  • AI建模数据准备:统一重复结果,划分训练和测试集。

技术验证

  • 通过重复测试、属性分布分析和深度学习及机器学习建模来评估数据集。
  • 展示了PharmaBench数据集在不同模型上的表现,证明了数据集的质量。

实验相关

  • 提供了11个ADMET数据集,包括标准化的SMILES表示、实验值和训练标签。
  • 用户可以使用提供的标签进行公平比较。

代码可用性

  • 研究中使用的代码已存储在GitHub上,所有计算均在Python 3.12.2虚拟环境下完成。

参考文献

文章列出了57个参考文献,涵盖了药物发现、大语言模型、数据挖掘和机器学习等领域的研究。

2. Consumer segmentation with large language models

Y Li, Y Liu, M Yu - Journal of Retailing and Consumer Services, 2025

大语言模型在消费者细分中的应用

摘要

  • 消费者细分对企业定制产品至关重要。 本研究探索了大型语言模型(LLMs)在市场研究消费者细分中的应用。
  • 通过LLMs进行基于消费者调查数据的聚类分析,重点关注基于文本的多项选择题和开放式问题。
  • 使用LLMs模型进行文本嵌入聚类,提高了聚类准确性。 创建了模拟消费者偏好的聊天机器人,准确率超过89%。 研究结果强调了LLMs框架在市场研究中的潜力。

引言

  • 零售文献中包含多种揭示消费者偏好的方法,其中调查问卷起着关键作用。
  • 传统的调查方法忽视了问卷中的文本数据,导致研究者和实践者难以理解消费者偏好。
  • LLMs在理解和生成自然语言方面具有强大的能力,已被应用于市场感知分析、搜索引擎优化和个性化营销等领域。

消费者细分

  • “用户画像”概念涉及从用户的基本、社会、行为和心理属性中提取共同特征。
  • 企业通过收集和分析消费者的社会特征、生活习惯和购买行为数据来细分消费者群体。

嵌入模型

  • 在自然语言处理(NLP)中,嵌入是将文本数据转换为数值向量的过程。
  • 嵌入向量能够表示词、短语或整个文档在连续向量空间中的语义相似性。

数据来源

  • 与一家经营1000多家连锁店和5000多家高质量零售店的中国酒类公司合作,获得了500份有效回应。
  • 调查问卷旨在探索消费者对酒类的偏好,并构建详细的消费者画像。

聚类结果

  • 使用K-means聚类算法构建消费者画像。K-means算法易于实现和理解,计算效率高,适用于中等规模数据集。

关键结论

  • 研究调查了LLM技术在协助公司进行消费者细分和构建消费者画像方面的应用。
  • LLM方法是一个可靠且高效的工具,能够有效地对调查文本进行聚类,并基于真实消费者体验促进扩展问答环节。

3. Tele-LLMs: A Series of Specialized Large Language Models for Telecommunications

A Maatouk, KC Ampudia, R Ying, L Tassiulas - arXiv preprint arXiv:2409.05314, 2024

Tele-LLMs: 为电信领域定制的大型语言模型系列

摘要

  • 大型语言模型(LLMs)在自然语言处理和多个领域产生了显著影响。
  • 电信领域的LLMs应用受限,通常依赖于缺乏特定领域专业化的通用模型。
  • 本文通过创建和发布Tele-Data(电信材料综合数据集)和Tele-Eval(针对该领域的大规模问答数据集),解决了这一问题。
  • 通过广泛实验,探索了将LLMs适应于电信领域最有效的训练技术。
  • 开发了和开源了Tele-LLMs系列,这是首批为电信领域量身定制的、参数从1B到8B不等的语言模型。
  • 评估表明,这些模型在Tele-Eval上的表现超过了通用模型,同时保留了先前获得的能力,避免了灾难性遗忘现象。

算法模型

  • Tele-Data 策划
  • 利用基于LLM的过滤方法,从arXiv论文、标准、Wikipedia文章和网络内容中筛选相关来源。
  • 通过正则表达式和针对电信领域特性的LLM过滤技术进行广泛清洗。
  • Tele-Eval 生成
  • 利用Tele-Data,通过LLM框架创建了包含750k问答对的评估数据集。
  • 应用严格的正则表达式和LLM过滤,排除局部兴趣问题。

实验探索

  • 研究了使用参数高效微调(PEFT)技术向模型注入电信知识的可能性。
  • 通过实验确定了最大化模型性能所需的训练周期数,并识别了在此适应过程中的过拟合点。

Tele-LLMs 系列

  • 基于Tinyllama-1.1B、Phi-1.5、Gemma-2B和LLama-3-8B,开发了从1B到8B参数的Tele-LLMs系列。
  • 通过定量和定性评估,与原始版本进行比较,突出了在电信领域的优势。

实验效果

  • Tele-LLMs在Tele-Eval上的平均相对改进达到了25%。
  • 在灾难性遗忘现象方面,这些模型成功保留了原始能力。
  • 在电信领域,即使是较小的适配模型也能与较大的通用模型相媲美。

核心结论

  • 本文成功地为电信领域定制了一系列大型语言模型。
  • 通过创建和开源整个专业化框架的每一步,为电信领域提供了强大的工具。
  • Tele-LLMs系列不仅在电信领域表现出色,还为未来在该领域的LLM应用奠定了基础。

4. MMEvol: Empowering Multimodal Large Language Models with Evol-Instruct

R Luo, H Zhang, L Chen, TE Lin, X Liu, Y Wu, M Yang… - arXiv preprint arXiv …, 2024

摘要

  • 本文提出了MMEvol,一个新颖的多模态指令数据进化框架,用于提升多模态大型语言模型(MLLMs)的能力。
  • 通过结合细粒度感知进化、认知推理进化和交互进化,MMEvol迭代方法突破了数据质量瓶颈,生成了复杂且多样化的图像-文本指令数据集。
  • 利用SEED-163K初始指令集,通过MMEvol系统地扩展指令类型的多样性,整合推理步骤以增强认知能力,并从图像中提取详细信息以提升视觉理解和鲁棒性。
  • 在13个视觉-语言任务上进行实验,与基线训练相比,平均准确率提高了3.1个百分点,并在9个任务上达到了最先进的性能。

算法模型

数据收集

  • 从多个来源策划了163K的种子指令数据集,包括LLaVA-Instruct、ShareGPT4V数据集和额外的科学图表数据。

方法细节

  • 细粒度感知进化:最大化图像中视觉信息的提取,特别是那些被忽视的非主要视觉对象。
  • 认知推理进化:通过增加数据中的视觉推理步骤来生成新的指令数据,从而提高数据复杂性。
  • 交互进化:自动生成具有丰富任务形式的指令数据,以提供良好的交互体验。
  • 指令消除:通过评分标准过滤掉进化失败的指令数据,保留成功的指令。

实验效果

  • 在多个视觉-语言基准测试中,使用进化数据训练的模型表现出色,与使用原始种子数据训练的模型相比,平均性能提升3.8个百分点。
  • 在与现有最先进方法的比较中,使用MMEvol数据训练的模型在几乎所有基准测试中都显著提高了性能界限。
  • 通过定性分析和消融实验验证了所提出方法的有效性和效率。

核心结论

  • MMEvol通过迭代增强指令数据的多样性和复杂性,有效提升了MLLMs的性能。
  • 未来的研究方向包括探索集成图像生成模型以合成新图像,并进行图像和文本的双重进化,以训练更强大的基础模型。

5. The emergence of Large Language Models (LLM) as a tool in literature reviews: an LLM automated systematic review

D Scherbakov, N Hubig, V Jansari, A Bakumenko… - arXiv preprint arXiv …, 2024

摘要

  • 本研究旨在总结大型语言模型(LLM)在创建科学综述过程中的使用情况。
  • 研究目的是评估LLM在自动化综述过程中的各个阶段的应用,并评估当前该领域的最新研究项目。
  • 研究通过使用一系列LLM工具,对使用LLM进行系统和其他类型综述的研究项目进行了系统综述。


计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-13(下)+https://developer.aliyun.com/article/1628806

目录
相关文章
|
7天前
|
编解码 Java 程序员
写代码还有专业的编程显示器?
写代码已经十个年头了, 一直都是习惯直接用一台Mac电脑写代码 偶尔接一个显示器, 但是可能因为公司配的显示器不怎么样, 还要接转接头 搞得桌面杂乱无章,分辨率也低,感觉屏幕还是Mac自带的看着舒服
|
9天前
|
存储 缓存 关系型数据库
MySQL事务日志-Redo Log工作原理分析
事务的隔离性和原子性分别通过锁和事务日志实现,而持久性则依赖于事务日志中的`Redo Log`。在MySQL中,`Redo Log`确保已提交事务的数据能持久保存,即使系统崩溃也能通过重做日志恢复数据。其工作原理是记录数据在内存中的更改,待事务提交时写入磁盘。此外,`Redo Log`采用简单的物理日志格式和高效的顺序IO,确保快速提交。通过不同的落盘策略,可在性能和安全性之间做出权衡。
1568 10
|
1月前
|
弹性计算 人工智能 架构师
阿里云携手Altair共拓云上工业仿真新机遇
2024年9月12日,「2024 Altair 技术大会杭州站」成功召开,阿里云弹性计算产品运营与生态负责人何川,与Altair中国技术总监赵阳在会上联合发布了最新的“云上CAE一体机”。
阿里云携手Altair共拓云上工业仿真新机遇
|
12天前
|
人工智能 Rust Java
10月更文挑战赛火热启动,坚持热爱坚持创作!
开发者社区10月更文挑战,寻找热爱技术内容创作的你,欢迎来创作!
791 27
|
2天前
|
移动开发 JavaScript 前端开发
💻揭秘!如何用 Vue 3 实现酷炫的色彩魔方游戏✨
本文分享了开发基于Canvas技术的小游戏"色彩魔方挑战"的完整过程。游戏旨在考验玩家的观察力和耐心,通过随机生成的颜色矩阵和一个变化点,玩家需在两幅画布中找出不同的颜色点。文章详细讲解了游戏的核心功能,包括随机颜色矩阵生成、点的闪烁提示、自定义配色方案等。此外,作者展示了使用Vue 3和TypeScript开发的代码实现,带领读者一步步深入了解游戏的逻辑与细节。
105 68
|
2天前
|
存储 前端开发 JavaScript
🚀前端轻松实现网页内容转换:一键复制、保存图片及生成 Markdown
在现代前端开发中,提升用户的交互体验至关重要。本文将详细介绍如何使用 HTML2Canvas 和 Turndown 两个强大的 JavaScript 库,实现将网页选中文本转化为图片并保存或复制到剪贴板,或将内容转换为 Markdown 格式。文章包含核心代码实现、技术细节和功能拓展方向,为开发者提供了一个轻量级的解决方案,提升用户体验。
100 68
|
16天前
|
Linux 虚拟化 开发者
一键将CentOs的yum源更换为国内阿里yum源
一键将CentOs的yum源更换为国内阿里yum源
858 5
|
9天前
|
存储 SQL 关系型数据库
彻底搞懂InnoDB的MVCC多版本并发控制
本文详细介绍了InnoDB存储引擎中的两种并发控制方法:MVCC(多版本并发控制)和LBCC(基于锁的并发控制)。MVCC通过记录版本信息和使用快照读取机制,实现了高并发下的读写操作,而LBCC则通过加锁机制控制并发访问。文章深入探讨了MVCC的工作原理,包括插入、删除、修改流程及查询过程中的快照读取机制。通过多个案例演示了不同隔离级别下MVCC的具体表现,并解释了事务ID的分配和管理方式。最后,对比了四种隔离级别的性能特点,帮助读者理解如何根据具体需求选择合适的隔离级别以优化数据库性能。
232 4
|
2天前
|
人工智能
云端问道12期-构建基于Elasticsearch的企业级AI搜索应用陪跑班获奖名单公布啦!
云端问道12期-构建基于Elasticsearch的企业级AI搜索应用陪跑班获奖名单公布啦!
121 2
|
7天前
|
并行计算 PyTorch TensorFlow
Ubuntu安装笔记(一):安装显卡驱动、cuda/cudnn、Anaconda、Pytorch、Tensorflow、Opencv、Visdom、FFMPEG、卸载一些不必要的预装软件
这篇文章是关于如何在Ubuntu操作系统上安装显卡驱动、CUDA、CUDNN、Anaconda、PyTorch、TensorFlow、OpenCV、FFMPEG以及卸载不必要的预装软件的详细指南。
484 3