通古大模型:古籍研究者狂喜!华南理工开源文言文GPT:AI自动断句+写诗翻译,24亿语料喂出来的学术神器

简介: 通古大模型由华南理工大学开发,专注于古籍文言文处理,具备强大的古文句读、文白翻译和诗词创作功能。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 微信公众号|搜一搜:蚝油菜花 🥦


🎭 「校勘古籍被逗号逼疯?华南理工用AI复活文言文:24亿字训练的通古大模型,让《资治通鉴》开口说人话!」

大家好,我是蚝油菜花。你是否经历过——

  • 📜 面对无标点古籍,断句错一次论文重写三天
  • 🖋️ 想引用《楚辞》却怕翻译失真被导师划红线
  • 🧐 查个典故翻遍二十五史,眼镜度数飙升200度...

今天要揭秘的 通古大模型 ,可能是文科生最需要的AI外挂!这个由华南理工大学实验室打造的文言文GPT,基于 24.1亿字古籍语料 训练,不仅实现:

  • ✅ 精准智能断句(误差率<2%)
  • ✅ 文白互译保真(支持双向转换)
  • ✅ 诗词格律生成(平仄押韵全自动)

更用 检索增强技术 解决"AI瞎编典故"的行业痛点。汉语言系学生用它写论文,古籍馆用它数字化《四库全书》——原来穿越千年的对话,真的可以一键实现!

🚀 快速阅读

通古大模型是专注于古籍文言文处理的人工智能语言模型。

  1. 主要功能:支持古文句读、文白翻译、诗词创作、古籍赏析和古籍检索与问答。
  2. 技术原理:基于百川2-7B-Base进行增量预训练,结合24.1亿古籍语料和400万古籍对话数据,采用冗余度感知微调(RAT)技术和检索增强生成(RAG)技术。

通古大模型是什么

通古大模型

通古大模型是由华南理工大学深度学习与视觉计算实验室(SCUT-DLVCLab)开发的专注于古籍文言文处理的语言模型。该模型基于百川2-7B-Base进行增量预训练,使用24.1亿古籍语料进行无监督训练,并结合400万古籍对话数据进行指令微调。通过这些技术手段,通古大模型能够有效提升古籍任务的性能,帮助用户更便捷地理解和翻译古籍文献。

通古大模型不仅在古文句读、文白翻译等方面表现出色,还能够生成符合古诗词格律的作品,辅助用户进行古籍整理和数字化工作。通过检索增强生成(CCU-RAG)技术,模型减少了知识密集型任务中的幻觉问题,提高了生成内容的准确性和可靠性。

通古大模型的主要功能

  • 古文句读:自动为古文添加标点符号,解决古籍中常见的断句问题,帮助用户更好地理解古文内容。
  • 文白翻译:支持文言文与白话文之间的双向翻译,将晦涩的古文翻译为现代文,同时也可将现代文转换为文言文,方便用户进行古籍阅读和研究。
  • 诗词创作:生成符合古诗词格律和风格的诗歌,用户可以根据需求提供主题或关键词,模型生成相应的诗词作品。
  • 古籍赏析:对古籍中的经典篇章进行赏析,解读其文学价值、历史背景和文化内涵,辅助用户深入学习古籍。
  • 古籍检索与问答:结合检索增强技术,快速检索古籍内容,根据用户的问题提供准确的答案,帮助用户高效获取古籍信息。
  • 辅助古籍整理:识别古籍中的文字错误、缺漏等问题,提供修复建议,辅助古籍整理和数字化工作。

通古大模型的技术原理

  • 基础模型架构:通古大模型基于百川2-7B-Base进行增量预训练。百川2-7B-Base是一个强大的预训练语言模型,为通古大模型提供了基础的语言理解和生成能力。
  • 无监督增量预训练:模型在24.1亿古籍语料上进行无监督增量预训练,使模型学习古籍的语言风格和结构,为后续的古籍处理任务奠定基础。
  • 多阶段指令微调:通古大模型采用了多阶段指令微调技术,提出了冗余度感知微调(RAT)方法。在提升下游任务性能的同时,保留了基座模型的能力。通过指令微调,模型能更好地适应古籍处理的具体任务,如古文翻译、句读等。
  • 检索增强生成(RAG)技术:通古大模型结合了检索增强生成(RAG)技术,减少知识密集型任务中的幻觉问题。核心是将信息检索与文本生成相结合,通过从外部知识库中检索相关信息,作为上下文输入给语言模型,生成更准确、更符合上下文的答案。

如何运行通古大模型

1. 安装依赖

首先,确保你已经安装了必要的依赖库:

pip install torch transformers

2. 加载模型

接下来,加载通古大模型并设置系统消息和用户查询:

import torch
from transformers import AutoModelForCausalLM, AutoTokenizer

model_path = "SCUT-DLVCLab/TongGu-7B-Instruct"
model = AutoModelForCausalLM.from_pretrained(model_path, device_map='auto', torch_dtype=torch.bfloat16, trust_remote_code=True)
tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True)

system_message = "你是通古,由华南理工大学DLVCLab训练而来的古文大模型。你具备丰富的古文知识,为用户提供有用、准确的回答。"
user_query = "翻译成白话文:大学之道,在明明德,在亲民,在止于至善。"
prompt = f"{system_message}\n<用户> {user_query}\n<通古> "

3. 生成回复

最后,生成模型的回复并输出结果:

inputs = tokenizer(prompt, return_tensors='pt')
generate_ids = model.generate(
    inputs.input_ids.cuda(), 
    max_new_tokens=128
)
generate_text = tokenizer.batch_decode(
    generate_ids, 
    skip_special_tokens=True,
    clean_up_tokenization_spaces=False
)[0][len(prompt):]

print(generate_text)

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 微信公众号|搜一搜:蚝油菜花 🥦

相关文章
|
4月前
|
分布式计算 测试技术 Spark
科大讯飞开源星火化学大模型、文生音效模型
近期,科大讯飞在魔搭社区(ModelScope)和Gitcode上开源两款模型:讯飞星火化学大模型Spark Chemistry-X1-13B、讯飞文生音频模型AudioFly,助力前沿化学技术研究,以及声音生成技术和应用的探索。
418 2
|
5月前
|
人工智能 算法 开发者
开源VLM“华山论剑”丨AI Insight Talk多模态专场直播预告
开源VLM“华山论剑”丨AI Insight Talk多模态专场直播预告
494 10
开源VLM“华山论剑”丨AI Insight Talk多模态专场直播预告
|
4月前
|
存储 人工智能 Java
AI 超级智能体全栈项目阶段二:Prompt 优化技巧与学术分析 AI 应用开发实现上下文联系多轮对话
本文讲解 Prompt 基本概念与 10 个优化技巧,结合学术分析 AI 应用的需求分析、设计方案,介绍 Spring AI 中 ChatClient 及 Advisors 的使用。
1785 133
AI 超级智能体全栈项目阶段二:Prompt 优化技巧与学术分析 AI 应用开发实现上下文联系多轮对话
|
4月前
|
传感器 人工智能 自然语言处理
通过AI编程工具,实现沉浸式翻译 Light Translate
通过AI编程工具,实现Light Translate 是一款智能沉浸式翻译插件,鼠标悬停0.1秒即可精准翻译单词,无需点击或选择,助力流畅阅读英文网页,专为英语工作者设计,提升阅读效率与语言能力。
219 1
|
4月前
|
机器学习/深度学习 数据采集 人工智能
通义实验室Mobile-Agent-v3开源,全平台SOTA的GUI智能体,支持手机电脑等多平台交互
近日,通义实验室MobileAgent团队正式开源全新图形界面交互基础模型 GUI-Owl,并同步推出支持多智能体协同的自动化框架 Mobile-Agent-v3。该模型基于Qwen2.5-VL打造,在手机端与电脑端共8个GUI任务榜单中全面刷新开源模型性能纪录,达成全平台SOTA。
1500 2
|
5月前
|
数据采集 机器学习/深度学习 编解码
小红书 hi lab开源最强多模态大模型dots.vlm1,性能对标闭源 Gemini 2.5 Pro 和 Seed-VL1.5
小红书 hi lab开源最强多模态大模型dots.vlm1,性能对标闭源 Gemini 2.5 Pro 和 Seed-VL1.5
661 0
小红书 hi lab开源最强多模态大模型dots.vlm1,性能对标闭源 Gemini 2.5 Pro 和 Seed-VL1.5
|
4月前
|
人工智能 Java 开发者
阿里出手!Java 开发者狂喜!开源 AI Agent 框架 JManus 来了,初次见面就心动~
JManus是阿里开源的Java版OpenManus,基于Spring AI Alibaba框架,助力Java开发者便捷应用AI技术。支持多Agent框架、网页配置、MCP协议及PLAN-ACT模式,可集成多模型,适配阿里云百炼平台与本地ollama。提供Docker与源码部署方式,具备无限上下文处理能力,适用于复杂AI场景。当前仍在完善模型配置等功能,欢迎参与开源共建。
2098 58
阿里出手!Java 开发者狂喜!开源 AI Agent 框架 JManus 来了,初次见面就心动~
|
5月前
智谱发布GLM-4.5V,全球开源多模态推理新标杆,Day0推理微调实战教程到!
视觉语言大模型(VLM)已经成为智能系统的关键基石。随着真实世界的智能任务越来越复杂,VLM模型也亟需在基本的多模态感知之外,逐渐增强复杂任务中的推理能力,提升自身的准确性、全面性和智能化程度,使得复杂问题解决、长上下文理解、多模态智能体等智能任务成为可能。
873 0

热门文章

最新文章