终于有人帮你整理好了,火爆的“系统级提示词”支持ChatGPT、Claude、Gemini、xAI的

简介: 小华同学带你探索AI前沿!每日分享高效工具与开源技术,揭秘大模型系统提示词(System Prompts)的隐藏规则。通过 `system_prompts_leaks` 仓库,学习ChatGPT、Claude等主流AI的底层设定,掌握Prompt工程与安全攻防,助你打造专业级AI应用,提升效率50%以上!

嗨,我是小华同学,专注解锁高效工作与前沿AI工具!每日精选开源技术、实战技巧,助你省时50%、领先他人一步。👉免费订阅,与10万+技术人共享升级秘籍!

System Prompts Leaks 是一个开源仓库,专门收集整理各大主流聊天机器人(如 ChatGPT、Claude、Gemini 等)的系统提示词(System Prompts / System Messages / Developer Messages)。仓库按照厂商分目录维护了大量已被提取出的系统提示内容,是学习大模型底层提示工程和安全问题时非常高价值的资料集。

为什么系统提示词值得你花时间?

对绝大多数人来说,和大模型的交互只停留在一行行用户指令(user prompt): “帮我写段代码”、“解释这段 SQL”、“润色一下邮件”。

但在这些对话背后,还有一层不会展示给终端用户看的“底层设定”——系统提示词(System Prompt):

  • 它决定了模型说话的口吻和角色(严肃?幽默?像专家还是像老师?)
  • 它规定了必须遵守的规则(哪些问题不能答、遇到敏感话题如何回避)
  • 它告诉模型要如何使用工具(搜索、代码执行、文件读取等)
  • 它定义了回答格式(是否要用 Markdown、是否强制加引用、是否输出代码块)

对做 AI 产品、做 Prompt Engineering 或研究 AI 安全的人来说,这些系统提示词几乎就是“模型产品说明书 + 行为规范”

学界甚至已经把“系统提示词泄露(Prompt Leakage)”当成一个重要的安全课题:攻击者通过精心构造的提示,诱导模型把自己的 system prompt 说出来,从而窃取内部策略与商业机密。

你正在遇到的这些痛点,这个仓库都对得上号

站在一个日常玩大模型、做技术分享的视角,很容易有这些困惑:

  • “为什么 ChatGPT 这么爱加 disclaimer?这些话是哪来的?”
  • “Claude 老强调要加引用、要用 artifacts,它是被谁这样要求的?”
  • “我也想给自己内部的 Agent 写一套专业的 system prompt,但不知道从哪学起。”
  • “安全团队让我评估‘Prompt Leakage 风险’,可我连别人的 system prompt 长什么样都没见过。”

asgeirtj/system_prompts_leaks 做的事情,就是把这些原本藏在云端服务里的“隐身设定”,以文本文件的形式整理出来,变成你可以直接学习、对比、借鉴的素材。

核心内容和结构拆解

打开仓库主页,你会看到非常简洁但信息量很大的结构:

  • 顶层目录包含:
  • Anthropic/
  • Google/
  • OpenAI/
  • Perplexity/
  • Proton/
  • xAI/
  • Misc/
  • 以及根目录下的 claude.txtWARP.md 等文件

这已经暗示了项目的核心定位:按厂商拆分,按产品/模型整理,对应的都是已被提取出来的系统提示词

1. 多厂商、多模型的系统提示词集中收录

  • README 的 About 写得很直接: “Collection of extracted System Prompts from popular chatbots like ChatGPT, Claude & Gemini”。
  • 对你来说,这意味着: 不用再到处搜 Reddit、X、博客文章,一个仓库就能看到多家厂商被公开的 system prompt 版本。

2. 按厂商分类的目录结构

顶层目录名直接对应厂商(Anthropic、OpenAI、Google、Perplexity、xAI 等),加上一个 Misc/ 放杂项,结构非常直观。

这带来几个直接好处:

  • 想看某一家的设定,直接进对应目录
  • 方便你自己脚本批量处理,比如只分析 OpenAI/ 目录下的文件
  • 为后续的自动化对比、可视化打下基础(比如统计不同厂商在“安全条款”上的差异)

3. 具有代表性的 Claude 系统提示词示例

仓库根目录下的 claude.txt 是整个项目里非常典型的一个例子。这个文件被外部分析认为是 Anthropic Claude 模型的系统提示词,长度超过 1000 行,体积约 110KB,并且与实际 Claude Sonnet 3.7 的行为在文案级别高度一致。

文件开头的内容就已经体现出它的“产品级”严谨:

如果回答依赖于 web_searchdrive_search 等工具的结果,就必须加上正确格式的引用标记……(意译)

在这类长系统提示里,你可以看到:

  • 如何设计工具调用策略
  • 如何规定引用、格式、代码块等细节
  • 如何在安全合规用户体验之间做权衡

4. Git 仓库天然具备版本管理能力

虽然 README 没有大篇幅介绍,但从仓库可以看到至少 200+ 次提交记录,这意味着它并非“一次性上传”后就不管了,而是一个持续更新、跟随模型演进的动态档案库

对研究者和工程师来说,这给你带来一个额外 bonus:

  • 你可以对比不同时间点的系统提示变化
  • git diff 查看某一段安全条款是如何被加强或放宽的
  • 甚至可以据此猜测厂商在不同阶段对产品的策略调整

5. Star History

技术架构

这个项目本身没有复杂的代码逻辑,本质上就是一个文本数据仓库。 但如果我们从“怎么用它”来倒推,可以把它看成下面这样的一个“小型架构”:

你可以把它理解成:

  1. 数据层:GitHub 仓库中的各个文本文件
  2. 处理层:你自己的 Python / Notebook / 脚本
  3. 应用层
  • 设计自己产品的 System Prompt
  • 做安全审计、Prompt Leakage 风险评估
  • 教学/内部分享,给非技术同事解释“大模型背后的那份说明书”

如何快速上手这些系统提示词?

下面给出三种非常实用、又容易上手的使用方式,你可以直接在自己的学习/工作流里照抄过去。

方式一:直接在线浏览,快速获取直觉

最简单的方式就是在线点开文本文件,比如:

  • 仓库主页选择 claude.txt
  • 直接在浏览器里滚动阅读
  • 用浏览器搜索(Ctrl + F)关键词,如 tool, citation, safety 等,观察它在系统提示里是如何被描述和约束的

这一步可以帮你快速形成几个直觉:

  • Claude 被要求如何使用工具与引用
  • 系统提示会把哪些事情讲得特别细(比如输出格式)
  • 哪些内容是在用户对话中永远看不到的“隐形规则”

方式二:本地克隆 + Python 分析

如果你更偏工程实践,推荐直接把仓库拉到本地,用 Python 做一点轻量分析。

# 克隆仓库
git clone https://github.com/asgeirtj/system_prompts_leaks.git
cd system_prompts_leaks

# 查看顶层结构(示例输出)
ls
# Anthropic  Google  Misc  OpenAI  Perplexity  Proton  xAI  WARP.md  claude.txt  readme.md

然后用 Python 打开 claude.txt

from pathlib import Path

root = Path("system_prompts_leaks")

# 读取 Claude 的系统提示
claude_prompt = (root / "claude.txt").read_text(encoding="utf-8")

# 粗略看看前 40 行
for i, line in enumerate(claude_prompt.splitlines()[:40], start=1):
   print(f"{i:02d}: {line}")

再做一点简单的“词频”统计,看看系统提示里最常提到什么:

keywords = ["tool", "citation", "safety", "assistant", "user", "system"]
lower_text = claude_prompt.lower()

for kw in keywords:
   count = lower_text.count(kw)
   print(f"{kw:10s}: {count}")

你可以把这些统计结果做成表格或图表,用来:

  • 对比不同模型在安全相关词汇上的密度
  • 找出系统提示里最高频出现的行为要求
  • 总结出一套可复用的“系统提示设计 checklist”

方式三:对照自己产品的 System Prompt 做“体检”

如果你所在团队已经有了自己的 AI 助手或 Agent,可以用一个非常简单的思路:

  1. 把你们自己的 system prompt 复制到一个文本文件,比如 my_product_prompt.txt
  2. system_prompts_leaks 里选一份你最想参考的(例如某个 ChatGPT 或 Claude 的提示)。
  3. 用 diff 工具(git diffmeld、VSCode 的对比功能等)进行并排对比

你会很直观地看到:

  • 大厂会用大量篇幅描述“不该做什么”,你的提示里是否缺失?
  • 大厂会仔细规定工具调用策略(什么时候检索、什么时候用代码执行),你是否只是简单一句“你可以用搜索”?
  • 格式、引用、错误处理等细节上,你的提示是否“写得太随意”?

这种对比方式,非常适合拿来做团队内部分享或 code review 级别的“prompt review”。

应用场景

结合仓库内容和结构,它特别适合以下几类人群:

  • Prompt 工程师 / AI 产品经理想打造一个“像大厂一样专业”的 system prompt,而不是凭感觉堆几句话。
  • AI 安全 / 红队需要了解系统提示被泄露之后,攻击面长什么样,方便设计更有针对性的测试用例。
  • 大模型课程讲师 / 技术博主需要有真实案例,给学员或读者展示“系统提示到底有多长、多细致”。
  • 正在自建 Agent 框架 / AI 平台的团队需要一套“行业标杆”作为参考,避免完全从零发明轮子。
  • 好奇心强的 AI 爱好者想知道 ChatGPT、Claude、Gemini 到底是被如何“养成”现在这个性格的。

什么时候优先用 system_prompts_leaks?

目前围绕“系统提示词收集”的开源项目已经形成了一个小生态。和其中几款对比一下,更有利于你选型。

代表性同类项目

  1. asgeirtj/system_prompts_leaks(本文主角)
  • 定位:收集 ChatGPT、Claude、Gemini 等主流聊天机器人的系统提示词。
  • 规模:23.9k⭐ Star、3.7k Fork。
  1. jujumilk3/leaked-system-prompts
  • 定位:收集各类 LLM 服务的泄露系统提示词。
  • 规模:约 13.6k⭐ Star、1.9k Fork。
  • 仓库内有大量按服务命名的 Markdown 文件,例如 Claude 3.x/4 系列、Cursor IDE、GitHub Copilot Chat、DeepSeek 等等。
  1. x1xhlol/system-prompts-and-models-of-ai-tools
  • 定位:更大规模的“系统提示 + 内部工具配置 + 模型信息”合集,覆盖 Cursor、Devin、Manus、Same.dev、Lovable、Replit Agent、Windsurf Agent、VSCode Agent、v0 等大量 AI 工具。
  • 规模:约 98.5k⭐ Star、26.5k Fork。
  • README 提到“Over 30,000+ lines of insights into their structure and functionality.”

对比表:三大系统提示词仓库怎么选?

仓库 Star 数(约) 主要内容范围 结构特点 适合人群
asgeirtj/system_prompts_leaks 23.9k⭐ ChatGPT、Claude、Gemini 等主流聊天机器人系统提示词 按厂商分目录(Anthropic / OpenAI / Google / Perplexity / Proton / xAI / Misc),包含代表性示例如 claude.txt 想专注研究对话式助手的整体行为与安全策略
jujumilk3/leaked-system-prompts 13.6k⭐ 各类 LLM 服务的泄露系统提示词,如 Claude、Cursor、GitHub Copilot、DeepSeek 等 文件以服务+版本命名,粒度更细,方便针对具体产品做分析 需要分析单一产品/工具(例如某个 IDE 插件或某个在线服务)的行为
x1xhlol/system-prompts-and-models-of-ai-tools 98.5k⭐ 大量 AI 工具的系统提示、内部工具配置和模型信息,行数超过 30,000 行 目录按工具划分(Cursor、Devin、Manus、Perplexity、v0 等),并附加了部分工程环境和模型信息 想系统性研究AI 工具生态、对 Agent 框架/Dev 工具有深入兴趣的开发者

如果你:

  • 主要关注的是聊天机器人本身的行为和安全策略 → 首选 system_prompts_leaks
  • 想研究特定产品(比如 Cursor、GitHub Copilot)的系统提示 → 可以配合 leaked-system-prompts 使用
  • 想从整体上理解各种 AI 工具/Agent 的 Prompt 设计模式 → 可再搭配 system-prompts-and-models-of-ai-tools,形成一个更大的“Prompt 知识图谱”

总结

回到我们最初的问题: “如何写出一份够专业的 system prompt,让自己的 AI 助手看起来不像玩具?”

asgeirtj/system_prompts_leaks 这个仓库,给了你一个非常务实的答案:

  • 你可以亲眼看到大厂在真实产品中是怎么写 System Prompt 的
  • 你可以对比不同厂商在安全合规、工具调用、输出格式、用户体验上的取舍;
  • 你可以用脚本把这些长文本拆成结构化信息,演化成自己团队的一套“System Prompt 设计规范”;
  • 你甚至可以把它当成一个“教材”,在内部分享或公开课程中展示给更多人看。

它不是那种“点一下就能跑”的工具项目,而是一份实实在在的知识型资产—— 把原本藏在黑盒里的“底层设定”,变成你可以阅读、研究、复用的文本。

项目地址

https://github.com/asgeirtj/system_prompts_leaks

相关文章
|
3月前
|
人工智能 API Python
Gemini 3 Nano Banana 的MCP服务器开发设计和 国内直连方案
基于Gemini 3 API开发的MCP绘图工具,支持在Coding客户端中边写代码边生成流程图。项目采用Python实现,兼容Gemini 2.5 Flash与3 Pro图像API,集成超时控制、国内直连路由转发功能,可高效调用AI生图。提供完整GitHub开源代码及在线试用地址,欢迎提交Issue交流。
|
3月前
|
文字识别 自然语言处理 Java
一键搞定人脸识别、语音识别、车牌识别本地化!离线跑模型不装框架!!!
SmartJavaAI 是专为 Java 开发者打造的离线 AI 工具箱,集成人脸识别、OCR、语音识别、机器翻译等 20+ 主流模型,基于 DJL + JNI 封装,支持 Maven 一键引入,两行代码调用,让 Java 工程师无需掌握 Python/C++ 即可轻松接入 AI 能力,高效落地各类智能场景。
343 1
|
2月前
|
存储 人工智能 运维
企业Agent解决方案全解析:从技术原理到落地实践,一文扫清
企业Agent正重塑数字化转型:作为具备自主决策能力的“数字员工”,它打通系统孤岛、实现流程闭环,提升效率72%。从金融风控到智能制造,覆盖多行业场景,2025年全球市场规模超1200亿美元。选型需聚焦场景、集成、安全与服务,未来将迈向多Agent协同与行业深度定制。
655 0
|
2月前
|
缓存 监控 安全
知识图谱和大模型哪个才是大方向?
面对高并发与复杂业务,知识图谱与大模型如何选择?本文从架构、性能与落地场景出发,剖析两者优劣:知识图谱可解释性强但维护成本高,大模型灵活高效却存在幻觉风险。推荐融合策略——以图谱为“锚”保障可靠性,以大模型为“浪”提升灵活性,通过RAG、知识增强等方案实现互补,助力系统设计在速度与稳定间取得平衡。
|
2月前
|
监控 安全 网络安全
​动态 IP 和静态 IP 的区别?
动态IP适合家庭用户,成本低、隐私性好;静态IP稳定可靠,适用于企业服务。巨量HTTP代理融合两者优势,提供高匿名、全球覆盖的IP池,支持灵活切换与安全防护,提升网络效率与稳定性,满足多样需求。
|
2月前
|
缓存 监控 安全
知识图谱与大模型:谁将引领未来发展?
本文对比了知识图谱与大模型的技术优劣。知识图谱逻辑清晰、可解释性强但构建繁琐;大模型灵活高效却存在黑盒与幻觉风险。实际工作中,二者并非对立,推荐采用RAG等融合架构,用图谱提供可靠支撑,用大模型快速生成,以兼顾系统可靠性与迭代效率。
|
28天前
|
人工智能 JSON 数据可视化
独立开发者必看,前端人想做低代码?先把这个 5k star 可视化拖拽编辑器 Demo 跑起来
小华同学带你玩转AI与高效工具!推荐开源项目「visual-drag-demo」,一个低代码可视化拖拽编辑器教学示例,涵盖拖拽、对齐、撤销重做、图层、导出等核心功能,助你快速掌握搭建器开发精髓。适合前端开发者、想入门低代码平台的你。项目结构清晰,学习成本低,支持自定义组件与交互扩展。立即免费订阅,加入10万+技术人行列,解锁更多实战秘籍!
104 6
|
2月前
|
Web App开发 JSON 监控
零配置方案:Zabbix + HTTP 代理实现内网穿透工具的自动化管理
本文作者蔡斯,Zabbix社区签约专家,Zabbix 6.0/7.0官方译者。文章探讨如何利用Zabbix的HTTP代理与低级别发现(LLD)功能,实现对免费内网穿透工具的自动化监控,解决多账号、多设备管理难、服务状态盲区等痛点,打造零侵入、零配置、无限扩展的智能监控体系。
214 0
|
2月前
|
人工智能 运维 供应链
制造企业RPA选型不踩坑:从场景落地到产品推荐,这篇全说透
凌晨两点,制造企业仍陷在手工录入、数据孤岛与重复劳动中。RPA以“数字员工”身份破局,实现财务、生产、供应链等多环节自动协同,降本增效、零误差、可追溯。实在智能实在Agent融合大模型,让“一句话”即可完成复杂流程,助力企业迈向智能自动化新时代。
385 6
|
人工智能 数据挖掘
🔔阿里云百炼智能体和工作流可以发布为组件了,AI应用变成“搭积木”
本文介绍了如何通过智能体组件化设计快速生成PPT。首先,创建一个“PPT大纲生成”智能体并发布为组件,该组件可根据用户输入生成结构清晰的大纲。接着,在新的智能体应用中调用此组件与MCP服务(如ChatPPT),实现从大纲到完整PPT的自动化生成。整个流程模块化、复用性强,显著降低AI开发门槛,提升效率。非技术人员也可轻松上手,满足多样化场景需求。
1373 0