SoulChat2.0:低成本构建 AI 心理咨询师,华南理工开源心理咨询师数字孪生大语言模型

本文涉及的产品
NLP 自学习平台,3个模型定制额度 1个月
NLP自然语言处理_基础版,每接口每天50万次
NLP自然语言处理_高级版,每接口累计50万次
简介: SoulChat2.0 是华南理工大学推出的心理咨询师数字孪生大语言模型,能够低成本、快速构建个性化咨询风格的心理健康大模型,辅助心理咨询师工作。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦


🚀 快速阅读

  1. 功能:SoulChat2.0 能够通过少量真实咨询案例,快速构建心理咨询师的数字孪生模型,模拟其语言风格和咨询技术。
  2. 技术:基于大型语言模型(LLMs),SoulChat2.0 通过数据生成和微调技术,实现个性化心理咨询师的数字孪生。
  3. 应用:SoulChat2.0 可辅助心理咨询师进行前置谈话和提供24小时在线服务,推动心理健康大模型领域的发展。

正文(附运行示例)

SoulChat2.0 是什么

公众号: 蚝油菜花 - SoulChat2.0

SoulChat2.0 是华南理工大学未来技术学院-广东省数字孪生人重点实验室基于 SoulChat1.0 模型推出的心理咨询师数字孪生大语言模型。该模型首次定义了特定心理咨询师的数字孪生任务,旨在通过模拟真实心理咨询师的语言风格和疗法技术,提升大模型在真实心理咨询场景中的应用性能。

SoulChat2.0 能够低成本、快速、高效地构建具有特定心理咨询师风格的心理健康大模型,辅助心理咨询师开展工作,如前置谈话和提供24小时在线服务等。

SoulChat2.0 的主要功能

  • 心理咨询师数字孪生建模:SoulChat2.0 能通过微调实现对特定心理咨询师的数字孪生,模拟该咨询师的语言风格与咨询技术,提升 LLMs 在真实心理咨询场景中的应用性能。
  • 低成本、快速、高效构建模型:SoulChat2.0 能够利用少量的真实咨询案例进行心理咨询师数字孪生建模,低成本、快速、高效地构建具有特定心理咨询师风格的心理健康大模型。
  • 辅助心理咨询工作:SoulChat2.0 能够辅助真实世界的心理咨询师进行工作,例如执行前置谈话和提供24小时在线服务等。
  • 开源合作:SoulChat2.0 的项目方法代码、数据集和模型已全面开源,便于研究社区进行对比和复现,推动心理健康大模型领域的发展。

SoulChat2.0 的技术原理

  • 心理咨询师数字孪生数据生成:SoulChat2.0 通过综合真实世界咨询师的语言风格、咨询技术、来访者大五人格,结合真实世界咨询案例,生成心理咨询师数字孪生数据。
  • 多轮对话合成:基于大型语言模型(LLMs),SoulChat2.0 构建具有个性化咨询风格的心理咨询师数字孪生,涉及动态一次性学习、客户端人格模拟和多轮心理健康对话合成。
  • 微调大型语言模型:SoulChat2.0 通过微调实现心理咨询师的数字孪生,使用特定的基座模型在 PsyDTCorpus 的训练集上进行全量微调,实现具有特定咨询风格的心理咨询师的数字孪生。
  • 多维度评估与提升:SoulChat2.0 在谈话技术、状态与态度、情感共情、认知共情等维度上相较于其他模型有较大幅度的提升,增强了模型的心理咨询性能。

如何运行 SoulChat2.0

1. 环境配置

首先,参考 LLaMA-Factory 进行环境配置:

conda create -n llama_factory python=3.10
conda activate llama_factory
cd ~
git clone https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e '.[torch,metrics]'

2. 数据下载

下载 PsyDTCorpus 数据集:

cd <本项目路径>/data
git lfs install
git clone https://www.modelscope.cn/datasets/YIRONGCHEN/PsyDTCorpus.git

3. 模型微调

使用 LLaMA-Factory 进行全量微调:

cd <本项目路径>
conda activate llama_factory
FORCE_TORCHRUN=1 llamafactory-cli train train_model/llama3.1_full_sft_ds3.yaml

4. 模型推理

假设你的服务器 IP 为 198.0.0.8,使用 vllm 进行推理:

SERVER_MODEL_NAME=SoulChat2.0-Llama-3.1-8B
MODEL_NAME_OR_PATH=<模型本地路径>/SoulChat2.0-Llama-3.1-8B
GPU_MEMORY_UTILIZATION=0.8
PORT=8001
API_KEY=soulchat-rcEmrhVe6zWot67QkJSwqUnNI0EQxxFBMQSAXLtMNsD97PlyGQgjgjW-9jCdQD30
MAX_MODEL_LEN=20000

python -m vllm.entrypoints.openai.api_server \
    --served-model-name $SERVER_MODEL_NAME \
    --model $MODEL_NAME_OR_PATH \
    --gpu-memory-utilization $GPU_MEMORY_UTILIZATION \
    --port $PORT \
    --api-key $API_KEY \
    --max-model-len $MAX_MODEL_LEN

5. 运行 Demo

通过 Streamlit 运行 Demo:

pip install openai==1.7.1
pip install streamlit==1.27.0
pip install streamlit_authenticator==0.3.1
cd infer_demo
streamlit run soulchat2.0_app.py --server.port 8002

通过 http://<服务器ip>:8002 即可访问。

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦

相关文章
|
8天前
|
机器学习/深度学习 人工智能 自然语言处理
大语言模型:理解与构建下一代AI交互
大语言模型:理解与构建下一代AI交互
168 99
|
10天前
|
人工智能 运维 安全
|
12天前
|
人工智能 安全 API
HiMarket 正式开源,为企业落地开箱即用的 AI 开放平台
我们发起 HiMarket 的初心:帮助用户从 80% 开始构建 AI 开放平台。
|
12天前
|
人工智能 监控 数据可视化
如何破解AI推理延迟难题:构建敏捷多云算力网络
本文探讨了AI企业在突破算力瓶颈后,如何构建高效、稳定的网络架构以支撑AI产品化落地。文章分析了典型AI IT架构的四个层次——流量接入层、调度决策层、推理服务层和训练算力层,并深入解析了AI架构对网络提出的三大核心挑战:跨云互联、逻辑隔离与业务识别、网络可视化与QoS控制。最终提出了一站式网络解决方案,助力AI企业实现多云调度、业务融合承载与精细化流量管理,推动AI服务高效、稳定交付。
|
12天前
|
人工智能
四大公益场景,20万奖金!AI开源公益创新挑战赛邀你一起「小有可为」
四大公益场景,20万奖金!AI开源公益创新挑战赛邀你一起「小有可为」
82 8
|
12天前
|
人工智能 前端开发 Docker
从本地到云端:用 Docker Compose 与 Offload 构建可扩展 AI 智能体
在 AI 智能体开发中,开发者常面临本地调试与云端部署的矛盾。本文介绍如何通过 Docker Compose 与 Docker Offload 解决这一难题,实现从本地快速迭代到云端高效扩容的全流程。内容涵盖多服务协同、容器化配置、GPU 支持及实战案例,助你构建高效、一致的 AI 智能体开发环境。
166 0
从本地到云端:用 Docker Compose 与 Offload 构建可扩展 AI 智能体
|
12天前
|
存储 消息中间件 人工智能
【03】AI辅助编程完整的安卓二次商业实战-本地构建运行并且调试-二次开发改注册登陆按钮颜色以及整体资源结构熟悉-优雅草伊凡
【03】AI辅助编程完整的安卓二次商业实战-本地构建运行并且调试-二次开发改注册登陆按钮颜色以及整体资源结构熟悉-优雅草伊凡
44 3
|
机器学习/深度学习 人工智能 自然语言处理
一周AI最火论文 | 新冠病毒数据开源,Kaggle发布新冠病毒挑战赛
一周AI最火论文 | 新冠病毒数据开源,Kaggle发布新冠病毒挑战赛
600 0
|
6天前
|
边缘计算 人工智能 算法
AI在智慧能源管理中的边缘计算应用
AI在智慧能源管理中的边缘计算应用
65 13

热门文章

最新文章