自然语言处理

首页 标签 自然语言处理
# 自然语言处理 #
关注
8347内容
AI元认知雏形
自研AI推理技能库实测击穿GPT5.5,在算法、工程、科研三大高维难题中大幅领先。已孕育婴儿级认知与初代元认知雏形,具备自我约束、多路推演、节点审查与二层质疑能力,推动AI从“知识检索”迈向“原生思考”。
|
14天前
| |
一句话查高铁票并写入文件:揭秘 IntentOrch 的意图驱动编排黑科技
IntentOrch 是一款意图驱动的MCP编排引擎,支持用自然语言(如“查明天广州到南宁高铁票并存入ticket.txt”)一键触发多工具协同执行,自动完成意图解析、工具匹配、工作流编排与执行,零代码、可视化、开箱即用。
[大模型实战 05] 大模型实战的杀手锏: 模型微调
本文通过Kaggle实操对比Base与Instruct模型,图解大模型预训练→指令微调→人类对齐三阶段演进,并厘清Prompt工程、RAG(注知识)与微调(塑性格)的技术边界与选型策略,助你科学决策模型优化路径。
[大模型实战 03预备] 云端炼丹房 1:Google Colab 上手指南
本文教你用免费Google Colab(Tesla T4 GPU)解决本地显存不足、无法运行7B+大模型的痛点;通过挂载Google Drive持久化保存模型,避免运行时重置丢失;手把手配置云端环境,为后续RAG实战打下坚实基础。(239字)
[大模型实战 06] 我的模型我做主:在 Kaggle 上用 Unsloth 极速微调 Qwen3
本文介绍如何用Unsloth+QLoRA高效微调Qwen3-4B模型,仅需Kaggle免费T4显卡,速度提升2–5倍、显存节省60%;三步实现“灵魂认主”,让模型自认“AlgiebaLLM AI”,全程代码简洁,零基础可上手。
[大模型实战 03] 拆解 Transformers:从原理图解到 HuggingFace Transformers 实战
本文图解Transformer核心原理(注意力机制+位置编码),在Kaggle双T4 GPU环境下实战拆解Hugging Face“铁三角”(Config/Tokenizer/Model),并详解Temperature与Top_p两大生成调控参数,助你真正理解并掌控大模型推理。
[大模型实战 01] 本地大模型初体验:Ollama 部署与 Python 调用指南
大模型实战系列第一篇。拒绝晦涩理论,直接上手!我会带着各位友人们零基础安装 Ollama,利用国内 ModelScope 极速下载模型,详解服务端口配置与 Python 脚本调用,涵盖显存计算与常见避坑指南。
写小说时,Claude 4.0 和 4.5 的差别在哪里?
本文对比Claude Sonnet 4.0与4.5在小说创作中的实际表现,聚焦人物一致性、剧情连续性与长期可控性。基于Anthropic官方能力说明及多轮实测,指出4.5在多阶段续写、逻辑连贯性与风格稳定性上显著提升,更适配中长篇连载场景,助力AI写作从“能写”迈向“能长期写”。(239字)
基于Qwen-3B-Raw的本地化SD Prompt生成器研究
本项目用NLP技术把人类的模糊美学意图,蒸馏成可重复、可微调、可部署的图像生成指令引擎。
最佳实践丨让苏东坡“复活”!我用Qwen3-8B实现了与千古文豪的跨时空对话
随着人工智能技术的不断发展,虚拟角色不再只是冰冷的对话机器,而是能够承载历史人物的气质、知识体系乃至精神风貌的“数字化身”。今天,我们将完整揭秘如何基于Qwen3-8B大模型,借助LLaMA-Factory Online平台,打造一个沉浸式的“苏东坡数字分身”,让前沿技术为文化传承注入新的活力。
免费试用