MajorRAG文件内容提取实现分析(2/3)
一个RAG项目,全文共三个部分:MajorRAG概述、MajorRAG文件内容提取实现分析、MajorRAG聊天问答系统实现分析。 1)第一次做RAG,欢迎带着指导意见评论 2)希望指出不足时可以附带替换方法 博客地址:https://zhangcraigxg.github.io
「超级开发个体」在诞生:一份白皮书带你理解AI时代开发者
10月24日程序员节,魔搭社区联合知乎发布《THE NEXT WAVE:AI时代开发者生态白皮书》,揭示AI时代开发者新画像:以“超级个体”为核心,兼具技术与商业闭环能力,工具平权让个人开发者崛起。报告涵盖年龄、学历、组织分布及认知行为特征,展现开发者如何用AI提效、实现从“写代码”到“搭系统”的跃迁。点击下载完整报告。
73_安全配置:LLM开发环境的全面防护指南
在2025年的AI开发环境中,大型语言模型(LLM)已成为核心技术,但伴随其广泛应用的是日益严峻的安全挑战。据统计,2025年第一季度发生的AI安全事件中,LLM环境配置不当导致的漏洞占比高达43%,造成的损失超过2.1亿美元。本文将深入探讨LLM开发环境的安全配置最佳实践,帮助开发者构建一个安全、可靠的开发环境。
96_主动学习提示:用户反馈驱动优化
在人工智能快速发展的今天,大型语言模型(LLM)已经成为各行各业的核心工具。然而,如何让LLM能够持续学习和适应新的需求,如何从用户交互中获取有价值的信息来优化模型性能,已经成为当前研究和应用的热点。主动学习提示(Active Learning Prompts)作为一种新型的提示工程技术,通过用户反馈的闭环系统,实现了模型能力的持续优化和提升。
43_PaLM与Gemma:谷歌LLM演进
在人工智能发展的浪潮中,谷歌一直扮演着关键的技术引领者角色。从最初的神经机器翻译到如今的通用人工智能,谷歌通过持续的技术创新推动着自然语言处理领域的边界不断拓展。2022年,谷歌推出了革命性的PaLM(Pathways Language Model),这一模型不仅在规模上达到了前所未有的5400亿参数,更重要的是其采用了创新的Pathways训练方法,为大型语言模型的发展开辟了新路径。随后,谷歌又推出了Gemma系列开源模型,将先进的AI技术普惠给更广泛的开发者社区。
DeepSeek-V3.2-Exp 发布,训练推理提效,API 同步降价
今天,我们正式发布 DeepSeek-V3.2-Exp 模型,这是一个实验性( Experimental)的版本。作为迈向新一代架构的中间步骤,V3.2-Exp 在 V3.1-Terminus 的基础上引入了 DeepSeek Sparse Attention(一种稀疏注意力机制…
公募REITs专属AI多智能体查询分析项目
公募REITs专属AI多智能体查询分析项目。本项目是基于 OpenAI Agent 框架的多智能体项目,提供二级市场数据查询分析、招募说明书内容检索、公告信息检索、政策检索等多板块查询服务。支持图标绘制、文件生成。
拿下30个第1名的腾讯混元翻译模型,开源!
腾讯混元又带来一个在国际机器翻译比赛拿下30个第1名的翻译模型Hunyuan-MT-7B,它总参数量仅7B,支持33个语种、5种民汉语言/方言互译,是一个能力全面的轻量级翻译模型。
IROS 2025 |从数字智能走向物理智能,“桃源”与真实世界机器人学习挑战赛启动,2大赛道等你来战
2025年10月,IROS (智能机器人与系统国际会议)期间,上海人工智能实验室(上海AI实验室)将举办物理世界中的多模态机器人学习研讨会,IROS 2025“桃源”与真实世界机器人学习挑战赛(机器人学习挑战赛)现已启动报名,欢迎全球创新者与挑战者参加。
腾讯混元开源首款混合推理MoE模型Hunyuan-A13B,性能优异,激活参数仅13B
6月27日,腾讯混元宣布开源混元-A13B模型,总参数800亿,激活参数仅130亿,在效果比肩顶尖开源模型的同时,大幅降低推理延迟与计算开销。这意味着,开发者可以用更低门槛的方式获得更好的模型能力。
UGPhysics:本科物理推理评估基准发布,助力AI+Physics交叉研究
近年来,人工智能快速发展,大语言模型(LLM)在数学、代码等领域展现出强大的推理和生成能力,正在被广泛应用于各种场景。
小米又放大招!MiMo-VL 多模态大模型开源,魔搭推理微调全面解读来了!
今天,小米开源发布两款 7B 规模视觉-语言模型 MiMo-VL-7B-SFT 和 MiMo-VL-7B-RL。
UGMathBench:评估语言模型数学推理能力的动态基准测试数据集
近年来,人工智能蓬勃发展,自然语言模型(LLM)进展显著。语言模型被广泛应用于自动翻译、智能客服、甚至医疗、金融、天气等领域。而研究者们仍在不断努力,致力于提高语言模型的规模和性能。随着语言模型的蓬勃发展,评估一个语言模型的性能变得越来越重要。其中一个重要的评估指标,就是衡量语言模型的推理能力和解决数学问题的能力。
Open AI Model
Open AI Model is an open model for defining AI. Focused on AI rather than application, Open AI Model [OAM] brings simplest but most powerful design for modeling AI.
Ollama-Deep-Researcher-本地Mac结合魔搭社区模型搭建网页研究助手
Ollama Deep Researcher 是一款完全本地化的网络研究助手,可使用Ollama托管的任何 LLM 。输入一个主题,它将生成网络搜索查询,收集网络搜索结果(默认通过Tavily),总结网络搜索结果,反思总结以检查知识差距,生成新的搜索查询以解决差距,搜索并改进总结,循环次数由用户定义。它将为用户提供最终的 markdown 摘要,其中包含所有使用的来源。
如何快速对接德国股票数据 API
德国作为欧洲最大经济体,其法兰克福交易所及DAX指数是全球配置欧洲资产的关键入口。本文详解如何通过StockTV金融API,快速接入德国股票实时行情、历史K线及DAX指数数据,支持毫秒级延迟与多周期分析。
外包项目提效的另一种路径:多模型 AI 的工程价值
外包行业提效困局日益凸显:需求多变、人员流动、周期压缩。单模型AI仅局部优化,难破系统瓶颈。多模型AI以工程化协同替代“人海战术”,通过任务分派、异常降级、流程固化,提升交付稳定性与可扩展性,正成为外包效能升级新路径。
C 语言项目实战入门:从 0 到 1 搭建简易学生信息管理系统
本文以“简易学生信息管理系统”为例,系统讲解C语言项目开发全流程,涵盖需求分析、数据结构设计、模块化编码、文件操作与调试优化,帮助初学者掌握结构体、指针、动态内存管理等核心技能,实现学生信息的增删改查与持久化存储,夯实C语言实战基础。
Python 持久层开发:从文件到数据库的实践指南
Python持久层开发覆盖全场景需求,从轻量文件(TXT/CSV/JSON)到关系型数据库(SQLite/MySQL/PostgreSQL),再到非关系型数据库(MongoDB/Redis),结合ORM工具,按需选型可实现高效、可靠的数据存储与访问,适配从小工具到企业级系统的各类应用。
Python 项目实战入门:从 0 到 1 搭建简易学生信息管理系统
本文以简易学生信息管理系统为例,详解Python Web项目从需求分析、技术选型到编码部署的完整流程。采用Flask+SQLite+Bootstrap轻量栈,实现增删改查与Excel导出,助初学者快速掌握开发逻辑与实战技能。
Linux 为何能稳居服务器领域主流操作系统宝座
自1991年诞生以来,Linux凭借开源、稳定、高效和完善的生态,成为服务器、云计算、嵌入式等领域的主导操作系统。其低成本、高安全性与极致资源利用,支撑着阿里云、特斯拉、谷歌等全球科技巨头,未来仍将是数字世界的基石。
Python 项目实战入门:从 0 到 1 搭建简易学生信息管理系统
本文以简易学生信息管理系统为例,带领Python初学者从零构建完整Web项目。涵盖需求分析、Flask+SQLAlchemy技术栈搭建、数据库设计、前后端交互实现及本地部署全流程,助你掌握增删改查、数据持久化与Excel导出等核心功能,快速入门Python项目开发。
Python 实用标准库与工具函数使用指南
本文系统梳理Python高效开发三大利器:标准库(如datetime、pathlib)、第三方库(如requests、Pillow)及自定义工具函数(如空值判断、重试装饰器),结合高频场景与实操代码,助开发者提升效率,避免重复造轮子。
Java 项目实战入门:从 0 到 1 搭建简易在线图书商城系统
本文以简易在线图书商城系统为例,系统讲解Java Web项目从需求分析、数据库设计到编码实现、部署上线的完整流程。涵盖用户管理、图书查询、购物车、订单等核心功能,采用主流框架与技术栈,贴近企业实际开发场景,助力Java初学者掌握项目实战技能,快速提升开发能力。
Git提交信息全是"update"?用这条指令让AI帮你重写"代码履历"
面对杂乱无章的Git提交记录,团队协作往往陷入"代码考古"的困境。本文介绍了一套基于大模型的Git提交信息标准化指令,通过消除认知阻断、统一技术方言和提升追溯精度,帮助开发者将碎片化的变更描述转化为架构级的版本记录,让代码维护不再困难。
NeurIPS 2025 | 浙大、浙工大等团队提出LRMs 自适应思考:简单任务快处理,复杂任务深分析
浙大、阿里云等提出首个LRM快慢思维控制方法,发现特定词可触发思维模式,结合PCA导向与自适应策略,实现无需训练的推理速度调控,在多模型上显著提升准确率并减少耗材。
美团 LongCat 团队发布全模态一站式评测基准UNO-Bench:揭示单模态与全模态能力的组合规律
美团LongCat团队推出一站式全模态大模型评测基准UNO-Bench,首创“组合定律”揭示多模态能力协同增益,支持中文场景,以98%跨模态问题占比和创新多步开放式题型,科学评估模型真实融合能力。
Spring Boot中Spring Data JPA的常用注解
Spring Data JPA通过注解简化数据库操作,实现实体与表的映射。常用注解包括:`@Entity`、`@Table`定义表结构;`@Id`、`@GeneratedValue`配置主键策略;`@Column`、`@Transient`控制字段映射;`@OneToOne`、`@OneToMany`等处理关联关系;`@Enumerated`、`@NamedQuery`支持枚举与命名查询。合理使用可提升开发效率与代码可维护性。(238字)
124_数据并行扩展:Megatron框架 - 分析模型分片的独特通信开销
2025年,大型语言模型的规模已达到数千亿甚至数万亿参数,单GPU训练已成为不可能的任务。高效的分布式训练技术成为训练超大模型的关键。Megatron框架作为业界领先的分布式训练解决方案,通过创新性的并行策略,实现了对超大语言模型的高效训练。
87_文化适配:多语言提示设计 - 分析本地化提示的适配性
在全球化日益深入的今天,大型语言模型(LLM)的多语言能力已成为其核心竞争力之一。随着企业和开发者将AI应用推广到不同语言区域,如何设计适配各文化背景的提示词,确保模型输出既准确又符合目标语言使用者的文化习惯,已成为提示工程领域的重要挑战。文化适配的多语言提示设计不仅涉及简单的语言翻译,更需要深入理解目标文化的思维模式、表达习惯、价值观和禁忌,通过精心设计的提示策略,引导LLM生成真正贴合当地文化语境的内容。
78_资源监控:NVIDIA-SMI进阶
在大语言模型(LLM)训练和推理过程中,GPU资源的高效监控和管理至关重要。随着模型规模的不断增长和计算需求的提升,如何精确监控GPU利用率、及时发现性能瓶颈并进行优化,成为AI研究人员和工程师面临的重要挑战。NVIDIA-SMI作为NVIDIA官方提供的GPU监控工具,提供了丰富的功能来监控和管理GPU资源。本文将深入探讨NVIDIA-SMI的进阶使用方法,以及如何利用其与其他工具结合构建高效的GPU利用率可视化监控系统。
69_云端开发:SageMaker与Colab
在2025年的大模型开发环境中,云端开发平台已经成为开发者的首选。随着大模型规模的不断扩大,本地开发环境往往难以满足训练和推理的需求,而云端平台提供了强大的计算资源、灵活的扩展能力和便捷的协作功能。在众多云端开发平台中,Amazon SageMaker和Google Colab凭借各自的优势,成为了大模型开发者最常用的两个选择。
从零到面试高手:每个 DevOps 专业人士都必须知道的 20 个 Kubernetes 架构问答
Kubernetes 是当前 DevOps、云原生和 SRE 领域的关键技能。本文总结了 20 个高频面试问题,涵盖架构组件、工作原理及核心概念,助你轻松掌握 Kubernetes 基础,提升面试与实战能力。