机器学习/深度学习

首页 标签 机器学习/深度学习
# 机器学习/深度学习 #
关注
71623内容
Chap01. 认识AI
人工智能(AI)让机器具备类人思考与学习能力,其核心是Transformer神经网络。该模型由Google于2017年提出,凭借“注意力机制”实现对文本、图像、音频等多模态数据的高效处理,成为大语言模型(如GPT、DeepSeek)的基础。通过持续预测下一个词并循环生成,LLM能输出连贯文本,实现智能对话、文生图等强大功能。
|
4天前
|
《游戏平衡的高阶解法:强化学习主导的参数迭代策略》
本文聚焦强化学习技术在游戏动态平衡领域的落地实践,针对传统人工调参的滞后性与片面性痛点,提出构建RL驱动的参数自适应调节体系。文章阐释了从搭建生态感知网络、提炼隐性玩家行为数据,到构建体验反馈闭环、实施微幅迭代调整的核心路径,强调通过平衡熵控制实现稳定性与探索性的动态均衡,以及依托渐变式调整策略降低玩家适应成本。最终点明,RL技术并非取代设计师,而是通过人机协同打造自洽进化的游戏生态,让游戏在玩家行为博弈中始终维持兼具挑战与乐趣的平衡区间。
|
4天前
| |
构建AI智能体:六十七、超参数如何影响大模型?通俗讲解原理、作用与实战示例
超参数是机器学习模型训练前需要人工设定的参数,它们控制着模型的学习过程而非直接通过学习获得。文章通过生动的类比(如自行车调整、烹饪配方)解释了超参数的概念,并详细介绍了其调优流程、常见类型(学习率、批量大小等)及对模型的影响。通过实际代码示例,展示了不同超参数设置如何影响模型训练效果,强调合理调优对提升模型性能、防止过拟合和优化资源使用的重要性。文章指出,超参数调优是模型成功的关键,初学者可从默认值开始逐步实验,借助网格搜索等工具实现高效调参。
|
4天前
|
自变量机器人参与成立RoboChallenge组委会 开源协作开启标准化新阶段
就在11月20日,智源研究院、智元机器人、Qwen、星海图、自变量、清华大学、西安交通大学,GOSIM 国际国内合作伙伴进一步携手,共同推动生态建设,并正式成立 RoboChallenge 组委会。这标志着具身智能真机测评的开源协作不仅迈入了标准化的新阶段,更以“开放共同体”的行业共创模式,为具身智能技术的落地与迭代注入新动能。
推荐引擎:没有搜索词,「头条」怎么找到你感兴趣的文章?
资讯类App通过“下拉刷新”精准推荐内容,背后依赖推荐引擎的检索技术。它基于用户行为数据构建用户画像与文章画像,结合协同过滤、内容召回等算法,实现个性化推荐,并通过多路召回与分层排序提升效率与准确性。
RocketMQ总结
本课程系统讲解人工智能基础理论与应用实践,涵盖机器学习、深度学习、自然语言处理等核心内容,结合案例分析与项目实操,帮助学习者掌握AI关键技术,提升解决实际问题的能力,适用于初学者及进阶开发者。
广告系统:广告引擎如何做到在 0.1s 内返回广告信息?
广告系统是互联网公司核心营收支柱,如Google、Facebook超80%收入来自广告。其背后依赖高性能广告引擎,实现高并发、低延迟的精准投放。本文深入解析广告引擎架构,涵盖标签检索、向量匹配、打分排序与索引优化四大关键技术,揭示如何在0.1秒内完成从请求到返回的全流程,支撑千人千面的智能广告体验。
🫗 知识蒸馏
知识蒸馏是一种模型压缩技术,通过让小模型(学生)模仿大模型(教师)的输出或中间特征,实现性能逼近甚至超越。核心方法包括软标签蒸馏、带温度的Softmax提升信息保留,以及特征层对齐。按信息访问程度分为黑盒与白盒蒸馏,广泛用于加速推理、降低资源消耗,同时提升泛化能力。
🎮 强化学习
强化学习(RL)是一种通过智能体与环境交互,基于试错和延迟奖励学习最优策略的机器学习方法。核心要素包括状态、动作、奖励、策略与价值函数。常用算法有Q-learning、策略梯度、PPO、DPO等,广泛应用于游戏、机器人及大模型对齐人类偏好(如RLHF)。其关键挑战在于平衡探索与利用、偏差与方差,并提升样本效率与训练稳定性。
🔥 高频面试题汇总
Transformer核心基于自注意力机制,通过QKV计算捕捉长距离依赖,结合多头机制增强表达能力。使用位置编码补充序列顺序信息,配合RoPE、绝对/相对编码等技术。采用RMSNorm、SwiGLU等优化架构,结合LoRA、ZeRO实现高效训练与推理。显存估算需综合参数、KV缓存、激活值等,广泛应用于生成、理解与安全对齐任务。
免费试用