机器学习/深度学习

首页 标签 机器学习/深度学习
# 机器学习/深度学习 #
关注
71313内容
|
2小时前
|
AI知识全解析:十大博主带你从入门到精通
在AI加速赋能各行业的今天,掌握相关知识已成为核心竞争力。本文精选十位兼具专业性与实战价值的AI领域优质博主,覆盖电商、计算机视觉、NLP、伦理治理、医疗影像等方向,为不同阶段的学习者提供系统、可落地的知识路径,助力高效进阶。
|
3小时前
|
从“识图”到“购得”:图片搜索商品如何重构消费与供应链逻辑?
图片搜索正重塑电商:从“看到”到“买到”,只需一张图。它以AI解析视觉特征,精准匹配商品,打通C端购物与B端供应链,让找货、比价、溯源高效直达,成为连接视觉信息与交易的核心纽带。
|
4小时前
| |
Mcore Bridge:迈向Megatron训练"零门槛"时代
魔搭社区推出Mcore-Bridge与Megatron-SWIFT,显著降低大模型训练门槛。支持safetensors格式、一键启动、无需权重转换,兼容MoE等架构,实现高性能与易用性统一,让Megatron训练开箱即用。
|
18小时前
|
从文字到向量:Transformer的语言数字化之旅
向量化是将文字转化为数学向量的过程,使计算机能理解语义。通过分词、构建词汇表、词嵌入与位置编码,文本被映射到高维空间,实现语义相似度计算、搜索、分类等智能处理,是NLP的核心基础。
|
18小时前
|
Transformer参数规模深度解析:从模型聪明说到实际影响
Transformer参数规模显著影响模型能力,参数越多,知识容量与模式识别能力越强,但存在边际效应和过拟合风险。现代大模型通过混合专家、量化压缩等技术提升参数效率,未来趋势是优化参数使用而非盲目扩大规模,实现性能与效率的平衡。(238字)
|
18小时前
|
GPT与BERT深度解析:Transformer的双子星架构
GPT基于Transformer解码器,擅长文本生成;BERT基于编码器,专注文本理解。二者在架构、注意力机制和训练目标上差异显著,分别适用于生成与理解任务,体现了AI智能的多元化发展。
|
18小时前
|
Transformer中的残差连接与层归一化
残差连接与层归一化是深度学习的稳定基石:前者通过“信息高速公路”缓解梯度消失,后者以“训练稳定器”解决分布偏移。二者协同,使深层网络训练更高效,成为Transformer及大模型成功的关键。
|
18小时前
|
Transformer中的线性与非线性变换:智能的数学交响曲
线性变换满足叠加性与齐次性,用于信息传递和特征组合;非线性变换打破线性限制,引入复杂模式学习。二者在Transformer中交替协作,如乐谱与演绎共奏智能交响曲,实现强大表达与泛化能力。
|
20小时前
|
Transformer架构深度解析:重新定义序列建模的革命
Transformer是一种基于自注意力机制的神经网络架构,2017年由Google提出,彻底摒弃了RNN的循环结构,实现并行化处理序列数据。其核心通过QKV机制捕捉长距离依赖,以“圆桌会议”式交互提升效率与性能,成为大模型时代的基石。
|
20小时前
|
《AI大模型》从机器学习到现代大模型
人工智能历经从机器学习到深度学习的演进,以Transformer架构为里程碑,催生BERT、GPT等大模型。技术发展涵盖CNN、RNN、自注意力机制,推动预训练、微调与推理优化,实现多模态、高效能与安全对齐,正迈向更智能、普惠的未来。
免费试用