人工智能

首页 标签 人工智能
# 人工智能 #
关注
70401内容
Transformer中的残差连接与层归一化
残差连接与层归一化是深度学习的稳定基石:前者通过“信息高速公路”缓解梯度消失,后者以“训练稳定器”解决分布偏移。二者协同,使深层网络训练更高效,成为Transformer及大模型成功的关键。
Transformer中的线性与非线性变换:智能的数学交响曲
线性变换满足叠加性与齐次性,用于信息传递和特征组合;非线性变换打破线性限制,引入复杂模式学习。二者在Transformer中交替协作,如乐谱与演绎共奏智能交响曲,实现强大表达与泛化能力。
Transformer架构深度解析:重新定义序列建模的革命
Transformer是一种基于自注意力机制的神经网络架构,2017年由Google提出,彻底摒弃了RNN的循环结构,实现并行化处理序列数据。其核心通过QKV机制捕捉长距离依赖,以“圆桌会议”式交互提升效率与性能,成为大模型时代的基石。
Transformer的核心:自注意力机制
自注意力机制是Transformer的核心,让序列中每个元素直接关联所有其他元素,实现全局信息交互。相比RNN的顺序处理和CNN的局部感知,它能并行计算、捕捉长距离依赖,并提供可解释的权重分布,彻底改变了序列建模方式,成为大模型崛起的关键基石。(239字)
《AI大模型技术全景解读》从机器学习到现代大模型
人工智能历经从机器学习到深度学习的演进,以Transformer架构为里程碑,推动大模型时代到来。技术发展涵盖CNN、RNN、BERT、GPT等核心模型,逐步实现语言理解、生成与多模态能力突破,正朝高效推理、安全对齐与普惠应用迈进。(238字)
当算法开始“做决定”,我们该怎么办?——AI伦理与监管的边界之争
当算法开始“做决定”,我们该怎么办?——AI伦理与监管的边界之争
一文了解算法备案中的“服务提供者”和“服务技术支持者”角色差异
很多企业常常以服务对象来判断角色,比如“我做toB业务,就是技术支持者”“我做toC产品,就是服务提供者”。但事实上,这种判断方式并不准确。
|
3天前
|
读诗的时候我却使用了自己研发的Chrome元素截图插件
我喜欢读诗,经常在网上看一些诗歌网站。这些网站的诗歌排版很特殊,有独特的字体、行距、间距,甚至有些还有特殊的背景色和装饰元素。我想保存这些原汁原味的排版,但传统截图工具要么截整个页面(包含导航、广告等),要么截图质量差,丢失了排版的细节。
|
4天前
| |
构建AI智能体:十七、大模型的幻觉难题:RAG 解决AI才华横溢却胡言乱语的弊病
RAG(检索增强生成)是一种结合信息检索与大型语言模型的技术,旨在解决LLM的幻觉问题。其核心流程包括:离线处理阶段(知识库构建)和在线处理阶段(用户查询应答)。通过将外部知识源转换为向量存入数据库,当用户提问时,系统会检索相关内容并增强提示,再由LLM生成准确答案。RAG技术显著提升了AI在专业领域的可靠性,适用于智能客服、企业知识管理、内容创作等场景。尽管面临检索精度、多模态处理等挑战,RAG仍是AI实用化的重要突破方向。
焊接情况检测数据集(千张图片已划分)| 面向工业质检的目标检测训练集
总结来看,本次分享的焊接情况检测数据集为工业智能化提供了坚实的基础。数据集涵盖了“良好焊缝”、“不良焊缝”和“缺陷”三大类别,采用了标准的 YOLO 标注格式,保证了在目标检测任务中能够高效、准确地训练模型。通过合理划分训练集、验证集和测试集,开发者可以充分利用数据进行模型优化与验证,从而在实际工业生产环境中实现对焊接表面缺陷的自动检测与监控。
免费试用