暂时未有相关云产品技术能力~
『为AI硬核资料库(cool)而生!』构建AI解决方案,用知识加速每一次技术成长!网站:https://www.showmeai.tech/ 公众号:ShowMeAI研究中心
探索性数据分析(EDA)在机器学习中至关重要!这些高效又绝美的宝藏库,快用起来——Matplotlib、Seaborn、Plotly、Bokeh、Altair、pandas-profiling、Sweetviz、AutoViz、Microsoft Power BI、Tableau!
本篇为专栏的 6 月合辑,对 6 月份发布的 30 篇日报内容,进行了整合与分类,将350+学习资源 结构化得整理成了这本电子月刊(排版超美)!回复『日报』获取!
本文讲解了 Policy Gradient,结合policy-based 和 value-based 的 Actor-Critic 方法,以及在 Actor-Critic 基础上的 DDPG、A3C方法【对应 CS231n Lecture 14】
本文讲解了强化学习的主要挑战、数学定义及实际应用(制定长期决策、估计或者近似未来奖励、状态过多时估计或者近似未来奖励、从数据中学习模型使其真正工作等)【对应 CS231n Lecture 14】
本文讲解了无监督学习(聚类、PCA、特征学习、密度估计)和三种常用生成模型的原理及优缺点:Pixel RNN / Pixel CNN、变分自编码器(VAE)、生成对抗网络(GAN)【对应 CS231n Lecture 13】
本文讲解了一些理解 CNN 可视化的方法(特征、滤波器可视化),以及一些有趣的应用,如DeepDream、图像神经风格迁移(特征反演 + 纹理生成)等【对应 CS231n Lecture 12】
本文讲解了图像分割常见应用,评估指标,典型语义分割算法(FCN,SegNet,U-Net,PSPNet,DeepLab,RefineNet)等【对应 CS231n Lecture 11】
本文讲解一阶段(one stage)的目标检测方法,包括 YOLO 系列算法(V1~V5)、SSD、RetinaNet的算法思想、网络结构、训练细节和性能效果等【对应 CS231n Lecture 11】
本文讲解两阶段(two stage)目标检测的发展史和典型算法:R-CNN、SPP-Net、Fast R-CNN、Faster R-CNN等的算法结构和核心流程【对应 CS231n Lecture 11】
本文讲解了循环神经网络RNN的多种形式(1对1、1对多、多对1、多对多),语言模型 ,图像标注,视觉问答,注意力模型,RNN梯度流等【对应 CS231n Lecture 10】
本文讲解了神经网络参数与复杂度计算,以及主流轻量级网络,包括SqueezeNet、Xception、ShuffleNet v1~v2、MobileNet v1~v3等
本文讲解最广泛使用的卷积神经网络,包括经典结构(AlexNet、VGG、GoogLeNet、ResNet)和一些新的结构(Network in Network、Resnet改进、FractalNet、DenseNet)等【对应 CS231n Lecture 9】
本文讲解了深度学习硬件知识(CPU、GPU、TPU),主流深度学习框架(TensorFlow、PyTorch)相关知识,借助于工具可以实际搭建与训练神经网络【对应 CS231n Lecture 8】
本文讲解训练神经网络的核心方法:优化方式(SGD、动量更新、Nesterov动量、Adagrad、RMSProp、Adam等),正则化(L2、Dropout),迁移学习,模型集成等【对应 CS231n Lecture 7】
本文讲解训练神经网络的核心方法:初始化(激活函数、数据预处理、权重初始化、正则化、梯度检查),训练动态(监控学习过程、参数更新、超参数优化)等【对应 CS231n Lecture 6】
本文讲解了卷积神经网络的重点知识:卷积层、池化层、ReLU层、全连接层、局部连接、参数共享、最大池化、步长、零填充、经典案例等【对应 CS231n Lecture 5】
本文讲解了神经网络计算图、前向传播与反向传播、标量与向量化形式计算、求导链式法则应用、神经网络结构、 激活函数等内容【对应 CS231n Lecture 4】
本文讲解了损失函数(数据损失与正则损失)、多类 SVM 损失与Softmax损失比较、梯度计算方法(数值梯度与解析梯度)、梯度下降优化算法等【对应 CS231n Lecture 3】
图像分类是计算机视觉的核心任务。本文讲解数据驱动的模型算法,包括最邻近算法、KNN分类器、线性分类器的原理、各自的优缺点和实际应用【对应 CS231n Lecture 2】
本文讲解了斯坦福大学 CS231n 课程的内容框架(深度学习 + 卷积神经网络 + 计算机视觉应用)和学习基础,帮助了解计算机视觉的历史和技术发展【对应 CS231n Lecture 1】
本教程依托于 Stanford 斯坦福大学的《CS231n:深度学习与计算机视觉》,对深度学习与计算机视觉方向的图像分类、CNN、RNN、目标检测、图像分割、生成模型等各个主题做了体系化的梳理。
NLP课程第20讲是课程最后一讲,介绍了NLP的兴起历程和发展方向,包括使用未标记数据进行翻译、大模型、GPT-2、QuAC、HotPotQA等。
NLP课程第19讲介绍了 NLP 和 AI 偏见产生的原因、衡量和应用,以及通过数据、机器学习技术、多任务学习等减少偏见、促进公平。
NLP课程第18讲介绍了基于词向量空间模型的构建、结构反向传播(BTS)及其Python编程、简单TreeRNN及应用、 复杂TreeRNN结构、斯坦福大学HAI研究所等。
本文介绍了 NLP 句法分析与树形递归神经网络,主要讲解树形递归神经网络、句法分析 (Constituency Parsing )、Recursive Neural Networks (RNN)、成分句法分析、SU-RNN、MV-RNN、RNTN等。
NLP课程第17讲介绍了问答系统(QA)、多任务学习、自然语言处理的十项全能(decaNLP)、多任务问答系统(MQAN)等。
NLP课程第16讲介绍了共指消解(指代消解) 的定义、作用和应用、指代检测、指代对模型、指代排序模型 、指代聚类模型 、效果评估等。
NLP课程第15讲回顾了NLG要点,介绍了解码算法、NLG任务及其神经网络解法,着手解决NLG评估中的棘手问题,并分析了NLG目前的趋势以及未来的可能方向。
NLP课程第14讲介绍了Attention注意力机制、文本生成、自相似度、相对自注意力、图片与音乐生成、迁移学习等。
NLP课程第13讲介绍了词向量 (word representations) 知识回顾、ELMo模型、ULMfit模型、Transformer结构和BERT等。
NLP课程第12讲介绍了语法学 (linguistics) 基础知识、基于字符粒度的模型、子词模型 (Subword-models)、混合字符与词粒度的模型、fastText模型等。
NLP课程第11讲介绍了卷积神经网络 (CNN)及模型细节,并讲解CNN和深度CNN在文本分类中的使用,最后介绍了Q-RNN模型。
本文介绍 NLP 中的卷积神经网络(CNN),讲解卷积神经网络的卷积层、池化层、多卷积核、多通道、卷积核、N-gram、filter、k-max pooling、文本分类等。
NLP课程第10讲介绍了问答系统动机与历史、SQuAD问答数据集、斯坦福注意力阅读模型、BiDAF模型、近期前沿模型等。
本文介绍 NLP 中的问答系统(Question Answering),包括 NLP 中的问答系统场景、动态记忆网络(Dynamic Memory Networks)、问答(QA)、对话、MemNN、DCN、VQA等。
NLP课程第9讲介绍了课程大项目的细节、寻找研究主题、项目数据、门控神经序列模型回顾、机器翻译主题、研究方式、结果呈现和评估等。
本文介绍了序列到序列模型(seq2seq)及其在翻译系统中的应用,以及注意力机制、序列解码器、神经翻译系统、基于字符级别的翻译模型等。
NLP课程第7讲介绍RNNs的梯度消失问题、两种新类型RNN(LSTM和GRU),以及其他梯度消失(爆炸)的解决方案——Gradient clipping、Skip connections等。
NLP课程第6讲介绍一个新的NLP任务 Language Modeling (motivate RNNs) ,介绍一个新的神经网络家族 Recurrent Neural Networks (RNNs)。
本文介首先介绍了语言模型及其应用场景,进而介绍了循环神经网络(RNN)及优化后的变种LSTM(长短时记忆网络)和GRU模型。
NLP课程第5讲内容覆盖:句法结构(成分与依赖),依赖语法与树库,基于转换的依存分析模型,神经网络依存分析器等。
本文介绍 Dependency Grammar、Dependency Structure、Neural Dependency Parsing、依存解析、依存句法 和 语法依赖等内容。
NLP课程第4讲主要内容是:单神经网络的梯度矩阵与建议、计算图与反向传播、神经网络训练实用知识技能(包括正则化、向量化、非线性表达能力、参数初始化、优化算法、学习率策略)等。
NLP课程第3讲主要内容是回顾神经网络知识,并基于NLP场景讲解命名实体识别、基于窗口数据的预测、基于pytorch实现的分类器等。
NLP课程第2讲内容覆盖ord2vec与词向量、算法优化基础、计数与共现矩阵、GloVe模型、词向量评估、word senses等。
本文介绍GloVe词向量、词向量内部与外部评估方法、类比任务中的词向量训练超参数影响、相关度评估任务中词向量与人工表现差异、基于上下文处理一词多义问题和窗分类。
NLP课程第1讲直接切入语言和词向量,讲解自然语言处理的基本概念、文本表征的方法和演进、包括word2vec等核心方法,词向量的应用等。
本文介绍自然语言处理(NLP)的概念及其面临的问题,进而介绍词向量和其构建方法(包括基于共现矩阵降维和Word2Vec)。
本系列是ShowMeAI组织的斯坦福CS224n《自然语言处理与深度学习》的学习笔记,包含一整套【NLP深度教程】 和【20章课件注释】,是非常TOP的完整学习资料~
图像检索任务指的是,给定查询图像,从图像数据库中找到包含相同或相似实例的图像。本文研究的是高德地图POI信息更新,即根据自有图像源,将每个新增或调整的POI及时制作成数据。这是非常典型的图像检索垂直应用,整套方便背后也包含大量CV技术。本篇我们结合资深CV工程师章鱼的分享,一起研究『高德地图POI信息更新』这一业务背景中,应用到的计算机视觉技术。