暂时未有相关云产品技术能力~
暂无个人介绍
Char-RNN,字符级循环神经网络,出自于Andrej Karpathy写的The Unreasonable Effectiveness of Recurrent Neural Networks。众所周知,RNN非常擅长处理序列问题。序列数据前后有很强的关联性,而RNN通过每个单元权重与偏置的共享以及循环计算(前面处理过的信息会被利用处理后续信息)来体现。Char-RNN模型是从字符的维度上,让机器生成文本,即通过已经观测到的字符出发,预测下一个字符出现的概率,也就是序列数据的推测。现在网上介绍的用深度学习写歌、写诗、写小说的大多都是基于这个方法。
文本分类(下)-卷积神经网络(CNN)在文本分类上的应用
Python解析命令行读取参数有两种方式:sys.argv和argparse
PageRank算法原理与实现
卷积神经网络(CNN)介绍与实践(二)
卷积神经网络(CNN)介绍与实践(一)
文本分类(上)- 基于传统机器学习方法进行文本分类
20 newsgroups数据介绍以及文本分类实例
文本特征提取-TfidfVectorizer和CountVectorizer
Python 使用collections统计词频
Python itertools的使用
Python pickle的使用
《Reasoning about Entailment with Neural Attention》阅读笔记
TensorFlow教程(6) tf.Variable() 和tf.get_variable()
TensorFlow教程(5) 随机数实例
神经网络中的激活函数-tanh
传统改机的序列标注系统,需要大量的针对特定任务的手工特征和经过预处理的数据。在这篇文章中,作者引入了一种创新的神经网络结果,使用Bi-LSTM、CNN和CRF相结合的网络结果,使模型能够从词和字级别表示中学习和收益。作者指出他们的系统是真正意义上的端到端结果,不需要任何特征工程或者数据预处理工作,因此可以广泛应用于各种序列标注任务。该模型在PennTreebank WSJ词性标注任务和CoNLL 2003 词性标注数据集上取得优异的成绩,前者97.55%的准确率,后者取得91.21%的F1值。
Python使用numpy生成批量数据
TensorFlow教程(4)-Attention机制
TensorFlow教程(3)-embedding_lookup用法
Python中defaultdict用法
Contrastive Loss(对比损失)
本文主要介绍tf.argmax,tf.reduce_mean(),tf.reduce_sum(),tf.equal()的使用
TensorFlow教程(1):MNIST数据的单层逻辑回归代码
Python中的zipfile模块使用实例
斯坦福tensorflow教程(七)-tensorflow 实现逻辑回归
浅谈Python内置函数chr、ord
Python中存储系列数据,比较常见的数据类型有list,除此之外,还有tuple数据类型。相比与list,tuple中的元素不可修改,在映射中可以当键使用。tuple元组的item只能通过index访问,collections模块的namedtuple子类不仅可以使用item的index访问item,还可以通过item的name进行访问。可以将namedtuple理解为c中的struct结构,其首先将各个item命名,然后对每个item赋予数据。
字符的编码是按照某种规则在单字节字符和多字节字符之间进行转换的某种方法。从单字节到多字节叫做decoding,从多字节到单字节叫做encoding。在这些规则中经常用到的无非是UTF-8和GB2312两种。
Python 过滤字母和数字
机器学习-范数正则化:L1正则,L2正则
LSTM 已经在科技领域有了多种应用。基于 LSTM 的系统可以学习翻译语言、控制机器人、图像分析、文档摘要、语音识别图像识别、手写识别、控制聊天机器人、预测疾病、点击率和股票、合成音乐等等任务。下面是自己学习过程中收集的LSTM资料
Sequence to Sequence学习资料
交叉熵初识-cross entropy
QA-对话系统-问答系统-聊天机器人-chatbot相关资源
斯坦福tensorflow教程(六)-tensorflow 实现线性回归
已知输入变量x,判别模型(discriminative model)通过求解条件概率分布P(y|x)或者直接计算y的值来预测y。生成模型(generative model)通过对观测值和标注数据计算联合概率分布P(x,y)来达到判定估算y的目的。
这篇word2vec教程2中(教程1 Word2Vec教程-Skip-Gram模型),作者主要讲述了skip-gram 模型优化的策略-Negative Sampling,使得模型更加快速地训练。通过教程1,我们了解到word2vec它是一个庞大的神经忘网络! 例如,有一个包含10000个单词的词汇表,向量特征为300维,我们记得这个神经网络将会有两个weights矩阵----一个隐藏层和一个输出层。这两层都会有一个300x10000=3000000的weight矩阵。 在如此大的神经网络上进行梯度下降是非常慢的,更加严重的是,我们需要大量训练数据去调整weights和避免over-fitti
斯坦福tensorflow教程(五)-实例代码
TensorFlow饱受诟病的痛点就是只支持静态图模型。也就是说,在处理数据前必须预先定义好一个完整的模型。如果数据非常规整,那还好。但实际工程和研究项目中的数据,难免有一些边角的情况。很多项目,其实需要大量实验才能选择正确的图模型。这就很痛苦了。因此,很多项目转而采用了PyTorch等支持动态图模型的框架,以便在运行程序的时候动态修正模型。
主要方法有:编辑距离、余弦相似度、模糊相似度百分比
斯坦福tensorflow教程(三) 线性和逻辑回归
斯坦福tensorflow教程(二) tensorflow相关运算(二)
斯坦福tensorflow教程(二) tensorflow相关运算(一)
斯坦福tensorflow教程(一) tensorflow概述
图床
机器学习(十)高斯混合模型与EM算法
大数据入门与实战-Hadoop核心HDFS
数据挖掘作业
自己在使用pandas和numpy处理数据的时候,遇到了很多坑,运用不熟练,在探索的过程中找到以下文章,本来自己想整理这些知识点,但是返现,可能自己写出来的效果差不多,并且以下文章整理很全面,自己挑选了几篇好文章留存插眼。