ML/DL之Paper:机器学习、深度学习常用的国内/国外引用(References)参考文献集合(建议收藏,持续更新)(一)

简介: ML/DL之Paper:机器学习、深度学习常用的国内/国外引用(References)参考文献集合(建议收藏,持续更新)

References


1、国外格式


[1] D. E. Rumelhart, G. E. Hinton, and R. J. Williams, “Learning representations by back-propagating errors,” Nature, vol. 323, no. 6088, pp. 533–536, 1986.

[2] T. Cover  P. Hart, "Nearest neighbor pattern classification," Journal IEEE Transactions on Information Theory archive Volume 13 Issue 1, January 1967


2、国内格式


[1] Rumelhart D E, Hinton G E, Williams R J. Learning representations by back-propagating errors.[J]. 1986, 323(6088):399-421.

[2] Cover T M, Hart P E. Nearest neighbor pattern classification. IEEE Trans Inf Theory IT-13(1):21-27[J]. IEEE Transactions on Information Theory, 1967, 13(1):21-27.

[3] Daral N. Histograms of Oriented Gradients for Human Detection[J]. Proc. of CVPR, 2005, 2005.

[3.1] Histograms of Oriented Gradients for Human Detection. Dalai,N,B.Triggs. Computer Vision and Pattern Recognition, 2005.CVPR 2005.IEEE Computer Society Conference on . 2005

[4] Kazemi V, Sullivan J. One Millisecond Face Alignment with an Ensemble of Regression Trees[C] Computer Vision and Pattern Recognition. IEEE, 2014:1867-1874.


[5] David J. Hand and Robert J. Till( 2001). A Simple Generalization of the Area Under the ROC Curve for Multiple Class Classification Problems . Machine Learning , 45(2), 171 – 186 .



一、综合方向


周志华,机器学习,清华大学出版社,2016

李航,统计学习方法,清华大学出版社,2012

Scikit-learn,https://scikit-learn.org/stable/index.html

Qcon 2017 feature engineering by Gabriel Moreira

Thomas M.Cover, JoyA. Thomas. Elementsof InformationTheory. 2006

Christopher M.Bishop. Pattern Recognition and Machine Learning. Springer-Verlag. 2006



二、预测方向


1、ML预测类参考文章


1. sklearn documentation for RandomForestRegressor, http://scikit-learn.org/stable/modules/generated/sklearn.ensemble.RandomForestRegressor.html

2. Leo Breiman. (2001). “Random Forests.” Machine Learning , 45 (1): 5–32.doi:10.1023/A:10109334043243. J. H. Friedman. “Greedy Function Approximation: A Gradient BoostingMachine,” https://statweb.stanford.edu/~jhf/ftp/trebst.pdf

3. J. H. Friedman. “Greedy Function Approximation: A Gradient Boosting Machine,”https://statweb.stanford.edu/~jhf/ftp/trebst.pdf

4. sklearn documentation for RandomForestRegressor, http://scikit-learn.org/stable/modules/generated/sklearn.ensemble.

RandomForestRegressor.html

5. L. Breiman, “Bagging predictors,” http://statistics.berkeley.edu/sites/default/files/techreports/421.pdf

6. Tin Ho. (1998). “The Random Subspace Method for Constructing DecisionForests.”IEEE Transactions on Pattern Analysis and Machine Intelligence ,20 (8): 832–844.doi:10.1109/34.709601

7. J. H. Friedman. “Greedy Function Approximation: A Gradient BoostingMachine,”https://statweb.stanford.edu/~jhf/ftp/trebst.pdf

8. J. H. Friedman. “Stochastic Gradient Boosting,”https://statweb.stanford.edu/~jhf/ftp/stobst.pdf

9. sklearn documentation for GradientBoostingRegressor, http://scikit-learn.org/stable/modules/generated/sklearn.ensemble.GradientBoostingRegressor.html

10. J. H. Friedman. “Greedy Function Approximation: A Gradient BoostingMachine,”https://statweb.stanford.edu/~jhf/ftp/trebst.pdf

11. J. H. Friedman. “Stochastic Gradient Boosting,” https://statweb.stanford.edu/~jhf/ftp/stobst.pdf

12. J. H. Friedman. “Stochastic Gradient Boosting,” https://statweb.stanford.edu/~jhf/ftp/stobst.pdf

13. sklearn documentation for RandomForestClassifier, http://scikit-learn.org/stable/modules/generated/sklearn.ensemble.RandomForestClassifier.html

14. sklearn documentation for GradientBoostingClassifier, http://scikit-learn.org/stable/modules/generated/sklearn.ensemble.GradientBoostingClassifier.html




相关文章
|
机器学习/深度学习 Dart TensorFlow
TensorFlow Lite,ML Kit 和 Flutter 移动深度学习:6~11(5)
TensorFlow Lite,ML Kit 和 Flutter 移动深度学习:6~11(5)
537 0
|
机器学习/深度学习 人工智能 算法
AI人工智能(ArtificialIntelligence,AI)、 机器学习(MachineLearning,ML)、 深度学习(DeepLearning,DL) 学习路径及推荐书籍
AI人工智能(ArtificialIntelligence,AI)、 机器学习(MachineLearning,ML)、 深度学习(DeepLearning,DL) 学习路径及推荐书籍
1740 0
|
机器学习/深度学习 人工智能 自然语言处理
不做数值运算、纯靠嘴炮也能机器学习?基于自然语言的全新ML范式来了
【6月更文挑战第30天】基于自然语言的VML简化了机器学习,让模型参数变为人类可读的文本,提高理解和应用性。借助大型语言模型的进展,VML能直接编码先验知识,自动选择模型类,并提供可解释的学习过程。然而,表达能力、训练优化及泛化能力的挑战仍需克服。[论文链接](https://arxiv.org/abs/2406.04344)
223 1
|
机器学习/深度学习 人工智能 算法
人工智能(AI)、机器学习(ML)和深度学习(DL)
人工智能(AI)、机器学习(ML)和深度学习(DL)
504 1
|
机器学习/深度学习 数据采集 分布式计算
【机器学习】Spark ML 对数据进行规范化预处理 StandardScaler 与向量拆分
标准化Scaler是数据预处理技术,用于将特征值映射到均值0、方差1的标准正态分布,以消除不同尺度特征的影响,提升模型稳定性和精度。Spark ML中的StandardScaler实现此功能,通过`.setInputCol`、`.setOutputCol`等方法配置并应用到DataFrame数据。示例展示了如何在Spark中使用StandardScaler进行数据规范化,包括创建SparkSession,构建DataFrame,使用VectorAssembler和StandardScaler,以及将向量拆分为列。规范化有助于降低特征重要性,提高模型训练速度和计算效率。
859 6
|
机器学习/深度学习 分布式计算 算法
【机器学习】Spark ML 对数据特征进行 One-Hot 编码
One-Hot 编码是机器学习中将离散特征转换为数值表示的方法,每个取值映射为一个二进制向量,常用于避免特征间大小关系影响模型。Spark ML 提供 OneHotEncoder 进行编码,输入输出列可通过 `inputCol` 和 `outputCol` 参数设置。在示例中,先用 StringIndexer 对类别特征编码,再用 OneHotEncoder 转换,最后展示编码结果。注意 One-Hot 编码可能导致高维问题,可结合实际情况选择编码方式。
560 6
|
机器学习/深度学习 人工智能 边缘计算
人工智能(AI)和机器学习(ML)
人工智能(AI)和机器学习(ML)
288 0
|
机器学习/深度学习 安全 算法
学习机器学习(ML)在网络安全中的重要性
机器学习(ML)是人工智能的一个分支,它使用算法来使计算机系统能够自动地从数据和经验中进行学习,并改进其性能,而无需进行明确的编程。机器学习涉及对大量数据的分析,通过识别数据中的模式来做出预测或决策。这些算法会不断地迭代和优化,以提高其预测的准确性。
192 0
|
机器学习/深度学习
Coursera 吴恩达Machine Learning(机器学习)课程 |第五周测验答案(仅供参考)
Coursera 吴恩达Machine Learning(机器学习)课程 |第五周测验答案(仅供参考)

热门文章

最新文章