【Deepin 20系统】机器学习分类算法模型xgboost、lightgbm、catboost安装及使用

简介: 介绍了在Deepin 20系统上使用pip命令通过清华大学镜像源安装xgboost、lightgbm和catboost三个机器学习分类算法库的过程。

1 安装

conda安装一直未成功,只有用pip安装

pip install xgboost -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install lightgbm -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install catboost -i https://pypi.tuna.tsinghua.edu.cn/simple

2 使用

源码下载
数据集是来源天池赛题-天猫重复购买

import numpy as np
import pandas as pd
from lightgbm import LGBMClassifier,Dataset
from xgboost import XGBClassifier,DMatrix
from catboost import CatBoostClassifier
from sklearn.model_selection import train_test_split
from sklearn.model_selection import StratifiedKFold

if __name__== '__main__':

    train = pd.read_csv('repeat buyer train data.csv',sep=',')
    predict = pd.read_csv('repeat buyer test data.csv', sep=',')
    col_del = train.ix[:,(train==0).all()].columns
    train = train.drop(col_del,axis=1)
    predict = predict.drop(col_del,axis=1)

    train = train.fillna(-1)
    predict = predict.fillna(-1)
    train[['age_range', 'gender']] = train[['age_range', 'gender']].astype('int8')
    predict[['age_range', 'gender']] = predict[['age_range', 'gender']].astype('int8')
    label = train['label']
    trainNew = train.drop(['label'],axis=1)

    cat_features = [0,1,2,3]

    # 构造训练集和测试集
    def trainData(train_df,label_df):
        skv = StratifiedKFold(n_splits=5, shuffle=True, random_state=620)
        trainX = []
        trainY = []
        testX = []
        testY = []
        for train_index, test_index in skv.split(X=train_df, y=label_df):
            train_x, train_y, test_x, test_y = train_df.iloc[train_index, :], label_df.iloc[train_index], \
                                               train_df.iloc[test_index, :], label_df.iloc[test_index]

            trainX.append(train_x)
            trainY.append(train_y)
            testX.append(test_x)
            testY.append(test_y)
        return trainX,trainY,testX,testY

    trainX,trainY,testX,testY = trainData(trainNew,label)

    # 将训练数据集划分分别训练5个lgbm,xgboost和catboost 模型
    # lightgbm模型

    pred_lgbms = []
    for i in range(5):
        lgbm = LGBMClassifier(n_estimators=2000,objective='binary',num_leaves=31,max_depth=5,learning_rate=0.03,
                              reg_lambda=1,metric=['auc'], random_state=10,n_jobs=-1)
        lgbm.fit(trainX[i],trainY[i],eval_set=[(testX[i],testY[i])],early_stopping_rounds=50,eval_metric='auc',
                 categorical_feature=cat_features)
        print(lgbm.evals_result_)
        pred = lgbm.predict_proba(predict,num_iteration=lgbm.best_iteration_)[:,1]
        pred_lgbms.append(pred)

    # catboost模型
    pred_cats = []
    for i in range(5):

        cat = CatBoostClassifier(learning_rate=0.02, iterations=5000, eval_metric='AUC', od_wait=50,
                                 od_type='Iter', random_state=10, thread_count=8, l2_leaf_reg=1)
        cat.fit(trainX[i], trainY[i], eval_set=[(testX[i], testY[i])], early_stopping_rounds=50,
                use_best_model=True,cat_features=cat_features)
        print(cat.evals_result_)
        pred = cat.predict_proba(predict, ntree_end=cat.best_iteration_)[:, 1]
        pred_cats.append(pred)

    # xgboost模型
    pred_xgbs = []
    pred_result = predict[['merchant_id','user_id']]
    for i in range(5):

        xgb = XGBClassifier(n_estimators=2000, max_depth=5, learning_rate=0.025, 
                          eval_metric='auc', reg_lambda=1, random_state=10, n_jobs=8)
        xgb.fit(train_x,trainY[i],eval_set=[(test_x,testY[i])],early_stopping_rounds=50,eval_metric='auc')
        print(xgb.evals_result_)
        pred = xgb.predict_proba(predict_x, ntree_limit = xgb.best_iteration)[:,1]
        pred_xgbs.append(pred)

    def sigmoid_ver(x):
        return np.log(x/(1-x))
    def sigmoid(x):
        return 1/(1 + np.e**(-x))

    pred_t = np.zeros(len(predict))

    for i in range(5):
        pred_t += (sigmoid_ver(pred_lgbms[i]) + sigmoid_ver(pred_cats[i]) + sigmoid_ver(pred_xgbs[i]))

    result = sigmoid(pred_t/15)
    pred_result['prob'] = result
    pred_result[['user_id','merchant_id','prob']].to_csv('submission result.csv',sep=',', index=False)
目录
相关文章
|
3月前
|
机器学习/深度学习 数据采集 人工智能
【机器学习算法篇】K-近邻算法
K近邻(KNN)是一种基于“物以类聚”思想的监督学习算法,通过计算样本间距离,选取最近K个邻居投票决定类别。支持多种距离度量,如欧式、曼哈顿、余弦相似度等,适用于分类与回归任务。结合Scikit-learn可高效实现,需合理选择K值并进行数据预处理,常用于鸢尾花分类等经典案例。(238字)
|
4月前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于WOA鲸鱼优化的XGBoost序列预测算法matlab仿真
基于WOA优化XGBoost的序列预测算法,利用鲸鱼优化算法自动寻优超参数,提升预测精度。结合MATLAB实现,适用于金融、气象等领域,具有较强非线性拟合能力,实验结果表明该方法显著优于传统模型。(238字)
|
5月前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于PSO粒子群优化的XGBoost时间序列预测算法matlab仿真
本程序基于Matlab 2024b实现,结合粒子群优化(PSO)与XGBoost算法,用于时间序列预测。通过PSO优化XGBoost超参数,提升预测精度。程序包含完整注释与操作视频,运行后生成预测效果图及性能评估指标RMSE。
|
机器学习/深度学习 算法 数据挖掘
K-means聚类算法是机器学习中常用的一种聚类方法,通过将数据集划分为K个簇来简化数据结构
K-means聚类算法是机器学习中常用的一种聚类方法,通过将数据集划分为K个簇来简化数据结构。本文介绍了K-means算法的基本原理,包括初始化、数据点分配与簇中心更新等步骤,以及如何在Python中实现该算法,最后讨论了其优缺点及应用场景。
1371 6
|
8月前
|
SQL 分布式计算 DataWorks
使用DataWorks PyODPS节点调用XGBoost算法
本文介绍如何在DataWorks中通过PyODPS3节点调用XGBoost算法完成模型训练与测试,并实现周期离线调度。主要内容包括:1) 使用ODPS SQL构建数据集;2) 创建PyODPS3节点进行数据处理与模型训练;3) 构建支持XGBoost的自定义镜像;4) 测试运行并选择对应镜像。适用于需要集成机器学习算法到大数据工作流的用户。
361 24
|
8月前
|
机器学习/深度学习 数据采集 人工智能
20分钟掌握机器学习算法指南
在短短20分钟内,从零开始理解主流机器学习算法的工作原理,掌握算法选择策略,并建立对神经网络的直观认识。本文用通俗易懂的语言和生动的比喻,帮助你告别算法选择的困惑,轻松踏入AI的大门。
538 8
|
9月前
|
机器学习/深度学习 存储 Kubernetes
【重磅发布】AllData数据中台核心功能:机器学习算法平台
杭州奥零数据科技有限公司成立于2023年,专注于数据中台业务,维护开源项目AllData并提供商业版解决方案。AllData提供数据集成、存储、开发、治理及BI展示等一站式服务,支持AI大模型应用,助力企业高效利用数据价值。
|
10月前
|
机器学习/深度学习 人工智能 自然语言处理
AI训练师入行指南(三):机器学习算法和模型架构选择
从淘金到雕琢,将原始数据炼成智能珠宝!本文带您走进数字珠宝工坊,用算法工具打磨数据金砂。从基础的经典算法到精密的深度学习模型,结合电商、医疗、金融等场景实战,手把手教您选择合适工具,打造价值连城的智能应用。掌握AutoML改装套件与模型蒸馏术,让复杂问题迎刃而解。握紧算法刻刀,为数字世界雕刻文明!
370 6
|
11月前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于机器学习的人脸识别算法matlab仿真,对比GRNN,PNN,DNN以及BP四种网络
本项目展示了人脸识别算法的运行效果(无水印),基于MATLAB2022A开发。核心程序包含详细中文注释及操作视频。理论部分介绍了广义回归神经网络(GRNN)、概率神经网络(PNN)、深度神经网络(DNN)和反向传播(BP)神经网络在人脸识别中的应用,涵盖各算法的结构特点与性能比较。
|
机器学习/深度学习 人工智能 算法
机器学习算法的优化与改进:提升模型性能的策略与方法
机器学习算法的优化与改进:提升模型性能的策略与方法
2234 13
机器学习算法的优化与改进:提升模型性能的策略与方法

热门文章

最新文章