只需两行代码即可选择一种机器学习方法!

首先

它比pycaret更快地比较和选择许多机器学习方法你知道Lazypredict吗?懒惰的・・・懒惰顾名思义,它似乎是懒人预测的完美工具! !

先安装
pip install lazypredict
准备

前提:已执行数据异常值处理👆不要在这里偷懒!工程师们在这里大显身手!

本文将省略从下面过去的文章中获取train.csv和test.csv

Lazypredict 需要对输入和输出因子进行可变划分,所以设置为 X_train, Y_train, X_test, Y_test

# データインポート
data_train = pd.read_csv('train.csv')
data_test = pd.read_csv('test.csv')
X_train=data_train.iloc[:,1:9]
Y_train=data_train.iloc[:,9]
X_test=data_test.iloc[:,1:9]
Y_test=data_test.iloc[:,9]
执行方法选择
# lazypredict
import lazypredict
# 回帰予測の場合は下記のライブラリをインポート
from lazypredict.Supervised import LazyRegressor
# 分類問題の場合は下記をインポートしてください
# from lazypredict.Supervised import LazyClassifier

reg=LazyRegressor(verbose=1,ignore_warnings=True,predictions=True)
models, predictions=reg.fit(X_train,X_test,Y_train,Y_test)

这就是结局!快的! !你可以偷懒! !

由于结果的确认是一个dataframe,只需要执行下面的

models

运行以下预测结果

predictions

Pycaret vs Lazypredict 模型类型比较

18种pycaret,LazyPredict如何41种会比较! !

精度比较

在 pycaret 中找不到 HistGradientBoostingRegressorLazyPredict 的不同在于它被选中,但准确率是一样的! ?

***的方法 均方根误差 计算时间(秒) 懒惰预测 HistGradientBoostingRegressor 0.09 1.36 派卡瑞特 轻型GBM 0.0916 0.2283

对于 LazyPredict 结果,请参见下面的折叠。

我在折叠 模型 调整后的 R 平方 R平方 均方根误差 用的时间 HistGradientBoostingRegressor 0.83 0.83 0.09 1.36 LGBMRegressor 0.82 0.83 0.09 0.29 XGB回归器 0.82 0.82 0.09 0.45 梯度提升回归器 0.78 0.78 0.10 0.93 随机森林回归器 0.78 0.78 0.10 2.48 额外的树回归器 0.78 0.78 0.10 1.09 BaggingRegressor 0.76 0.76 0.11 0.22 NuSVR 0.75 0.75 0.11 1.51 SVR更多 0.74 0.74 0.11 0.40 MLP回归器 0.70 0.70 0.12 0.74 K 邻居回归器 0.65 0.65 0.13 0.07 贝叶斯岭 0.64 0.65 0.13 0.02 岭 0.64 0.65 0.13 0.02 岭CV 0.64 0.65 0.13 0.03 转换目标回归器 0.64 0.65 0.13 0.03 线性回归 0.64 0.65 0.13 0.02 套索集成电路 0.64 0.65 0.13 0.02 拉斯 0.64 0.65 0.13 0.04 拉斯简历 0.64 0.65 0.13 0.05 LassoLarsCV 0.64 0.65 0.13 0.05 弹性网络简历 0.64 0.65 0.13 0.09 套索CV 0.64 0.65 0.13 0.16 SGD 回归器 0.64 0.65 0.13 0.02 ExtraTreeRegressor 0.64 0.64 0.13 0.03 Huber回归器 0.62 0.62 0.14 0.06 线性 SVR 0.61 0.62 0.14 0.13 RANSAC回归器 0.61 0.61 0.14 0.13 决策树回归器 0.60 0.61 0.14 0.03 正交匹配追踪CV 0.60 0.61 0.14 0.02 AdaBoost 回归器 0.60 0.60 0.14 0.47 被动进取型回归器 0.48 0.48 0.16 0.03 正交匹配追踪 0.44 0.44 0.16 0.02 广义线性回归器 0.44 0.44 0.16 0.02 Tweedie 回归器 0.44 0.44 0.16 0.02 高斯过程回归器 0.29 0.29 0.19 1.86 泊松回归器 0.27 0.27 0.19 0.02 套索 -0.01 -0.00 0.22 0.02 弹性网 -0.01 -0.00 0.22 0.01 虚拟回归器 -0.01 -0.00 0.22 0.02 套索 -0.01 -0.00 0.22 0.02 内核岭 -1.82 -1.80 0.37 0.85

Pycaret 结果见下方可折叠

我在折叠 模型 硕士 MSE 均方根误差 R2 RMSLE 马佩 TT(秒) 轻 gbm 光梯度提升机 0.0623 0.0084 0.0916 0.8183 0.0622 0.2283 0.3500 gbr 梯度提升回归器 0.0698 0.0098 0.0989 0.7886 0.0676 0.2600 0.2125 绘画 额外的树回归器 0.0708 0.0104 0.1017 0.7765 0.0692 0.2687 0.3900 射频 随机森林回归器 0.0710 0.0108 0.1041 0.7662 0.0709 0.2681 0.6450 LR 线性回归 0.0952 0.0159 0.1262 0.6559 0.0875 0.4072 1.5550 拉尔 最小角度回归 0.0952 0.0159 0.1262 0.6559 0.0875 0.4072 0.0125 br 贝叶斯岭 0.0951 0.0159 0.1262 0.6559 0.0875 0.4069 0.0125 岭 岭回归 0.0949 0.0160 0.1264 0.6551 0.0876 0.4035 0.0125 胡贝尔 Huber回归器 0.0929 0.0165 0.1285 0.6434 0.0875 0.3721 0.0325 knn K 邻居回归器 0.0963 0.0184 0.1356 0.6028 0.0935 0.3897 0.0275 阿达 AdaBoost 回归器 0.1160 0.0194 0.1391 0.5818 0.1006 0.5839 0.1125 dt 决策树回归器 0.0964 0.0220 0.1482 0.5257 0.1002 0.3411 0.0175 标准杆 被动进取回归器 0.1223 0.0248 0.1562 0.4660 0.1056 0.5507 0.0125 欧普 正交匹配追踪 0.1167 0.0247 0.1573 0.4662 0.1088 0.4622 0.0100 拉尔 套索最小角度回归 0.1680 0.0464 0.2154 -0.0008 0.1525 0.8630 0.0100 套索 套索回归 0.1680 0.0464 0.2154 -0.0008 0.1525 0.8630 0.0125 圆圈 弹性网 0.1680 0.0464 0.2154 -0.0008 0.1525 0.8630 0.0100 假 虚拟回归器 0.1680 0.0464 0.2154 -0.0008 0.1525 0.8630 0.0100 概括

LazyPredict 的优势在于只需两行代码即可完成我认为型号类型丰富,有 41 种*请注意,我们没有调查分类问题中的几种类型。

每日预报数据分析/数据预处理⇒懒惰预测⇒方法决策⇒超参数调优⇒预测我正在考虑尝试通过类似的流程来提高效率

直到最后感谢阅读

原创声明:本文系作者授权爱码网发表,未经许可,不得转载;

原文地址:https://www.likecs.com/show-308626138.html

112人参与, 0条评论 登录后显示评论回复

你需要登录后才能评论 登录/ 注册