如何用Python在10分钟内建立一个预测模型

 我来答
龙氏风采
2017-01-01 · 知道合伙人互联网行家
龙氏风采
知道合伙人互联网行家
采纳数:5849 获赞数:12816
从事互联网运营推广,5年以上互联网运营推广经验,丰富的实战经

向TA提问 私信TA
展开全部
  预测模型的分解过程
  我总是集中于投入有质量的时间在建模的初始阶段,比如,假设生成、头脑风暴、讨论或理解可能的结果范围。所有这些活动都有助于我解决问题,并最终让我设计出更强大的商业解决方案。为什么你要在前面花费这段时间,这有充分的理由:
  你有足够的时间投入并且你是无经验的(这是有影响的)
  你不带有其它数据观点或想法的偏见(我总是建议,在深入研究数据之前做假设生成)
  在后面的阶段,你会急于完成该项目而没有能力投入有质量的时间了。
  这个阶段需要投入高质量时间,因此我没有提及时间表,不过我建议你把它作为标准的做法。这有助于你建立建立更好地预测模型,在后面的阶段的只需较少的迭代工作。让我们来看看建立第一个模型的剩余阶段的时间表:
  数据描述性分析——50%的时间
  数据预处理(缺失值和异常值修复)——40%的时间
  数据建模——4%的时间
  性能预测——6%的时间
  让我们一步一步完成每个过程(每一步投入预测的时间):
  阶段1:描述性分析/数据探索
  在我刚开始成为数据科学家的时候,数据探索占据了我大量的时间。不过,随着时间的推移,我已经把大量的数据操作自动化了。由于数据准备占据建立第一个模型工作量的50%,自动化的好处是显而易见的。
  这是我们的第一个基准模型,我们去掉任何特征设计。因此,描述分析所需的时间仅限于了解缺失值和直接可见的大的特征。在我的方法体系中,你将需要2分钟来完成这一步(假设,100000个观测数据集)。
  我的第一个模型执行的操作:
  确定ID,输入特征和目标特征
  确定分类和数值特征
  识别缺失值所在列
  阶段2:数据预处理(缺失值处理)
  有许多方法可以解决这个问题。对于我们的第一个模型,我们将专注于智能和快速技术来建立第一个有效模型。
  为缺失值创建假标志:有用,有时缺失值本身就携带了大量的信息。
  用均值、中位数或其它简单方法填补缺失值:均值和中位数填补都表现良好,大多数人喜欢用均值填补但是在有偏分布的情况下我建议使用中位数。其它智能的方法与均值和中位数填补类似,使用其它相关特征填补或建立模型。比如,在Titanic生存挑战中,你可以使用乘客名字的称呼,比如:“Mr.”, “Miss.”,”Mrs.”,”Master”,来填补年龄的缺失值,这对模型性能有很好的影响。
  填补缺失的分类变量:创建一个新的等级来填补分类变量,让所有的缺失值编码为一个单一值比如,“New_Cat”,或者,你可以看看频率组合,使用高频率的分类变量来填补缺失值。
  由于数据处理方法如此简单,你可以只需要3到4分钟来处理数据。
  阶段3:数据建模
  根据不同的业务问题,我推荐使用GBM或RandomForest技术的任意一种。这两个技术可以极其有效地创建基准解决方案。我已经看到数据科学家通常把这两个方法作为他们的第一个模型同时也作为最后一个模型。这最多用去4到5分钟。
  阶段4:性能预测
  有各种各样的方法可以验证你的模型性能,我建议你将训练数据集划分为训练集和验证集(理想的比例是70:30)并且在70%的训练数据集上建模。现在,使用30%的验证数据集进行交叉验证并使用评价指标进行性能评估。最后需要1到2分钟执行和记录结果。
  本文的目的不是赢得比赛,而是建立我们自己的基准。让我们用python代码来执行上面的步骤,建立你的第一个有较高影响的模型。
  让我们开始付诸行动
  首先我假设你已经做了所有的假设生成并且你擅长使用python的基本数据科学操作。我用一个数据科学挑战的例子来说明。让我们看一下结构:
  步骤1:导入所需的库,读取测试和训练数据集。
  #导入pandas、numpy包,导入LabelEncoder、random、RandomForestClassifier、GradientBoostingClassifier函数
  import pandas as pd
  import numpy as np
  fromsklearn.preprocessing import LabelEncoder
  import random
  fromsklearn.ensemble import RandomForestClassifier
  from sklearn.ensembleimport GradientBoostingClassifier
  #读取训练、测试数据集
  train=pd.read_csv('C:/Users/AnalyticsVidhya/Desktop/challenge/Train.csv')
  test=pd.read_csv('C:/Users/AnalyticsVidhya/Desktop/challenge/Test.csv')
  #创建训练、测试数据集标志
  train='Train'
  test='Test'
  fullData =pd.concat(,axis=0) #联合训练、测试数据集
  步骤2:该框架的第二步并不需要用到python,继续下一步。
  步骤3:查看数据集的列名或概要
  fullData.columns # 显示所有的列名称
  fullData.head(10) #显示数据框的前10条记录
  fullData.describe() #你可以使用describe()函数查看数值域的概要
  步骤4:确定a)ID变量 b)目标变量 c)分类变量 d)数值变量 e)其他变量。
  ID_col =
  target_col =
  cat_cols =
  num_cols= list(set(list(fullData.columns))-set(cat_cols)-set(ID_col)-set(target_col)-set(data_col))
  other_col= #为训练、测试数据集设置标识符
  步骤5:识别缺失值变量并创建标志
  fullData.isnull().any()#返回True或False,True意味着有缺失值而False相反
  num_cat_cols = num_cols+cat_cols # 组合数值变量和分类变量
  #为有缺失值的变量创建一个新的变量
  # 对缺失值标志为1,否则为0
  for var in num_cat_cols:
  if fullData.isnull().any()=True:
  fullData=fullData.isnull()*1
  步骤6:填补缺失值
  #用均值填补数值缺失值
  fullData = fullData.fillna(fullData.mean(),inplace=True)
  #用-9999填补分类变量缺失值
  fullData = fullData.fillna(value = -9999)
  步骤7:创建分类变量的标签编码器,将数据集分割成训练和测试集,进一步,将训练数据集分割成训练集和测试集。
  #创建分类特征的标签编码器
  for var in cat_cols:
  number = LabelEncoder()
  fullData = number.fit_transform(fullData.astype('str'))
  #目标变量也是分类变量,所以也用标签编码器转换
  fullData = number.fit_transform(fullData.astype('str'))
  train=fullData='Train']
  test=fullData='Test']
  train = np.random.uniform(0, 1, len(train)) <= .75
  Train, Validate = train=True], train=False]
  步骤8:将填补和虚假(缺失值标志)变量传递到模型中,我使用随机森林来预测类。
  features=list(set(list(fullData.columns))-set(ID_col)-set(target_col)-set(other_col))
  x_train = Train.values
  y_train = Train.values
  x_validate = Validate.values
  y_validate = Validate.values
  x_test=test.values
  random.seed(100)
  rf = RandomForestClassifier(n_estimators=1000)
  rf.fit(x_train, y_train)
  步骤9:检查性能做出预测
  status = rf.predict_proba(x_validate)
  fpr, tpr, _ = roc_curve(y_validate, status)
  roc_auc = auc(fpr, tpr)
  print roc_auc
  final_status = rf.predict_proba(x_test)
  test=final_status
  test.to_csv('C:/Users/Analytics Vidhya/Desktop/model_output.csv',columns=)
  现在可以提交了!
已赞过 已踩过<
你对这个回答的评价是?
评论 收起
光点科技
2023-08-15 广告
通常情况下,我们会按照结构模型把系统产生的数据分为三种类型:结构化数据、半结构化数据和非结构化数据。结构化数据,即行数据,是存储在数据库里,可以用二维表结构来逻辑表达实现的数据。最常见的就是数字数据和文本数据,它们可以某种标准格式存在于文件... 点击进入详情页
本回答由光点科技提供
匿名用户
2016-02-17
展开全部
看一下这个网页
http://bigdatadigest.baijia.baidu.com/article/307995
如何用Python在10分钟内建立一个预测模型
已赞过 已踩过<
你对这个回答的评价是?
评论 收起
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式