教程:使用 Python 通过自动化机器学习训练模型(已弃用)
Azure 机器学习是一种基于云的环境,可以对机器学习模型进行训练、部署、自动化、管理和跟踪。
在本教程中,你将使用 Azure 机器学习中的自动机器学习来创建一个用于预测出租车收费价格的回归模型。 此过程接受训练数据设置和配置设置,并自动迭代各种方法、模型和超参数设置的组合,以得出最佳模型。
在本教程中,你将了解如何执行以下操作:
- 使用 Apache Spark 和 Azure 开放数据集下载数据。
- 使用 Apache Spark 数据帧转换和清理数据。
- 在自动化机器学习中训练回归模型。
- 计算模型准确度。
开始之前
- 按照创建无服务器 Apache Spark 池快速入门创建无服务器 Apache Spark 2.4 池。
- 如果还没有 Azure 机器学习工作区,请完成 Azure 机器学习工作区设置。
警告
- 从 2023 年 9 月 29 日起,Azure Synapse 将停止对 Spark 2.4 运行时的官方支持。 在 2023 年 9 月 29 日后,我们不再处理与 Spark 2.4 相关的任何支持工单。 不会有对 Spark 2.4 的 bug 或安全修复的发布管道。 在支持截止日期后使用 Spark 2.4 的风险自行承担。 我们强烈建议不再继续使用,因为有潜在的安全和功能问题。
- 在 Apache Spark 2.4 弃用过程中,我们会通知你:Azure Synapse Analytics 中的 AutoML 也会被弃用。 其中包括低代码接口和用于通过代码创建 AutoML 试用版的 API。
- 请注意,AutoML 功能只能通过 Spark 2.4 运行时使用。
- 对于希望继续利用 AutoML 功能的客户,我们建议将数据保存到 Azure Data Lake Storage Gen2 (ADLSg2) 帐户中。 可以从那里通过 Azure 机器学习 (AzureML) 无缝访问 AutoML 体验。 此处提供有关该解决方法的更多信息。
了解回归模型
回归模型基于独立的预测因子预测输出的数值。 在回归中,目标是通过评估变量的相互影响,在这些独立的预测器变量之间建立关系。
基于纽约市出租车数据的示例
在此示例中,你使用 Spark 对纽约市 (NYC) 的出租车小费数据执行一些分析。 数据通过 Azure 开放数据集提供。 此数据集的子集包含有关黄色出租车行程的信息,其中包括有关每次行程、开始和结束时间、位置和成本的信息。
重要
从存储位置拉取这些数据可能会产生额外的费用。 在以下步骤中,你将开发一个模型来预测 NYC 出租车乘坐价格。
下载并准备数据
下面介绍如何操作:
使用 PySpark 内核创建笔记本。 有关说明,请参阅创建笔记本。
备注
由于使用的是 PySpark 内核,因此不需要显式创建任何上下文。 运行第一个代码单元格时,系统会自动创建 Spark 上下文。
由于原始数据是 Parquet 格式,因此可以使用 Spark 上下文直接将文件作为数据帧提取到内存中。 通过开放数据集 API 检索数据,创建 Spark 数据帧。 在此处,使用 Spark 数据帧
schema on read
属性来推断数据类型和架构。blob_account_name = "azureopendatastorage" blob_container_name = "nyctlc" blob_relative_path = "yellow" blob_sas_token = r"" # Allow Spark to read from the blob remotely wasbs_path = 'wasbs://%s@%s.blob.core.chinacloudapi.cn/%s' % (blob_container_name, blob_account_name, blob_relative_path) spark.conf.set('fs.azure.sas.%s.%s.blob.core.chinacloudapi.cn' % (blob_container_name, blob_account_name),blob_sas_token) # Spark read parquet; note that it won't load any data yet df = spark.read.parquet(wasbs_path)
根据 Spark 池的大小,原始数据可能太大或需要花费太长时间来操作。 可以使用
start_date
和end_date
筛选器将此数据筛选到更小的范围(例如一个月的数据)。 筛选数据帧后,还要对新的数据帧运行describe()
函数,以查看每个字段的摘要统计信息。根据摘要统计信息,可以看到数据中存在一些非正常值。 例如,统计信息显示最小行程距离小于 0。 你需要将这些非正常数据点筛选掉。
# Create an ingestion filter start_date = '2015-01-01 00:00:00' end_date = '2015-12-31 00:00:00' filtered_df = df.filter('tpepPickupDateTime > "' + start_date + '" and tpepPickupDateTime< "' + end_date + '"') filtered_df.describe().show()
通过从上车的
datetime
字段中选择一组列并创建各种基于时间的特征,从数据集中生成特征。 筛选掉之前步骤中标识出的离群值,然后删除最后几个列,因为它们在训练中不需要用到。from datetime import datetime from pyspark.sql.functions import * # To make development easier, faster, and less expensive, downsample for now sampled_taxi_df = filtered_df.sample(True, 0.001, seed=1234) taxi_df = sampled_taxi_df.select('vendorID', 'passengerCount', 'tripDistance', 'startLon', 'startLat', 'endLon' \ , 'endLat', 'paymentType', 'fareAmount', 'tipAmount'\ , column('puMonth').alias('month_num') \ , date_format('tpepPickupDateTime', 'hh').alias('hour_of_day')\ , date_format('tpepPickupDateTime', 'EEEE').alias('day_of_week')\ , dayofmonth(col('tpepPickupDateTime')).alias('day_of_month') ,(unix_timestamp(col('tpepDropoffDateTime')) - unix_timestamp(col('tpepPickupDateTime'))).alias('trip_time'))\ .filter((sampled_taxi_df.passengerCount > 0) & (sampled_taxi_df.passengerCount < 8)\ & (sampled_taxi_df.tipAmount >= 0)\ & (sampled_taxi_df.fareAmount >= 1) & (sampled_taxi_df.fareAmount <= 250)\ & (sampled_taxi_df.tipAmount < sampled_taxi_df.fareAmount)\ & (sampled_taxi_df.tripDistance > 0) & (sampled_taxi_df.tripDistance <= 200)\ & (sampled_taxi_df.rateCodeId <= 5)\ & (sampled_taxi_df.paymentType.isin({"1", "2"}))) taxi_df.show(10)
可以看到,这会创建一个新的数据帧,其中包含额外几个列,分别表示几月几号、上车时间、星期几和总行程时间。
生成测试和验证数据集
在获得最终数据集后,可以使用 Spark 中的 random_ split
函数将数据拆分为训练集和测试集。 通过使用提供的权重,此函数将数据随机拆分为用于模型训练的训练数据集和用于测试的验证数据集。
# Random split dataset using Spark; convert Spark to pandas
training_data, validation_data = taxi_df.randomSplit([0.8,0.2], 223)
此步骤可确保用于测试已完成模型的数据点未曾用于模型训练。
连接到 Azure 机器学习工作区
在 Azure 机器学习中,工作区是一个接受 Azure 订阅和资源信息的类。 它还可创建云资源来监视和跟踪模型运行。 在此步骤中,你将从现有 Azure 机器学习工作区创建一个工作区对象。
from azureml.core import Workspace
# Enter your subscription id, resource group, and workspace name.
subscription_id = "<enter your subscription ID>" #you should be owner or contributor
resource_group = "<enter your resource group>" #you should be owner or contributor
workspace_name = "<enter your workspace name>" #your workspace name
ws = Workspace(workspace_name = workspace_name,
subscription_id = subscription_id,
resource_group = resource_group)
将数据帧转换为 Azure 机器学习数据集
若要提交远程试验,请将数据集转换为 Azure 机器学习 TabularDatset
实例。 TabularDataset 通过分析提供的文件,以表格格式表示数据。
以下代码获取现有工作区和默认 Azure 机器学习数据存储。 然后它将数据存储和文件位置传递给 path 参数,以创建新的 TabularDataset
实例。
import pandas
from azureml.core import Dataset
# Get the Azure Machine Learning default datastore
datastore = ws.get_default_datastore()
training_pd = training_data.toPandas().to_csv('training_pd.csv', index=False)
# Convert into an Azure Machine Learning tabular dataset
datastore.upload_files(files = ['training_pd.csv'],
target_path = 'train-dataset/tabular/',
overwrite = True,
show_progress = True)
dataset_training = Dataset.Tabular.from_delimited_files(path = [(datastore, 'train-dataset/tabular/training_pd.csv')])
提交自动化试验
以下各节将引导你完成提交自动化机器学习试验的过程。
定义训练设置
若要提交试验,需要定义用于训练的试验参数和模型设置。 有关设置的完整列表,请参阅使用 Python 配置自动化机器学习试验。
import logging automl_settings = { "iteration_timeout_minutes": 10, "experiment_timeout_minutes": 30, "enable_early_stopping": True, "primary_metric": 'r2_score', "featurization": 'auto', "verbosity": logging.INFO, "n_cross_validations": 2}
将定义的训练设置以
kwargs
参数的形式传递给AutoMLConfig
对象。 由于使用的是 Spark,因此还必须传递 Spark 上下文,该上下文可自动变为sc
变量可访问的状态。 此外,还要指定训练数据和模型类型,在本例中是回归模型。from azureml.train.automl import AutoMLConfig automl_config = AutoMLConfig(task='regression', debug_log='automated_ml_errors.log', training_data = dataset_training, spark_context = sc, model_explainability = False, label_column_name ="fareAmount",**automl_settings)
注意
自动化机器学习预处理步骤已成为基础模型的一部分。 这些步骤包括功能规范化、处理丢失的数据,以及将文本转换为数字。 使用模型进行预测时,训练期间应用的相同预处理步骤将自动应用于输入数据。
训练自动回归模型
接下来,在 Azure 机器学习工作区中创建一个试验对象。 试验充当单个运行的容器。
from azureml.core.experiment import Experiment
# Start an experiment in Azure Machine Learning
experiment = Experiment(ws, "aml-synapse-regression")
tags = {"Synapse": "regression"}
local_run = experiment.submit(automl_config, show_output=True, tags = tags)
# Use the get_details function to retrieve the detailed output for the run.
run_details = local_run.get_details()
试验完成后,输出会返回有关已完成的迭代的详细信息。 可以看到每次迭代的模型类型、运行持续时间以及训练准确性。 字段 BEST
根据指标类型跟踪运行情况最好的训练分数。
注意
提交自动化机器学习试验后,它将运行各种迭代和模型类型。 此运行过程通常需要 60-90 分钟。
检索最佳模型
为了从迭代中选择最佳模型,请使用 get_output
函数返回最佳运行和拟合模型。 以下代码针对任何记录的指标或特定的迭代来检索最佳运行和拟合的模型。
# Get best model
best_run, fitted_model = local_run.get_output()
测试模型准确度
为了测试模型准确性,请使用最佳模型对测试数据集运行出租车费用预测。
predict
函数使用最佳模型并预测验证数据集中y
(费用)的值。# Test best model accuracy validation_data_pd = validation_data.toPandas() y_test = validation_data_pd.pop("fareAmount").to_frame() y_predict = fitted_model.predict(validation_data_pd)
均方根误差是经常用来度量模型预测的样本值与观察到的值之间的偏差的度量指标。 通过将
y_test
数据帧与模型预测的值进行比较,计算结果的均方根误差。函数
mean_squared_error
接受两个数组,并计算两个数组之间的平均平方误差。 然后,采用结果的平方根。 此指标大致指出了出租车费预测值与实际费用值之间有多大的差距。from sklearn.metrics import mean_squared_error from math import sqrt # Calculate root-mean-square error y_actual = y_test.values.flatten().tolist() rmse = sqrt(mean_squared_error(y_actual, y_predict)) print("Root Mean Square Error:") print(rmse)
Root Mean Square Error: 2.309997102577151
均方根误差是用于度量模型的响应结果预测准确度的不错指标。 从结果来看,该模型可以很好地根据数据集的特性来预测出租车费用,误差通常在 2.00 美元以内。
运行以下代码,计算平均绝对百分比误差。 此指标以误差的百分比来表示准确性。 该指标实现此目的的方式是计算每个预测值和实际值之间的绝对差,然后将所有差值加总。 然后,它将这一总和表示为实际值总和的百分比。
# Calculate mean-absolute-percent error and model accuracy sum_actuals = sum_errors = 0 for actual_val, predict_val in zip(y_actual, y_predict): abs_error = actual_val - predict_val if abs_error < 0: abs_error = abs_error * -1 sum_errors = sum_errors + abs_error sum_actuals = sum_actuals + actual_val mean_abs_percent_error = sum_errors / sum_actuals print("Model MAPE:") print(mean_abs_percent_error) print() print("Model Accuracy:") print(1 - mean_abs_percent_error)
Model MAPE: 0.03655071038487368 Model Accuracy: 0.9634492896151263
从这两个预测准确率指标来看,该模型可以很好地根据数据集的特性来预测出租车费用。
在拟合出一个线性回归模型后,现在需要确定模型与数据的拟合程度。 为此,请根据预测的输出绘制实际的费用值。 此外,还要计算 R 平方度量值,以了解数据与拟合的回归线的接近程度。
import matplotlib.pyplot as plt import numpy as np from sklearn.metrics import mean_squared_error, r2_score # Calculate the R2 score by using the predicted and actual fare prices y_test_actual = y_test["fareAmount"] r2 = r2_score(y_test_actual, y_predict) # Plot the actual versus predicted fare amount values plt.style.use('ggplot') plt.figure(figsize=(10, 7)) plt.scatter(y_test_actual,y_predict) plt.plot([np.min(y_test_actual), np.max(y_test_actual)], [np.min(y_test_actual), np.max(y_test_actual)], color='lightblue') plt.xlabel("Actual Fare Amount") plt.ylabel("Predicted Fare Amount") plt.title("Actual vs Predicted Fare Amount R^2={}".format(r2)) plt.show()
从结果可以看到,R 平方度量值占方差的 95%。 这同时可通过实际值与观察值的比较图得到验证。 回归模型在方差中的占比越大,数据点就越接近于拟合的回归线。
将模型注册到 Azure 机器学习
验证最佳模型后,可以将其注册到 Azure 机器学习。 然后可以下载或部署注册的模型,并收到注册的所有文件。
description = 'My automated ML model'
model_path='outputs/model.pkl'
model = best_run.register_model(model_name = 'NYCYellowTaxiModel', model_path = model_path, description = description)
print(model.name, model.version)
NYCYellowTaxiModel 1
查看 Azure 机器学习中的结果
你还可以通过前往 Azure 机器学习工作区中的试验来访问迭代的结果。 在此处,可获取有关运行状态、尝试的模型和其他模型指标的更多详细信息。