可解释性:自动化 ML 中的模型可说明性(预览版)
本文介绍如何在 Azure 机器学习中使用 Python SDK 获取自动化机器学习(自动化 ML)模型的说明。 自动化 ML 有助于你了解生成的模型的特征重要性。
默认情况下,1.0.85 之后的所有 SDK 版本设置 model_explainability=True
。 在 SDK 版本 1.0.85 及更早版本中,用户需要在 AutoMLConfig
对象中设置 model_explainability=True
,才能使用模型可解释性。
在本文中,学习如何:
- 在训练最佳模型或任意模型过程中执行解释。
- 启用可视化效果,以帮助查看数据和解释中的模式。
- 在推理或评分过程中实现可解释性。
先决条件
- 可解释性特征。 运行
pip install azureml-interpret
以获取所需的包。 - 生成自动化 ML 试验的知识。 有关如何使用 Azure 机器学习 SDK 的详细信息,请完成此物体检测模型教程,或参阅如何配置自动化 ML 试验。
重要
此功能目前处于公开预览状态。 此预览版在提供时没有附带服务级别协议,我们不建议将其用于生产工作负荷。 某些功能可能不受支持或者受限。
有关详细信息,请参阅适用于 Azure 预览版的补充使用条款。
训练最佳模型过程中的可解释性
从 best_run
中检索解释,其中包括原始特征和工程特征的解释。
注意
自动 ML 预测试验推荐的 TCNForecaster 模型不具备可解释性,即模型解释。
从 best run 下载工程特征重要性
可以使用 ExplanationClient
从 best_run
的项目存储下载工程特征解释。
from azureml.interpret import ExplanationClient
client = ExplanationClient.from_run(best_run)
engineered_explanations = client.download_model_explanation(raw=False)
print(engineered_explanations.get_feature_importance_dict())
从 best run 下载原始特征重要性
可以使用 ExplanationClient
从 best_run
的项目存储下载原始特征解释。
from azureml.interpret import ExplanationClient
client = ExplanationClient.from_run(best_run)
raw_explanations = client.download_model_explanation(raw=True)
print(raw_explanations.get_feature_importance_dict())
训练任意模型过程中的可解释性
计算模型解释并将其可视化时,并不局限于 AutoML 模型的现有模型解释。 还可以获取使用不同测试数据的模型的解释。 本部分中的步骤说明如何根据测试数据计算工程特征重要性并将其可视化。
从训练中检索任何其他自动化 ML 模型
automl_run, fitted_model = local_run.get_output(metric='accuracy')
设置模型解释
使用 automl_setup_model_explanations
获取工程解释和原始解释。 fitted_model
可生成以下项:
- 从已训练的样本或测试样本生成有特征的数据
- 工程特征名称列表
- 分类方案中带标签列内的可查找类
automl_explainer_setup_obj
包含上述列表中的所有结构。
from azureml.train.automl.runtime.automl_explain_utilities import automl_setup_model_explanations
automl_explainer_setup_obj = automl_setup_model_explanations(fitted_model, X=X_train,
X_test=X_test, y=y_train,
task='classification')
初始化模拟解释器以计算特征重要性
若要生成自动化 ML 模型的说明,请使用 MimicWrapper
类。 可使用以下参数初始化 MimicWrapper:
- 解释器设置对象
- 工作区
- 用于解释
fitted_model
自动化 ML 模型的代理项模型
MimicWrapper 还获取 automl_run
对象,工程解释将上传到该对象。
from azureml.interpret import MimicWrapper
# Initialize the Mimic Explainer
explainer = MimicWrapper(ws, automl_explainer_setup_obj.automl_estimator,
explainable_model=automl_explainer_setup_obj.surrogate_model,
init_dataset=automl_explainer_setup_obj.X_transform, run=automl_run,
features=automl_explainer_setup_obj.engineered_feature_names,
feature_maps=[automl_explainer_setup_obj.feature_map],
classes=automl_explainer_setup_obj.classes,
explainer_kwargs=automl_explainer_setup_obj.surrogate_model_params)
使用模拟解释器来计算并可视化工程特征重要性
可以结合转换的测试样本在 MimicWrapper 中调用 explain()
方法,以获取生成的工程特征的特征重要性。 还可以登录到 Azure 机器学习工作室,以便查看自动化 ML 特征化器所生成的工程特征的特征重要性值的说明仪表板可视化效果。
engineered_explanations = explainer.explain(['local', 'global'], eval_dataset=automl_explainer_setup_obj.X_test_transform)
print(engineered_explanations.get_feature_importance_dict())
对于使用自动化 ML 训练的模型,可以使用 get_output()
方法获得最佳模型,并在本地计算解释。 可以使用 raiwidgets
包中的 ExplanationDashboard
将解释结果可视化。
best_run, fitted_model = remote_run.get_output()
from azureml.train.automl.runtime.automl_explain_utilities import AutoMLExplainerSetupClass, automl_setup_model_explanations
automl_explainer_setup_obj = automl_setup_model_explanations(fitted_model, X=X_train,
X_test=X_test, y=y_train,
task='regression')
from interpret.ext.glassbox import LGBMExplainableModel
from azureml.interpret.mimic_wrapper import MimicWrapper
explainer = MimicWrapper(ws, automl_explainer_setup_obj.automl_estimator, LGBMExplainableModel,
init_dataset=automl_explainer_setup_obj.X_transform, run=best_run,
features=automl_explainer_setup_obj.engineered_feature_names,
feature_maps=[automl_explainer_setup_obj.feature_map],
classes=automl_explainer_setup_obj.classes)
pip install interpret-community[visualization]
engineered_explanations = explainer.explain(['local', 'global'], eval_dataset=automl_explainer_setup_obj.X_test_transform)
print(engineered_explanations.get_feature_importance_dict()),
from raiwidgets import ExplanationDashboard
ExplanationDashboard(engineered_explanations, automl_explainer_setup_obj.automl_estimator, datasetX=automl_explainer_setup_obj.X_test_transform)
raw_explanations = explainer.explain(['local', 'global'], get_raw=True,
raw_feature_names=automl_explainer_setup_obj.raw_feature_names,
eval_dataset=automl_explainer_setup_obj.X_test_transform)
print(raw_explanations.get_feature_importance_dict()),
from raiwidgets import ExplanationDashboard
ExplanationDashboard(raw_explanations, automl_explainer_setup_obj.automl_pipeline, datasetX=automl_explainer_setup_obj.X_test_raw)
使用模拟解释器来计算并可视化原始特征重要性
可以使用转换后的测试样本在 MimicWrapper 中调用 explain()
方法,以获取原始特征的特征重要性。 在机器学习工作室中,可以查看原始特征的特征重要性值的仪表板可视化效果。
raw_explanations = explainer.explain(['local', 'global'], get_raw=True,
raw_feature_names=automl_explainer_setup_obj.raw_feature_names,
eval_dataset=automl_explainer_setup_obj.X_test_transform,
raw_eval_dataset=automl_explainer_setup_obj.X_test_raw)
print(raw_explanations.get_feature_importance_dict())
推理过程中的可解释性
本部分介绍如何使用解释器(在上一部分用于计算解释)将自动化 ML 模型操作化。
注册模型和评分解释器
使用 TreeScoringExplainer
创建评分解释器,用于在推理时计算工程特征重要性值。 使用前面计算出的 feature_map
初始化评分解释器。
保存评分解释器,然后将模型和评分解释器注册到模型管理服务。 运行以下代码:
from azureml.interpret.scoring.scoring_explainer import TreeScoringExplainer, save
# Initialize the ScoringExplainer
scoring_explainer = TreeScoringExplainer(explainer.explainer, feature_maps=[automl_explainer_setup_obj.feature_map])
# Pickle scoring explainer locally
save(scoring_explainer, exist_ok=True)
# Register trained automl model present in the 'outputs' folder in the artifacts
original_model = automl_run.register_model(model_name='automl_model',
model_path='outputs/model.pkl')
# Register scoring explainer
automl_run.upload_file('scoring_explainer.pkl', 'scoring_explainer.pkl')
scoring_explainer_model = automl_run.register_model(model_name='scoring_explainer', model_path='scoring_explainer.pkl')
创建用于设置服务的 conda 依赖项
接下来,在容器中为已部署的模型创建所需的环境依赖项。 请注意,版本为 1.0.45 或更高的 azureml-defaults 必须列为 pip 依赖项,因为它包含将模型托管为 Web 服务所需的功能。
from azureml.core.conda_dependencies import CondaDependencies
azureml_pip_packages = [
'azureml-interpret', 'azureml-train-automl', 'azureml-defaults'
]
myenv = CondaDependencies.create(conda_packages=['scikit-learn', 'pandas', 'numpy', 'py-xgboost<=0.80'],
pip_packages=azureml_pip_packages,
pin_sdk_version=True)
with open("myenv.yml","w") as f:
f.write(myenv.serialize_to_string())
with open("myenv.yml","r") as f:
print(f.read())
创建评分脚本
编写一个脚本,该脚本加载模型并基于新的一批数据来生成预测和解释。
%%writefile score.py
import joblib
import pandas as pd
from azureml.core.model import Model
from azureml.train.automl.runtime.automl_explain_utilities import automl_setup_model_explanations
def init():
global automl_model
global scoring_explainer
# Retrieve the path to the model file using the model name
# Assume original model is named automl_model
automl_model_path = Model.get_model_path('automl_model')
scoring_explainer_path = Model.get_model_path('scoring_explainer')
automl_model = joblib.load(automl_model_path)
scoring_explainer = joblib.load(scoring_explainer_path)
def run(raw_data):
data = pd.read_json(raw_data, orient='records')
# Make prediction
predictions = automl_model.predict(data)
# Setup for inferencing explanations
automl_explainer_setup_obj = automl_setup_model_explanations(automl_model,
X_test=data, task='classification')
# Retrieve model explanations for engineered explanations
engineered_local_importance_values = scoring_explainer.explain(automl_explainer_setup_obj.X_test_transform)
# Retrieve model explanations for raw explanations
raw_local_importance_values = scoring_explainer.explain(automl_explainer_setup_obj.X_test_transform, get_raw=True)
# You can return any data type as long as it is JSON-serializable
return {'predictions': predictions.tolist(),
'engineered_local_importance_values': engineered_local_importance_values,
'raw_local_importance_values': raw_local_importance_values}
部署服务
使用前面步骤中所述的 conda 文件和评分文件来部署服务。
from azureml.core.webservice import Webservice
from azureml.core.webservice import AciWebservice
from azureml.core.model import Model, InferenceConfig
from azureml.core.environment import Environment
aciconfig = AciWebservice.deploy_configuration(cpu_cores=1,
memory_gb=1,
tags={"data": "Bank Marketing",
"method" : "local_explanation"},
description='Get local explanations for Bank marketing test data')
myenv = Environment.from_conda_specification(name="myenv", file_path="myenv.yml")
inference_config = InferenceConfig(entry_script="score_local_explain.py", environment=myenv)
# Use configs and models generated above
service = Model.deploy(ws,
'model-scoring',
[scoring_explainer_model, original_model],
inference_config,
aciconfig)
service.wait_for_deployment(show_output=True)
使用测试数据执行推理
使用一些测试数据进行推理,查看 AutoML 模型的预测值(当前仅在 Azure 机器学习 SDK 中受支持)。 查看影响预测值的特征重要性。
if service.state == 'Healthy':
# Serialize the first row of the test data into json
X_test_json = X_test[:1].to_json(orient='records')
print(X_test_json)
# Call the service to get the predictions and the engineered explanations
output = service.run(X_test_json)
# Print the predicted value
print(output['predictions'])
# Print the engineered feature importances for the predicted value
print(output['engineered_local_importance_values'])
# Print the raw feature importances for the predicted value
print('raw_local_importance_values:\n{}\n'.format(output['raw_local_importance_values']))
在训练时进行可视化以发现数据和解释中的模式
可以在 Azure 机器学习工作室中的工作区内可视化特征重要性图表。 AutoML 运行完成后,选择“查看模型详细信息”以查看特定的运行。 选择“说明”选项卡以查看说明仪表板中的可视化效果。
要详细了解解释仪表板可视化效果和特定绘图,请参阅有关可解释性的操作说明文档。
后续步骤
有关如何在自动化 ML 以外的其他领域启用模型说明和特征重要性的详细信息,请参阅更多模型可解释性技术。