其他分享
首页 > 其他分享> > 生产中的ML-1:Amazon Sagemaker-AWS,设置,训练和部署

生产中的ML-1:Amazon Sagemaker-AWS,设置,训练和部署

作者:互联网

作者|Roshini Johri
编译|VK
来源|Towards Data Science

将大规模的机器学习系统投入生产,建立一个漂亮的流线化功能库,这已经成为我一个新痴迷的技术点。

我最近开始了一系列关于学习和教学如何做到这一点的三部分教程,以实现不同的机器学习工作流程。本文假设了机器学习模型的基本知识,并重点介绍了如何在生产中建立工作流和部署。

在本系列的第一部分中,我们将在Amazon Sagemaker上设置此功能。我们将使用sklearn的波士顿住房数据集。


机器学习生命周期

让我们花点时间来回顾一下机器学习的生命周期。简化的机器学习生命周期如下所示:

现在,第一部分,数据准备,实际上应该是包括数据预处理和用于接下来步骤所需的特征工程。我将简要地概述这些步骤是什么样子。

下一阶段包括建模和评估阶段:

最后,也是我们阅读本文的真正原因,部署。

以上是一个简化但很漂亮的机器学习管道。现在让我们看看如何使用Amazon Sagemaker设置一个。


Amazon Sagemaker

现在,第一步从创建AWS帐户开始。如果你已经熟悉Amazon提供的实例(ec2实例)的类型,这会有所帮助。

如果没有,可以查看这个链接:https://aws.amazon.com/sagemaker/pricing/instance-types/

Sagemaker实例针对运行机器学习(ML)算法进行了优化。实例的类型还取决于区域和可用区域。

如果你觉得过多地阅读有关实例类型的详细信息很无聊,那么就可以简化成以下选项:

启动ML的好实例:ml.m4.xlarge (not free)

启动DL的好实例:ml.p2.xlarge (not free)

AWS Sagemaker EC2实例有与之关联的默认配额。你可能不总是得到20,这也会随着区域的不同而变化。

根据用例的不同,你可能需要请求和增加。这可以通过创建一个带有AWS支持中心的案例来实现。请在这里查看更多信息:https://docs.aws.amazon.com/general/latest/gr/aws_service_limits.html

Sagemaker Notebook实例

现在要启动sagemaker Notebook实例,请转到aws帐户服务来搜索sagemaker。进入sagemaker页面后,单击创建notebook实例。如下所示:

下一步是选择IAM角色。首先,尝试创建一个新角色,然后选择none作为s3bucket,除非有一个s3bucket要从中读取。另外,此时应该有一个可选的选择来选择git存储库。滚动到下方并单击“创建Notebook实例”。

你可以看到正在创建的Notebook的状态,一旦准备就绪,你可以选择jupyter或jupyter lab。

如果你需要克隆你的git存储库,打开终端从右边的jupyter面板,选择new,并执行以下操作:

cd SageMaker

git clone myFunSagemakerRepo

这应该为你设置一个notebook实例和一个GitHub存储库。

Sagemaker会议和角色

我们将使用load_boston() 方法从sklearn获取数据集。然后,我们将这个数据集拆分为训练、验证和测试集。

#加载数据
boston_data = load_boston()

#训练数据
X_bos_pd = pd.DataFrame(boston_data.data, columns=boston_data.feature_names)

#目标
Y_bos_pd = pd.DataFrame(boston_data.target)

#训练/测试分离
X_train, X_test, Y_train, Y_test = sklearn.model_selection.train_test_split(X_bos_pd, Y_bos_pd, test_size=0.20)

#训练验证分离
X_train, X_val, Y_train, Y_val = sklearn.model_selection.train_test_split(X_train, Y_train, test_size=0.33)

一旦训练、验证和测试数据集被创建,这些数据集需要上传到s3(简单存储服务)存储桶中,以便sagemaker容器在执行训练作业时可以访问它。

最好使用前缀指定位置,最好是型号名称和版本,以确保路径干净。上传后,你可以从控制台转到s3服务并进行检查。

prefix = 'boston-xgboost-example'

test_location = session.upload_data(os.path.join(data_dir, 'test.csv'), key_prefix=prefix)
val_location = session.upload_data(os.path.join(data_dir, 'validation.csv'), key_prefix=prefix)
train_location = session.upload_data(os.path.join(data_dir, 'train.csv'), key_prefix=prefix)

Sagemaker 训练

在sagemaker中训练机器学习模型涉及到创建训练工作。我们将使用xgboost模型。请查看此处链接的文档,以确保你查看了sagemaker要求和语法:https://docs.aws.amazon.com/sagemaker/latest/dg/xgboost.html

要训练sagemaker模型,第一个任务是创建一个包含以下内容的训练工作:

模型评估器

container = get_image_uri(session.boto_region_name, 'xgboost')

#xgboost estimator
xgb_estimator = sagemaker.estimator.Estimator(
container, 
role,      
train_instance_count=1,                                                                            train_instance_type='ml.m4.xlarge',                                                 output_path='s3://{}/{}/output'.format(session.default_bucket(), prefix),
sagemaker_session=session
)

模型超参数

xgb_estimator.set_hyperparameters(max_depth=5,
                        eta=0.2,
                        gamma=4,
                        min_child_weight=6,
                        subsample=0.8,
                        objective='reg:linear',
                        early_stopping_rounds=10,
                        num_round=200)
                        
train_s3 = sagemaker.s3_input(s3_data=train_location, content_type='csv')
validation_s3 = sagemaker.s3_input(s3_data=val_location, content_type='csv')

xgb_estimator.fit({'train': train_s3, 'validation': validation_s3})

模型评估

xgb_transformer = xgb_estimator.transformer(instance_count = 1, instance_type = 'ml.m4.xlarge')

xgb_transformer.transform(test_location, content_type='text/csv', split_type='Line')

xgb_transformer.wait()

现在,为了把数据从s3移回Notebook进行分析,我们把数据复制一遍

!aws s3 cp --recursive $xgb_transformer.output_path $data_dir

现在我们来评估!

Y_pred = pd.read_csv(os.path.join(data_dir, 'test.csv.out'), header=None)

模型部署

通过高级api进行模型部署非常简单。我将展示一个示例,演示如何部署我们刚刚训练过的上述模型。

#调用deploy方法启动端点实例

xgb_predictor = xgb_estimator.deploy(initial_instance_count=1, instance_type='ml.m4.xlarge')

xgb_predictor.content_type = 'text/csv'
xgb_predictor.serializer = csv_serializer

Y_pred = xgb_predictor.predict(X_test.values).decode('utf-8')

#做完后别忘了关机/清理!

这是一个非常简单的方法,可以尝试在AWS Sagemaker上设置第一个ml工作流。我建议你先从简单的开始,然后再转向复杂的。我们将在后面的文章中讨论较低级别的api,并真正深入到细节中。但是为了获得基本的理解,请尝试使用一些简单的数据集进行设置,并使用可用的不同模型。

清理

记得:

SageMaker文档:

开发人员文档可在此处找到:https://docs.aws.amazon.com/sagemaker/latest/dg/

Python SDK文档(也称为高级方法)可在以下位置找到:https://sagemaker.readthedocs.io/en/latest/

在github上可以找到Python SDK代码:https://github.com/aws/sagemaker-python-sdk

原文链接:https://towardsdatascience.com/ml-in-production-1-amazon-sagemaker-aws-setup-train-and-deploy-896086848cde

欢迎关注磐创AI博客站:
http://panchuang.net/

sklearn机器学习中文官方文档:
http://sklearn123.com/

欢迎关注磐创博客资源汇总站:
http://docs.panchuang.net/

标签:xgb,s3,ML,模型,AWS,Amazon,train,sagemaker,data
来源: https://www.cnblogs.com/panchuangai/p/13598672.html