使用Watson OpenScale监控自定义机器学习引擎

时间:2019-03-04 18:32:12 阅读:13次

摘要


在此开发人员代码模式中,我们将使用Watson OpenScale Python SDK记录部署在自定义模型服务引擎上的模型的有效负载。我们将使用Keras构建深度学习REST API并使用Watson OpenScale进行监控。

描述


此模式描述了使用Watson OpenScale和自定义机器学习模型服务引擎的方法。使用Watson OpenScale,我们可以监控模型质量和日志有效负载,无论模型托管在何处。在这种情况下,我们使用自定义模型服务应用程序的示例,该示例演示了Watson OpenScale的不可知和开放性质。
IBM Watson OpenScale是一个开放式环境,使组织能够自动化和操作AI。 OpenScale提供了一个功能强大的平台,用于管理IBM Cloud上的AI和ML模型,或者无论它们在何处部署,都具有以下优势:
按设计开放 -  Watson OpenScale允许监控和管理使用任何框架或IDE构建的ML和DL模型,并部署在任何模型托管引擎上。
推动更公平的结果 -  Watson OpenScale检测并帮助缓解模型偏差以突出公平性问题。该平台提供了受模型偏差影响的数据范围的纯文本说明,以及帮助数据科学家和业务用户了解对业务成果影响的可视化。在检测到偏差时,Watson OpenScale会自动创建一个在部署模型旁边运行的去偏置伴随模型,从而在不替换原始模型的情况下预览用户期望的更公平的结果。
解释交易 -  Watson OpenScale通过为被评分的单个交易生成解释,包括用于进行预测和每个属性权重的属性,帮助企业为AI注入的应用程序带来透明度和可审计性。
自动创建AI  - 神经网络综合(NeuNetS),在此更新中作为测试版提供,通过从根本上为给定数据集构建定制设计来合成神经网络。在测试阶段,NeuNetS将支持图像和文本分类模型。 NeuNetS缩短了时间并降低了设计和训练定制神经网络所需的技能障碍,从而将神经网络置于非技术主题专家的手中,并使数据科学家的工作效率更高。
完成此代码模式后,您将了解如何:
使用Keras构建自定义模型服务引擎
使用REST API访问自定义模型
使用Watson OpenScale记录模型的有效负载

流程


用户使用Kubernetes和Docker在IBM Cloud上部署应用程序服务器。
用户在Watson?Studio上创建一个Jupyter Notebook并配置Watson OpenScale和Compose PostgreSQL。
Watson OpenScale用于监控有效负载记录和质量的机器学习模型。
应用程序服务器用于对部署的模型进行评分。

说明


在README中查找此模式的详细步骤。这些步骤将告诉您如何:
克隆回购。
使用IBM Cloud创建Watson服务。
在IBM Watson Studio中创建一个笔记本,以便与公开寻址的服务器一起使用,或者在本地运行笔记本以仅进行本地测试。
执行4a用于Watson Stuido或4b用于本地测试:
4A。在Kubernetes集群中运行应用程序服务器
4B。在本地运行应用程序服务器
在IBM Watson Studio中运行笔记本。

使用Watson OpenScale监控自定义机器学习引擎所属专题:OpenScale 机器学习 《使用Watson OpenScale监控自定义机器学习引擎》链接:http://www.zhouchuanxiong.net/620