要继续关于SAP Leonardo Foundation的整个博客系列:
在这个博客中,我们现在要介绍我感兴趣的部分之一。
如何使您自己的模型与SAP Leonardo ML Foundation一起运行。
我们将详细执行以下操作:
向SAP Leonardo ML Foundation添加Tensorflow模型部署模型创建python应用程序并运行它a) 本地的,b) 关于CloudFoundry
如本文所述,我们需要:
CloudFoundry CLI(链接)重要提示:邮递员"本机"应用程序(不是chrome插件)Python,版本2>=2.7.9或Python 3>=3.4
另外,我正在使用Docker在容器中运行我的"本地"应用程序。
第一件事是docu中描述的Tensorflow,该模型目前支持Tensorflow 1.3(EU10)。
此外,我们希望该模型以"保存的模型格式"导出。
我们在这里以及官方文档中使用Google inception模型。
您可以从这里获得一个合适的版本:https://s3-ap-southest-1.amazonaws.com/i305731/teched/inception.zip
执行"Postman"nativ应用程序有一个新的请求。
响应:
接下来我们部署模型。
响应:
看起来它可以工作。
现在让我们在SCP Cloud Foundry上提供一个"真实"的API端点。
这个API可以从其他应用程序中使用。
首先我们需要创建以下结构(git链接):
不同到本地api之前,我们现在有一个新文件名为:
Procfile:
和部署描述符,互联网大数据,我们需要在其中定义应用程序详细信息:
清单.yml:
之后,大数据核心,我们可以将此应用程序推送到cf:
一两分钟后看起来很好:
如果我们现在在SCP cf驾驶舱上重新检查此应用程序,我们看到已经有一个成功启动的应用程序:
今天的las步骤是执行这个API,我们应该希望得到同样的结果:
完美…..它可以工作;o)
我想,商城建站系统,希望你能看到,SAP Leonard ML Foundation BYOM功能可以非常容易。
对我来说,有时很难,物联网公司,因为docu在开始并不完美。
同时,这已经得到了改进(一步一步),希望这个过程应该继续为这种新的花哨的东西提供一个中心点的信息;o)
欢迎评论和问题。
,北京大数据研究院