机器学习PAI的 deeprec 有自己的serving方式么?[阿里云机器学习PAI]

机器学习PAI的 deeprec 有自己的serving方式么? 还是直接用tf serving就可以跑?

「点点赞赏,手留余香」

    还没有人赞赏,快来当第一个赞赏的人吧!
=====这是一个广告位,招租中,联系qq 78315851====
1 条回复 A 作者 M 管理员
  1. 机器学习PAI的DeepRec模块没有自己独立的serving方式,它建议使用TensorFlow Serving来进行模型的部署和Serving。

    TensorFlow Serving是一个用于部署经过训练的TensorFlow模型的高性能系统。它提供了一个灵活且可扩展的架构,可以轻松地将训练好的模型部署为可用的API服务。

    你可以使用TensorFlow Serving来加载并提供DeepRec模型的推理服务。首先,你需要将DeepRec模型保存为TensorFlow SavedModel格式,然后通过TensorFlow Serving来加载和部署该模型。

    TensorFlow Serving支持多种方式进行模型的部署,例如通过RESTful API、gRPC接口或使用Docker容器。你可以根据自己的需求选择适合的方式来进行模型的Serving。

    要注意的是,当使用TensorFlow Serving时,你需要确保在模型训练和导出过程中与TensorFlow Serving兼容的版本和配置。

  2. 我们也提供了Inference的processor 。具体参考:https://deeprec.readthedocs.io/zh/latest/Processor.html 此回答整理自钉群“DeepRec用户群”