tongchenkeji 发表于:2023-7-4 19:31:320次点击 已关注取消关注 关注 私信 机器学习PAI的 deeprec 有自己的serving方式么?[阿里云机器学习PAI] 暂停朗读为您朗读 机器学习PAI的 deeprec 有自己的serving方式么? 还是直接用tf serving就可以跑? 「点点赞赏,手留余香」 赞赏 还没有人赞赏,快来当第一个赞赏的人吧! 海报 机器学习PAI# 人工智能平台 PAI1410# 机器学习深度学习1219
Star时光AM 2023-11-28 2:51:12 1 机器学习PAI的DeepRec模块没有自己独立的serving方式,它建议使用TensorFlow Serving来进行模型的部署和Serving。 TensorFlow Serving是一个用于部署经过训练的TensorFlow模型的高性能系统。它提供了一个灵活且可扩展的架构,可以轻松地将训练好的模型部署为可用的API服务。 你可以使用TensorFlow Serving来加载并提供DeepRec模型的推理服务。首先,你需要将DeepRec模型保存为TensorFlow SavedModel格式,然后通过TensorFlow Serving来加载和部署该模型。 TensorFlow Serving支持多种方式进行模型的部署,例如通过RESTful API、gRPC接口或使用Docker容器。你可以根据自己的需求选择适合的方式来进行模型的Serving。 要注意的是,当使用TensorFlow Serving时,你需要确保在模型训练和导出过程中与TensorFlow Serving兼容的版本和配置。
圆不溜秋的小猫猫AM 2023-11-28 2:51:12 2 我们也提供了Inference的processor 。具体参考:https://deeprec.readthedocs.io/zh/latest/Processor.html 此回答整理自钉群“DeepRec用户群”
机器学习PAI的DeepRec模块没有自己独立的serving方式,它建议使用TensorFlow Serving来进行模型的部署和Serving。
TensorFlow Serving是一个用于部署经过训练的TensorFlow模型的高性能系统。它提供了一个灵活且可扩展的架构,可以轻松地将训练好的模型部署为可用的API服务。
你可以使用TensorFlow Serving来加载并提供DeepRec模型的推理服务。首先,你需要将DeepRec模型保存为TensorFlow SavedModel格式,然后通过TensorFlow Serving来加载和部署该模型。
TensorFlow Serving支持多种方式进行模型的部署,例如通过RESTful API、gRPC接口或使用Docker容器。你可以根据自己的需求选择适合的方式来进行模型的Serving。
要注意的是,当使用TensorFlow Serving时,你需要确保在模型训练和导出过程中与TensorFlow Serving兼容的版本和配置。
我们也提供了Inference的processor 。具体参考:https://deeprec.readthedocs.io/zh/latest/Processor.html 此回答整理自钉群“DeepRec用户群”