tongchenkeji 发表于:2023-10-9 12:16:270次点击 已关注取消关注 关注 私信 麻烦问一下机器学习PAI中现在epl支持 多机多卡训练吗 我看文档貌似只支持单机多卡[阿里云机器学习PAI] 暂停朗读为您朗读 麻烦问一下机器学习PAI中现在epl支持 多机多卡训练吗 我看文档貌似只支持单机多卡 「点点赞赏,手留余香」 赞赏 还没有人赞赏,快来当第一个赞赏的人吧! 海报 机器学习PAI# 人工智能平台 PAI1410# 机器学习深度学习1219
sun20AM 2023-11-28 2:44:13 1 阿里云的机器学习PAI平台自研的分布式训练框架EPL(Easy Parallel Library)目前确实只支持单机多卡的训练模式。这意味着在PAI平台上,你可以在一个机器上运行多个GPU进行训练,但每个GPU都只能在一个CPU上运行。
Star时光AM 2023-11-28 2:44:13 2 阿里云机器学习平台PAI(Machine Learning Platform for AI)目前确实只支持单机多卡训练,不直接支持多机多卡训练。在 PAI 中,你可以使用单个机器上的多块 GPU 卡进行模型训练,以提高训练速度和性能。 如果你需要进行多机多卡训练,可能需要考虑其他的分布式机器学习框架,例如 TensorFlow、PyTorch 或 Horovod。这些框架提供了灵活的分布式训练功能,可以同时利用多台机器上的多个 GPU 进行训练。
阿里云的机器学习PAI平台自研的分布式训练框架EPL(Easy Parallel Library)目前确实只支持单机多卡的训练模式。这意味着在PAI平台上,你可以在一个机器上运行多个GPU进行训练,但每个GPU都只能在一个CPU上运行。
阿里云机器学习平台PAI(Machine Learning Platform for AI)目前确实只支持单机多卡训练,不直接支持多机多卡训练。在 PAI 中,你可以使用单个机器上的多块 GPU 卡进行模型训练,以提高训练速度和性能。
如果你需要进行多机多卡训练,可能需要考虑其他的分布式机器学习框架,例如 TensorFlow、PyTorch 或 Horovod。这些框架提供了灵活的分布式训练功能,可以同时利用多台机器上的多个 GPU 进行训练。
支持的__此回答整理自钉群“EPL用户交流群”