阿里函数计算中FC 3 File报错怎么解决?[阿里云Serverless]

阿里函数计算中FC 3 File “/stable_diffusion_server/app.py”, line 24, in
assert torch.cuda.is_available()
AssertionError

「点点赞赏,手留余香」

    还没有人赞赏,快来当第一个赞赏的人吧!
=====这是一个广告位,招租中,联系qq 78315851====
1 条回复 A 作者 M 管理员
  1. 这个错误提示表明在执行函数时出现了意外的退出,并且返回了错误代码1和消息”operation not permitted”。这可能是由于权限问题导致的。要解决这个问题,你可以尝试以下几种方法:

    • 检查函数的执行模式:确认你的函数是否在正确的工作目录下执行,并且具有正确的权限。
    • 确保函数所需要的文件和目录存在并且可读:确认你的函数能够访问它所需要的所有文件和目录,并且这些文件和目录都是存在的并且可读的。
    • 确保你的函数使用的Python版本与你的函数定义中的Python版本一致:如果你的函数定义中指定了Python版本,你需要确保你的函数使用的就是那个版本的Python解释器。
    • 查看错误日志:查看函数计算的控制台日志,看看是否有更多的错误信息可以帮助你定位问题。
  2. 这个错误是因为在运行函数计算时,系统检测到当前环境没有可用的GPU设备。要解决这个问题,您可以尝试以下方法:

    1. 确保您的计算机上已经安装了NVIDIA显卡驱动和CUDA工具包。如果没有安装,请访问NVIDIA官网下载并安装。

    2. 检查您的代码中是否使用了torch.cuda.is_available()来判断是否有可用的GPU设备。如果有,请确保在运行函数计算之前已经将模型和数据移动到了GPU上。例如:

    import torchdevice = torch.device("cuda" if torch.cuda.is_available() else "cpu")model = model.to(device)data = data.to(device)
    1. 如果问题仍然存在,您可以尝试在函数计算控制台中设置环境变量CUDA_VISIBLE_DEVICES,指定使用哪个GPU设备。例如,如果您想使用第一个GPU设备,可以在创建函数计算实例时设置:
    import osos.environ["CUDA_VISIBLE_DEVICES"] = "0"