• 企业400电话
  • 微网小程序
  • AI电话机器人
  • 电商代运营
  • 全 部 栏 目

    企业400电话 网络优化推广 AI电话机器人 呼叫中心 网站建设 商标✡知产 微网小程序 电商运营 彩铃•短信 增值拓展业务
    pytorch 如何在GPU上训练

    1.网络模型转移到CUDA上

    net = AlexNet()
    net.cuda()#转移到CUDA上

    2.将loss转移到CUDA上

    criterion = nn.CrossEntropyLoss()
    criterion = criterion.cuda()

    这一步不做也可以,因为loss是根据out、label算出来的

    loss = criterion(out, label)

    只要out、label在CUDA上,loss自然也在CUDA上了,但是发现不转移到CUDA上准确率竟然降低了1%

    3.将数据集转移到CUDA上

    这里要解释一下数据集使用方法

    #download the dataset
    train_set = CIFAR10("./data_cifar10", train=True, transform=data_tf, download=True)
    train_data = torch.utils.data.DataLoader(train_set, batch_size=64, shuffle=True)

    dataset是把所有的input,label都制作成了一个大的多维数组

    dataloader是在这个大的多维数组里采样制作成batch,用这些batch来训练

        for im, label in train_data:
            i = i + 1
            im = im.cuda()#把数据迁移到CUDA上
            im = Variable(im)#把数据放到Variable里
            label = label.cuda()
            label =Variable(label)
            out = net(im)#the output should have the size of (N,10)

    遍历batch的时候,首先要把拿出来的Image、label都转移到CUDA上,这样接下来的计算都是在CUDA上了

    开始的时候只在转成Variable以后才迁移到CUDA上,这样在网络传播过程中就数据不是在CUDA上了,所以一直报错

    训练网络时指定gpu显卡

    查看有哪些可用的gpu

    nvidia -smi

    实时查看gpu信息1代表每1秒刷新一次

    watch -n -1 nvidia -smi

    指定使用的gpu

    import os
    # 使用第一张与第三张GPU卡
    os.environ["CUDA_VISIBLE_DEVICES"] = "0,3"

    以上为个人经验,希望能给大家一个参考,也希望大家多多支持脚本之家。

    您可能感兴趣的文章:
    • pytorch 两个GPU同时训练的解决方案
    • pytorch使用horovod多gpu训练的实现
    • 解决pytorch多GPU训练保存的模型,在单GPU环境下加载出错问题
    • pytorch 指定gpu训练与多gpu并行训练示例
    • 用Pytorch训练CNN(数据集MNIST,使用GPU的方法)
    • pytorch 使用单个GPU与多个GPU进行训练与测试的方法
    • pytorch使用指定GPU训练的实例
    • 关于pytorch多GPU训练实例与性能对比分析
    上一篇:Python函数参数和注解的使用
    下一篇:浅谈python中常用的excel模块库
  • 相关文章
  • 

    © 2016-2020 巨人网络通讯 版权所有

    《增值电信业务经营许可证》 苏ICP备15040257号-8

    pytorch 如何在GPU上训练 pytorch,如,何在,GPU,上,训练,