• 企业400电话
  • 微网小程序
  • AI电话机器人
  • 电商代运营
  • 全 部 栏 目

    企业400电话 网络优化推广 AI电话机器人 呼叫中心 网站建设 商标✡知产 微网小程序 电商运营 彩铃•短信 增值拓展业务
    Pytorch数据读取之Dataset和DataLoader知识总结

    一、前言

    确保安装

    二、Dataset

    一个例子:

    # 导入需要的包
    import torch
    import torch.utils.data.dataset as Dataset
    import numpy as np
     
    # 编造数据
    Data = np.asarray([[1, 2], [3, 4],[5, 6], [7, 8]])
    Label = np.asarray([[0], [1], [0], [2]])
    # 数据[1,2],对应的标签是[0],数据[3,4],对应的标签是[1]
     
     
    #创建子类
    class subDataset(Dataset.Dataset):
        #初始化,定义数据内容和标签
        def __init__(self, Data, Label):
            self.Data = Data
            self.Label = Label
        #返回数据集大小
        def __len__(self):
            return len(self.Data)
        #得到数据内容和标签
        def __getitem__(self, index):
            data = torch.Tensor(self.Data[index])
            label = torch.IntTensor(self.Label[index])
            return data, label
     
    # 主函数
    if __name__ == '__main__':
        dataset = subDataset(Data, Label)
        print(dataset)
        print('dataset大小为:', dataset.__len__())
        print(dataset.__getitem__(0))
        print(dataset[0])
    
    

     输出的结果

    我们有了对Dataset的一个整体的把握,再来分析里面的细节:

    #创建子类
    class subDataset(Dataset.Dataset):

    创建子类时,继承的时Dataset.Dataset,不是一个Dataset。因为Dataset是module模块,不是class类,所以需要调用module里的class才行,因此是Dataset.Dataset!

    lengetitem这两个函数,前者给出数据集的大小**,后者是用于查找数据和标签。是最重要的两个函数,我们后续如果要对数据做一些操作基本上都是再这两个函数的基础上进行。

    三、DatasetLoader

    DataLoader(dataset,
               batch_size=1,
               shuffle=False,
               sampler=None,
               batch_sampler=None,
               num_works=0,
               clollate_fn=None,
               pin_memory=False,
               drop_last=False,
               timeout=0,
               worker_init_fn=None,
               multiprocessing_context=None)
    

    功能:构建可迭代的数据装载器;
    dataset:Dataset类,决定数据从哪里读取及如何读取;数据集的路径
    batchsize:批大小;
    num_works:是否多进程读取数据;只对于CPU
    shuffle:每个epoch是否打乱;
    drop_last:当样本数不能被batchsize整除时,是否舍弃最后一批数据;
    Epoch:所有训练样本都已输入到模型中,称为一个Epoch;
    Iteration:一批样本输入到模型中,称之为一个Iteration;
    Batchsize:批大小,决定一个Epoch中有多少个Iteration;

    还是举一个实例:

    import torch
    import torch.utils.data.dataset as Dataset
    import torch.utils.data.dataloader as DataLoader
    import numpy as np
     
    Data = np.asarray([[1, 2], [3, 4],[5, 6], [7, 8]])
    Label = np.asarray([[0], [1], [0], [2]])
    #创建子类
    class subDataset(Dataset.Dataset):
        #初始化,定义数据内容和标签
        def __init__(self, Data, Label):
            self.Data = Data
            self.Label = Label
        #返回数据集大小
        def __len__(self):
            return len(self.Data)
        #得到数据内容和标签
        def __getitem__(self, index):
            data = torch.Tensor(self.Data[index])
            label = torch.IntTensor(self.Label[index])
            return data, label
     
    if __name__ == '__main__':
        dataset = subDataset(Data, Label)
        print(dataset)
        print('dataset大小为:', dataset.__len__())
        print(dataset.__getitem__(0))
        print(dataset[0])
     
        #创建DataLoader迭代器,相当于我们要先定义好前面说的Dataset,然后再用Dataloader来对数据进行一些操作,比如是否需要打乱,则shuffle=True,是否需要多个进程读取数据num_workers=4,就是四个进程
     
        dataloader = DataLoader.DataLoader(dataset,batch_size= 2, shuffle = False, num_workers= 4)
        for i, item in enumerate(dataloader): #可以用enumerate来提取出里面的数据
            print('i:', i)
            data, label = item #数据是一个元组
            print('data:', data)
            print('label:', label)
    
    

    四、将Dataset数据和标签放在GPU上(代码执行顺序出错则会有bug)

    这部分可以直接去看博客:Dataset和DataLoader

    总结下来时有两种方法解决

    1.如果在创建Dataset的类时,定义__getitem__方法的时候,将数据转变为GPU类型。则需要将Dataloader里面的参数num_workers设置为0,因为这个参数是对于CPU而言的。如果数据改成了GPU,则只能单进程。如果是在Dataloader的部分,先多个子进程读取,再转变为GPU,则num_wokers不用修改。就是上述__getitem__部分的代码,移到Dataloader部分。

    2.不过一般来讲,数据集和标签不会像我们上述编辑的那么简单。一般再kaggle上的标签都是存在CSV这种文件中。需要pandas的配合。

    这个进阶可以看:WRITING CUSTOM DATASETS, DATALOADERS AND TRANSFORMS,他是用人脸图片作为数据和人脸特征点作为标签。

    到此这篇关于Pytorch数据读取之Dataset和DataLoader知识总结的文章就介绍到这了,更多相关详解Dataset和DataLoader内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

    您可能感兴趣的文章:
    • Pytorch dataloader在加载最后一个batch时卡死的解决
    • pytorch锁死在dataloader(训练时卡死)
    • Pytorch 如何加速Dataloader提升数据读取速度
    • pytorch DataLoader的num_workers参数与设置大小详解
    • 我对PyTorch dataloader里的shuffle=True的理解
    • pytorch中DataLoader()过程中遇到的一些问题
    上一篇:Python基础之函数嵌套知识总结
    下一篇:Python3基础语法知识点总结
  • 相关文章
  • 

    © 2016-2020 巨人网络通讯 版权所有

    《增值电信业务经营许可证》 苏ICP备15040257号-8

    Pytorch数据读取之Dataset和DataLoader知识总结 Pytorch,数据,读,取之,Dataset,