• 企业400电话
  • 微网小程序
  • AI电话机器人
  • 电商代运营
  • 全 部 栏 目

    企业400电话 网络优化推广 AI电话机器人 呼叫中心 网站建设 商标✡知产 微网小程序 电商运营 彩铃•短信 增值拓展业务
    Pytorch训练模型得到输出后计算F1-Score 和AUC的操作

    1、计算F1-Score

    对于二分类来说,假设batch size 大小为64的话,那么模型一个batch的输出应该是torch.size([64,2]),所以首先做的是得到这个二维矩阵的每一行的最大索引值,然后添加到一个列表中,同时把标签也添加到一个列表中,最后使用sklearn中计算F1的工具包进行计算,代码如下

    import numpy as np
    import sklearn.metrics import f1_score
    prob_all = []
    lable_all = []
    for i, (data,label) in tqdm(train_data_loader):
        prob = model(data) #表示模型的预测输出
        prob = prob.cpu().numpy() #先把prob转到CPU上,然后再转成numpy,如果本身在CPU上训练的话就不用先转成CPU了
        prob_all.extend(np.argmax(prob,axis=1)) #求每一行的最大值索引
        label_all.extend(label)
    print("F1-Score:{:.4f}".format(f1_score(label_all,prob_all)))

    2、计算AUC

    计算AUC的时候,本次使用的是sklearn中的roc_auc_score () 方法

    输入参数:

    y_true:真实的标签。形状 (n_samples,) 或 (n_samples, n_classes)。二分类的形状 (n_samples,1),而多标签情况的形状 (n_samples, n_classes)。

    y_score:目标分数。形状 (n_samples,) 或 (n_samples, n_classes)。二分类情况形状 (n_samples,1),“分数必须是具有较大标签的类的分数”,通俗点理解:模型打分的第二列。举个例子:模型输入的得分是一个数组 [0.98361117 0.01638886],索引是其类别,这里 “较大标签类的分数”,指的是索引为 1 的分数:0.01638886,也就是正例的预测得分。

    average='macro':二分类时,该参数可以忽略。用于多分类,' micro ':将标签指标矩阵的每个元素看作一个标签,计算全局的指标。' macro ':计算每个标签的指标,并找到它们的未加权平均值。这并没有考虑标签的不平衡。' weighted ':计算每个标签的指标,并找到它们的平均值,根据支持度 (每个标签的真实实例的数量) 进行加权。

    sample_weight=None:样本权重。形状 (n_samples,),默认 = 无。

    max_fpr=None

    multi_class='raise':(多分类的问题在下一篇文章中解释)

    labels=None

    输出:

    auc:是一个 float 的值。

    import numpy as np
    import sklearn.metrics import roc_auc_score
    prob_all = []
    lable_all = []
    for i, (data,label) in tqdm(train_data_loader):
        prob = model(data) #表示模型的预测输出
        prob_all.extend(prob[:,1].cpu().numpy()) #prob[:,1]返回每一行第二列的数,根据该函数的参数可知,y_score表示的较大标签类的分数,因此就是最大索引对应的那个值,而不是最大索引值
        label_all.extend(label)
    print("AUC:{:.4f}".format(roc_auc_score(label_all,prob_all)))

    补充:pytorch训练模型的一些坑

    1. 图像读取

    opencv的python和c++读取的图像结果不一致,是因为python和c++采用的opencv版本不一样,从而使用的解码库不同,导致读取的结果不同。

    2. 图像变换

    PIL和pytorch的图像resize操作,与opencv的resize结果不一样,这样会导致训练采用PIL,预测时采用opencv,结果差别很大,尤其是在检测和分割任务中比较明显。

    3. 数值计算

    pytorch的torch.exp与c++的exp计算,10e-6的数值时候会有10e-3的误差,对于高精度计算需要特别注意,比如

    两个输入5.601597, 5.601601, 经过exp计算后变成270.85862343143174, 270.85970686809225

    以上为个人经验,希望能给大家一个参考,也希望大家多多支持脚本之家。

    您可能感兴趣的文章:
    • 解决Pytorch半精度浮点型网络训练的问题
    • PyTorch梯度裁剪避免训练loss nan的操作
    • pytorch训练神经网络爆内存的解决方案
    • pytorch加载预训练模型与自己模型不匹配的解决方案
    • Pytorch训练网络过程中loss突然变为0的解决方案
    • pytorch 如何使用float64训练
    上一篇:python淘宝准点秒杀抢单的实现示例
    下一篇:一文教你用Pyecharts做交互图表
  • 相关文章
  • 

    © 2016-2020 巨人网络通讯 版权所有

    《增值电信业务经营许可证》 苏ICP备15040257号-8

    Pytorch训练模型得到输出后计算F1-Score 和AUC的操作 Pytorch,训练,模型,得到,输出,