• 企业400电话
  • 微网小程序
  • AI电话机器人
  • 电商代运营
  • 全 部 栏 目

    企业400电话 网络优化推广 AI电话机器人 呼叫中心 网站建设 商标✡知产 微网小程序 电商运营 彩铃•短信 增值拓展业务
    TensorFlow和keras中GPU使用的设置操作

    1. 训练运行时候指定GPU

    运行时候加一行代码:

    CUDA_VISIBLE_DEVICES=1 python train.py

    2. 运行过程中按需或者定量分配GPU

    tensorflow直接在开启Session时候加几行代码就行,而Keras指定GPU,并限制按需用量和TensorFlow不太一样,因为keras训练是封装好的,不好对Session操作。如下是两种对应的操作。

    keras中的操作:

    import os
    import tensorflow as tf
    from keras.backend.tensorflow_backend import set_session
     
    # 指定第一块GPU可用 
    os.environ["CUDA_VISIBLE_DEVICES"] = "0" #指定GPU的第二种方法
     
    config = tf.ConfigProto()
    config.gpu_options.allocator_type = 'BFC' #A "Best-fit with coalescing" algorithm, simplified from a version of dlmalloc.
    config.gpu_options.per_process_gpu_memory_fraction = 0.3 #定量
    config.gpu_options.allow_growth = True  #按需
    set_session(tf.Session(config=config)) 

    TensorFlow中的操作:

    #指定GPU
    import os
    os.environ["CUDA_VISIBLE_DEVICES"] = "0"
     
    #设置GPU定量分配
    config = tf.ConfigProto() 
    config.gpu_options.per_process_gpu_memory_fraction = 0.9 # 占用GPU90%的显存 
    session = tf.Session(config=config)
     
    #设置GPU按需分配
    config = tf.ConfigProto() 
    config.gpu_options.allow_growth = True 
    session = tf.Session(config=config)

    补充:Keras以及Tensorflow强制使用CPU,GPU

    Keras如果是使用Theano后端的话,应该是自动不使用GPU只是用CPU的,启动GPU使用Theano内部命令即可。

    对于Tensorflow后端的Keras以及Tensorflow会自动使用可见的GPU,而我需要其必须只运行在CPU上。网上查到三种方法,最后一种方法对我有用,但也对三种都做如下记录:

    使用tensorflow的 with tf.device('/cpu:0'):函数。简单操作就是把所有命令都放在前面所述的域里面。

    使用tensorflow声明Session时的参数: 关于tensorflow中Session中的部分参数设置,以及Keras如何设置其调用的Tensorflow的Session,可以参见Keras设定GPU使用内存大小(Tensorflow backend)。

    对于Tensorflow,声明Session的时候加入device_count={'gpu':0}即可,代码如下:

    import tensorflow as tf  
    sess = tf.Session(config=tf.ConfigProto(device_count={'gpu':0}))

    对于Keras,则调用后端函数,设置其使用如上定义的Session即可,代码如下:

    import tensorflow as tf
    import keras.backend.tensorflow_backend as KTF 
    KTF.set_session(tf.Session(config=tf.ConfigProto(device_count={'gpu':0})))

    对于多线程以及GPU内存设置等可以参见Keras设定GPU使用内存大小(Tensorflow backend)。

    3、第三种是使用CUDA_VISIBLE_DEVICES命令行参数,代码如下:

    CUDA_VISIBLE_DEVICES="0" python3 train.py
    

    以上为个人经验,希望能给大家一个参考,也希望大家多多支持脚本之家。

    您可能感兴趣的文章:
    • TensorFlow2.0使用keras训练模型的实现
    • tensorflow2.0教程之Keras快速入门
    • 解决TensorFlow调用Keras库函数存在的问题
    • Keras模型转成tensorflow的.pb操作
    • 完美解决TensorFlow和Keras大数据量内存溢出的问题
    • keras和tensorflow使用fit_generator 批次训练操作
    • 解决tensorflow 与keras 混用之坑
    上一篇:教你利用Python破解ZIP或RAR文件密码
    下一篇:浅谈对Python变量的一些认识理解
  • 相关文章
  • 

    © 2016-2020 巨人网络通讯 版权所有

    《增值电信业务经营许可证》 苏ICP备15040257号-8

    TensorFlow和keras中GPU使用的设置操作 TensorFlow,和,keras,中,GPU,使,