tensorflow查看ckpt各节点名称实例

 更新时间:2020-01-26 12:00:43   作者:佚名   我要评论(0)

运行下列脚本,可以打印出模型各个节点变量的名称:


from tensorflow.python import pywrap_tensorflow
import os

checkpoint_path=os.path.join('model.ckpt-13

运行下列脚本,可以打印出模型各个节点变量的名称:

from tensorflow.python import pywrap_tensorflow
import os

checkpoint_path=os.path.join('model.ckpt-131805')
reader=pywrap_tensorflow.NewCheckpointReader(checkpoint_path)
var_to_shape_map=reader.get_variable_to_shape_map()
for key in var_to_shape_map:
 print 'tensor_name: ',key

checkpoint_path为自己的模型路径

以上这篇tensorflow查看ckpt各节点名称实例就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持脚本之家。

您可能感兴趣的文章:

  • 从训练好的tensorflow模型中打印训练变量实例
  • TensorFlow 模型载入方法汇总(小结)
  • tensorflow实现打印ckpt模型保存下的变量名称及变量值
  • TensorFlow——Checkpoint为模型添加检查点的实例
  • tensorflow 实现打印pb模型的所有节点

相关文章

  • tensorflow查看ckpt各节点名称实例

    tensorflow查看ckpt各节点名称实例

    运行下列脚本,可以打印出模型各个节点变量的名称: from tensorflow.python import pywrap_tensorflow import os checkpoint_path=os.path.join('model.ckpt-13
    2020-01-26
  • python定义类self用法实例解析

    python定义类self用法实例解析

    这篇文章主要介绍了python定义类self用法实例解析,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下 在定义类的
    2020-01-26
  • 使用Python实现Wake On Lan远程开机功能

    使用Python实现Wake On Lan远程开机功能

    Wake-On-LAN简称WOL,是一种电源管理功能;如果存在网络活动,则允许设备将操作系统从待机或休眠模式中唤醒。许多主板厂商支持IBM提出的网络唤醒标准。该标准允许网
    2020-01-26
  • django 文件上传功能的相关实例代码(简单易懂)

    django 文件上传功能的相关实例代码(简单易懂)

    一、新建项目,在主配置文件中,修改以下内容: ALLOWED_HOSTS = ['127.0.0.1','localhost'] MEDIA_ROOT = os.path.join(BASE_DIR,'media') STATICFILES_DIRS = [
    2020-01-26
  • 使用tensorflow DataSet实现高效加载变长文本输入

    使用tensorflow DataSet实现高效加载变长文本输入

    DataSet是tensorflow 1.3版本推出的一个high-level的api,在1.3版本还只是处于测试阶段,1.4版本已经正式推出。 在网上搜了一遍,发现关于使用DataSet加载文本的资料
    2020-01-26
  • 浅谈tensorflow中Dataset图片的批量读取及维度的操作详解

    浅谈tensorflow中Dataset图片的批量读取及维度的操作详解

    三维的读取图片(w, h, c): import tensorflow as tf import glob import os def _parse_function(filename): # print(filename) image_string = tf.r
    2020-01-26
  • tensorflow使用range_input_producer多线程读取数据实例

    tensorflow使用range_input_producer多线程读取数据实例

    先放关键代码: i = tf.train.range_input_producer(NUM_EXPOCHES, num_epochs=1, shuffle=False).dequeue() inputs = tf.slice(array, [i * BATCH_SIZE], [BATCH
    2020-01-26
  • 关于tf.reverse_sequence()简述

    关于tf.reverse_sequence()简述

    tf.reverse_sequence()简述 在看bidirectional_dynamic_rnn()的源码的时候,看到了代码中有调用 reverse_sequence()这一方法,于是又回去看了下这个函数的用法,发现
    2020-01-26
  • 双向RNN:bidirectional_dynamic_rnn()函数的使用详解

    双向RNN:bidirectional_dynamic_rnn()函数的使用详解

    双向RNN:bidirectional_dynamic_rnn()函数的使用详解 先说下为什么要使用到双向RNN,在读一篇文章的时候,上文提到的信息十分的重要,但这些信息是不足以捕捉文章信
    2020-01-26
  • 关于tf.nn.dynamic_rnn返回值详解

    关于tf.nn.dynamic_rnn返回值详解

    函数原型 tf.nn.dynamic_rnn( cell, inputs, sequence_length=None, initial_state=None, dtype=None, parallel_iterations=None, swap_memory=Fal
    2020-01-26

最新评论