博客
关于我
Tensorboard使用入门,用于可视化loss,accuracy等数据
阅读量:237 次
发布时间:2019-03-01

本文共 2530 字,大约阅读时间需要 8 分钟。

import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_data# 载入数据集mnist = input_data.read_data_sets("MNIST_data", one_hot=True)# 批次的大小batch_size = 50# 计算一共有多少批次n_batch = mnist.train.num_examples // batch_size# 参数概要def variable_summary(var):    with tf.name_scope("summaries"):        mean = tf.reduce_mean(var)        tf.summary.scalar("mean", mean)   # 平均值    with tf.name_scope("stddev"):        stddev = tf.sqrt(tf.reduce_mean(var-mean))    tf.summary.scalar("stddev", stddev)   # 标准差    tf.summary.scalar("max", tf.reduce_max(var))  # 最大值    tf.summary.scalar("min", tf.reduce_min(var))  # 最小值    tf.summary.histogram("histogram", var)   # 直方图# 输入命名空间with tf.name_scope("input"):    # 定义两个placeholder    x = tf.placeholder(tf.float32, [None, 28 * 28])    y = tf.placeholder(tf.float32, [None, 10])with tf.name_scope("layer"):    # 创建一个简单的神经网络    with tf.name_scope("weight"):        W = tf.Variable(tf.zeros([784, 10]))        variable_summary(W)    with tf.name_scope("biases"):        b = tf.Variable(tf.zeros([10]))        variable_summary(b)    with tf.name_scope("wx_plus_b"):        wx_plus_b = tf.matmul(x, W) + b    with tf.name_scope("softmax"):        prediction = tf.nn.softmax(wx_plus_b)with tf.name_scope("loss"):    # 二次代价函数    loss = tf.reduce_mean(tf.square(y - prediction))    tf.summary.scalar("loss",loss)with tf.name_scope("train"):    # 使用梯度下降法    train_step = tf.train.GradientDescentOptimizer(0.2).minimize(loss)# 初始化变量init = tf.global_variables_initializer()with tf.name_scope("accuracy"):    with tf.name_scope("correct_prediction"):        # 计算正确率,下面是一个布尔型列表        correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(prediction, 1))    with tf.name_scope("accuracy"):        # 求准确率,首先把布尔类型转化为浮点类型        accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))        tf.summary.scalar("accuracy", accuracy)# 合并所有的summarymerged = tf.summary.merge_all()with tf.Session() as sess:    sess.run(init)    # 保存Tensorboard文件    writer = tf.summary.FileWriter("logs/", sess.graph)    for epoch in range(51):        for batch in range(n_batch):            # 使用函数获取一个批次图片            batch_xs, batch_ys = mnist.train.next_batch(batch_size)            summary,_ = sess.run([merged,train_step], feed_dict={x: batch_xs, y: batch_ys})        writer.add_summary(summary, epoch)        acc = sess.run(accuracy, feed_dict={x: mnist.test.images, y: mnist.test.labels})        print("Iter " + str(epoch) + ",Testing Accuracy " + str(acc))
通过在图中定义scalar的方法,保存标量数据,用通过tensorboard可视化出来

转载地址:http://pihv.baihongyu.com/

你可能感兴趣的文章
MySQL一站到底!华为首发MySQL进阶宝典,基础+优化+源码+架构+实战五飞
查看>>
MySQL万字总结!超详细!
查看>>
Mysql下载以及安装(新手入门,超详细)
查看>>
MySQL不会性能调优?看看这份清华架构师编写的MySQL性能优化手册吧
查看>>
MySQL不同字符集及排序规则详解:业务场景下的最佳选
查看>>
Mysql不同官方版本对比
查看>>
MySQL与Informix数据库中的同义表创建:深入解析与比较
查看>>
mysql与mem_细说 MySQL 之 MEM_ROOT
查看>>
MySQL与Oracle的数据迁移注意事项,另附转换工具链接
查看>>
mysql丢失更新问题
查看>>
MySQL两千万数据优化&迁移
查看>>
MySql中 delimiter 详解
查看>>
MYSQL中 find_in_set() 函数用法详解
查看>>
MySQL中auto_increment有什么作用?(IT枫斗者)
查看>>
MySQL中B+Tree索引原理
查看>>
mysql中cast() 和convert()的用法讲解
查看>>
mysql中datetime与timestamp类型有什么区别
查看>>
MySQL中DQL语言的执行顺序
查看>>
mysql中floor函数的作用是什么?
查看>>
MySQL中group by 与 order by 一起使用排序问题
查看>>