博客
关于我
Tensorboard使用入门,用于可视化loss,accuracy等数据
阅读量:237 次
发布时间:2019-03-01

本文共 2530 字,大约阅读时间需要 8 分钟。

import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_data# 载入数据集mnist = input_data.read_data_sets("MNIST_data", one_hot=True)# 批次的大小batch_size = 50# 计算一共有多少批次n_batch = mnist.train.num_examples // batch_size# 参数概要def variable_summary(var):    with tf.name_scope("summaries"):        mean = tf.reduce_mean(var)        tf.summary.scalar("mean", mean)   # 平均值    with tf.name_scope("stddev"):        stddev = tf.sqrt(tf.reduce_mean(var-mean))    tf.summary.scalar("stddev", stddev)   # 标准差    tf.summary.scalar("max", tf.reduce_max(var))  # 最大值    tf.summary.scalar("min", tf.reduce_min(var))  # 最小值    tf.summary.histogram("histogram", var)   # 直方图# 输入命名空间with tf.name_scope("input"):    # 定义两个placeholder    x = tf.placeholder(tf.float32, [None, 28 * 28])    y = tf.placeholder(tf.float32, [None, 10])with tf.name_scope("layer"):    # 创建一个简单的神经网络    with tf.name_scope("weight"):        W = tf.Variable(tf.zeros([784, 10]))        variable_summary(W)    with tf.name_scope("biases"):        b = tf.Variable(tf.zeros([10]))        variable_summary(b)    with tf.name_scope("wx_plus_b"):        wx_plus_b = tf.matmul(x, W) + b    with tf.name_scope("softmax"):        prediction = tf.nn.softmax(wx_plus_b)with tf.name_scope("loss"):    # 二次代价函数    loss = tf.reduce_mean(tf.square(y - prediction))    tf.summary.scalar("loss",loss)with tf.name_scope("train"):    # 使用梯度下降法    train_step = tf.train.GradientDescentOptimizer(0.2).minimize(loss)# 初始化变量init = tf.global_variables_initializer()with tf.name_scope("accuracy"):    with tf.name_scope("correct_prediction"):        # 计算正确率,下面是一个布尔型列表        correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(prediction, 1))    with tf.name_scope("accuracy"):        # 求准确率,首先把布尔类型转化为浮点类型        accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))        tf.summary.scalar("accuracy", accuracy)# 合并所有的summarymerged = tf.summary.merge_all()with tf.Session() as sess:    sess.run(init)    # 保存Tensorboard文件    writer = tf.summary.FileWriter("logs/", sess.graph)    for epoch in range(51):        for batch in range(n_batch):            # 使用函数获取一个批次图片            batch_xs, batch_ys = mnist.train.next_batch(batch_size)            summary,_ = sess.run([merged,train_step], feed_dict={x: batch_xs, y: batch_ys})        writer.add_summary(summary, epoch)        acc = sess.run(accuracy, feed_dict={x: mnist.test.images, y: mnist.test.labels})        print("Iter " + str(epoch) + ",Testing Accuracy " + str(acc))
通过在图中定义scalar的方法,保存标量数据,用通过tensorboard可视化出来

转载地址:http://pihv.baihongyu.com/

你可能感兴趣的文章
nginx 常用指令配置总结
查看>>
Nginx 常用配置清单
查看>>
nginx 常用配置记录
查看>>
nginx 开启ssl模块 [emerg] the “ssl“ parameter requires ngx_http_ssl_module in /usr/local/nginx
查看>>
Nginx 我们必须知道的那些事
查看>>
Nginx 源码完全注释(11)ngx_spinlock
查看>>
Nginx 的 proxy_pass 使用简介
查看>>
Nginx 的 SSL 模块安装
查看>>
Nginx 的优化思路,并解析网站防盗链
查看>>
Nginx 的配置文件中的 keepalive 介绍
查看>>
Nginx 相关介绍(Nginx是什么?能干嘛?)
查看>>
Nginx 知识点一网打尽:动静分离、压缩、缓存、跨域、高可用、性能优化...
查看>>
nginx 禁止以ip形式访问服务器
查看>>
NGINX 端口负载均衡
查看>>
Nginx 结合 consul 实现动态负载均衡
查看>>
Nginx 负载均衡与权重配置解析
查看>>
Nginx 负载均衡详解
查看>>
Nginx 负载均衡配置详解
查看>>
nginx 配置 单页面应用的解决方案
查看>>
nginx 配置dist 加上跨域配置
查看>>