TF之DNN:对DNN神经网络进行Tensorboard可视化(得到events.out.tfevents本地服务器输出到网页可视化)

简介: TF之DNN:对DNN神经网络进行Tensorboard可视化(得到events.out.tfevents本地服务器输出到网页可视化)

输出结果


image.png


代码设计


import tensorflow as tf

import numpy as np    

def add_layer(inputs, in_size, out_size, n_layer, activation_function=None):

   # add one more layer and return the output of this layer

   layer_name = 'layer%s' % n_layer

   with tf.name_scope(layer_name):

       with tf.name_scope('Jason_niu_weights'):

           Weights = tf.Variable(tf.random_normal([in_size, out_size]), name='W')

           tf.summary.histogram(layer_name + '/weights', Weights)

       with tf.name_scope('Jason_niu_biases'):

           biases = tf.Variable(tf.zeros([1, out_size]) + 0.1, name='b')

           tf.summary.histogram(layer_name + '/biases', biases)

       with tf.name_scope('Jason_niu_Wx_plus_b'):

           Wx_plus_b = tf.add(tf.matmul(inputs, Weights), biases)

       if activation_function is None:

           outputs = Wx_plus_b

       else:

           outputs = activation_function(Wx_plus_b, )

       tf.summary.histogram(layer_name + '/outputs', outputs)

       return outputs

# Make up some real data

x_data = np.linspace(-1, 1, 300)[:, np.newaxis]

noise = np.random.normal(0, 0.05, x_data.shape)

y_data = np.square(x_data) - 0.5 + noise

# define placeholder for inputs to network

with tf.name_scope('Jason_niu_inputs'):

   xs = tf.placeholder(tf.float32, [None, 1], name='x_input')

   ys = tf.placeholder(tf.float32, [None, 1], name='y_input')

# add hidden layer

l1 = add_layer(xs, 1, 10, n_layer=1, activation_function=tf.nn.relu)

# add output layer

prediction = add_layer(l1, 10, 1, n_layer=2, activation_function=None)

# the error between prediciton and real data

with tf.name_scope('Jason_niu_loss'):

   loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys - prediction),

                                       reduction_indices=[1]))

   tf.summary.scalar('Jason_niu_loss', loss)  

with tf.name_scope('Jason_niu_train'):

   train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss)

sess = tf.Session()

merged =  tf.summary.merge_all()  

writer = tf.summary.FileWriter("logs3/", sess.graph)

# important step

sess.run(tf.global_variables_initializer())

for i in range(1000):  

   sess.run(train_step, feed_dict={xs: x_data, ys: y_data})

   if i % 50 == 0:                                          

       result = sess.run(merged,feed_dict={xs: x_data, ys: y_data})

       writer.add_summary(result, i)


相关文章
|
10天前
|
缓存 应用服务中间件 nginx
Web服务器的缓存机制与内容分发网络(CDN)
【8月更文第28天】随着互联网应用的发展,用户对网站响应速度的要求越来越高。为了提升用户体验,Web服务器通常会采用多种技术手段来优化页面加载速度,其中最重要的两种技术就是缓存机制和内容分发网络(CDN)。本文将深入探讨这两种技术的工作原理及其实现方法,并通过具体的代码示例加以说明。
37 1
|
10天前
|
监控 安全 数据挖掘
网络游戏服务器如何有效防护DDoS与CC攻击
随着网络游戏行业的蓬勃发展,其背后的服务器架构日益复杂,同时也面临着前所未有的网络安全威胁。其中,分布式拒绝服务(DDoS)和CC(Challenge Collapsar,一种针对网页的攻击方式)攻击尤为突出,它们通过大量伪造请求或恶意流量,使服务器资源耗尽,导致服务中断或响应缓慢。因此,保障网络游戏服务器的安全,有效防护DDoS与CC攻击,已成为游戏行业亟待解决的问题。
|
2天前
|
Web App开发 负载均衡 安全
UE像素流送服务器规格网页云推流
本文详细解答了像素流送技术及其与实时云渲染的区别,并探讨了像素流送所需的服务器规格。像素流送技术使虚幻引擎应用能在云端运行并通过WebRTC将音视频流传输至终端设备,用户可通过键盘、鼠标等与应用互动。尽管两者在功能上相似,实时云渲染在视频流稳定性、长时间运行稳定性、端口安全、便捷性和兼容性等方面具有显著优势。文章还分析了影响服务器配置的因素,如并发数和显卡数量,最后介绍了实时云渲染网页推流的使用方法,强调其简便性和广泛适用性。
25 4
UE像素流送服务器规格网页云推流
|
30天前
|
数据可视化 算法 C++
脑研究、脑网络分析、可视化的工具箱有哪些?
本文列举并简要介绍了用于脑研究、脑网络分析和可视化的多种工具箱,如Brain Connectivity Toolbox、bctpy、人类连接组项目等,为神经科学研究者提供了丰富的分析和可视化大脑网络的工具选择。
46 2
脑研究、脑网络分析、可视化的工具箱有哪些?
|
23天前
|
API Windows
揭秘网络通信的魔法:Win32多线程技术如何让服务器化身超级英雄,同时与成千上万客户端对话!
【8月更文挑战第16天】在网络编程中,客户/服务器模型让客户端向服务器发送请求并接收响应。Win32 API支持在Windows上构建此类应用。首先要初始化网络环境并通过`socket`函数创建套接字。服务器需绑定地址和端口,使用`bind`和`listen`函数准备接收连接。对每个客户端调用`accept`函数并在新线程中处理。客户端则通过`connect`建立连接,双方可通过`send`和`recv`交换数据。多线程提升服务器处理能力,确保高效响应。
33 6
|
26天前
|
缓存 安全 Linux
本地YUM源大揭秘:搭建您自己的Linux软件宝库,从此告别网络依赖!一文掌握服务器自给自足的终极技能!
【8月更文挑战第13天】在Linux中,YUM是一款强大的软件包管理工具,可自动处理依赖关系。为适应离线或特定安全需求,本指南教你搭建本地YUM源。首先创建存放软件包的`localrepo`目录,复制`.rpm`文件至其中。接着,安装并运用`createrepo`生成仓库元数据。随后配置新的`.repo`文件指向该目录,并禁用GPG检查。最后,清理并重建YUM缓存,即可启用本地YUM源进行软件搜索与安装,适用于网络受限环境。
59 3
|
26天前
|
机器学习/深度学习 存储 自然语言处理
天啊!深度神经网络中 BNN 和 DNN 基于存内计算的传奇之旅,改写能量效率的历史!
【8月更文挑战第12天】深度神经网络(DNN)近年在图像识别等多领域取得重大突破。二进制神经网络(BNN)作为DNN的轻量化版本,通过使用二进制权重和激活值极大地降低了计算复杂度与存储需求。存内计算技术进一步提升了BNN和DNN的能效比,通过在存储单元直接进行计算减少数据传输带来的能耗。尽管面临精度和硬件实现等挑战,BNN结合存内计算代表了深度学习未来高效节能的发展方向。
27 1
|
7天前
|
网络协议 C# 开发者
WPF与Socket编程的完美邂逅:打造流畅网络通信体验——从客户端到服务器端,手把手教你实现基于Socket的实时数据交换
【8月更文挑战第31天】网络通信在现代应用中至关重要,Socket编程作为其实现基础,即便在主要用于桌面应用的Windows Presentation Foundation(WPF)中也发挥着重要作用。本文通过最佳实践,详细介绍如何在WPF应用中利用Socket实现网络通信,包括创建WPF项目、设计用户界面、实现Socket通信逻辑及搭建简单服务器端的全过程。具体步骤涵盖从UI设计到前后端交互的各个环节,并附有详尽示例代码,助力WPF开发者掌握这一关键技术,拓展应用程序的功能与实用性。
20 0
|
30天前
|
机器学习/深度学习 数据可视化 Python
如何可视化神经网络的神经元节点之间的连接?附有Python预处理代码
该博客展示了如何通过Python预处理神经网络权重矩阵并将其导出为表格,然后使用Chiplot网站来可视化神经网络的神经元节点之间的连接。
31 0
如何可视化神经网络的神经元节点之间的连接?附有Python预处理代码
|
1月前
|
数据采集 存储 数据可视化
基于Python 网络爬虫和可视化的房源信息的设计与实现
本文介绍了一个基于Python Scrapy框架和echart库的房源信息采集与可视化系统,该系统通过自动化爬虫提高房地产数据采集效率,并通过Flask服务器实现数据的Web可视化展示,旨在帮助房地产从业人员和政策制定者高效、直观地了解房源信息。

热门文章

最新文章

下一篇
DDNS