Session.run()和Tensor.eval()的区别

简介:
1、官方文档的解释
官方文档 中显示如下:
图中翻译如下:
第一段:如果t是一个tf.Tensor对象,则tf.Tensor.eval是tf.Session.run的缩写(其中sess是当前的tf.get_default_session。下面的两个代码片段是等价的:
第二段:在第二个示例中,会话充当上下文管理器,其作用是将其安装为with块的生命周期的默认会话。 上下文管理器方法可以为简单用例(比如单元测试)提供更简洁的代码; 如果您的代码处理多个图形和会话,则可以更直接地对Session.run()进行显式调用。
简单点说就是:你可以使用sess.run()在同一步获取多个tensor中的值,使用Tensor.eval()时只能在同一步当中获取一个tensor值,并且每次使用 eval 和 run时,都会执行整个计算图。
2.Stack Overflow上面的解释
同时我查阅了Stack Overflow上面人们对这个问题的解释:可以贴在下面加深理解。 
原问题链接:  
Question:  
TensorFlow has two ways to evaluate part of graph: Session.run on a list of variables and Tensor.eval. Is there a difference between these two?
Answer:  
If you have a Tensor t, calling t.eval() is equivalent to calling tf.get_default_session().run(t). 
You can make a session the default as follows:
t = tf. constant ( 42.0 ) sess = tf.Session() with sess.as_default(): # or ` with sess:` to close on exit assert sess is tf.get_default_session() assert t.eval() == sess.run(t)
The most important difference is that you can use sess.run() to fetch the values of many tensors in the same step:
t = tf .constant ( 42.0 ) u = tf .constant ( 37.0 ) tu = tf .mul (t, u) ut = tf .mul (u, t) with sess .as _default(): tu .eval () # runs one step ut .eval () # runs one step sess .run ([tu, ut]) # evaluates both tensors in a single step
Note that each call to eval and run will execute the whole graph from scratch. To cache the result of a computation, assign it to a tf.Variable.
翻译如下:
问题: 
tensorflow有两种方式:Session.run和 Tensor.eval,这两者的区别在哪? 
答: 
如果你有一个Tensor t,在使用t.eval()时,等价于:tf.get_default_session().run(t). 
举例:
t = tf. constant ( 42.0 ) sess = tf.Session() with sess.as_default(): # or ` with sess:` to close on exit assert sess is tf.get_default_session() assert t.eval() == sess.run(t)
这其中最主要的区别就在于你可以使用sess.run()在同一步获取多个tensor中的值, 
例如:
t = tf .constant ( 42.0 ) u = tf .constant ( 37.0 ) tu = tf .mul (t, u) ut = tf .mul (u, t) with sess .as _default(): tu .eval () # runs one step ut .eval () # runs one step sess .run ([tu, ut]) # evaluates both tensors in a single step
注意到:每次使用 eval 和 run时,都会执行整个计算图,为了获取计算的结果,将它分配给tf.Variable,然后获取。
目录
相关文章
|
7月前
|
机器学习/深度学习 存储 PyTorch
Pytorch中in-place操作相关错误解析及detach()方法说明
Pytorch中in-place操作相关错误解析及detach()方法说明
352 0
|
PyTorch 算法框架/工具
Pytorch出现‘Tensor‘ object is not callable解决办法
Pytorch出现‘Tensor‘ object is not callable解决办法
666 0
Pytorch出现‘Tensor‘ object is not callable解决办法
|
4月前
|
TensorFlow 算法框架/工具 Python
【Tensorflow】Found unexpected keys that do not correspond to any Model output: dict_keys([‘model_outp
文章讨论了在使用Tensorflow 2.3时遇到的错误信息:"Found unexpected keys that do not correspond to any Model output: dict_keys(['model_output']). Expected: ['dense']"。这个问题通常发生在模型的输出层命名与model.fit_generator的生成器函数中返回的值的键不匹配时。
50 1
|
4月前
|
TensorFlow API 算法框架/工具
【Tensorflow+keras】解决使用model.load_weights时报错 ‘str‘ object has no attribute ‘decode‘
python 3.6,Tensorflow 2.0,在使用Tensorflow 的keras API,加载权重模型时,报错’str’ object has no attribute ‘decode’
54 0
|
API 数据格式
TensorFlow2._:model.summary() Output Shape为multiple解决方法
TensorFlow2._:model.summary() Output Shape为multiple解决方法
281 0
TensorFlow2._:model.summary() Output Shape为multiple解决方法
|
7月前
|
JavaScript 数据安全/隐私保护
v-model和.sync的区别
v-model和.sync的区别
153 0
|
并行计算 算法 Go
如何调用一个只支持batch_call的服务?
如何调用一个只支持batch_call的服务?
51 0
报错AttributeError: Can‘t pickle local object ‘Worker.__init__.<locals>.<lambda>‘解决办法
报错AttributeError: Can‘t pickle local object ‘Worker.__init__.<locals>.<lambda>‘解决办法
520 0
|
PyTorch 算法框架/工具 开发者
RuntimeError: Can‘t call numpy() on Variable that requires grad. Use var.detach().numpy()
出现这个现象的原因是:待转换类型的PyTorch Tensor变量带有梯度,直接将其转换为numpy数据将破坏计算图,因此numpy拒绝进行数据转换,实际上这是对开发者的一种提醒。如果自己在转换数据时不需要保留梯度信息,可以在变量转换之前添加detach()调用。
189 0
|
并行计算 Python
TypeError: can‘t convert CUDA tensor to numpy. Use Tensor.cpu() to copy the tensor to host memory
运行程序,出现报错信息 TypeError: can't convert CUDA tensor to numpy. Use Tensor.cpu() to copy the tensor to host memory first.。
321 0