张量的拼接

简介: 【8月更文挑战第18天】张量的拼接。

张量的拼接
TensorFlow中,张量拼接的操作主要包括:
tf.contact():将向量按指定维连起来,其余维度不变。
tf.stack() :将一组R维张量变为R+1维张量,拼接前后维度变化。

tf.concat(values, axis, name='concat'):
values:输入张量;
axis:指定拼接维度;
name:操作名称。

代码:
concat_sample_1 = tf.random.normal([4,100,100,3])
concat_sample_2 = tf.random.normal([40,100,100,3])
print("原始数据的尺寸分别为:",concat_sample_1.shape,concat_sample_2.shape)
concated_sample_1 = tf.concat([concat_sample_1,concat_sample_2],axis=0)
print("拼接后数据的尺寸:",concated_sample_1.shape)

输出:
原始数据的尺寸分别为: (4, 100, 100, 3) (40, 100, 100, 3)
拼接后数据的尺寸: (44, 100, 100, 3)

在原来矩阵基础上增加了一个维度,也是同样的道理,axis决定维度增加的位置。
tf.stack(values, axis=0, name='stack'):
values:输入张量;一组相同形状和数据类型的张量。
axis:指定拼接维度;
name:操作名称。

代码:
stack_sample_1 = tf.random.normal([100,100,3])
stack_sample_2 = tf.random.normal([100,100,3])
print("原始数据的尺寸分别为:",stack_sample_1.shape, stack_sample_2.shape)

拼接后维度增加。axis=0,则在第一个维度前增加维度。

stacked_sample_1 = tf.stack([stack_sample_1, stack_sample_2],axis=0)
print("拼接后数据的尺寸:",stacked_sample_1.shape)

输出:
原始数据的尺寸分别为: (100, 100, 3) (100, 100, 3)
拼接后数据的尺寸: (2, 100, 100, 3)

相关文章
|
3月前
|
机器学习/深度学习 PyTorch 算法框架/工具
|
2月前
|
TensorFlow 算法框架/工具
张量的拼接
【8月更文挑战第17天】张量的拼接。
10 1
|
2月前
|
TensorFlow 算法框架/工具 Python
张量的分割
【8月更文挑战第18天】张量的分割。
20 4
|
2月前
|
TensorFlow 算法框架/工具 索引
张量排序
【8月更文挑战第17天】张量排序。
14 1
|
4月前
|
算法 PyTorch 算法框架/工具
Pytorch - 张量转换拼接
使用 Tensor.numpy 函数可以将张量转换为 ndarray 数组,但是共享内存,可以使用 copy 函数避免共享。
|
机器学习/深度学习 PyTorch TensorFlow
定义张量
张量是一种多维数组,可以用来表示空间中的数据。它通常用于机器学习和人工智能领域,特别是在深度学习中。张量可以看作是多维数组,其中每个元素也是一个数组,可以包含多个元素。
88 1
|
资源调度 PyTorch 算法框架/工具
pytorch 如何生成指定位置、尺度参数的随机高斯矩阵,并指定这个随机矩阵的形式
在上述代码中,我们使用 torch.normal(mean=mu, std=sigma, size=(m, n)) 函数直接生成了一个形状为 (m, n) 的随机高斯矩阵 data,其中 mean 参数指定了均值,std 参数指定了标准差。 需要注意的是,与 torch.randn() 不同,torch.normal() 生成的是具有指定均值和标准差的高斯分布,因此生成的随机矩阵不一定是标准正态分布。如果需要生成标准正态分布随机矩阵,可以将 mean 参数设置为 0,std 参数设置为 1。
1114 1
|
并行计算 安全 异构计算
pytroch取张量数据
pytroch取张量数据
175 1
pytroch取张量数据
|
PyTorch 算法框架/工具
torch,如何将两个二维张量,按照第一维度,合并
在这个例子中,torch.cat() 函数的第一个参数是一个列表,包含要拼接的张量 x 和 y,第二个参数是拼接的维度,即第一维度。拼接后的张量 z 的形状为 (6, 4),因为两个原始张量的第一维度都是 3,拼接后就变成了 6。
698 0
|
PyTorch 算法框架/工具 索引
pytorch中,假设已经有了一个张量a,现在还有一个张量B,张量B为一维的张量,如何利用B张量的元素作为索引去检索a张量的元素?
可以使用PyTorch的索引操作符[]和张量的gather()方法来利用张量B的元素作为索引来检索张量a的元素。
209 0