【pytorch实现】用卷积核检测图中对角方向边缘(小练习)

简介: 【pytorch实现】用卷积核检测图中对角方向边缘(小练习)

练习:

构造一个输入图像X,如何设计卷积核K来检测图像中对角方向的边缘?

检测图像中物体的边缘,即找到像素变化的位置。

构造一个6*6大小由黑到白过渡的图像,0黑,1白。

代码:

x=torch.zeros(6,6)
for i in range(6):
    for j in range(i+1):
        x[i,j] = 1
print(x)

输出:

tensor([[1., 0., 0., 0., 0., 0.],
        [1., 1., 0., 0., 0., 0.],
        [1., 1., 1., 0., 0., 0.],
        [1., 1., 1., 1., 0., 0.],
        [1., 1., 1., 1., 1., 0.],
        [1., 1., 1., 1., 1., 1.]])

构造一个卷积核K探测边缘:

代码:

wh=21

K=torch.tensor([[1],[-1]],dtype=torch.float32)
Y=corr2d(x,K)
print(Y)

wh=12

K=torch.tensor([[1,-1]],dtype=torch.float32)
Y=corr2d(x,K)
print(Y)

结果:

tensor([[ 0., -1.,  0.,  0.,  0.,  0.],
        [ 0.,  0., -1.,  0.,  0.,  0.],
        [ 0.,  0.,  0., -1.,  0.,  0.],
        [ 0.,  0.,  0.,  0., -1.,  0.],
        [ 0.,  0.,  0.,  0.,  0., -1.]])
tensor([[1., 0., 0., 0., 0.],
        [0., 1., 0., 0., 0.],
        [0., 0., 1., 0., 0.],
        [0., 0., 0., 1., 0.],
        [0., 0., 0., 0., 1.],
        [0., 0., 0., 0., 0.]])

从黑到白的边缘被检测成了-1或1,其余部分的输出全是0。

可以看出,卷积层可通过重复使用卷积核有效地表征局部空间。

相关文章
|
机器学习/深度学习 并行计算 数据可视化
使用 PyTorch 检测眼部疾病
使用 PyTorch 检测眼部疾病
使用 PyTorch 检测眼部疾病
|
机器学习/深度学习 数据采集 XML
PyTorch 深度学习实战 | 基于 YOLO V3 的安全帽佩戴检测
本期将提供一个利用深度学习检测是否佩戴安全帽的案例,从而展示计算机视觉中的目标识别问题的一般流程。目标检测是基于图片分类的计算机视觉任务,既包含了分类,又包含了定位。给出一张图片,目标检测系统要能够识别出图片的目标并给出其位置。由于图片中目标数是不确定的,且要给出目标的精确位置,目标检测相比分类任务更复杂,所以也有更多的使用场景,如无人驾驶、智慧安防、工业安全、医学图像等方面。而本案例就是工业安全领域的一个应用,也可移植到其他的目标检测任务。
491 0
PyTorch 深度学习实战 | 基于 YOLO V3 的安全帽佩戴检测
|
机器学习/深度学习 存储 算法
PyTorch深度学习实战 | 基于ResNet的人脸关键点检测
人脸关键点检测指的是用于标定人脸五官和轮廓位置的一系列特征点的检测,是对于人脸形状的稀疏表示。关键点的精确定位可以为后续应用提供十分丰富的信息。因此,人脸关键点检测是人脸分析领域的基础技术之一。许多应用场景(如人脸识别、人脸三维重塑、表情分析等)均将人脸关键点检测作为其前序步骤来实现。本文将通过深度学习的方法来搭建一个人脸关键点检测模型。 1995年,Cootes提出 ASM(active shape model) 模型用于人脸关键点检测,掀起了一波持续多年的研究浪潮。这一阶段的检测算法常常被称为传统方法。2012年,AlexNet 在 ILSVRC 中力压榜眼夺冠,将深度学习带进人们的视野。
778 0
PyTorch深度学习实战 | 基于ResNet的人脸关键点检测
|
机器学习/深度学习 并行计算 算法
使用PyTorch实现鸟类音频检测卷积网络模型(下)
使用PyTorch实现鸟类音频检测卷积网络模型
199 0
使用PyTorch实现鸟类音频检测卷积网络模型(下)
|
机器学习/深度学习 存储 数据挖掘
使用PyTorch实现鸟类音频检测卷积网络模型(上)
使用PyTorch实现鸟类音频检测卷积网络模型
529 0
使用PyTorch实现鸟类音频检测卷积网络模型(上)
|
机器学习/深度学习 存储 人工智能
号称准确率 97% 的开源肺炎检测模型:照搬 PyTorch 教程、50 张图片就训练完了
此前,一位澳大利亚的人工智能博士候选人宣布构建了一套深度学习模型,能够从肺部 X 光片中以 97.5% 的准确率 检测出患者是否感染了 COVID-19 病毒。
|
2月前
|
算法 PyTorch 算法框架/工具
Pytorch学习笔记(九):Pytorch模型的FLOPs、模型参数量等信息输出(torchstat、thop、ptflops、torchsummary)
本文介绍了如何使用torchstat、thop、ptflops和torchsummary等工具来计算Pytorch模型的FLOPs、模型参数量等信息。
337 2
|
15天前
|
机器学习/深度学习 人工智能 PyTorch
Transformer模型变长序列优化:解析PyTorch上的FlashAttention2与xFormers
本文探讨了Transformer模型中变长输入序列的优化策略,旨在解决深度学习中常见的计算效率问题。文章首先介绍了批处理变长输入的技术挑战,特别是填充方法导致的资源浪费。随后,提出了多种优化技术,包括动态填充、PyTorch NestedTensors、FlashAttention2和XFormers的memory_efficient_attention。这些技术通过减少冗余计算、优化内存管理和改进计算模式,显著提升了模型的性能。实验结果显示,使用FlashAttention2和无填充策略的组合可以将步骤时间减少至323毫秒,相比未优化版本提升了约2.5倍。
33 3
Transformer模型变长序列优化:解析PyTorch上的FlashAttention2与xFormers
|
2月前
|
机器学习/深度学习 自然语言处理 监控
利用 PyTorch Lightning 搭建一个文本分类模型
利用 PyTorch Lightning 搭建一个文本分类模型
65 8
利用 PyTorch Lightning 搭建一个文本分类模型
|
2月前
|
机器学习/深度学习 自然语言处理 数据建模
三种Transformer模型中的注意力机制介绍及Pytorch实现:从自注意力到因果自注意力
本文深入探讨了Transformer模型中的三种关键注意力机制:自注意力、交叉注意力和因果自注意力,这些机制是GPT-4、Llama等大型语言模型的核心。文章不仅讲解了理论概念,还通过Python和PyTorch从零开始实现这些机制,帮助读者深入理解其内部工作原理。自注意力机制通过整合上下文信息增强了输入嵌入,多头注意力则通过多个并行的注意力头捕捉不同类型的依赖关系。交叉注意力则允许模型在两个不同输入序列间传递信息,适用于机器翻译和图像描述等任务。因果自注意力确保模型在生成文本时仅考虑先前的上下文,适用于解码器风格的模型。通过本文的详细解析和代码实现,读者可以全面掌握这些机制的应用潜力。
113 3
三种Transformer模型中的注意力机制介绍及Pytorch实现:从自注意力到因果自注意力