编码器

简介: 编码器在应用中的突出优点是可以将较多的信号编码后用较少的信号传输线进行传输,减少传输信号线的数量。编码器电路中,任意时刻都只有一个输入有效,有效电平可以是0,也可以是1.前述编码器中,输入、输出都是高电平有效,这种编码器,若同时输入两个或两个以上的高电平,则输出信号将出错,为了解决这个问题,集成编码器中通常采用优先编码的方式。

一、编码的定义

广义上说,将某一信息用一串特定的符号按照一定规律予以表示的方法都称为编码。


能够完成编码功能的组合逻辑电路的称为编码器。

image.png

二、二进制编码器

1.定义


用n位二进制代码对image.png个信号进行编码的电路,称为二进制编码器。


2.结构与真值表


如图所示:

image.png

因其有8个输入、3个输出,故也称8线—3线编码器。图中image.png表示8路输入,分别表示8个编码对象;编码器的输出是3位二进制码,从高位到低位分别用image.png表示。

编码器在任意时刻只能对一个输入信号编码,即8个输入中只能有一个有效输入。


真值表如图所示:

image.png

根据真值表可以写出逻辑函数表达式:

image.png

image.png

三、二——十进制编码器

1.定义


将十进制数0~9这10个数编成二进制代码的电路,称为二——十进制编码器。


2.结构


要对10个信号进行编码,至少需要4位二进制代码(image.png),所以二——十进制编码器的输出信号为4位。如图所示:

image.png

图中,image.png表示编码器的10个输入端,分别代表十进制数0~9这10个数字;编码器的输出image.png表示4位二进制代码。


因为4位二进制代码有16种状态组合,故可任意选出10种表示0~9这10个数字;不同的选取方式即表示不同的编码方法,如8421码、5421码、余3码等。


3.8421编码器的真值表


如图所示:

image.png

【注意】


编码器在应用中的突出优点是可以将较多的信号编码后用较少的信号传输线进行传输,减少传输信号线的数量。


编码器电路中,任意时刻都只有一个输入有效,有效电平可以是0,也可以是1.前述编码器中,输入、输出都是高电平有效,这种编码器,若同时输入两个或两个以上的高电平,则输出信号将出错,为了解决这个问题,集成编码器中通常采用优先编码的方式。


四、二——十进制优先编码器

1.定义


将编码器各输入赋予不同的优先级别,电路运行时,允许同时输入两个或两个以上的信号,但电路只对优先级别高的输入信号编码,对其他输入信号不予考虑,这样的电路称为优先编码器。


2.74LS147的结构


74LS147芯片是一种常用的8421码集成优先编码器,代用型号有40147等。


如图所示为该编码器集成电路的实物和引脚排列:

image.png

它有image.png共10个输入端(其中image.png对应引脚为15脚,NC表示空脚,可空置不接),有4位8421码输出,从高位到低位分别为image.png。输入、输出均为低电平有效,即0表示信号有效,1表示信号无效。


3.74LS147真值表


如表格所示,表中x号表示可取任意值,即该输入的取值不影响输出状态,由此可以判定各输入的优先级别,image.png为最高,image.png为最低。

image.png

下期我们继续科普一下译码器!!


目录
相关文章
|
6月前
|
机器学习/深度学习 人工智能 自然语言处理
Transformer:Attention机制、前馈神经网络、编码器与解码器
Transformer:Attention机制、前馈神经网络、编码器与解码器
255 1
|
6月前
|
机器学习/深度学习 编解码
LeViT-UNet:transformer 编码器和CNN解码器的有效整合
LeViT-UNet:transformer 编码器和CNN解码器的有效整合
156 0
|
机器学习/深度学习 自然语言处理 搜索推荐
Transformer之十万个为什么?
这篇博文主要结合个人理解和思考,通过整理和自己的解释列出关于Transformer的部分重要问题(持续更新),看完后会对Transformer有个更好的理解。
Transformer之十万个为什么?
|
3月前
|
机器学习/深度学习 PyTorch 算法框架/工具
Transformer
【8月更文挑战第7天】
59 3
|
5月前
|
机器学习/深度学习 人工智能 自然语言处理
Transformer介绍
Transformer模型于2017年由Google提出,其在BERT中大放异彩,革新了NLP领域。Transformer的优势在于并行计算能力和处理长距离依赖,通过自注意力机制避免了RNN/LSTM的梯度问题。它由编码器和解码器组成,使用位置编码处理序列信息。Transformer在机器翻译、文本生成、问答系统等多个任务中提升效率和准确性,并扩展至计算机视觉和语音识别。随着AI发展,Transformer成为大模型核心技术,推动整个产业进步。
|
5月前
|
机器学习/深度学习 计算机视觉
技术心得:卷积自编码器CAEs
技术心得:卷积自编码器CAEs
66 0
|
机器学习/深度学习
自动编码器(Autoencoder
自动编码器(Autoencoder)是一种无监督式学习模型,旨在通过降低数据维度来提高机器学习模型的性能。它由编码器(Encoder)和解码器(Decoder)两个主要部分组成。编码器的作用是将输入数据压缩成低维度的隐向量,从而捕获数据的主要特征;解码器的作用是将隐向量还原回原始数据空间。自动编码器可以实现类似 PCA 的数据降维和数据压缩功能。
114 2
|
机器学习/深度学习 自然语言处理 算法
【Transformer系列(1)】encoder(编码器)和decoder(解码器)
【Transformer系列(1)】encoder(编码器)和decoder(解码器)
3788 0
【Transformer系列(1)】encoder(编码器)和decoder(解码器)
|
6月前
|
机器学习/深度学习 自然语言处理 机器人
编码器-解码器(Encoder-Decoder)结构
编码器-解码器(Encoder-Decoder)结构
606 5
|
6月前
|
机器学习/深度学习 存储 自然语言处理
Transformer中的FFN介绍
Transformer中的FFN介绍
371 0
Transformer中的FFN介绍