下面关于编码器和注意力机制的对比描述中,正确的是( )
使用注意力机制之后会增加计算量,但是性能水平能够得到提升
编码器-解码器的编码结果向量无法完整表示信息,并且存在信息覆盖问题
注意力机制的物理含义是对齐模型或影响力模型,表示的是目标与输入之间的对应关系
引入Self Attention后,会更容易捕获句子中长距离的相互依赖的特征
下面关于编码器和注意力机制的对比描述中,正确的是( )
使用注意力机制之后会增加计算量,但是性能水平能够得到提升
编码器-解码器的编码结果向量无法完整表示信息,并且存在信息覆盖问题
注意力机制的物理含义是对齐模型或影响力模型,表示的是目标与输入之间的对应关系
引入Self Attention后,会更容易捕获句子中长距离的相互依赖的特征