模块来源
Embedding-Free Transformer with Inference Spatial Reduction for Efficient Semantic Segmentation
模块名称
EFT
模块作用
捕获全局上下文信息
模块结构
模块代码
https://github.com/hyunwoo137/EDAFormer
总结
本文提出了提出了一种高效的基于transformer的语义分割模型,EDAFormer。它利用了所提出的无嵌入注意力 模块。无嵌入注意力结构可以重新思考自注意力 全局背景建模方面的机制。