• 打印
  • 收藏
收藏成功
分享

基于Transformer的图像分类网络MultiFormer


打开文本图片集

摘要:为解决目前ViT模型无法改变输入补丁大小且输入补丁都是单一尺度信息的缺点,提出了一种基于Transformer的图像分类网络MultiFormer。MultiFormer通过AWS(attention with scale)模块,将每阶段不同尺度输入小补丁嵌入为具有丰富语义信息的大补丁;通过GLA-P(global-local attention with patch)模块交替捕获局部和全局注意力,在嵌入的同时保留了细粒度和粗粒度特征。(剩余17559字)

网站仅支持在线阅读(不支持PDF下载),如需保存文章,可以选择【打印】保存。

畅销排行榜
目录
monitor