一、ViT简述
视觉转换器 vision_transformer(ViT) 因其令人印象深刻的准确率和计算效率而迅速成为卷积神经网络 (CNN) 在计算机视觉任务中的首选替代品。ViT模型在许多数据集和任务组合中的表现比CNN高出近4倍,从而确立了自己作为非常强大的竞争者的地位。
同样,基于转换器的模型已经成为自然语言处理(NLP)的常态,ChatGPT就是一个很好的例子。自注意机制用于对文本中单词之间的依赖关系进行建模,并创建复杂的语言模型。
2021 年,一篇题为“An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale”的会议研究论文介绍了视觉转换器 (ViT) 模型。预先训练的ViT模型和微调代码可以在Google Research的GitHub上访问。这些模型是在 ImageNet 和 ImageNet-21k 数据集上进行预训练的。
https://arxiv.org/abs/2010.11929https://arxiv.org/ab