何恺明MAE大火后,想梳理下视觉Transformer?这篇整理了100多个
这段时间,计算机视觉圈有点热闹。先是何恺明等人用简单的掩蔽自编码器(MAE)证明了 Transformer 扩展到 CV 大模型的光明前景;紧接着,字节跳动又推出了部分指标超过 MAE 的新方法iBOT,将十几项视觉任务的 SOTA 又往前推了一步。这些进展给该领域的研究
CV大神何恺明最新作 视觉预训练新范式MAE 又一个CV大模型要来
【新智元导读】CV大神何恺明又出力作!团队提出MAE模型,将NLP领域大获成功的自监督预训练模式用在了计算机视觉任务上,效果拔群,在NLP和CV两大领域间架起了一座更简便的桥梁。 CV大神何恺明又出力作! 这次,何大神让BERT式预训练在CV上也能训的很好。 论