Linear Complexity Randomized Self-attention Mechanism
Linear Complexity Randomized Self-attention Mechanism [1] とは、タイトルから推測する限り、random feature を用いてセルフアテンションの計算量を $\mathcal{O}(n)$ にした研究のようにみえる。であれば Performer 先輩(Rethinking Attention with Performers)とキャラが被るがおそらく何か違うのであろう。2022 年 4 月にアーカイブに発表された。
参考文献
- Lin Zheng, Chong Wang, Lingpeng Kong. Linear Complexity Randomized Self-attention Mechanism. arXiv preprint arXiv:2204.04667, 2022.[arXiv]