❶ 目前主流的attention方法都有哪些
首先是Object Recognition。是因为模型结合了CNN,RNN 和 Reinforcement Learning,来解决问题。并且在其上对它进行很大程度了改进,并引入了weakly supervised的因素;然后是Image Caption。Xu在ICML上的 Show, Attend and Tell: Neural Image Caption Generation with Visual Attention可谓应用Attetion来解image caption的经典。再是NLP中的MachinTranslation. 前面的工作都是用时序地进行Attention来关注一幅图像的不同位置区域。类比sequence问题,也就顺理成章地用在Machine Translation上了。划重点来说attention机制听起来高达上,其实就是学出一个权重分布,再拿这个权重分布施加在原来的特征之上,就可以叫attention。当然这个加权可以是保留所有分量均做加权(即soft attention);也可以是在分布中以某种采样策略选取部分分量(即hard attention)。