Attention模型:我的注意力跟你们人类不一样

Attention模型:我的注意力跟你们人类不一样 7

知行编程网 人工智能前沿 2年前 (2022-01-22) 37 0

背景 截至今日,Badanau Attention的原文citation已达1.34w之多。2020年几乎所有主流NLP任务都需要借助attetion来实现。在深度学习全民炼丹的时代,attention是为数不多具有较强可解释性的机制。 在attention提出后的最初几年,大家都因其效果显著便不假思索地用于了自己的任务;许多paper也理所应当地在实验部分贴上各式各样的attention热图,用...

扫一扫二维码分享