banner
木子

木子的時光屋

記錄與分享!
telegram
twitter
whatsapp
discord server
line

转载-有趣的事实

今天是 Transformer 论文《Attention is All You Need》发布六周年纪念日!

有趣的事实:

⭐️ Transformer 并非创造了注意力机制,但它将其推向了极致。首篇关于注意力机制的论文早在 3 年前(2014 年)发表,题目并不引人注目:“通过联合学习对齐和翻译实现神经机器翻译”,出自 Yoshua Bengio 实验室。该论文结合了 RNN 和 “上下文向量”(即注意力)。很多人可能没有听说过这篇论文,但它是自然语言处理领域最重要的里程碑之一,已经被引用了 2.9 万次(相比之下,Transformer 被引用了 7.7 万次)。

⭐️ Transformer 和最初的注意力论文都没有谈论通用序列计算机。相反,它们都被构想为解决一个狭窄而特定的问题:机器翻译。令人惊讶的是,AGI(即将来的人工智能通用智能)可以追溯到谦逊的谷歌翻译。

⭐️ Transformer 于 2017 年发表在全球顶级人工智能会议 NeurIPS 上。然而,它甚至没有得到口头报告,更别说奖项了。那一年的 NeurIPS 有三篇最佳论文,至今总共引用了 529 次。

转载来源 ->
https://twitter.com/drjimfan/status/1668287791200108544?s=46&t=J5tuuFL7Z3qsWetu4lBIXg

加载中...
此文章数据所有权由区块链加密技术和智能合约保障仅归创作者所有。