关注文章底部的公众号,获取每日AI最新新闻
获取每日资讯
本周三,关于Transformer神经网络架构的开创性研究论文《Attention Is All You Need》作者们在GTC上齐聚一堂。
在GTC的900多个会议中,最受欢迎的是由NVIDIA创始人兼首席执行官黄仁勋主持的与传奇论文七位作者的交流。这篇论文首次提出——Transformer神经网络架构,改变了深度学习领域的格局,并开启了生成式人工智能时代的大门。
“我们今天所享受的一切都可以追溯到那一刻”——黄仁勋
这些研究界的明星们首次共同登台,回顾了他们原创论文的初衷。该论文自首次发表,已被引用超过10万次。他们还讨论了他们最新的项目,并提供了有关未来生成式人工智能领域发展方向的见解。虽然他们最初是谷歌的研究人员,但现今已经分散到整个行业,大多数是自己AI公司的创始人。
“我们整个行业都对你们的工作心怀感激”,黄仁勋说道。
Transformer模型的起源
研究团队最初的目标是克服递归神经网络(RNNs)的局限性。Character.AI的联合创始人兼首席执行官诺姆·沙齐尔将RNNs比作蒸汽机,而将Transformer比作内燃机的提高效率。
他说ÿ