Transformer:Attention Is All You Need 摘要模型架构注意力模型Scaled Dot-ProductMulti-Head Attention Position-wise Feed-Forward NetworksEmbeddings and SoftmaxPositional Encoding 摘要
我们提出了一种新的简单的网络架构,Transformer…
solution
维护长度为4的数组,对于第四位之后的数字,为所维护数组的所有元素之和 的个位数
#include<iostream>
using namespace std;
int main(){int n, a[4] {2, 0, 1, 9}, cnt 0, d;scanf("%d", &n);for(int i 0; i < n; …