「BERTの推論速度を最大10倍にしてデプロイした話とそのTips - JX通信社エンジニアブログ」
背景 はじめまして、JX通信社でインターンをしている原田です。 近年深層学習ではモデルが肥大化する傾向にあります。2020年にopen aiが示したScaling Laws([2001.08361] Scaling Laws for Neural Language Models) の衝撃は記憶に新しく、MLP-Mixerが示したように、モデルを大きくすればAttention構造やCNNでさえも不必要という説もあります。([2105.01601] MLP-Mixer: An all-MLP Architecture for Vision) しかし大きな深層学習モデルを利用しようとすると、しばしば…
コンテンツ文字数:0 文字
見出し数(H2/H3タグ):0 個
閲覧数:106 件
2021-08-26 20:02:26