本研究は、BERTおよびその派生モデル(RoBERTa、DistilBERT、TinyBERT)が組み込みシステム上でどのように動作するかを検討しました。さまざまなNLPタスク(IC、SC、NER)を実行し、異なるハードウェア構成で評価しました。結果として、すべてのモデルがICタスクで90%以上のF1スコアを達成しました。一方、多ラベルSCタスクではDistilBERTとTinyBERTが大きく失敗しました。また、NERタスクではCoNLLデータセットではすべてのモデルが高い精度を示しましたが、WNUT17データセットでは精度が著しく低下しました。さらに、カスタムアーキテクチャを使用した探索では、特定の制約条件下で最適なモデルを選択することや剪定されたアーキテクチャにおける精度とサイズのトレードオフなどが明らかになりました。
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Souvika Sark... at arxiv.org 03-08-2024
https://arxiv.org/pdf/2304.11520.pdfDeeper Inquiries