コンテンツへスキップ
- AlexaTM 20B: Few-Shot Learning Using a Large-Scale Multilingual Seq2Seq Model [25.9]
マルチリンガルな大規模シーケンス・ツー・シーケンス(seq2seq)モデルは、様々なタスクにおけるデコーダのみのモデルよりも、より効率的であることを示す。 我々は、Alexa Teacher Model (AlexaTM 20B)と呼ばれる200億のパラメータのSeq2seqモデルをトレーニングし、1ショットの要約タスクで最先端(SOTA)のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (Tue, 2 Aug 2022 13:30:07 GMT)
- eco2AI: carbon emissions tracking of machine learning models as the first step towards sustainable AI [47.1]
eco2AIでは、エネルギー消費の追跡と地域CO2排出量の正当性に重点を置いている。 モチベーションは、サステナブルAIとグリーンAI経路の両方で、AIベースの温室効果ガスの隔離サイクルの概念からもたらされる。
論文 参考訳(メタデータ) (Sun, 31 Jul 2022 09:34:53 GMT)