LaMDA: Language Models for Dialog Applications

  • LaMDA: Language Models for Dialog Applications [75.8]
    LaMDAは、ダイアログに特化したトランスフォーマーベースのニューラルネットワークモデルのファミリーである。 注釈付きデータで微調整し、モデルが外部の知識ソースを参照できるようにすると、大幅な改善がもたらされる。
    論文  参考訳(メタデータ)   (Thu, 20 Jan 2022 15:44:37 GMT)
    • 137Bパラメータ、1.56T wordsで事前学習された対話用事前学習モデル。計算時間は1024 TPU-v3 で57.7日間とのことで計算も非常に規模が大きい。バイアスの除去など安全性にも気を使っているとのこと。
    • 外部知識ソースにアクセス可能な事や論文で出ている事例も興味深い。対話インタフェースもE2Eでできるようになっていくのだろうか。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です