A Win-win Deal: Towards Sparse and Robust Pre-trained Language Models [53.9] 大規模言語モデル(PLM)はメモリフットプリントと計算の点で非効率である。 PLMはデータセットバイアスに頼り、アウト・オブ・ディストリビューション(OOD)データへの一般化に苦慮する傾向にある。 最近の研究では、高密度PLMは、性能を損なうことなくスパースサブネットに置き換えることができることが示されている。 論文参考訳(メタデータ) (Tue, 11 Oct 2022 07:26:34 GMT)
Weakly Supervised Text Classification using Supervision Signals from a Language Model [33.6] 我々は文書自体と「この記事は[MASK]について話している」ことを組み合わせたプロンプトを設計する。 マスク付き言語モデルは[MASK]トークンの単語を生成することができる。 文書の内容を要約した生成された単語を監視信号として利用することができる。 論文参考訳(メタデータ) (Fri, 13 May 2022 12:57:15 GMT)
ElitePLM: An Empirical Study on General Language Ability Evaluation of Pretrained Language Models [78.1] 本稿では,事前学習型言語モデル(ElitePLM)の汎用言語能力評価に関する大規模実証的研究について述べる。 実験の結果,(1)訓練対象の異なるPLMは異なる能力試験に適しており,(2)下流タスクの微調整PLMはデータサイズや分布に敏感であり,(3)PLMは類似タスク間の転送性に優れていた。 論文参考訳(メタデータ) (Tue, 3 May 2022 14:18:10 GMT)
Pretrained Language Modelの詳細評価。PLMといっても事前学習の内容やデータ、モデルサイズなど多種多様でそれがどのような能力を持つか(何に適しているか)参考になる。
LM-Debugger: An Interactive Tool for Inspection and Intervention in Transformer-Based Language Models [40.9] 我々は、トランスフォーマーベース言語モデル(LM)のためのインタラクティブデバッガツール、LM-Debuggerを紹介した。 モデルの内部予測プロセスのきめ細かい解釈と、LMの振る舞いを介入するための強力なフレームワークを提供する。 LM-Debuggerは,ネットワーク内のいくつかのベクトルを識別することにより,モデルの振る舞いをユーザの選択方向にシフトさせるのがいかに容易かを示す。 論文参考訳(メタデータ)参考訳(全文) (Tue, 26 Apr 2022 07:51:25 GMT)
Whose Language Counts as High Quality? Measuring Language Ideologies in Text Data Selection [83.4] より富裕で、教育され、都会のZIPコードにある大きな学校の新聞は、質の高いものとして分類される傾向にある。 フィルタの質測定が,事実性や文学的評価といった他の感性指標と一致しないことを実証する。 高品質なコーパスを特権化することは言語イデオロギーを伴い,言語モデルのためのトレーニングコーパスの構築にはもっと注意が必要である,と我々は主張する。 論文参考訳(メタデータ) (Wed, 26 Jan 2022 18:46:26 GMT)
Do Language Models Have Beliefs? Methods for Detecting, Updating, and Visualizing Model Beliefs [76.6] Dennett (1995) は、サーモスタットでさえ、信念は単なる情報状態であり、モチベーションのある状態とは切り離されているという観点から、信念を持っていると論じている。 本稿では,モデルが世界に対する信念をいつ持っているかを検出するためのアプローチについて論じるとともに,モデル信念をより誠実に更新する方法の改善について述べる。 論文参考訳(メタデータ) (Fri, 26 Nov 2021 18:33:59 GMT)
Pre-training Co-evolutionary Protein Representation via A Pairwise Masked Language Model [94.0] タンパク質配列表現学習の鍵となる問題は、配列中の残基間の共変量によって反映される共進化情報をキャプチャすることである。 Pairwise Masked Language Model (PMLM) と呼ばれる専用言語モデルによる事前学習により,この情報を直接キャプチャする新しい手法を提案する。 提案手法は, 相互関係を効果的に把握し, ベースラインと比較して, 接触予測性能を最大9%向上できることを示す。 論文参考訳(メタデータ) (Fri, 29 Oct 2021 04:01:32 GMT)