What’s the Meaning of Superhuman Performance in Today’s NLU? [145.8] 我々は,SuperGLUE や SQuAD などのベンチマークが人間と PLM の比較に重大な制限を課していることを示す。 より公平で透過的なベンチマークのためのレコメンデーションを提供します。 論文参考訳(メタデータ) (Mon, 15 May 2023 07:48:31 GMT)
ベンチマークの限界を指摘した論文。6 Recommendationsの章はAIの限界や正しい評価とは?について確認するためにも良い整理。アノテートについて「What is their hourly pay rate?」という指摘は結構くるものがある。何かを評価しようとするなら、データ品質はとても重要。
Neural Codec Language Models are Zero-Shot Text to Speech Synthesizers [92.6] テキストから音声合成(TTS)のための言語モデリング手法を提案する。 具体的には、市販のニューラルオーディオモデルから派生した離散符号を用いて、ニューラルネットワークモデル(Vall-E)を訓練する。 Vall-Eは、コンテキスト内学習機能を導入し、高品質なパーソナライズされた音声の合成に使用できる。 論文参考訳(メタデータ) (Thu, 5 Jan 2023 15:37:15 GMT)
最近の言語モデルと似たアーキテクチャを用いたText to Speechモデルの提案。この分野にもpromptを用いたモデルが出てきているのが興味深い。
A Survey on Backdoor Attack and Defense in Natural Language Processing [18.3] NLP分野におけるバックドア攻撃と防御の総合的な検討を行う。 ベンチマークデータセットを要約し、バックドア攻撃を防ぐために信頼できるシステムを設計するためのオープンな問題を指摘した。 論文参考訳(メタデータ) (Tue, 22 Nov 2022 02:35:12 GMT)
BLOOM: A 176B-Parameter Open-Access Multilingual Language Model [266.0] 大規模言語モデル(LLM)は、いくつかのデモや自然言語命令に基づいて新しいタスクを実行できることが示されている。 BLOOMは、176Bパラメータのオープンアクセス言語モデルであり、数百人の研究者の協力により設計・構築されている。 BLOOMは、RATSコーパスでトレーニングされたデコーダのみのトランスフォーマー言語モデルである。 論文参考訳(メタデータ) (Wed, 9 Nov 2022 18:48:09 GMT)
Challenging BIG-Bench Tasks and Whether Chain-of-Thought Can Solve Them [108.5] 我々は,BIG-Bench Hard (BBH) と呼ばれる,BIG-Benchタスクに挑戦する23のスイートに焦点を当てる。 BBHタスクへのチェーン・オブ・ソウト(CoT)の適用により、PaLMは23タスクのうち10タスクにおいて平均的な人間レータ性能を上回り、Codexは23タスクのうち17タスクにおいて平均的な人間レータ性能を上回ります。 論文参考訳(メタデータ) (Mon, 17 Oct 2022 17:08:26 GMT)
BIG-Benchで人のスコアを上回らなかった23タスクに焦点を当て、Chain of Thoughtの適用で10 or 17タスクで性能の改善が見られたとのこと。