コンテンツへスキップ
- A Watermark for Large Language Models [60.7]
本稿では,プロプライエタリな言語モデルのための透かしフレームワークを提案する。 透かしはテキストの品質に無視できる影響で埋め込むことができ、言語モデルAPIやパラメータにアクセスすることなく、効率的なオープンソースアルゴリズムを使って検出することができる。
論文 参考訳(メタデータ) (Tue, 24 Jan 2023 18:52:59 GMT)
- 大規模言語モデルの出力に透かしを入れ検知できるようにするフレームワークの提案。
ChatGPTにはすでに導入されいたりするのだろうか・・・?
- リポジトリはGitHub – jwkirchenbauer/lm-watermarking
- BDMMT: Backdoor Sample Detection for Language Models through Model Mutation Testing [14.9]
本稿では,深層モデル変異検査に基づく防御手法を提案する。 バックドアサンプルの検出におけるモデル変異検査の有効性をまず確認した。 次に,広範に研究された3つのバックドアアタックレベルに対して,系統的に防御を行った。
論文 参考訳(メタデータ) (Wed, 25 Jan 2023 05:24:46 GMT)
- 「backdoor samples are much more robust than clean samples」という仮定に基づくバックドア検出手法の提案。char-level, word-level, sentence-level, style-levelの4種類の攻撃(現時点でメジャーなすべての攻撃)に対応可能とのこと。
- この分野は画像で盛んな印象があったが、最近は自然言語処理の領域でも広く研究されている気がする。
- XLM-V: Overcoming the Vocabulary Bottleneck in Multilingual Masked Language Models [87.7]
我々は,言語間のトークン共有を非強調にすることで,非常に大きな多言語語彙に拡張する新たなアプローチを提案する。 我々は100万のトークン語彙を持つ多言語言語モデルであるXLM-Vを訓練する。 XLM-Vは、自然言語推論(XNLI)から質問応答(MLQA)、名前付きエンティティ認識(WikiAnn)まで幅広いタスクでXLM-Rより優れています。
論文 参考訳(メタデータ) (Wed, 25 Jan 2023 09:15:17 GMT)
- 多言語モデルで問題(かつ議論)となる語彙に関する論文。100万語彙を持つモデルを学習し優れた性能を出しているのはすごい。
- 「Most notably, we provide evidence showing that expanding the vocabulary beyond 1M tokens can degrade performance on downstream tasks」というのも興味深い。
- Experimenting with an Evaluation Framework for Imbalanced Data Learning (EFIDL) [9.0]
データ不均衡は,ラベルの少ないビッグデータ分析において重要な問題のひとつだ。 機械学習アルゴリズムの性能を改善するために、多くのデータバランス法が導入された。 我々は不均衡なデータ学習のための新しい評価フレームワークを提案する。
論文 参考訳(メタデータ) (Thu, 26 Jan 2023 01:16:02 GMT)
- 不均衡データセットに対応する手法への評価フレームワークの提案。様々な手法が試されており、その部分も参考になる。(評価手法を間違えているので)不均衡データへの対応手法が非常に効果的と誤った結論を出しがちというのはとっても同意。この論文の結論の一つは「data augmentation does not help improve ML prediction performance」
- 参考にはなるのだが「Instead, we used the default parameters provided by the scikit-learn library.」というのは…
- The Semantic Scholar Open Data Platform [79.4]
セマンティック・スカラー(Semantic Scholar、S2)は、学術文献の発見と理解を支援することを目的としたオープンデータプラットフォームおよびウェブサイトである。 我々は、学術的なPDFコンテンツ抽出と知識グラフの自動構築のための最先端技術を用いて、パブリックおよびプロプライエタリなデータソースを組み合わせる。 このグラフには、構造解析されたテキスト、自然言語要約、ベクトル埋め込みなどの高度な意味的特徴が含まれている。
論文 参考訳(メタデータ) (Tue, 24 Jan 2023 17:13:08 GMT)
- Semantic Scholar | AI-Powered Research Tool の論文
- ソフトウェア構成が非常に参考になる。一部はfugumt.comでも取り入れたい。
- MusicLM: Generating Music From Text [24.5]
テキスト記述から高忠実度音楽を生成するモデルであるMusicLMを紹介する。 MusicLMは、階層的なシーケンス・ツー・シーケンス・モデリングタスクとして条件付き音楽生成のプロセスをキャストする。 実験の結果,MusicLMは従来のシステムよりも音質やテキスト記述の順応性が優れていることがわかった。
論文 参考訳(メタデータ) (Thu, 26 Jan 2023 18:58:53 GMT)
- テキストからの音楽生成、hierarchical sequence-to-sequence modelingとテンプレートレス。MusicCapsという名前で音楽とテキストのペアデータセット、55kを公開しているのも素晴らしい
- プロジェクトサイトはMusicLM (google-research.github.io)、サンプルが聞けてそれっぽいのと歌声が入っているのも面白い。
- MusicCapsデータセットはMusicCaps | Kaggleにあり、ライセンスはCC BY-SA 4.0
- Toward General Design Principles for Generative AI Applications [16.1]
生成AIアプリケーションの設計に関する7つの原則を提示する。 生成AIの特徴として、複数の成果と不完全性、探索と制御、メンタルモデルと説明の6つの原則が重視されている。 我々は、生成モデルの有害な出力、誤用、または人的変位の可能性によって引き起こされる可能性のある潜在的な害に対して設計をするようデザイナーに促す。
論文 参考訳(メタデータ) (Fri, 13 Jan 2023 14:37:56 GMT)
- 近年、強力な生成系AI(画像生成、テキスト生成、…)のリリースが相次いでいるがその設計で守るべき原則を整理した論文、100以上の引用数があり納得感のある指摘となっている
- 7つの原則は「Design against harms」だけが独立(全体をカバー)、その他は「Multiple outputs」「Imperfection」「Mental models」「Explanation」「Exploration」「Control」が挙げられている。
- DetectGPT: Zero-Shot Machine-Generated Text Detection using Probability Curvature [143.5]
学生は、大きな言語モデル(LLM)を使用して、書面の課題を完成させることができ、インストラクターは生徒の学習を正確に評価することができない。 まず、LLMからサンプリングされたテキストがモデルのログ確率関数の負の曲率領域を占める傾向があることを示す。 次に、与えられたLLMから通路が生成されるかどうかを判断するための新しい曲率ベースの基準を定義する。
論文 参考訳(メタデータ) (Thu, 26 Jan 2023 18:44:06 GMT)
- 機械が生成されたテキストを検出する手法の提案
- 「minor rewrites of model-generated text tend to have lower log probability under the model than the original sample, while minor rewrites of human-written text may have higher or lower log probability than the original sample.」というシンプルな仮定で強力な性能を実現している
- プロジェクトサイトはDetectGPT (ericmitchell.ai)
- Is ChatGPT A Good Translator? A Preliminary Study [39.2]
翻訳能力を高めるためにChatGPTが推奨するプロンプトを採用する。 多くのベンチマークテストセットを評価することで、ChatGPTは商用翻訳製品と競争的に機能することがわかった。 ChatGPTは、生物医学の要約やRedditのコメントに関する商業システムのようには機能しない。
論文 参考訳(メタデータ) (Fri, 20 Jan 2023 08:51:36 GMT)
- ChatGPTの翻訳性能を評価した論文。一般的にリソースが多いといわれている言語ペア(おそらくChatGPTの学習データに多い言語)についてはかなりの性能だが、そうでない言語は苦手としているよう。また、頑健性の意味でもイマイチな結果となっている。
- とはいえ、Promptのみでの機械翻訳だと考えればかなり性能が高いという評価もできそう
- A survey and taxonomy of loss functions in machine learning [60.4]
ほとんどの最先端の機械学習技術は、損失関数の最適化を中心に進化している。 この調査は、初心者と高度な機械学習実践者の両方にとって最も重要な損失関数の参照を提供することを目的としている。
論文 参考訳(メタデータ) (Fri, 13 Jan 2023 14:38:24 GMT)
- 機械学習におけるロス関数のサーベイ。これだけの内容を整理した論文(資料)はあまり見かけない気がしていて、考え方や狙いを整理するために有用。