顔画像の表情変化動画の作成

  • Language-Guided Face Animation by Recurrent StyleGAN-based Generator [65.8]
    本研究では,静的顔画像のアニメーション化を目的とした,言語指導型顔画像の新しいタスクについて検討する。 本稿では,言語から一連の意味情報と動作情報を抽出し,学習済みのStyleGANに視覚情報と共に供給し,高品質なフレームを生成するための繰り返し動作生成手法を提案する。
    論文  参考訳(メタデータ)   (Thu, 11 Aug 2022 02:57:30 GMT)

生成型マルチモーダルモデルへのPrompt Tuning

Effidit: Your AI Writing Assistant

  • Effidit: Your AI Writing Assistant [60.6]
    Effiditは、人工知能(AI)技術を使用して、ユーザーが高品質なテキストをより効率的に書けるようにするためのデジタルライティングアシスタントである。 Effiditでは、テキスト補完、エラーチェック、テキスト研磨、キーワード・トゥ・センテンス(K2S)、クラウド・インプット・メソッド(クラウドIME)の5つのカテゴリで機能を提供することで、筆記アシスタントの能力を大幅に拡大する。
    論文  参考訳(メタデータ)   (Wed, 3 Aug 2022 02:24:45 GMT)
    • Effidit(Efficient and Intelligent Editing)の論文、テキスト補間など便利な様々な機能が使える環境。オンラインデモも存在する。
    • プロジェクトサイトはEffidit (qq.com)

ferret: a Framework for Benchmarking Explainers on Transformers

  • ferret: a Framework for Benchmarking Explainers on Transformers [12.1]
    我々は、Hugging Face Hubと統合されたTransformerベースのモデルを説明するために、使いやすいPythonライブラリであるferretを紹介した。 統一されたベンチマークスイートを提供し、あらゆるテキストや解釈可能性コーパスの幅広い最先端の説明をテストし比較する。
    論文  参考訳(メタデータ)   (Tue, 2 Aug 2022 16:21:42 GMT)

少量データでの学習のサーベイ

  • A Survey of Learning on Small Data [57.8]
    小データの学習は人工知能(AI)の究極の目的の1つである この調査はPACフレームワーク下でのアクティブサンプリングに追随し、小さなデータにおける学習の一般化誤差とラベルの複雑さを分析した。 コンピュータビジョンや自然言語処理といった、小さなデータでの学習の恩恵を受ける難しい応用も調査されている。
    論文  参考訳(メタデータ)   (Fri, 29 Jul 2022 02:34:19 GMT)
    • 小規模データでの学習に関するサーベイ。 理論、アプローチ、アプリケーションなど様々な軸で状況を概説している。

AlexaTM 20B

  • AlexaTM 20B: Few-Shot Learning Using a Large-Scale Multilingual Seq2Seq Model [25.9]
    マルチリンガルな大規模シーケンス・ツー・シーケンス(seq2seq)モデルは、様々なタスクにおけるデコーダのみのモデルよりも、より効率的であることを示す。 我々は、Alexa Teacher Model (AlexaTM 20B)と呼ばれる200億のパラメータのSeq2seqモデルをトレーニングし、1ショットの要約タスクで最先端(SOTA)のパフォーマンスを達成することを示す。
    論文  参考訳(メタデータ)   (Tue, 2 Aug 2022 13:30:07 GMT)

eco2AI: 二酸化炭素排出量のトラッキングライブラリ

転送学習におけるソースデータセットの役割

  • A Data-Based Perspective on Transfer Learning [76.3]
    転送学習におけるソースデータセットの合成の役割について,より詳しく検討する。 我々のフレームワークは、転送学習の脆さをピンポインティングするなど、新しい機能を生み出します。
    論文  参考訳(メタデータ)   (Tue, 12 Jul 2022 17:58:28 GMT)
    • 事前学習用データから不要なものを取り除くことで最終性能が上がること、および、そのフレームワークの提案
      • 頑健性の変化についても知りたいところ。。
    • リポジトリはGitHub – MadryLab/data-transfer

OmniCity: Omnipotent City マルチレベル・マルチビューデータセット

  • OmniCity: Omnipotent City Understanding with Multi-level and Multi-view Images [72.4]
    オムニシティ(OmniCity)は、マルチレベル・マルチビュー画像から全能都市理解のための新しいデータセットである。 データセットには100万画素以上の注釈付き画像が含まれており、ニューヨーク市の25万画素のジオロケーションから順に収集されている。 新たなOmniCityデータセットでは,フットプリント抽出や高さ推定,平面/インスタンス/きめ細かなセグメンテーションなど,さまざまなタスクのベンチマークが提供されている。
    論文  参考訳(メタデータ)   (Mon, 1 Aug 2022 15:19:25 GMT)
    • 都市理解のためのデータセット。衛星画像だけでなくアノテーション付きのストリートパノラマ画像を含む。
    • プロジェクトサイトはOmniCity (city-super.github.io)

Neural Knowledge Bank (NKB) :事前学習モデルにおける知識蓄積機構

  • Neural Knowledge Bank for Pretrained Transformers [20.4]
    本稿では,事前学習したトランスフォーマーに対して,現実的な知識を蓄積する神経知識銀行を提案する。 知識注入中、元のモデルを修正し、拡張メモリスロットに事実知識を注入する。 3つのクローズドブックの質問応答データセットを使用して、余分な事実知識を格納する強力な能力を示しています。
    論文  参考訳(メタデータ)   (Sun, 31 Jul 2022 09:14:34 GMT)
    • Neural Knowledge Bank (NKB) という知識格納領域をTransformer内に作っておき、事後に知識を投入できるという論文。AIモデルを一定程度事後に編集できるということで非常に画期的だと思う。