Multifaceデータセット

  • Multiface: A Dataset for Neural Face Rendering [108.4]
    本研究では,新しいマルチビュー,高解像度のヒューマン・フェイス・データセットであるMultifaceを提案する。 顔のパフォーマンスの高解像度同期映像をキャプチャする大規模なマルチカメラ装置であるMugsyを紹介する。 Multifaceの目的は、学術コミュニティにおける高品質データへのアクセシビリティのギャップを埋め、VRテレプレゼンスの研究を可能にすることである。
    論文  参考訳(メタデータ)   (Fri, 22 Jul 2022 17:55:39 GMT)

NewsStories

  • NewsStories: Illustrating articles with visual summaries [49.9]
    我々は,3300万記事,2200万画像,100万ビデオを含む大規模マルチモーダルデータセットを提案する。 現状の画像テキストアライメント手法は、複数の画像を持つ長い物語に対して堅牢ではないことを示す。 本稿では,GoodNewsデータセット上で,ゼロショット画像セット検索において,これらの手法を10%向上させる直感的なベースラインを提案する。
    論文  参考訳(メタデータ)   (Tue, 26 Jul 2022 17:34:11 GMT)

TASKOGRAPHY, SCRUB, SEEK

オノマトペデータセットと検出・認識・リンク

  • COO: Comic Onomatopoeia Dataset for Recognizing Arbitrary or Truncated Texts [47.5]
    日本語漫画におけるオノマトペのテキストからなる新しい漫画オノマトペデータセット(COO)を提供する。 COOは、非常に湾曲した、部分的に縮小したテキスト、任意に配置されたテキストなど、多くの任意のテキストを持っている。 我々は,オノマトペ領域を検出し,その意図した意味を捉えるために,テキスト検出,テキスト認識,リンク予測という3つのタスクを実行する。
    論文  参考訳(メタデータ)  参考訳(全文)  (Mon, 11 Jul 2022 07:39:35 GMT)

BigBIO

  • BigBIO: A Framework for Data-Centric Biomedical Natural Language Processing [13.3]
    バイオメディカルNLPデータセット126以上のコミュニティライブラリであるBigBIOを紹介する。 BigBIOは、データセットとそのメタデータへのプログラムアクセスを通じて、再現可能なメタデータキュレーションを容易にする。 本稿では,タスクスキーマ,データ監査,コントリビューションガイドライン,および2つの実証的ユースケースの概要について論じる。
    論文  参考訳(メタデータ)   (Thu, 30 Jun 2022 07:15:45 GMT)
    • バイオ・医療分野のデータセット。126のデータセットがありタスクカテゴリは以下の12とのこと。
      • Knowledge Base (KB)
        • Named entity recognition (NER)
        • Named entity disambiguation/normalization/linking (NED)
        • Event extraction (EE)
        • Relation extraction (RE)
        • Coreference resolution (COREF)
      • Question Answering (QA)
        • Question answering (QA)
      • Textual Entailment (TE)
        • Textual entailment (TE)
      • Text Pairs (PAIRS)
        • Semantic Similarity (STS)
      • Text to Text (T2T)
        • Paraphasing (PARA)
        • Translation (TRANSL)
        • Summarization (SUM)
      • Text (TEXT)
        • Text classification (TXTCLASS)

GEMv2: Multilingual NLG Benchmarking

  • GEMv2: Multilingual NLG Benchmarking in a Single Line of Code [161.2]
    Generation, Evaluation, and Metrics Benchmarkは、データセット、モデル、メトリック開発者のためのモジュラーインフラストラクチャを提供する。 GEMv2は51言語で40のドキュメントデータセットをサポートする。 すべてのデータセットのモデルはオンラインで評価でき、インタラクティブなデータカード作成とレンダリングツールによって、生きたベンチマークに新しいデータセットを簡単に追加できます。
    論文  参考訳(メタデータ)  参考訳(全文)  (Thu, 23 Jun 2022 14:38:38 GMT)
    • モジュール式で拡張可能な自然言語生成系タスクの評価インフラストラクチャの提案。論文公開時点では日本語を含むタスクは3つのよう。
    • プロジェクトサイトはGEM (gem-benchmark.com)GEM (GEM benchmark) (huggingface.co)だと思うのだが、全データが公開されているわけではない(?)

TwiBot-22: Twitterボット検出用ベンチマーク

  • TwiBot-22: Towards Graph-Based Twitter Bot Detection [39.4]
    TwiBot-22はグラフベースのTwitterボット検出ベンチマークで、これまでで最大のデータセットを示している。 35の代表的なTwitterボット検出ベースラインを再実装し、TwiBot-22を含む9つのデータセットで評価します。 さらなる研究を容易にするため、実装済みのコードとデータセットをTwiBot-22評価フレームワークに統合する。
    論文  参考訳(メタデータ)   (Sun, 12 Jun 2022 09:05:30 GMT)

SHIFT: A Synthetic Driving Dataset for Continuous Multi-Task Domain Adaptation

  • SHIFT: A Synthetic Driving Dataset for Continuous Multi-Task Domain Adaptation [152.6]
    ShiFTは、自動運転のための最大規模のマルチタスク合成データセットである。 曇り、雨と霧の強さ、昼の時間、車と歩行者の密度を個別に連続的に変化させる。 私たちのデータセットとベンチマークツールキットはwww.vis.xyz/shift.comで公開されています。
    論文  参考訳(メタデータ)   (Thu, 16 Jun 2022 17:59:52 GMT)
    • 自動運転のための大規模合成データセット。気象条件、時刻、車両・歩行者の密度、カメラの向きといった変化に対応できるか検証可能な構成となっている。合成データではあるが、ドメイン間の性能差異は実環境のデータセットと同様であるとのこと。
    • プロジェクトサイトはSHIFT Dataset (vis.xyz)、ライセンスは CC BY-SA 4.0

APT-36K: 動物のポーズ推定・追跡データセット

  • APT-36K: A Large-scale Benchmark for Animal Pose Estimation and Tracking [77.9]
    APT-36Kは動物のポーズ推定と追跡のための最初の大規模ベンチマークである。 このビデオは、30種の動物から収集・フィルタリングされた2,400のビデオクリップと、各ビデオの15フレームで構成されており、合計で36,000フレームとなっている。 我々は,(1)ドメイン内およびドメイン間移動学習環境下での単一フレームでの動物ポーズ推定,(2)未確認動物に対する種間ドメイン一般化テスト,(3)動物追跡による動物ポーズ推定の3つのモデルについて,いくつかの代表的モデルをベンチマークした。
    論文  参考訳(メタデータ)   (Sun, 12 Jun 2022 07:18:36 GMT)
    • 動物のポーズ推定だけでなく追跡にも焦点を当てたデータセット。
    • リポジトリはhttps://github.com/pandorgan/APT-36Kとのことだが、現時点では404

Beyond the Imitation Game benchmark (BIG-bench)

  • Beyond the Imitation Game: Quantifying and extrapolating the capabilities of language models [645.0]
    言語モデルは、規模が大きくなるにつれて量的改善と新しい質的能力の両方を示す。 ビッグベンチは204のタスクで構成され、132の機関で442人の著者が貢献している。 我々は,OpenAIのGPTモデル,Google内部の高密度トランスアーキテクチャ,BIGベンチ上のスイッチ型スパーストランスの挙動を評価する。
    論文  参考訳(メタデータ)   (Thu, 9 Jun 2022 17:05:34 GMT)
    • 204タスクからなる大規模ベンチマークと大規模言語モデルを用いた評価の報告。
      • 著者が極めて多く、スコア=645はfugumt.com内で最高。
    • 大規模言語モデルを用いたAIでも総合的には人間は及ばない、開発者(OpenAI or Google)が異なっていてもAIは似た挙動を示すなど非常に興味深い。
      • 最近の「パラメータ数の増加(大規模化)によりAIの性能は人間に並べる」という雰囲気との整合性は謎で、5ページのPaLMの結果によって解釈が変わるレベルの影響がありそう。PaLMが無ければ総合的に人間のレベルに到達する道のりは長そうだが、PaLMの結果があると行けそうに思える。
      • 「During the writing of this work, results for the Pathways Language Model (PaLM) on BIG-bench were published (Chowdhery et al., 2022) and we included them in Figure 1. Most of the analysis in the paper is focused on results from models we evaluated BIG-bench on.」とのことで、この分野は進展が速すぎるという印象