法的判断予測のサーベイ

  • A Survey on Legal Judgment Prediction: Datasets, Metrics, Models and Challenges [73.3]
    法定判断予測(LJP)は,事実記述に基づく判断結果の自動予測に自然言語処理(NLP)技術を適用している。 6言語で31のLJPデータセットを分析し、その構築過程を示し、LJPの分類方法を定義する。 異なる訴訟の8つの代表的データセットに対する最先端の結果を示し、オープンな課題について議論する。
    論文  参考訳(メタデータ)   (Mon, 11 Apr 2022 04:06:28 GMT)
    • 法的な判断への自然言語処理技術適用のサーベイ。近年トップカンファレスでの発表が増えている事、多種多様なアプローチがあることも分かる。解釈可能性の重視などクリティカルな領域への自然言語処理技術適用の話としても興味深い。

Web Phishing Detection回避とその対策

  • Towards Web Phishing Detection Limitations and Mitigation [21.7]
    フィッシングサイトが機械学習に基づく検出をバイパスする方法を示す。 100Kフィッシング・ベナンサイトを用いた実験では、有望な精度(98.8%)を示した。 本稿では,ロジスティック回帰に基づくよりレジリエントなモデルであるAnti-SubtlePhishを提案する。
    論文  参考訳(メタデータ)   (Sun, 3 Apr 2022 04:26:04 GMT)
    • フィッシングサイトがMLベースの検出をバイパスしている方法の調査とその対策の提案。13,000のフィッシングページにわたる詳細なケーススタディを行っているとのことで面白い内容。
    • 提案されているAnti-SubtlePhishは主として特徴量の強化を行っている。最終的なレンダリング結果を使うことが重要そう。

マルチリンガルな検索におけるベストプラクティスに向けて

  • Towards Best Practices for Training Multilingual Dense Retrieval Models [54.9]
    我々は,このような設計を用いて,多種多様言語における単言語検索の課題に焦点をあてる。 本研究は多言語高密度検索モデルのトレーニングのための「ベストプラクティス」ガイドとして組織されている。
    論文  参考訳(メタデータ)   (Tue, 5 Apr 2022 17:12:53 GMT)
    • (1) マルチリンガルな事前学習モデルはあるがデータはない、(2) マルチリンガルな事前学習モデルとデータの両方がある(データの言語でいくつかのバリエーションが存在)、(3) データはあるが事前学習モデルがない、のパターンでどのような対応がありえるかまとめた論文。
    • 結果は参考にはなるのだが、機械翻訳を挟むアプローチが検討されていないのはなぜなんだろう・・・?

Deep Active Learningのサーベイ

  • A Comparative Survey of Deep Active Learning [76.0]
    Active Learning (AL)は、ラベル付けのための大きなラベル付けされていないデータプールからデータサンプルを順次選択することで、ラベル付けコストを削減するための一連のテクニックである。 ディープラーニング(DL)はデータハングリーであり、DLモデルのパフォーマンスは、より多くのトレーニングデータとともに単調にスケールする。 近年、Deep Active Learning (DAL) は、高価なラベリングコストを最小化しつつ、モデル性能を最大化するための実現可能なソリューションとして上昇している。
    論文  参考訳(メタデータ)   (Fri, 25 Mar 2022 05:17:24 GMT)
    • Active Learningの現状を知るために良い資料。VQAでは上手くいっていないのは意外だった。特定タスク、特定ドメインでは有効そうという感じで社会実装上は重要な技術のようには思う。
    • 利用ソフトウェアにGitHub – ej0cl6/deep-active-learning: Deep Active Learningが挙がっており、拡張バージョンも公開予定とのこと。

GNNに対するXAIのサーベイ

  • Explainability in Graph Neural Networks: An Experimental Survey [12.4]
    グラフ表現学習のためのグラフニューラルネットワーク(GNN)が広く開発されている。 GNNは、その基盤となるメカニズムを理解できないため、ブラックボックスの問題に悩まされる。 GNNによる意思決定を説明するために、いくつかのGNN説明可能性法が提案されている。
    論文  参考訳(メタデータ)  参考訳(全文)  (Thu, 17 Mar 2022 11:25:41 GMT)
    • Graph Neural Networkを対象にしたXAIのサーベイ。

A Roadmap for Big Model

  • A Roadmap for Big Model [390.6]
    BMの全般的な進歩を整理し、フォローアップ研究を導く研究成果の欠如がある。 本稿では,BM技術そのものだけでなく,BM訓練やBM応用の前提条件についても述べる。 データ,知識,コンピュータシステム,並列学習システム,言語モデル,ビジョンモデル,マルチモーダルモデル,理論と解釈可能性,常識推論,信頼性とセキュリティ,ガバナンス,評価,機械翻訳,テキスト生成,対話,タンパク質研究の4分野に16のBM関連トピックを紹介する。
    論文  参考訳(メタデータ)   (Sat, 26 Mar 2022 15:38:00 GMT)
    • 様々な分野での大規模モデルに関する包括的な論文(サーベイ)。100人近くの著者、本文140ページ、引用数1637と大作。全部読むのは大変だが、興味のある分野のみの参照でもとても参考になるものだと思う。

Cross-Lingual Summarizationのサーベイ

  • A Survey on Cross-Lingual Summarization [43.9]
    言語間の要約は、異なる言語における文書の1つの言語で要約を生成するタスクである。 グローバル化の背景から、この課題は計算言語学コミュニティから注目を集めている。 この分野におけるデータセット、アプローチ、課題に関する最初の体系的批判的レビューを提示する。
    論文  参考訳(メタデータ)   (Wed, 23 Mar 2022 16:24:21 GMT)
    • クロスリンガル要約のサーベイ。日本語にとっては極めて重要なタスクだと思う。
      • 英語のドキュメントに対して日本語の抄訳がある事例は多く、データセットを作りやすいのではないかと思ったりもする。。。

Delta Tuning: 事前学習モデルの効率的なチューニング

  • Delta Tuning: A Comprehensive Study of Parameter Efficient Methods for Pre-trained Language Models [90.2]
    標準の微調整とは対照的に、デルタチューニングはモデルパラメータのごく一部を微調整するだけであり、残りは触れないままである。 近年の研究では、パラメータ選択の異なる一連のデルタチューニング手法が、フルパラメータの微調整と同等の性能を達成できることが示されている。
    論文  参考訳(メタデータ)   (Mon, 14 Mar 2022 07:56:32 GMT)

自動運転におけるSemantic AI Securityのサーベイ

  • SoK: On the Semantic AI Security in Autonomous Driving [34.5]
    自律運転システムは、安全と運転判断の正しさをAIコンポーネントに依存している。 このようなAIコンポーネントレベルの脆弱性がシステムレベルでセマンティックに影響を及ぼすためには、非自明なセマンティックギャップに対処する必要がある。 本稿では,このような研究領域を汎用AIセキュリティとは対照的にセマンティックAIセキュリティと定義しsemantic ad aiセキュリティ研究分野における知識の体系化を初めて実施する。
    論文  参考訳(メタデータ)  参考訳(全文)  (Thu, 10 Mar 2022 12:00:34 GMT)
    • 単一コンポーネントの脆弱性がシステム全体に影響を及ぼすかは自明ではなく、System-to-AIとAI-to-Systemの2つのギャップがある。このような研究をsemantic AI securityと呼び、そのサーベイを実施したとのこと。
    • 自動運転のセキュリティに関する良いサーベイでもあり非常に参考になる。
    • プロジェクトサイトはAD & CV Systems Security – PASS (google.com)

自然言語生成における忠実性の問題に関するサーベイ

  • Faithfulness in Natural Language Generation: A Systematic Survey of Analysis, Evaluation and Optimization Methods [48.5]
    自然言語生成(NLG)は,事前学習型言語モデルなどの深層学習技術の発展により,近年大きく進歩している。 しかし、生成したテキストが通常不信または非実情報を含むという忠実性問題は、最大の課題となっている。
    論文  参考訳(メタデータ)   (Thu, 10 Mar 2022 08:28:32 GMT)
    • NLGを行う上で「fluency (流暢か)」「informativeness (有用なものか)」「controllability (制御できるか)」「faithfulness (入力に忠実か)」などが課題となる。テンプレート方式ではfaithfulnessを満たしやすいが近年の言語モデルを用いたNLGではこれを満たすことは簡単ではない。このサーベイではfaithfulnessに注目して評価や最適化手法をまとめている。NLG一般のサーベイとしても有用な印象。