- One missing piece in Vision and Language: A Survey on Comics Understanding [13.8]
この調査は、コミックインテリジェンスのためのタスク指向フレームワークを提案する最初のものである。 データ可用性とタスク定義における重要なギャップに対処することで、将来の研究を導くことを目的としている。
論文 参考訳(メタデータ) (Sat, 14 Sep 2024 18:26:26 GMT) - コミック理解のサーベイ。かなりの研究がなされており驚いた。。
- リポジトリはGitHub – emanuelevivoli/awesome-comics-understanding: The official repo of the Comics Survey: “A missing piece in Vision and Language: A Survey on Comics Understanding”
タグ: Survey
A Survey of Foundation Models for Music Understanding
- A Survey of Foundation Models for Music Understanding [60.8]
この研究は、AI技術と音楽理解の交差に関する初期のレビューの1つである。 音楽理解能力に関して,近年の大規模音楽基盤モデルについて検討,分析,検証を行った。
論文 参考訳(メタデータ) (Sun, 15 Sep 2024 03:34:14 GMT) - 「This work, to our best knowledge, is one of the early reviews of the intersection of AI techniques and music understanding.」とのこと。非常に包括的なサーベイ。
Deep Graph Anomaly Detection: A Survey and New Perspectives
- Deep Graph Anomaly Detection: A Survey and New Perspectives [86.8]
グラフ異常検出(GAD)は、異常なグラフインスタンス(ノード、エッジ、サブグラフ、グラフ)を特定することを目的とする。 ディープラーニングアプローチ、特にグラフニューラルネットワーク(GNN)は、GADにとって有望なパラダイムとして現れています。
論文 参考訳(メタデータ) (Mon, 16 Sep 2024 03:05:11 GMT) - GNNを用いた異常検知に関するサーベイ。
- リポジトリはGitHub – mala-lab/Awesome-Deep-Graph-Anomaly-Detection: Official repository for survey paper “Deep Graph Anomaly Detection: A Survey and New Perspectives”, including diverse types of resources for graph anomaly detection.
Trustworthiness in Retrieval-Augmented Generation Systems: A Survey
- Trustworthiness in Retrieval-Augmented Generation Systems: A Survey [59.3]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)の開発において、急速に重要なパラダイムへと成長してきた。 本稿では,RAGシステムの信頼性を,事実性,堅牢性,公正性,透明性,説明責任,プライバシの6つの面で評価する統一的な枠組みを提案する。
論文 参考訳(メタデータ) (Mon, 16 Sep 2024 09:06:44 GMT) - 信頼できるAIに関するサーベイはよくあるがRAGを対象としたものは珍しいように思う。
- リポジトリはGitHub – smallporridge/TrustworthyRAG
Agents in Software Engineering: Survey, Landscape, and Vision
- Agents in Software Engineering: Survey, Landscape, and Vision [46.0]
大規模言語モデル(LLM)は目覚ましい成功を収め、下流の様々なタスクで広く使われてきた。 LLMとソフトウェア工学(SE)を組み合わせた多くの研究では、明示的にも暗黙的にもエージェントの概念が採用されている。 本稿では,知覚,記憶,行動の3つの重要なモジュールを含む,SE における LLM ベースのエージェントのフレームワークを提案する。
論文 参考訳(メタデータ) (Fri, 13 Sep 2024 17:55:58 GMT) - Large Language Model-Based Agents for Software Engineering: A Survey – arXiv最新論文の紹介 (devneko.jp)とは別のチームによるソフトウェアエンジニアリングにおけるエージェント活用のサーベイ。エージェント側の技術に注目したものになっている。
- リポジトリはGitHub – DeepSoftwareAnalytics/Awesome-Agent4SE
Preference Tuning with Human Feedback on Language, Speech, and Vision Tasks: A Survey
- Preference Tuning with Human Feedback on Language, Speech, and Vision Tasks: A Survey [22.5]
優先度調整は、深層生成モデルと人間の嗜好を整合させる重要なプロセスである。 この調査は、最近の嗜好調整の進歩と人間のフィードバックの統合を概観するものである。
論文 参考訳(メタデータ) (Tue, 17 Sep 2024 21:28:51 GMT) - Preference Tuning のサーベイ
What is the Role of Small Models in the LLM Era: A Survey
- What is the Role of Small Models in the LLM Era: A Survey [13.2]
大規模言語モデル(LLM)は人工知能(AGI)の進歩に大きな進歩をもたらし、GPT-4やLLaMA-405Bのような大規模モデルの開発に繋がった。 モデルのサイズを拡大すると、計算コストとエネルギー消費が指数関数的に増加し、これらのモデルは限られたリソースを持つ学術研究者やビジネスにとって実用的ではない。 同時に、Small Models (SM) は実際的な設定で頻繁に使用されるが、その重要性は過小評価されている。
論文 参考訳(メタデータ) (Tue, 10 Sep 2024 20:45:43 GMT) - 実用上重要なスモールモデルに関するサーベイ。「 there is no clear definition distinguishing large models from small ones.」はですよねーという感じ。とはいえ整理軸含めて、納得感のある内容。
- リポジトリはGitHub – tigerchen52/role_of_small_models
A Comprehensive Survey on Evidential Deep Learning and Its Applications
- A Comprehensive Survey on Evidential Deep Learning and Its Applications [64.8]
Evidential Deep Learning (EDL)は、単一のフォワードパスで最小限の追加計算で信頼性の高い不確実性推定を提供する。 まず、主観的論理理論であるEDLの理論的基礎を掘り下げ、他の不確実性推定フレームワークとの区別について議論する。 さまざまな機械学習パラダイムや下流タスクにまたがる広範な応用について詳しく述べる。
論文 参考訳(メタデータ) (Sat, 07 Sep 2024 05:55:06 GMT) - 不確実性の推定が含まれるEvidential Deep Learning (EDL) のサーベイ
- 論文リポジトリも公開されている。GitHub – MengyuanChen21/Awesome-Evidential-Deep-Learning: A curated publication list on evidential deep learning.
Abstractive Text Summarization: State of the Art, Challenges, and Improvements
- Abstractive Text Summarization: State of the Art, Challenges, and Improvements [6.3]
このレビューでは、最先端のメソッド、課題、ソリューション、比較、制限、将来の改善をチャートアップする包括的なアプローチを取り上げる。 本論文は,不適切な意味表現,事実整合性,制御可能なテキスト要約,言語間要約,評価指標などの課題を強調する。
論文 参考訳(メタデータ) (Wed, 04 Sep 2024 03:39:23 GMT) - 抽象型要約のサーベイ。LLMより前の手法から紹介されている。
- 今後の方向性として「Enhancing factual consistency, developing cross-lingual and multilingual summarization systems, concentrating on domain-specific summarization, dealing with noisy data, and enhancing long-document summarization are a few of these research directions.」が挙げられている。
Towards a Unified View of Preference Learning for Large Language Models: A Survey
- Towards a Unified View of Preference Learning for Large Language Models: A Survey [89.7]
大きな言語モデル(LLM)は、非常に強力な能力を示す。 成功するための重要な要因の1つは、LLMの出力を人間の好みに合わせることである。 選好学習のすべての戦略を、モデル、データ、フィードバック、アルゴリズムの4つの構成要素に分解する。
論文 参考訳(メタデータ) (Wed, 04 Sep 2024 15:11:55 GMT) - LLM構築で重要なPreference Learningのサーベイ
- リポジトリはGitHub – KbsdJames/Awesome-LLM-Preference-Learning: The official repository of our survey paper: “Towards a Unified View of Preference Learning for Large Language Models: A Survey”