- Deep Graph Anomaly Detection: A Survey and New Perspectives [86.8]
グラフ異常検出(GAD)は、異常なグラフインスタンス(ノード、エッジ、サブグラフ、グラフ)を特定することを目的とする。 ディープラーニングアプローチ、特にグラフニューラルネットワーク(GNN)は、GADにとって有望なパラダイムとして現れています。
論文 参考訳(メタデータ) (Mon, 16 Sep 2024 03:05:11 GMT) - GNNを用いた異常検知に関するサーベイ。
- リポジトリはGitHub – mala-lab/Awesome-Deep-Graph-Anomaly-Detection: Official repository for survey paper “Deep Graph Anomaly Detection: A Survey and New Perspectives”, including diverse types of resources for graph anomaly detection.
タグ: Survey
Trustworthiness in Retrieval-Augmented Generation Systems: A Survey
- Trustworthiness in Retrieval-Augmented Generation Systems: A Survey [59.3]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)の開発において、急速に重要なパラダイムへと成長してきた。 本稿では,RAGシステムの信頼性を,事実性,堅牢性,公正性,透明性,説明責任,プライバシの6つの面で評価する統一的な枠組みを提案する。
論文 参考訳(メタデータ) (Mon, 16 Sep 2024 09:06:44 GMT) - 信頼できるAIに関するサーベイはよくあるがRAGを対象としたものは珍しいように思う。
- リポジトリはGitHub – smallporridge/TrustworthyRAG
Agents in Software Engineering: Survey, Landscape, and Vision
- Agents in Software Engineering: Survey, Landscape, and Vision [46.0]
大規模言語モデル(LLM)は目覚ましい成功を収め、下流の様々なタスクで広く使われてきた。 LLMとソフトウェア工学(SE)を組み合わせた多くの研究では、明示的にも暗黙的にもエージェントの概念が採用されている。 本稿では,知覚,記憶,行動の3つの重要なモジュールを含む,SE における LLM ベースのエージェントのフレームワークを提案する。
論文 参考訳(メタデータ) (Fri, 13 Sep 2024 17:55:58 GMT) - Large Language Model-Based Agents for Software Engineering: A Survey – arXiv最新論文の紹介 (devneko.jp)とは別のチームによるソフトウェアエンジニアリングにおけるエージェント活用のサーベイ。エージェント側の技術に注目したものになっている。
- リポジトリはGitHub – DeepSoftwareAnalytics/Awesome-Agent4SE
Preference Tuning with Human Feedback on Language, Speech, and Vision Tasks: A Survey
- Preference Tuning with Human Feedback on Language, Speech, and Vision Tasks: A Survey [22.5]
優先度調整は、深層生成モデルと人間の嗜好を整合させる重要なプロセスである。 この調査は、最近の嗜好調整の進歩と人間のフィードバックの統合を概観するものである。
論文 参考訳(メタデータ) (Tue, 17 Sep 2024 21:28:51 GMT) - Preference Tuning のサーベイ
What is the Role of Small Models in the LLM Era: A Survey
- What is the Role of Small Models in the LLM Era: A Survey [13.2]
大規模言語モデル(LLM)は人工知能(AGI)の進歩に大きな進歩をもたらし、GPT-4やLLaMA-405Bのような大規模モデルの開発に繋がった。 モデルのサイズを拡大すると、計算コストとエネルギー消費が指数関数的に増加し、これらのモデルは限られたリソースを持つ学術研究者やビジネスにとって実用的ではない。 同時に、Small Models (SM) は実際的な設定で頻繁に使用されるが、その重要性は過小評価されている。
論文 参考訳(メタデータ) (Tue, 10 Sep 2024 20:45:43 GMT) - 実用上重要なスモールモデルに関するサーベイ。「 there is no clear definition distinguishing large models from small ones.」はですよねーという感じ。とはいえ整理軸含めて、納得感のある内容。
- リポジトリはGitHub – tigerchen52/role_of_small_models
A Comprehensive Survey on Evidential Deep Learning and Its Applications
- A Comprehensive Survey on Evidential Deep Learning and Its Applications [64.8]
Evidential Deep Learning (EDL)は、単一のフォワードパスで最小限の追加計算で信頼性の高い不確実性推定を提供する。 まず、主観的論理理論であるEDLの理論的基礎を掘り下げ、他の不確実性推定フレームワークとの区別について議論する。 さまざまな機械学習パラダイムや下流タスクにまたがる広範な応用について詳しく述べる。
論文 参考訳(メタデータ) (Sat, 07 Sep 2024 05:55:06 GMT) - 不確実性の推定が含まれるEvidential Deep Learning (EDL) のサーベイ
- 論文リポジトリも公開されている。GitHub – MengyuanChen21/Awesome-Evidential-Deep-Learning: A curated publication list on evidential deep learning.
Abstractive Text Summarization: State of the Art, Challenges, and Improvements
- Abstractive Text Summarization: State of the Art, Challenges, and Improvements [6.3]
このレビューでは、最先端のメソッド、課題、ソリューション、比較、制限、将来の改善をチャートアップする包括的なアプローチを取り上げる。 本論文は,不適切な意味表現,事実整合性,制御可能なテキスト要約,言語間要約,評価指標などの課題を強調する。
論文 参考訳(メタデータ) (Wed, 04 Sep 2024 03:39:23 GMT) - 抽象型要約のサーベイ。LLMより前の手法から紹介されている。
- 今後の方向性として「Enhancing factual consistency, developing cross-lingual and multilingual summarization systems, concentrating on domain-specific summarization, dealing with noisy data, and enhancing long-document summarization are a few of these research directions.」が挙げられている。
Towards a Unified View of Preference Learning for Large Language Models: A Survey
- Towards a Unified View of Preference Learning for Large Language Models: A Survey [89.7]
大きな言語モデル(LLM)は、非常に強力な能力を示す。 成功するための重要な要因の1つは、LLMの出力を人間の好みに合わせることである。 選好学習のすべての戦略を、モデル、データ、フィードバック、アルゴリズムの4つの構成要素に分解する。
論文 参考訳(メタデータ) (Wed, 04 Sep 2024 15:11:55 GMT) - LLM構築で重要なPreference Learningのサーベイ
- リポジトリはGitHub – KbsdJames/Awesome-LLM-Preference-Learning: The official repository of our survey paper: “Towards a Unified View of Preference Learning for Large Language Models: A Survey”
Large Language Model-Based Agents for Software Engineering: A Survey
- Large Language Model-Based Agents for Software Engineering: A Survey [20.3]
近年のLarge Language Models(LLM)の進歩は、AIエージェント、すなわちLLMベースのエージェントの新しいパラダイムを形成している。 我々は106の論文を収集し、それらを2つの視点、すなわちSEとエージェントの観点から分類する。 さらに、この重要な領域におけるオープンな課題と今後の方向性についても論じる。
論文 参考訳(メタデータ) (Wed, 04 Sep 2024 15:59:41 GMT) - ソフトウェアエンジニアリングにおけるLLM based Agentのサーベイ
- リポジトリもある。GitHub – FudanSELab/Agent4SE-Paper-List: Repository for the paper “Large Language Model-Based Agents for Software Engineering: A Survey”.
The Effects of Generative AI on High Skilled Work: Evidence from Three Field Experiments with Software Developers by Zheyuan (Kevin) Cui, Mert Demirer, Sonia Jaffe, Leon Musolff, Sida Peng, Tobias Salz :: SSRN
「Though each separate experiment is noisy, combined across all three experiments and 4,867 software developers, our analysis reveals a 26.08% increase (SE: 10.3%) in the number of completed tasks among developers using the AI tool.」という報告もあり、ソフトウェアエンジニアリングにおけるAI活用はどんどん進んでいくのだろうか。
Claim Verification in the Age of Large Language Models: A Survey
- Claim Verification in the Age of Large Language Models: A Survey [37.3]
本稿では,Large Language Models (LLMs) を用いた最近のクレーム検証フレームワークについて概説する。 これらのフレームワークで使用されるクレーム検証パイプラインのさまざまなコンポーネントを詳述する。
論文 参考訳(メタデータ) (Mon, 26 Aug 2024 14:45:03 GMT) - LLM時代のclaim verification (fact verification)に関するサーベイ。
- LLMによって大きな影響を受けている分野