コンテンツへスキップ
- Counterfactual reasoning: an analysis of in-context emergence [49.6]
大規模ニューラルネットワークモデル(LM)は、文脈内学習において顕著な性能を示す。 この研究は、言語モデルにおける文脈内対実的推論、すなわち仮説的シナリオの下での変化の結果を予測することを研究する。
論文 参考訳(メタデータ) (Thu, 05 Jun 2025 16:02:07 GMT)
- 「we provide insights into how in-context counterfactual reasoning is equivalent to transformations on in-context observations (Lemma 1). 」、「 we empirically show that language models can perform in-context counterfactual reasoning」とのこと。
- Interpretable LLMs for Credit Risk: A Systematic Review and Taxonomy [0.0]
大規模言語モデル(LLM)は、財務文書の分析を通じて信用リスクの評価を可能にする。 本稿では、信用リスク推定におけるLSMに基づくアプローチに着目した、最初の体系的レビューと分類について述べる。
論文 参考訳(メタデータ) (Wed, 04 Jun 2025 10:24:40 GMT)
- LLMを使った信用リスク評価のサーベイ