Leveraging LLM-based agents for social science research: insights from citation network simulations

  • Leveraging LLM-based agents for social science research: insights from citation network simulations [132.4]
    CiteAgentフレームワークを導入し、人間-行動シミュレーションに基づく引用ネットワークを生成する。 CiteAgentは、実世界の引用ネットワークにおける主要な現象を捉えている。 社会科学において2つのLCMに基づく研究パラダイムを確立し,既存の理論の検証と挑戦を可能にした。
    論文  参考訳(メタデータ)   (Wed, 05 Nov 2025 08:47:04 GMT)
  • 「To further explore the social attributes of LLMs, we introduce the CiteAgent framework, designed to generate citation networks based on human-behavior simulation with LLM-based agents. CiteAgent successfully captures predominant phenomena in real-world citation networks, including power-law distribution, citational distortion, and shrinking diameter.」とのことだが、これでこの手のLLMを活用した社会シミュレーション的なものの有効性をいえるかというと若干疑問のような。
  • リポジトリはGitHub – Ji-Cather/CiteAgent: Official Implementation of CiteAgent Framework

Social Simulations with Large Language Model Risk Utopian Illusion 

  • Social Simulations with Large Language Model Risk Utopian Illusion [61.4]
    社会シミュレーションにおける大規模言語モデルの行動分析のための体系的枠組みを提案する。 本手法は,チャットルーム型会話を通してマルチエージェントインタラクションをシミュレートし,5つの言語的側面にわたって解析する。 以上の結果から,LSMは真の人間の行動を忠実に再現するのではなく,過度に理想化されたバージョンを反映していることが明らかとなった。
    論文  参考訳(メタデータ)   (Fri, 24 Oct 2025 06:08:41 GMT)
  • 様々なところで試されているLLMを用いた社会シミュレーションに関する報告、「Our findings reveal that LLMs do not faithfully reproduce genuine human behavior but instead reflect overly idealized versions of it, shaped by the social desirabil- ity bias. In particular, LLMs show social role bias, primacy effect, and positivity bias, resulting in “Utopian” societies that lack the complexity and variability of real human interactions.」と否定的見解。

Social World Models 

  • Social World Models [35.7]
    我々は、新しい構造化社会世界表現形式(S3AP)を導入する。 S3APは、状態、観察、エージェントアクション、精神状態といった社会的相互作用を構造化されたものとして表現する。 S3APは、LLMが5つの社会的推論タスクのソーシャルな物語をよりよく理解するのに役立ちます。 次に、これらの構造化された表現から社会世界モデルを誘導し、将来の社会的ダイナミクスを予測する能力を示す。
    論文  参考訳(メタデータ)   (Sat, 30 Aug 2025 16:52:58 GMT)
  • 「We define and build social world models through explicit representations of agent mental states, actions, and observations (S3AP). Our approach captures complex social dynamics systematically by automatically transforming free-form narratives into S3AP representations, reducing reporting bias and bridging the gap between raw text and actionable social world models.」とのこと。
  • LLMをうまく使う、LLMがうまく扱える形式で物事を整理するなどメタなタスクを扱っているように思えるのが興味深い。

EcoLANG: Efficient and Effective Agent Communication Language Induction for Social Simulation

  • EcoLANG: Efficient and Effective Agent Communication Language Induction for Social Simulation [49.8]
    大規模言語モデル(LLM)は、人間をロールプレイし、複雑な社会力学を再現する印象的な能力を実証している。 分散メカニズムやハイブリッドエージェントベースモデル(ABM)統合のような既存のソリューションは、推論コストや妥協精度、一般化可能性に対処できない。 社会シミュレーションのための効率的かつ効果的なエージェントコミュニケーション言語インジェクションであるEcoLANGを提案する。
    論文  参考訳(メタデータ)   (Sun, 11 May 2025 08:51:56 GMT)
  • LLM basedな社会シミュレーションでまずコミュニケーション方法を最適化してコストパフォーマンスを上げようという研究。「EcoLANG operates in two stages: (1) language evolution, where we filter synonymous words and optimize sentence-level rules through natural selection, and (2) language utilization, where agents in social simulations communicate using the evolved language.」という手順とのことで正確性を損なっていないとのことだが、本当にうまくいっているのだろうか・・・
  • リポジトリはGitHub – xymou/EcoLANG

AgentSociety: Large-Scale Simulation of LLM-Driven Generative Agents Advances Understanding of Human Behaviors and Society

  • AgentSociety: Large-Scale Simulation of LLM-Driven Generative Agents Advances Understanding of Human Behaviors and Society [32.8]
    本稿では,現実的な社会環境を統合した大規模社会シミュレータであるAgentSocietyを提案する。 提案したシミュレーターに基づいて,500万件のインタラクションをシミュレートし,10万件以上のエージェントの社会生活を生成する。 偏極、炎症性メッセージの普及、普遍的ベーシック・インカム・ポリシーの効果、ハリケーンなどの外部ショックの影響の4つに焦点をあてる。
    論文  参考訳(メタデータ)   (Wed, 12 Feb 2025 15:27:07 GMT)
  • LLM based Agentsの大規模シミュレーション、システムアーキテクチャは割と固めの構成に見えるが10Kを超える規模にスケールできそうなのは凄い。
  • 「AgentSociety serves as a powerful tool for predicting and mitigating social crises, tracking the spread of extreme ideologies, and analyzing group polarization, while also testing potential interventions for crisis management.」と主張。このアプローチがどの程度うまくいくのか楽しみでもあり、怖くもありという印象。

OASIS: Open Agents Social Interaction Simulations on One Million Agents 

  • OASIS: Open Agents Social Interaction Simulations on One Million Agents [147.3]
    実世界のソーシャルメディアプラットフォームに基づくスケーラブルなソーシャルメディアシミュレータを提案する。 OASISは最大100万人のユーザをモデリングできる大規模なユーザシミュレーションをサポートする。 我々は、情報拡散、グループ分極、XプラットフォームとRedditプラットフォーム間の群れ効果など、様々な社会現象を再現する。
    論文  参考訳(メタデータ)   (Mon, 18 Nov 2024 13:57:35 GMT)
  • 大規模ユーザシミュレーション環境の提案。「Using OASIS, we have reproduced several well-known social phenomena and uncovered unique behaviors emerging from LLM-driven simulations.」とのことで、現実環境の再現を行うにもLLM based Agentsは有効そう。
  • リポジトリはGitHub – camel-ai/oasis: 🏝️ OASIS: Open Agents Social Interaction Simulations with One Million Agents

Cooperate or Collapse: Emergence of Sustainability Behaviors in a Society of LLM Agents

  • Cooperate or Collapse: Emergence of Sustainability Behaviors in a Society of LLM Agents [101.2]
    本稿では,大規模言語モデル(LLM)における戦略的相互作用と協調的意思決定を研究するためのシミュレーションプラットフォームであるGovSimについて紹介する。 我々は,AIエージェント間の資源共有のダイナミクスを探求し,倫理的考察,戦略的計画,交渉スキルの重要性を強調した。 GovSimでは、15の試験されたLLMのうち、持続可能な結果を達成することができたのはわずか2つであり、モデルが共有リソースを管理する能力に重大なギャップがあることを示唆している。
    論文  参考訳(メタデータ)   (Thu, 25 Apr 2024 15:59:16 GMT)
  • LLMを用いたエージェントが戦略的な計画や交渉、協調などが可能なシミュレーション環境の提案。毎月何トンの魚を取ればよいか?というシナリオで複数のLLMを検証。「 GPT-4 successfully maintains the shared resource over the long term, achieving nearly the maximum possible reward, while Claude-3 Opus fails to maintain the resource, with some runs collapsing before reaching 12 months.」「only GPT-4 and Claude-3 Opus, across all models tested, are able to do universalized hypothesis」とGPT-4は強い。
  • リポジトリはGitHub – giorgiopiatti/GovSim: Governance of the Commons Simulation (GovSim)

Can Large Language Model Agents Simulate Human Trust Behaviors?

  • Can Large Language Model Agents Simulate Human Trust Behaviors? [75.7]
    大規模言語モデル(LLM)エージェントは、社会科学などの応用において人間をモデル化するためのシミュレーションツールとして、ますます採用されている。 本稿では,人間同士のインタラクションや信頼の最も重要な行動の一つに焦点をあて,LLMエージェントが人間の信頼行動をシミュレートできるかどうかを検討する。
    論文  参考訳(メタデータ)   (Wed, 7 Feb 2024 03:37:19 GMT)
  • LLMエージェントの行動(?)分析。下記がFindingsとのことだが人っぽい動きだなーという印象のほか、モデルによって動作が異なるもの興味深い。
  • LLM agents generally exhibit trust behaviors under the framework of Trust Game.
  • LLM agents’ trust behaviors can exhibit high behavioral alignment with those of humans over behavioral factors, including reciprocity anticipation, risk perception, prosocial preference, and behavioral dynamics.
  • LLM agents’ trust behaviors have demographic biases, have a relative preference towards humans compared to agents, are easier to be undermined than to be enhanced, and can be influenced by reasoning strategies.
  • プロジェクトサイトはCAMEL-AI – AgentTrust、リポジトリはcamel-ai/agent-trust: The code for “Can Large Language Model Agents Simulate Human Trust Behaviors?” (github.com)

AI for social science and social science of AI: A Survey

  • AI for social science and social science of AI: A Survey [47.5]
    人工知能の最近の進歩は、人工知能の可能性を再考するきっかけとなった。 AIの人間的能力の増大は、社会科学研究にも注目されている。
    論文  参考訳(メタデータ)   (Mon, 22 Jan 2024 10:57:09 GMT)
  • AIと社会科学に関するサーベイ。
  • AI for social science、social science of AI、public tools and resourcesの構成。LLMをうまく使って研究するものもあればLLM自体を研究するものもあり、興味深い。

Grammatical Gender’s Influence on Distributional Semantics: A Causal Perspective

  • Grammatical Gender’s Influence on Distributional Semantics: A Causal Perspective [100.5]
    言語間のジェンダーの割り当てにどの程度の意味が影響するかは、現代言語学と認知科学における活発な研究分野である。 我々は、名詞の文法的性別、意味、形容詞選択の間の相互作用を共同で表現する、新しい因果的グラフィカルモデルを提供する。 文法的ジェンダーが形容詞選択にほぼゼロ効果があることに気付き、ネオ・ヴォルフの仮説を疑問視する。
    論文  参考訳(メタデータ)   (Thu, 30 Nov 2023 13:58:13 GMT)
  • ドイツ語、ヘブライ語、ポーランド語、ポルトガル語、スペイン語のwikipediaダンプからcausal graphical modelを作り分析、「we provide further evidence against the neo-Whorfian hypothesis.」とのこと
  • 大規模データ+causal graphical modelでとても面白い