Can Large Language Model Agents Simulate Human Trust Behaviors?

  • Can Large Language Model Agents Simulate Human Trust Behaviors? [75.7]
    大規模言語モデル(LLM)エージェントは、社会科学などの応用において人間をモデル化するためのシミュレーションツールとして、ますます採用されている。 本稿では,人間同士のインタラクションや信頼の最も重要な行動の一つに焦点をあて,LLMエージェントが人間の信頼行動をシミュレートできるかどうかを検討する。
    論文  参考訳(メタデータ)   (Wed, 7 Feb 2024 03:37:19 GMT)
  • LLMエージェントの行動(?)分析。下記がFindingsとのことだが人っぽい動きだなーという印象のほか、モデルによって動作が異なるもの興味深い。
  • LLM agents generally exhibit trust behaviors under the framework of Trust Game.
  • LLM agents’ trust behaviors can exhibit high behavioral alignment with those of humans over behavioral factors, including reciprocity anticipation, risk perception, prosocial preference, and behavioral dynamics.
  • LLM agents’ trust behaviors have demographic biases, have a relative preference towards humans compared to agents, are easier to be undermined than to be enhanced, and can be influenced by reasoning strategies.
  • プロジェクトサイトはCAMEL-AI – AgentTrust、リポジトリはcamel-ai/agent-trust: The code for “Can Large Language Model Agents Simulate Human Trust Behaviors?” (github.com)

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です