Can Large Language Model Agents Simulate Human Trust Behaviors?
Can Large Language Model Agents Simulate Human Trust Behaviors? [75.7] 大規模言語モデル(LLM)エージェントは、社会科学などの応用において人間をモデル化するためのシミュレーションツールとして、ますます採用されている。 本稿では,人間同士のインタラクションや信頼の最も重要な行動の一つに焦点をあて,LLMエージェントが人間の信頼行動をシミュレートできるかどうかを検討する。 論文参考訳(メタデータ) (Wed, 7 Feb 2024 03:37:19 GMT)
LLM agents generally exhibit trust behaviors under the framework of Trust Game.
LLM agents’ trust behaviors can exhibit high behavioral alignment with those of humans over behavioral factors, including reciprocity anticipation, risk perception, prosocial preference, and behavioral dynamics.
LLM agents’ trust behaviors have demographic biases, have a relative preference towards humans compared to agents, are easier to be undermined than to be enhanced, and can be influenced by reasoning strategies.