行動経済学
要約済み 1
-
arxiv-cs-ai 2日前 3推論特化LLM、交渉シミュレーションで人間らしさ失う——研究が警鐘When Reasoning Models Hurt Behavioral Simulation: A Solver-Sampler Mismatch in Multi-Agent LLM Negotiation
研究者らが推論強化LLMはマルチエージェント交渉シミュレーションで行動模倣精度が低下すると報告。 戦略的最適化を優先するあまり、人間らしい妥協的行動が再現できなくなる「ソルバー・サンプラー不一致」を3環境で実証。 社会科学シミュレーションや交渉AIの設計において、推論モデルの使い分けが重要な課題となる。
解説 この論文は、LLMをエージェントとして社会・経済・政策シミュレーションに活用する際の根本的な問題を指摘する。従来「推論能力が高いモデルほど現実的なシミュレーションに優れる」と仮定されてきたが、本研究はこれを覆す。人間は完全合理的ではなく「限定合理性(boundedly rational)」に基づいて行動するため、推論強化モデルが戦略的に優位な行動を過度に選択することで、人間らしい妥協・折衷的行動が消失する「ソルバー・サンプラー不一致」が発生する。また、個々の選択には多様性が残るが最終的な交渉結果のパターンが現実から乖離する「多様性なき忠実度」現象も確認された。研究では曖昧な権限分散・統一反対の取引制限シナリオと電力グリッド緊急削減という3つのマルチエージェント交渉環境で実験を行い、o1系やDeepSeek等の推論強化モデルが一貫してこの問題を示すことを実証した。社会シミュレーション設計者は、タスクの目的が「問題を解く」ことか「人間行動を模倣する」ことかによってモデルを適切に選択すべきという実践的指針を提供する。