個人情報を利用したGPT-4は人間を説得することが人間よりうまい(2024)
The development and popularization of large language models (LLMs) have raised concerns that they will be used to create tailor-made, convincing arguments to push false or misleading narratives online. Early work has found that language models can generate content perceived as at least on par and often more persuasive than human-written messages. However, there is still limited knowledge about LLMs' persuasive capabilities in direct conversations with human counterparts and how personalization can improve their performance. In this pre-registered study, we analyze the effect of AI-driven persuasion in a controlled, harmless setting. We create a web-based platform where participants engage in short, multiple-round debates with a live opponent. Each participant is randomly assigned to one of four treatment conditions, corresponding to a two-by-two factorial design: (1) Games are either played between two humans or between a human and an LLM; (2) Personalization might or might not be enabled, granting one of the two players access to basic sociodemographic information about their opponent. We found that participants who debated GPT-4 with access to their personal information had 81.7% (p < 0.01; N=820 unique participants) higher odds of increased agreement with their opponents compared to participants who debated humans. Without personalization, GPT-4 still outperforms humans, but the effect is lower and statistically non-significant (p=0.31). Overall, our results suggest that concerns around personalization are meaningful and have important implications for the governance of social media and the design of new online environments.
"LLMは、人間よりもはるかに効果的に個人情報を利用して議論を展開できる"を具体的に
LLMは、与えられた個人情報を巧みに利用し、相手の背景や特性に合わせて議論を展開することができます。例えば、以下のようなことが可能です。
一方、人間は、与えられた個人情報を効果的に活用することが難しく、時には逆効果になることもあります。人間は、個人情報を利用する際に、倫理的な懸念を抱いたり、情報の解釈や適用に悩んだりする可能性があります。また、個人情報を不適切に使用してしまい、相手に不快感を与えてしまうリスクもあります。
LLMは、これらの人間の弱点を持たずに、個人情報を効率的かつ効果的に利用して説得力のある議論を展開できるのです。
どのような実験をして、個人情報を利用した場合にどのような定量的な結果が出た?
この研究では、4つの実験条件を設定し、個人情報の利用が説得力に与える影響を定量的に評価しました。
実験の流れは以下の通りです:
実験の結果、以下のような定量的な結果が得られました:
これらの結果から、LLMは個人情報を効果的に利用して説得力を高められるが、人間はそれが難しいことが定量的に示されました。特に、個人情報を利用したGPT-4は、人間対人間の条件と比べて有意に説得力が高いことが明らかになりました。