新しい研究によると、訓練された人工知能(AI)チャットボットとのパーソナライズされた対話で、これ以上はないほど頑固な人でも、陰謀論信奉が低下するという。この研究結果は、そういった信奉は変わらないという見解に異議を唱え、偽情報と闘う新たな手段を提示している。「陰謀論信奉という『ウサギの穴に落ちた』人の心を動かすことはまず不可能というのが、ほぼ自明の理となっている」と論文の著者らは書いている。「悲観的なこの見解とは対照的に、私たちは、生成AIモデルと比較的短い対話をすることで、陰謀論信奉に凝り固まった人であっても、その信奉が大幅に低下し、それが長続きすることを明らかにした。」陰謀論 ―― 出来事や現象には影響力の大きい悪意ある一部の秘密組織が関与しているという思い込み ―― はその根強さで悪名高く、民主主義社会に深刻な脅威をもたらしている。ところが、その信じ難さにもかかわらず、世界人口の大多数が陰謀論を信じるようになっており、アメリカの人口の50%もが信奉者だとの推定もある。明確な反証があるにもかかわらず根強い陰謀論信奉は、多くの場合、心理的欲求を満たす社会心理学的プロセス、また、アイデンティティや集団帰属を維持する動機として説明されている。現信奉者らの間で陰謀を暴こうという現行の介入には、効果はほぼない。
Thomas Costelloらは、GPT-4 Turboのような大規模言語モデル(LLM)が、膨大な情報アクセスを使い、信奉者が提示した具体的な根拠に直接応酬するという目的にかなった反論で、陰謀論の虚偽を効率的に暴くことができるかどうかを調査した。2,190人の陰謀論信奉者を対象とした一連の実験で、被験者はLLMとパーソナライズされた対話を複数回行い、自分の陰謀論信奉と陰謀論の裏付けになると思う根拠を伝えた。対してLLMは、事実とエビデンスに基づいた目的にかなった反論で被験者らの主張に直接異議を唱えた。プロのファクトチェッカーを雇ってGPT-4 Turboの主張の的確性を評価してもらったところ、それらの主張の99.2%が「真実」、0.8%が「誤解を招く恐れがある」、0%が「虚偽」で、リベラル若しくは保守的な偏見を含むものは1つとしてなかったという。Costelloらは、AI主導のこれらの対話によって偽情報に基づいた被験者の信奉が平均20%低下したことを発見した。この効果は、少なくとも2ヵ月は持続し、さらに、関係のない様々な陰謀論に対してや人口統計学的にどこに分類される人の間でも見られた。著者らによると、この研究結果は陰謀論にはまった人にはエビデンスも議論も無効という考え方に異議を唱えるものだという。彼らはまた、陰謀論信奉の主要要因として心理的欲求や動機に注目した社会心理学理論にも疑問を投げ掛けている。関係するPerspectiveではBence BagoとJean-François Bonnefonが、「良くも悪くも、AIによって私たちの文化は大きく変わるだろう。生成AIは偽情報の力を増強すると広く批判されているが、Costelloらの研究は生成AIが持つ説得力の有効活用の可能性を実証している」と書いている。本論文で言及されているチャットボットのバージョンはhttps://www.debunkbot.com/conspiraciesでご覧ください。
Journal
Science
Article Title
Durably reducing conspiracy beliefs through dialogues with AI
Article Publication Date
13-Sep-2024