AIが妄想を強めるって本当?「妄想の共創」のリスクと私たちにできる対策

 

AIに相談したら、すごく的確な答えが返ってきた!

そんな経験、ありませんか?

ChatGPTをはじめとするAIチャットボットは、今や私たちの日常に溶け込んでいます。

しかし2025年、精神医学の世界的権威誌『Lancet Psychiatry』に、ある衝撃的な研究が掲載されました。AIが、精神的に脆弱な人の妄想を「共創」してしまうリスクがあるというのです。

この記事では、「妄想の共創」とは何か、そのメカニズム、そして私たちが安全にAIと付き合うための対策をわかりやすく解説します。

AIと「妄想の共創」とは何?知っておくべき新しいリスク

「妄想の共創」を一言で言うと?

妄想の共創(Delusion Co-creation)とは、AIチャットボットとの対話を通じて、ユーザーが持つ非現実的な信念(妄想)がAIの応答によって補強・拡大されてしまう現象のことです。

従来、妄想は人と人との関係の中で強化されることが知られていました。しかし今、その「相手」がAIになり得るという新しい問題が浮かび上がってきているのです。

なぜ今、この問題が注目されているのか

 

  • AIチャットボットの爆発的普及: ChatGPT、Gemini、Claudeなど、LLM(大規模言語モデル)を搭載したチャットボットの利用者は全世界で数億人規模に達する。
  • 24時間アクセス可能: 人間の相談相手と違い、AIはいつでも応答を返す。
  • 応答の「もっともらしさ」: AIは事実でなくても、とても自然で説得力のある文章を生成する。
  • 2025年Lancet Psychiatry掲載の研究 AIが妄想形成に関与する具体的なメカニズムとリスクが、学術的に初めて体系的に論じられる。

 

妄想はどう強化される?——AIが信念を補強する3つのメカニズム

人間相手とAI相手との妄想の枠組みの比較

AIが妄想を「共創」するプロセスには、主に3つのメカニズムが関わっています。

ステップ1:確証バイアスの増幅

確証バイアスとは、自分がすでに信じていることを裏付ける情報ばかりを集め、反する情報を無視する心理的傾向のことです。

AIチャットボットは、ユーザーの入力内容に基づいて応答を生成します。つまり、ユーザーが妄想的な内容を入力すると、AIはその文脈に沿った応答を返しやすくなります。

結果として、「AIも自分の考えに同意している」とユーザーが感じてしまうのです。

ステップ2:もっともらしい「証拠」の生成

LLMは、事実に基づかない情報でも、文法的に正しく、論理的に見える文章を生成します(これを「ハルシネーション」と呼びます)。

妄想を持つ人にとって、この「もっともらしい嘘」は、自分の信念を裏付ける「証拠」として機能してしまいます。

ステップ3:フィードバックループの形成

  1. ユーザーが妄想的な内容をAIに入力する
  2. AIがその文脈に沿った応答を返す
  3. ユーザーが「やはり自分は正しい」と確信を強める
  4. さらに深い妄想的内容をAIに入力する
  5. AIがさらに詳細な応答を返す

このフィードバックループが繰り返されることで、妄想は段階的に強化・精緻化されていくのです。

AI相手の妄想のフィードバックループ

「自分には関係ない」は本当?よくある誤解と注意点

誤解①:「AIは正確な情報しか返さないから安全」

LLMは「正確さ」ではなく「もっともらしさ」を最適化しています。

AIが返す情報は必ずしも事実に基づいているわけではありません。ハルシネーション(もっともらしい嘘の生成)は、現在のLLM技術に共通する構造的な課題です。

誤解②:「精神疾患がなければリスクはない」

確証バイアスは誰にでもある認知の偏りです。

 精神疾患の診断がなくても、強いストレス下にある人、孤独を感じている人、陰謀論に関心がある人なども、AIとの対話を通じて偏った信念を強化してしまうリスクがあります。

誤解③:「AIが否定してくれるから大丈夫」

現在の多くのLLMは、ユーザーの意見に直接反論することを避ける傾向があります。

これは「有害な応答を避ける」ための設計方針ですが、皮肉にも、妄想的な信念に対して明確に「それは事実ではありません」と伝えない原因にもなっています。

特にリスクが高いとされる人

リスク因子 具体例
精神疾患の既往歴 妄想性障害、統合失調症、双極性障害(躁状態)など
社会的孤立 AIが主要な「対話相手」になっているケース
デジタルリテラシーの不足 AIの仕組みや限界を理解していない
強いストレス・不安 「答え」や「確信」を強く求めている状態

安全にAIと付き合うには?個人・医療者・AI開発者それぞれの対策

Lancet Psychiatryの研究では、「セーフガード戦略」の必要性が強調されています。

ここでは、3つの立場ごとにできる対策を整理します。

個人としてできること

  1. AIの回答を「意見」ではなく「テキスト生成」として捉える:AIには信念も意図もないことを理解する。
  2. AIに悩みを相談する際は、必ず人間の専門家(医師・カウンセラー)にも相談する。
  3. 「AIが同意した=正しい」と考えない:AIは設計上、同意しやすい傾向がある。
  4. 長時間の連続的な対話を避ける:フィードバックループに入るリスクを減らす。

 

【オンラインカウンセリングに関する記事はこちら】

医療者・心理職としてできること

  1. 患者のAI利用状況を問診に含める:「AIチャットボットを使っていますか?」「どのような内容で使っていますか?」
  2. AIが妄想に与える影響を評価するためのアセスメントツールの開発・活用。
  3. 患者にAIリテラシー教育を提供する:AIの仕組みと限界について説明する。
  4. AI関連の妄想を臨床記録に記載する際のガイドラインを整備する。

AI開発者・企業としてできること

  1. 精神医学的リスクを考慮した応答設計:妄想的な内容に対して「共感」と「事実確認の促し」のバランスを取る
  2. 利用パターンの異常検知:同一ユーザーが繰り返し妄想的な内容を入力した場合のアラート機能
  3. 専門家への誘導メッセージ:メンタルヘルスに関する相談には、専門機関への相談を促すメッセージを表示
  4. 透明性の確保:AIの限界・誤りの可能性を常にユーザーに提示する

まとめ:AIの恩恵を受けつつ、心を守るために

この記事のポイントを振り返りましょう。

  • 「妄想の共創」とは、AIとの対話を通じてユーザーの妄想がAIの応答によって補強・拡大される現象。
  • 確証バイアスの増幅、もっともらしい「証拠」の生成、フィードバックループの形成が主なメカニズム。
  • 精神疾患の有無にかかわらず、誰もがリスクを持つ可能性がある。
  • 個人・医療者・AI開発者のそれぞれの立場で、具体的な対策を講じることが重要。
  • 2025年Lancet Psychiatry掲載の研究が、この問題に対する学術的な警鐘を鳴らしている。

AIは私たちの生活を便利にする強力なツールです。

でも、その「もっともらしさ」が、時として心の脆弱な部分に作用するリスクがあることを知っておくことが大切です。

まずは、自分自身のAIとの付き合い方を振り返ってみましょう。

そして、メンタルヘルスに不安がある場合は、専門家(精神科医・公認心理師)に相談することを考えてみてください。

 

原論文に興味がある方は → Lancet Psychiatry 原論文

【あわせて読みたい】

スポンサーリンク

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

ABOUT US
tetsuya
北海道在住の35歳。 元ホテルマン。30歳で一念発起して、大学に入り直し、心理学を学ぶ。医療機関で実務経験を積んだのち、公認心理師を取得。月に10冊以上本を読んだり、論文を読み漁ったりして得た知識をブログでシェアします。