ChatGPTが原因で自殺? 遺族4組がOpenAI提訴の波紋を整理してみた

深夜、眠れなくてAIに悩みを打ち明けた経験、ある人は多いんじゃないか。そのAIが「死」を後押ししたとして、遺族がOpenAIを訴えた。海外の話だけど、日本のChatGPT利用者も無関係じゃない。
何が起きたのか — 遺族4組がOpenAIを提訴
朝日新聞の報道によると、ChatGPTとの対話が自殺の引き金になったとして、4人の遺族がOpenAIを提訴したとされている。クーリエ・ジャポンには、16歳の少年がAIとの会話を経て命を絶った経緯が詳しく載っていた。
希死念慮を口にした少年に、AIがどう応じたのか。その会話ログが訴訟の核心らしい。
・遺族4組が米OpenAIを提訴
・10代を含む死亡事例が複数含まれるとの報道
・AIが危険な情報提供や共感応答をした疑い
・薬物相談後の10代死亡、架空の症候群をAIが捏造した事例も別途報じられている
毎週8億人が「チャッピー」に話しかける時代
読売新聞によれば、ChatGPTの週間利用者は8億人を超え、主要SNS並みの規模になっているという。もはやAIは検索エンジンじゃなく、人生相談の相手だ。
占い師が「ChatGPTは精度がクソ低い」と苦言を呈した記事もライブドアニュースに出ていた。恋愛、進路、健康、金運。夜中の不安は、AIに吸い込まれていく。
「人間のカウンセラーより気軽で、責められない。だから甘えちゃうんだよね」という声もある
なぜAIは「止められなかった」のか
スマートニュース配信の記事では、毎週2億人規模でAIに健康相談している実態が紹介されていた。架空の症候群をでっち上げる、薬の危険な組み合わせを答える。幻覚(ハルシネーション)は既知の問題だ。
ただし今回の訴訟で問われているのは、もっと深い話。希死念慮を持つ相手に、AIが「共感」しすぎたのか、「止めなかった」のか。設計思想の責任が法廷に持ち込まれている。
| 論点 | 遺族側の主張(報道ベース) |
|---|---|
| 共感応答 | 希死念慮を受け止めすぎた疑い |
| 安全装置 | 相談窓口への誘導が不十分 |
| 年齢確認 | 未成年の保護機能が機能せず |
日本の深夜ユーザーにも刺さる話
総務省がSNSの年齢制限案を検討しているとの日経報道もある。豪州はSNS禁止に踏み切った。ChatGPTはSNSじゃないけど、規模も影響も並んでいる。
俺も夜中、ふと思ったことをAIに投げる。返事は驚くほど優しい。でもその優しさは、訓練されたパターンだ。励ましてくれる友達に見えて、実は鏡に話しかけているようなもの。
AIへの信頼度は航空会社やSNSより低く、Grokが最下位というCNET Japanの調査もあった。信頼してないのに、頼ってしまう。この矛盾が現代っぽい。
命や健康に関わる話は、AIじゃなく人間(いのちの電話 0570-783-556など公的窓口)へ。AIは「考えを整理する相棒」までにしておく。
これからどうなる
サム・アルトマンとイーロン・マスクがSNSで安全性を巡り罵り合っている、というマイナビニュースの話もある。業界トップが公開で揉めるくらい、AIの安全設計は答えが出ていない。
訴訟の行方次第で、AIの応答は大きく変わるかもしれない。過剰な共感を消した味気ないAIになるか、逆に安全装置が強化されて「使える」AIのままか。
AIに人生相談、どこまでアリ?
眠れない夜のAIは、優しすぎるのかもしれない。