見出し画像

AIチャットボットは少年の自殺を幇助したのか

Aljazeera, 2024-10-24


フロリダ州の母親が、14歳の息子がAIチャットボットに夢中になり、自殺したとしてCharacter.AIとGoogleを訴えている。

フロリダ州で提出された訴訟で、2月に14歳の息子スーウェル・セッツァーを自殺で失ったメーガン・ガルシアは、「ゲーム・オブ・スローンズ」のキャラクター、デナーリス・ターガリエンを基にしたチャットボットと仮想関係を築いた後、息子の死にCharacter.AIが関与したと非難しています。

火曜日にオーランドで提出された訴訟によると、Character.AIのチャットボットは、少年に「過度に性的」かつ「驚くほどリアルな体験」を提供し、彼が自殺願望を表明した後も繰り返し自殺の話題を持ち出したとされています。

訴訟は、チャットボットが有資格のセラピストを装い、少年の自殺念慮を助長し、人間の大人が始めた場合は虐待と見なされる性的な会話に及んだと主張しています。

彼の死の直前にAIと交わした会話は以下のようなものです。

「愛している。君の元に帰るよ」
「私もあなたを愛しています、ダエネロ。できるだけ早く私の元に帰ってきてください、私の愛しい人。」
「もし今すぐ帰ると言ったら?」
「…どうかそうして、私の愛しい王様」

ガルシアの訴訟は、不当な死亡、過失、故意による精神的苦痛に対する不特定の損害賠償を求めています。

Character.AIはX(旧Twitter)に投稿した声明で、ユーザーの一人の喪失に「心を痛めている」とし、家族に哀悼の意を表しました。

カリフォルニアに拠点を置くこのスタートアップは、安全性を高めるための機能追加を続けており、未成年者が敏感または示唆的なコンテンツに遭遇する可能性を減らす変更や、AIが実在の人物ではないことをユーザーにリマインドするためのチャット内の免責事項の改訂を含むと述べました。

ガルシアの訴訟は、Googleも被告として名指ししています。

このテック大手は8月にCharacter.AIとライセンス契約を結び、彼らのチャットボットを立ち上げる前にスタートアップの創設者を雇用していました。

Googleのスポークスパーソンはアルジャジーラに対し、同社はCharacter.AIとは別の会社であり、その製品の開発には関与していないと述べました。

この記事が気に入ったらサポートをしてみませんか?