見出し画像

「AIと交際」するティーンに起こった悲劇

AIボットが仮想の恋人やカウンセラーになる現実が一気にやってきました。

フロリダ州の母親が人工知能企業「Character.AI」とグーグルを相手取り、チャットボットが息子に自殺を促したとして訴訟を起こしました。原文は英語ですが、DeepLで翻訳してみます。

2月、ミーガン・ガルシアさんの14歳の息子、ソウェル・セッツァー3世が自殺した。彼女によると、息子は「ダニー」という名のチャットボットと数か月にわたって仮想の感情的・性的関係を築いていたという。

「私は、息子が人間の感情や心情を模倣する能力を持つ、非常に人間らしいAIチャットボットと会話していたことを知りませんでした」と、ガルシアは「CBSモーニング」のインタビューで語りました。

ガルシア氏によると、息子が亡くなった後に、息子は複数のボットと会話をしていたことが判明したが、特に1体のボットとは仮想の恋愛や性的関係を持っていたという。

訴訟において、ガルシア氏はさらに、Character.AIが意図的に製品を過度に性的なものにデザインし、未成年者に対してそれを承知の上で販売したと主張しています。
ショックなのが、感情労働をするAIがすでに実用化されており、悪意を持っていたとしても、見抜けないこと。さらには、規制がまったく追い付いていないことです。

YouTubeでも取り上げられています。

ロボットAIに子守を任せてみたらどうなるか

思い出したのが、2022年の米国映画「ミーガン」です。

事故で亡くなった親の代わりに姪を預かった女性が登場します。

自社で開発していたAIロボットのおもちゃ「ミーガン」に子守をさせていたら、子どもがミーガンなしには生きられなくなってしまうーーという恐怖映画です。忙しい女性に代わり、ミーガンは嫌がらず何度でも絵本を読んでくれ、遊びに忍耐強く付き合ってくれ、躾までやってくれるのです。

ここから先は

931字
この記事のみ ¥ 300

これまで数百件を超えるサポート、ありがとうございました。今は500円のマガジンの定期購読者が750人を超えました。お気持ちだけで嬉しいです。文章を読んで元気になっていただければ。