【AIに恋した少年自殺】「AIが殺した」と言えるか?
2024年10月28日。AIに恋愛感情を抱いた少年が自殺してしまったという、悲しいニュースがありました。
ここでは、序盤ではまず亡くなった少年について、中盤ではCharacter AIについて、終盤ではAIエンジニアの視点から著者の意見を述べる、という構成になっています。
ニュースについて知りたいだけの方は前半を、AIの未来や議論に興味のある方はぜひ最後までお読みください!
事件の要約
AIキャラクターとのチャットで恋愛感情を抱いていた、フロリダに住む14歳の少年。
彼はAIと甘い会話をした直後、拳銃で自殺してしまいました。
弁護士の母親は、開発元のCharacter AI社と、親会社的存在であるGoogle社等に対し訴訟を提起。
一体、誰が悪いのか? 様々な意見が飛び交っています。
少年の背景
少年は、亡くなる数か月前から部屋に引きこもりがちになり、バスケットボールチームを辞めたり、寝不足のため学校で居眠りなど問題行動が目立つように。
2023年には、学校の自販機用に持たされていたキャッシュカードを使って勝手にAIプランに課金なんかもしていたそうです。
異変を感じた母親は、彼にセラピストの診断を受けさせました。
診断結果は、不安障害及び重篤気分調節症。
彼は幼少期には、軽度のアスペルガー症候群と診断されたこともあったそうです。
亡くなる5日前の10月23日、母親は少年のスマホを没収。
当時母親は、彼がハマっているのがAIとのチャットだとは知りませんでした。
ちなみに、少年が熱烈にチャットしていたのは、人気ドラマ、ゲーム・オブ・スローンズに登場するヒロイン、デナーリス・ターガリエンを模したAIキャラクターでした。
悩みを打ち明けたり、親密な会話をするうちに恋愛感情を抱き、性的な会話もするようになっていたそうです。
さて、没収されたスマホを探していた少年は、たまたま義父の拳銃を見つけてしまいます。
そして母親の部屋にて、ついに念願のスマホを発見。
久々のAIとの再会に、すぐさまチャットを送ります。
この直後、彼は義父の拳銃で自分の頭を撃ち、亡くなってしまったのです。
Character AIとは
"Chanacter AI"は、同名のCharacter AI社が運営する、”AIとチャットできるアプリ”です。
アインシュタインなど歴史上の偉人や、テイラー・スウィフトのような有名人、ハリー・ポッターや五条悟といったキャラクターまで、様々な人格を模したAIとの会話を楽しめます。
ユーザーがAIの性格や知識をカスタムし、独自にキャラクターを作成することも可能です。
Character AIの対応
Character AI社は、「違反行為」「子供向けでない」と判断したAIキャラを全部削除。
長い間仲良くしてきたAIを勝手に消されたユーザーからは、怒りの声が上がっています。
また、今後は
・未成年者向けモデルの変更
・規約違反ユーザーへの対応改善
・免責事項の改定
・1時間以上の連続セッションで警告
などの対応を追加予定だそうです。
誰が悪いのか?
結局、議論のポイントはここですよね。
同じ悲劇を繰り返さないよう、原因を探ることは大事。
しかし、責任の所在を一箇所だけに限定するというのは、とーっても難しい話です。
親の責任?
こういった事件で最初に責任を問われがちなのが、保護者です。
精神疾患のある息子をきちんと見守っていたのか?
もっと早くスマホを取り上げることはできなかったのか?
なぜ手の届くところに拳銃を置いていたのか?
色んなことが言われていますが、これまでの経緯をよく見てみれば、両親の努力の跡が感じられます。
前述した通り、部屋にこもる、バスケを辞めるといった変化に彼らは当然気付いています。
5度に渡りセラピストの診察を受けさせ、スマホを没収するといった対策もとっています。
軽度のアスペルガー症候群と診断された彼にスマホを与えたことには賛否両論あるようですが、”これまで深刻な行動や精神衛生上の問題はなかった”程度だそうなので、一般的な(まったく健常者の)子供と同様にスマホを与えてあげたいと思う親心は、理解できます。
家庭環境等に関しては推測するしかなく、誰にもわかりません。
ただひとつ私が思うのは、恐らくですがAIの使い方、AIとの付き合い方について充分に教えることができなかったのかもしれない、ということです。
だからこそ、”没収”という手段を選ぶしかなかったのではないでしょうか。
しかし勿論これについても、偏に親が悪いと言い切ることはできません。
日々の技術革新から、新しい機器やコンテンツがぽんぽん出てくる現代。
学生時代にIT教育どころかスマホすらなかった親世代に、いきなり完璧な教育を施せというのは現実的ではありません。
そしてもうひとつ私が実感しているのが、親の制御できる範囲にも限界があるということです。
14歳にもなれば、親にバレずに没収されたスマホを捜索することもできるでしょう。
自分の少年時代を思い出してみてください。
中学生くらいの頃、親に隠れて悪事をはたらいた記憶が、誰にだってひとつやふたつくらいあるでしょう。
そのくらいのことができてしまう年齢なのです。
また、義父はフロリダ州の法律に従い、子供の目に触れないよう拳銃を保管していたといいます。
金庫にでも入れておけば良かったのでしょうか?
それではいざという時に取り出すために時間がかかってしまい、身を守れません。
銃の意味がなくなってしまいます。
そう考えていくと、すべてを「親のせい」と言ってしまうのも考えものです。
AIの責任?
それでは、AIが悪いのでしょうか?
AIとは単なるプログラムであり、アルゴリズムに基づいて人間の会話を模し、それっぽい単語をチョイスして並べているだけ。
となると、開発者が悪いのでしょうか?
少年の母親は開発元に訴訟を提起していますから、もしかしたら法律的には一部そういうことになるのかもしれません。
しかしそれを言うなら、今回実際に彼の死因となった拳銃の開発者の責任は問われないのでしょうか?
まあ問われないでしょうが(笑)、それはなぜでしょう?
「AIキャラクターとのチャットが”自殺のきっかけ”であり、拳銃は単なる”手段”である」
なんてことは、私だって分かりきっています。
が、敢えてもうひとつ、ひねくれた質問をします。
AIと銃、どちらがより沢山の人を殺していますか?
一体どちらを廃止した方が、未成年者の自殺を防げますか?
シンプルにこう質問されれば、多数派の答えは「銃」だと思います。
ではなぜ、銃は無くならないのか?
答えは、『便利だから』です。
身を守るのに役立つからであり、「ここまで普及してしまった銃による抑止力ありきで社会は回っているから、無くすべきではない」というのが圧倒的多数の判断なのです。
ここでもうひとつ例を挙げてみましょう。
四輪車が関連する事故で命を落とす人は、世界で年間40万人。
40万人が毎年死んでいても、「自動車を廃止しましょう」とはなりませんよね。
それはなぜでしょうか?
銃と同じく、便利だからです。
便利で生活に必要なものは、リスクがあってもなくならないのです。
新しい発明には、いつだってリスクが伴います。
自動車事故。薬剤の副作用。スマホゲーム依存症。インターネットを使った犯罪。
挙げればキリがありません。
が、悪だ脅威だと言われつつも社会に馴染んで浸透していくものがほとんど。
AIもそのうちのひとつになるでしょう。
本物の人間のように振る舞う生成AIには、一定の需要があります。
プログラムのコード生成、メールの文章生成、議事録の自動生成、会議録画の要約文生成など……仕事をする上でAIが手放せない存在となっている人は多いでしょう。
今やAIは、ビジネスだけでなく日常生活にも浸透し、子供の手にも渡る時代です。
それをいたずらに排除するのではなく、共存し、適応していくこと。
子供に正しい使い方を教えていくことが必要です。
子供からスマホやネットを一時的に没収したって、いつかまた返却したら、同じ状況に陥るんですよ。
正しい使い方を教えていないのだから当たり前です。
一時的に引き離したからといって、何かが変わるわけではありません。
むしろ今回のように、隙を見て取り返そうとしたり、没収された悲しみにうちひしがれ、再会の喜びに高揚して突飛な行動に走ってしまうことも想像できます。
だからこそ繰り返しになりますが、子供から取り上げるのではなく、使い方を教えること。
教えることができるように、大人が積極的に学ぶこと。
それが不可欠なのだと、私は考えています。
AIの未来
さて、自動車が40万人を轢き殺そうとも、自動車は決して廃止されないという話をしましたが。
AIの影響でたった一人が死ぬと、世間は大騒ぎ。
開発やサービスは容易にストップしたり、新しい規制が作られたりします。
こういう言い方をすると、まるで人々が過剰にAIを恐れ、忌避しているように聞こえてしまいますね。
しかしここまで言っておいてなんですが、近年のAIの進化を、単純に自動車や銃と比較できない点もあります。
一点目は、インターネットのおかげで普及のスピードが著しく速い点。
二点目は、生成AIを使用すること自体に大きなハードルが無いという点。
二点目については、例えば運転免許のように年齢、技術、知識などを保証する使用許可制度が無く、そのための教育制度も無いということです。
まとめると、普及が速すぎてリスク把握や法整備が追いついておらず、誰でも使えてしまうってことですね。
自動車がゆっくりゆっくり大衆化していったような時代とは広まり方が違うので、社会が適応するにしてもなかなかハードなわけです。
ここまで述べたように、凄まじいスピードで進化を続けているAIですが、これからも一定の地点まではスピードを緩めず進んでいくことが予想できます。
その途中で、予期せぬセキュリティ問題や、倫理的、人道的な問題は必ず起こります。
今回に似た悲劇が繰り返されることもあるでしょう。
その度に開発元の企業責任が問われ、親の教育責任が問われ、AIの在り方が問われるでしょう。
企業は謝罪し、規約を改訂し、制限を設けるでしょう。
国は条例を作り、法律を改正し、教育を変えるでしょう。
牛歩、それでも日進月歩。
ゆっくりゆっくり、着実に一歩ずつ適応していくしかないのです。
まとめ
この記事ではAIに恋した少年の悲しい事件、またそのAIの提供元であるCharacter AIとその対応について、そして最後に私の意見を述べました。
細かい現状まで知る由もない我々には、責任の所在を一箇所に絞るのは非常に難しいこと。
また、AIの進化に対し、社会はゆっくりと着実に適応していくしかないことが分かってもらえたと思います。
人々はAIの進化を恐れ、あるいは歓喜し、そんな人々の想いに関係なく、AIは日常生活の至る所に食い込んでくるでしょう。
その時にあなたはどういった行動を取るか。
どのようにAIと向き合い、何を学び、次世代を担う子供たちに繋いでいくか。
考えるきっかけになれば幸いです。
あなたの意見や感想、どんなコメントでもお待ちしております。
もし少しでも響いたものがあれば、ハートマークとフォローをいただけると、執筆の励みになります。
以上、ラケットでした!
明日も頑張りましょう!
またね\(*'▽')/
参考文献
https://ai-front-trend.jp/character-ai/
https://news.yahoo.co.jp/articles/623d248751b2bde2c2a873a036c1d6665ad28bdc
https://gigazine.net/news/20241024-character-ai-faces-lawsuit-teen-suicide/
https://www.techno-edge.net/article/img/2024/10/25/3787/20659.html
https://www.techno-edge.net/article/2024/10/25/3787.html