![見出し画像](https://assets.st-note.com/production/uploads/images/141831306/rectangle_large_type_2_832834584dcb2c02441be273b88e5be2.jpeg?width=1200)
AIによるマインドコントロールを企む
はじめに
先日、EUにてAI規制法が成立されました。
このAI規制法の内容は以下の総務省の資料にまとめられているのですが、その中で「許容できないリスク」のあるAIとして、「サブリミナルな技法」を用いた類型が定義されています。
https://www.soumu.go.jp/main_content/000826707.pdf
![](https://assets.st-note.com/img/1716642657712-caeCMJwp88.png?width=1200)
これは、私の考えていたことが抵触するのではないかと思い、まとめてみます。
人々の意識を変えるAI
まず、私がAIを使って最終的に行いたいことは「人々の意識をより前向きな方向へ、皆が幸せになれる方向へ促していくこと」です。
これは必ずしもAIを使う必要はないのですが、AIを使うことで効率的になると思っています。
少し危険思想っぽいことは自覚しており、そもそも「前向き」とか「幸せ」って何?というツッコミがあるものだとも思っています。
ただ、日々、色々な人とコミュニケーションを取ったり、色々なニュースを見たりする中で、「もう少し各自が、自分の人生を良くする方向で頑張れないものか」と感じるため、上記のような考えに至ったわけです。
より理想的なことを言えば、悲しい事件や戦争を無くしたり、また人類の課題である気候変動や貧困といった地球規模の問題にも力を合わせて立ち向かっていくことができるんじゃないかと思うこともあります。
ちなみに、人類がSDGsを達成するためには、そもそも前提として各自が内面的に成長する必要がある、という発想のIDGs(Inner Development Goals)というフレームワークがあり、海外で徐々にムーブメントになっているようです。
国内でもこちらの1冊だけですが、書籍が出ています。
悪役の思考と一緒
ただ、「内面的に成長せよ」って言われると、ほとんどの人が「大きなお世話だ」と感じると思うんですよね。
そんな高貴な目標なんて知らんがな、地球の前に日々の生活が大変だよ、明日の仕事で精一杯だよと、8割以上の人が思うんじゃないでしょうか。
なので、こういう話は抵抗感がないように、信頼してもらいながら、自己啓発を促し、主体的に考えていってもらえるようにする必要があります。
これをコーチングと呼ぶのか、マインドコントロールと呼ぶのかは人によってそれぞれかもしれません。
しかし、面白いことに、「人々の考えを変えるにはマインドコントロールしかない」みたいな発想を「地球を良くするため」みたいな大義の元に行うとする存在って、結構、色んな作品の悪役?に多いんですよね。
生半可な気持ちで扱うと火傷しそうですが、『新世紀エヴァンゲリオン』の人類補完計画とかはその種の発想だと思っています。
あとは『NARUTO』の無限月読とか。
これらはそれぞれ別のデバイス?方法?でもはやマインドコントロールというか何かよくわからない統合の仕方を目指しますが、現代だったらAIじゃないかと思っていたわけです。
サブリミナルな技法
しかし、私が考えるより先に各国の政治家が真っ先に思いつきそうなテーマ(=AIによるマインドコントロール)なので、今回のAI法規制で早速規制されました。
具体的には以下のような技術が禁止されています。
サブリミナルな技法
精神的・身体的な害を生じさせる態様で対象者などの行動を実質的に歪めるため、対象者の意識を超えたサブリミナルな技法を展開
一応、私の考えていた「人々の意識を前向きにするためにAIを用いる」は決して「精神的・身体的な害を生じさせる」ことが目的では全くないのですが、そういうお節介な発想が有害扱いされることはよく認識しておくべきだと思っています笑
なお、潜在意識に訴えかける手法というものは、以前から営業・マーケティングにおける営業テクニックとして普通に使われているものです。
そういう意味では、AIの活用でより深刻な被害を発生させる可能性が増大したということで、これまで許されていたこういったテクニックも規制されていくかもしれませんね。
教育におけるAI活用の是非
また、営業・マーケティングのような、技術を使う側の利益を増やすことが目的でないものでも、潜在意識への訴えかけは立派な手法になっていると思います。
やはり教育分野での活用はその範囲だと思います。
教師の長時間労働の問題で、教育現場でのAI活用は加速していて、それこそ人間の先生の代わりにAIアシスタントがフォローする、ということが普及してきていますが、一歩間違えば今回の規制の対象になりそうです。
加えて、冒頭でも触れましたが、コーチングは結構危ないと思っています。
私は上記のような危険思想の持ち主であることから、以前からコーチングでのAIを度々調べているのですが、年々、「AIコーチング」のサービスは増えてきています。
※下記は一例です。「AIコーチング」でググると沢山でてきます。
コーチングなんてまさに人の意識をより良い方向に変えていくものなので、それが「害を生じさせる」目的かどうかを問わず、注意して見る必要があると思われます。
まとめ
だいぶネガティブな方向で話を展開してしまいましたが、チャットボット自体は別の「限定リスク・最小リスクAI」に位置づけられています。
チャットボット(など自然人と相互作用するAI)
→ AIシステムと相互作用していると自然人に知らせる義務
そのため、AIと会話していることが分かっていて、かつ「あなたを成長させるために働きかけを行います」くらいの明確な目的が表示してあれば規制されるということは無いかもしれません。
加えて、このようなことを考えればなおさら、人間自身がAIに影響されず、自分自身で考えていく能力を身につける必要があるなと思いますね。
あとは、AI、特に生成AI、自然言語処理の特徴を理解し、使われるのではなく使いこなす側に回るという、ありきたりなことの重要性を再認識させられます。
それらの点を念頭において、私の人類補完計画は主体性、コミュニケーション、信頼関係の構築、AIリテラシーの普及を軸に、引き続き検討していきたいと思います。
※トップ画像は「悪巧みしている様子」で偶然にも生成されたもので、決して例のアレを真似る意図はなかったことを記載しておきます…。