
AIキス動画に注意して。それはジョークでは済まされない
メディアを運営する男性2人が
"ながら聞きでも未来がわかる"をテーマに30分で生成AIのトレンドを解説するPodcast「AI未来話」
このnoteでは番組のエピソードからトピックをピックアップして再構成したものをお届けします。
今回は「AIキス動画に注意して。それはジョークでは済まされない」を再構成した内容をお届けします。
急増するAIキス動画の現状
最近、InstagramやTikTokを見ていると、有名人や一般の人同士がキスをしている動画が突然表示されることが増えています。これらの動画の多くは、AIが勝手に画像を合成して作成したものが多く含まれています。
従来の"ディープフェイク"は、主にポルノ的なコンテンツとして問題視され、ポリシー違反として広告掲載が制限されていました。
しかし最近では、"キス"や"ハグ"といった比較的マイルドな表現を用いることで、広告として配信される事例が急増しているのです。
アプリの仕組みと悪質な手法
これらのアプリの基本的な仕組みは単純です。2人の写真をアップロードすると、AIがそれをキス動画に変換してくれます。
問題なのは、このアプリが「好きな人に即座にキス」できるツールとして、相手の同意なしに利用できることをSNS上で積極的に宣伝している点です。
Forbesの調査によると、これらのアプリの多くはアラブ首長国連邦、イタリア、中国など、米国外に拠点を置く企業が運営しています。
AppleやGoogleのアプリストアで無料で配信され、すでに数百万件以上のダウンロード数を記録しているという事実は、この問題の深刻さを物語っています。

巧妙な導入戦略
私たちが特に問題視しているのは、これらのアプリの巧妙な導入戦略です。AIキス動画作成は実はアプリの機能の一部に過ぎません。
古い写真の修復や静止画のアニメーション化、赤ちゃんの顔予測など、一見無害で興味を引く機能を前面に押し出すことで、ユーザーの警戒心を解いているのです。
具体的な被害事例
実際の被害事例も深刻です。例えば、テイラー・スウィフトと金正恩がハグをする映像がInstagramで約3000万回も再生されました。
また、イーロン・マスクとイタリア首相のジョルジャ・メローニ氏がキスをする合成動画がXで話題になりました。
これらの映像は「面白い」「衝撃的」としてリツイートやシェアを通じて拡散され、多くの人々が「ジョーク」として消費しています。
しかし、本人たちは全く同意していないにも関わらず、勝手にコンテンツ化されているという事実は、深刻なモラルハザードを引き起こしています。
問題の本質は、キスやハグといった親密行為の描写だけでなく
「その人がやっていない行為を、あたかもやったように見せる」という点にあります。
他人事として軽視しがちなこの問題も、自分の周囲の誰かが自分の画像を使ってこうした動画を作っているかもしれないと考えると、その深刻さが実感できるはずです。
このように、AIキス動画の問題は、単なるテクノロジーの悪用という枠を超えて、個人のプライバシーや人権、そして社会全体のモラルに関わる重大な課題となっているのです。
プラットフォームの対応とグレーゾーンの問題
SNS各社の広告配信実態
調査によると、これらのAIアプリの広告は驚くべき規模で配信されています。Metaが運営するInstagramやFacebookでは2,500件以上、TikTokではヨーロッパ各国で何百万人ものユーザーに向けて約1,000件もの広告が配信されていました。
広告の内容も非常に問題です。
スカーレット・ヨハンソンやエマ・ワトソンなどの有名人がキスをしている様子を描写したものや、「元カレにキス」「好きな人にキス」といった、人の感情を意図的に揺さぶるような訴求方法を用い、ランダムにキスしている動画を大量に表示しています。
子供向けコンテンツを装った手法
AIハグアプリの広告展開も深刻です。これらの広告では、子供たちが架空のキャラクターと冒険をしたり、ミッキーやトムとジェリーなどの漫画キャラクターを抱きしめたりするAI生成動画が使用されています。
一見すると無害に見えるこれらの広告ですが、実態はより深刻です。
例えば、「会ったことのないおばあちゃんやおじいちゃんを抱きしめられる」という触れ込みで親にアプローチするケースや、少女が年配の男性を抱きしめる動画を使用するなど、非常に危険な訴求が行われています。
このような広告は、子供たちの純粋な気持ちを利用しながら、実際には誰とでもハグができる機能を持つアプリをダウンロードさせる仕掛けとなっています。
プラットフォームの対応
各プラットフォームの対応は現状、まちまちです。TikTokはこれらの問題を重視し、一部の動画やアプリの削除に踏み切った一方で、Metaは明確な規定違反ではないとして、比較的緩やかな対応を取っています。
Forbesの調査によれば、AIハグアプリの広告は現在でも約1,200件が掲載され、そのうち300件以上が現在も活発に配信されている状況です。
我々が取るべき対策としては、以下が考えられます
写真をむやみに公開しない
問題のある広告や動画を見つけたら即座に通報する
プラットフォームに対して、より厳格な規制を求める声を上げ続ける
ただし、現状では法的な整備が追いついていないため、ユーザーが意識を高め、声を上げ続けることが重要だと考えています。
この状況は、搾取的なディープフェイクを当たり前のものとし、親密な画像や性的な画像への同意のない参加を「ジョーク」として捉える風潮を助長しています。
私たちは、これが決して軽視できない問題であることを認識し、積極的な対策を講じていく必要があります。
AIが頭に住みつく現象
前半で私たちは、AIキス動画が「ジョーク」として消費される過程で、私たちの境界意識が徐々に鈍っていく危険性について議論しました。
同じような境界線の曖昧化は、実は私たちの思考の領域でも静かに進行しているのです。
レントフリー(無賃)の概念
世界的に著名なAI科学者であるランス・エリオット博士は、この現象を「頭の中に何かを無賃(rent-free)で住まわせてはいけない」という言葉で警告しています。
この指摘は、境界線が曖昧になることで、気づかないうちに私たちの主導権が奪われていくという点で、AIキス動画の問題と本質的に同じ構造を持っているのです。
ROI(投資対効果)の重要性
博士は、この境界線の曖昧化をROI(投資対効果)の観点から分析しています。
AIキス動画が「面白そう」「これくらいなら大丈夫」と、私たちの許容範囲を少しずつ広げていくように、AIへの依存も「便利だから」「効率的だから」と、徐々に私たちの思考の領域を侵食していきます。
例えば、「全部AIに任せた方が楽だし早い」という判断は、既に境界線が曖昧になった状態での思考かもしれません。
その結果、私たちは知らず知らずのうちに、自分の思考プロセスや判断力、さらにはプライバシー情報までもAIに明け渡してしまっている可能性があります。
依存のメカニズム
具体的な境界線の曖昧化の例には、以下のようなものがあります
何をするにもまずAIに聞かないと落ち着かない
AIの応答を自分の意見だと勘違いしてしまう
AIとの会話を重ねるうちに、「人間よりAIの方が理解者だ」と感じてしまう
これらは、境界線が徐々に溶解していく過程を示しています。最初は明確だった「自分の判断」と「AIの提案」の境界が、使用を重ねるうちに曖昧になり、最終的には主導権の喪失につながっていくのです。
AIキス動画が「ジョーク」として消費される過程で私たちのプライバシー意識が鈍るように、AIへの依存も「便利さ」という名目で、私たちの思考の自律性を徐々に侵食していきます。
両者に共通するのは、この「境界線の鈍化」から「主導権の喪失」へと至るプロセスなのです。
社会実験の渦中にある私たち
追いつかない法規制
私たちは今、大規模な社会実験の渦中にいます。生成AIを使用する人々は既に数億人規模に達し、ChatGPTだけでも週に3億人以上のアクティブユーザーがいると言われています。
しかし、この急速な普及に対して、法規制やガイドラインは明らかに追いついていません。
これは前半で議論したAIキス動画の問題と同様です。プラットフォームが明確な規約を整備できないまま、AIキス動画が野放しにされているように、私たち自身もAIへの過度な依存を規制できないまま、その影響下に置かれているのです。
実験台となる利用者
問題なのは、この「実験」が私たちの意識や同意なしに進行していることです。AIキス動画が知らない間に作られ、拡散されていくように、AIへの依存も気づかないうちに深まっていきます。
私たちは知らず知らずのうちに、この大規模な社会実験の「モルモット」となっているのです。
特に深刻なのは、技術が爆発的に普及してから初めて「これはまずい」と気づく社会の在り方です。
その時には既に、多くの人々が危険なコンテンツに触れ、AIへの依存を深めている可能性があります。
境界線の曖昧化
我々が最も警戒すべきなのは、この「境界線の曖昧化」のプロセスです。
AIキス動画が「面白そう」「これくらいなら」と消費されていくように、AIへの依存も「便利だから」「効率的だから」と、徐々に私たちの許容範囲を広げていきます。
この曖昧化は二段階で進行します
まず、何が適切で何が不適切かという境界線が鈍くなっていく
その結果、気づかないうちに主導権が奪われていく
例えば、AIキス動画では
「露骨な性的表現でなければOK」
「有名人だから許される」
「ジョークとして共有するくらいなら」
という具合に、境界線が徐々に溶解していきます。
同様に、AI依存でも
「調べ物くらいならAIに聞いても」
「アイデア出しならAIに頼っても」
「判断の参考程度なら」
と、知らず知らずのうちに依存度が深まっていくのです。
このように、私たちは境界線が曖昧になっていく過程で、自分の主導権を少しずつ、しかし確実に手放していってしまう危険性があるのです。
主体性を取り戻すための対策
具体的な3つの方法
エリオット博士は、AIによって曖昧化された境界線を取り戻し、主導権を回復するための具体的な3つの方法を提案しています。
自分なりの利用ルールを明確に設定する
これは境界線を意識的に引き直す作業です。例えば「仕事のアイデア出しは○時から○時までのみAIを使用する」といった具体的な制限を設けることで、AIの影響力が私たちの思考に無制限に入り込むことを防ぎます。AIの答えを一度疑ってみる
AIが提示する回答や提案を鵜呑みにせず、必ず自分で調べ、考える余地を作ります。これは私たちの思考の主導権を意識的に取り戻す実践です。AIの応答を自分の意見として誤認してしまう危険性を防ぐためには、この批判的思考の姿勢が不可欠です。人との対話や実際の経験を重視する
AIチャットの便利さに依存しすぎると、リアルな人間関係や体験から学ぶ機会を失ってしまいます。これは、AIキス動画が実際の人間関係や同意の重要性を軽視させてしまうのと同じ構造です。
自己欺瞞への気づき
博士は、哲学者プラトンの
「私たちを欺くものは魔術のような魅力を発する」という言葉を引用しています。AIは確かに魔術のような魅力を持っており、私たちを容易に欺き、知らず知らずのうちに頭の中に住み着いてしまう危険性があります。
さらに、レオナルド・ダ・ヴィンチの
「私たちが最も騙されるのは、自分自身の意見からである」という言葉も重要です。
AIの提案を正しいと思い込むのも、結局は自己欺瞞の一つかもしれません。
AIはまだ「人間らしさ」を装っているに過ぎず、実際には自己学習や推定で回答を生成しているだけだという事実を、私たちは忘れてはいけません。
主導権回復の重要性
境界線の曖昧化を防ぎ、主導権を回復するためには、常にROI(投資対効果)を意識することが重要です。
私たちの頭の中に「家賃」という形で適切な対価を設定し、それに見合う価値があるかどうかを評価し続ける必要があります。
この判断は本当に自分の意思なのか、それともAIに導かれた結論なのか
AIに費やしている時間やエネルギーは、適切なリターンを生んでいるか
自分の思考や判断の主導権は、しっかりと自分の手にあるか
このような意識的な問いかけを通じて、私たちは曖昧になった境界線を再び明確にし、失いかけた主導権を取り戻すことができるのです。
エンディング
私たちはこれまで、AIキス動画の蔓延やディープフェイクのモラル問題、そしてAIが頭の中に「無賃で住みつく」リスクについて考察してきました。
両者に共通するのは、私たちの境界意識が徐々に鈍らされ、気づかないうちに主導権を奪われていくという構造です。
この「誰かが見せた夢に引きずられる」状態は、実はAI時代に限った話ではありません。
例えば、若い頃に「高級車に乗りたい」「タワーマンションに住みたい」と思っていた欲望も、実は誰かが見せたイメージであり、ただのマーケティングに自分の人生の主導権を知らず知らずのうちに明け渡していた可能性があります。
今、AIの登場によって、ディープフェイクや生成AIはより高度に、巧妙に、私たちの心を掴もうとしています。
だからこそ、改めて「これは本当に自分が望んでいることなのか?」と問い直す必要があるのです。
AIを排除するのではなく、テクノロジーを上手に利用しながら、私たち自身が主体的に主導権を取り戻していく。そんな姿勢が、これからのAI時代には求められているのではないでしょうか。