テクノロジーの巨人たちは私たちの精神を毒している - アンヌ・アロンベール
27,268 文字
今日のデジタルテクノロジーは私たちにディストピア的な未来を約束しているのでしょうか。ディストピア的な未来を約束しているかどうかはわかりませんね。実際のところ、テクノロジー自体は何も約束することはできません。むしろ問題は、ますますデジタル化が進む世界の中で、私たち自身が集団的にどんな未来を約束するのかということです。
確かに、いくつかの危険性はあります。私自身、今日のデジタルテクノロジーについて、特に支配的なソーシャルメディアや生成型AIなど、特定のデジタルテクノロジーについては批判的な見方をしています。ただし、これらがデジタルテクノロジーの全てを代表するわけではありません。
これらのテクノロジーの一部は問題があると思います。ディストピア的というのが適切な言葉かどうかはわかりませんが、現在の問題があるということです。例えば、商業的なソーシャルメディアが若い世代のメンタルヘルスに与える影響についての研究がいくつかあります。ここで全ての研究を挙げる必要はないかもしれませんが。
また、民主的なメディア空間が本当の意味で民主的ではなくなっているという問題もあります。偽情報の問題や、投票への影響、FacebookなどのSNSでのアルゴリズムによるプロファイリングなどですね。TikTokにも多くの問題があります。これらは私たちの精神生活と社会生活の両方に関わる問題を提起しています。
ディストピア的な未来に陥らないためにも、これらの課題について今考えていく必要があります。デジタル監視の問題もありますね。これらの問題は今のところ悪化する一方です。
新しいテクノロジーが登場すると、ある種の魅惑効果を生み出すことがあります。デジタルテクノロジーに対して大きな熱狂がありましたが、今は幻滅の時期にあるといえるでしょう。ただし、全てを混同してはいけません。Wikipediaのようなデジタルプラットフォームは、FacebookやTikTokのような商業的なソーシャルメディアとは全く異なる精神的・社会的・政治的影響を持っています。
そのため、どのようなデジタルについて話しているのかを区別し、現在のデジタルテクノロジーがもたらす問題に対して解決策を考える必要があります。その解決策は、技術的・デジタル的・産業的なものだけでなく、政治的・社会的なものでもあるべきです。
あなたの著作の中で、テクノロジー全般ではなく、特定の方法で設計されたテクノロジーを批判されていますね。テクノロジーが個人や精神、集団にとって有用なのか、あるいは有害なのかを理解するために、哲学の歴史を通じてテクノロジーに対してなされてきた批判を用いておられます。
そうですね。それは私がベルナール・スティグレールやジャック・デリダから引き継いだ視点です。彼らは現代の哲理学者で、プラトンのファルマコンに関するテキストから多くのインスピレーションを得ています。
プラトンはデジタルテクノロジーについて考えていたわけではありませんが、書き方という技術について考察していました。デジタルテクノロジーは書記システムの歴史における新しい段階だと言われることがあります。両者とも精神のテクノロジー、つまり特定のシンボルや知識を外在化するテクノロジーだからです。メディア技術とも呼ばれます。
プラトンが書き方という技術について述べたことは、今日の私たちにとって非常に示唆に富んでいます。彼がこの技術をファルマコンとして描写したとき、ギリシャ語のファルマコンは毒と薬の両方を意味します。つまり、書き方という技術の両義性を強調しているのです。
なぜかというと、私が記憶を書き記された媒体に外在化するとき、より多くのことを記憶できるようになります。しかし同時に、それらの書き記された媒体に依存してしまうと、もはや記憶を訓練することはなく、知識を解釈し変容させる努力をしなくなってしまいます。機械的な反復が、差異化や多様化をもたらす反復に取って代わってしまうのです。
プラトンのこのようなテキストを読むと、書き方という技術に対するファルマコロジー的な視点が、現代のトランスヒューマニストたちの視点とは全く異なることがわかります。トランスヒューマニストたちは、テクノロジーが私たちを拡張し、改善すると言います。しかしプラトンがこのテキストで述べているのは、私たちが拡張されると同時に縮小されるということです。
純粋な拡張というものは存在せず、拡張は常に損失や縮小のリスクを伴います。私は書き方という技術によって記憶力を拡張できますが、同時に記憶力を失うことになります。このように、テクノロジーに対する見方は完全に変わってきます。
私はこの視点をデジタルテクノロジーに対して適用しようとしています。これは私独自のものではなく、ジャック・デリダやベルナール・スティグレールの研究を受け継いだものです。デジタルテクノロジーはそれ自体では善でも悪でもありませんが、中立でもありません。全ては経済モデルや政治的プロジェクト、そしてそのデジタルテクノロジーで開発される技術的機能に依存します。
したがって、それぞれのデジタルテクノロジーを、それが持つ政治的イデオロギー、それを支える経済モデル、そして実装される機能の観点から研究する必要があります。今晩はこれについて議論しましょう。
あなたの著作を読んでいて印象的だったのは、プラトンだけでなく、ポール・ヴァレリーについても言及されていることです。彼は今日の世界について語っているような印象を受けますが、実際には過去の世界について語っていたのですね。ギュンター・アンダースも同様です。彼らは今日私たちが知っているテクノロジーを知る前に、テクノロジーの発展を恐れていました。彼らの批判の基礎は何だったのでしょうか。
確かに、彼らは今日のデジタルテクノロジーについては全く知りませんでした。私が引用したポール・ヴァレリーのテキストは1930年代のもので、ギュンター・アンダースのものは1950年代のものです。彼らは私たちの現在のデジタル環境について語っているわけではなく、ポール・ヴァレリーの場合はラジオと電話について、ギュンター・アンダースの場合はラジオとテレビについて語っています。
これらの情報通信技術、メディア技術は、私たちの空間と時間に対する関係を完全に変えます。これはデジタルに固有のものではなく、常にそうでした。なぜなら、技術的進化は私たちの意識や経験の進化でもあるからです。
私たちの空間と時間に対する関係は、単に世界を経験することを可能にします。したがって、私たちの空間と時間に対する関係が技術的環境によって形作られているということは、技術的環境が進化すると、私たちの世界経験も完全に変化するということです。
ポール・ヴァレリーとギュンター・アンダースは、異なる時代に、全く異なる方法で、ラジオやテレビのような媒体によって生じる情報の分散と過負荷の効果を指摘しました。突然、私たちはより多くの情報にアクセスできるようになりましたが、重要な情報とそうでない情報を区別することができなくなり、特にこれらの情報に対して両義的な立場に置かれることになります。
特にギュンター・アンダースがテレビについて強調したのは、情報は提供されるものの、その情報に応答する双方向性がないため、私たちは受動的な立場に留まらざるを得ないということでした。
このような考察は、現代のデジタルテクノロジーに対して新たな問いを投げかけるのに役立つと感じました。
では、テクノロジーの擁護者として、その問題点を指摘していただきたいのですが、彼らはある種の郷愁を持って、テクノロジーの発展によって人間が縮小され、時代遅れになり、以前よりも劣ったものになると語っています。1970年代、80年代の人々が1920年代の人々よりも本当に分散化され、疎外されていたと言えるのでしょうか。
いいえ、私はそのように問題を捉えません。人間が縮小されたり拡張されたりするというよりも、私たちの感覚的経験や思考方法の本当の変容について語っているのだと思います。それが私の興味を引くところです。
問題は人間が縮小されているか拡張されているかではなく、これらのテクノロジーを生産し、普及させ、販売する人々を導く経済モデルと政治的アジェンダが何なのかということです。
例えば、デジタルそれ自体は人間を縮小も拡張もしません。しかし、現在の商業的なソーシャルメディアのビジネスモデルは注意経済に基づいています。つまり、個人の注意を捕捉して広告主に売り込むというものです。これはラジオやテレビのビジネスモデルでもありましたが、デジタルへの移行は、この観点から非常に重要な変化をもたらしました。
このビジネスモデルは非常に危険です。個人の注意と意識を捕捉して広告主やスポンサーに売り込み、ターゲット広告を行うことを基盤としているからです。これは、ベルナール・スティグレールが精神権力と呼ぶものです。テレビでもそうでしたが、デジタルテクノロジーによってそれは神経権力になったと彼は言います。
というのも、これらのテクノロジーは私たちの脳のメカニズムに直接働きかけるからです。つまり、意識的にコントロールすることが難しい、ある種の衝動的な行動に働きかけるのです。したがって、これらのテクノロジーは制御装置となり、それは危険だと思います。
一方で、先ほど述べたように、Wikipediaのような協働的な百科事典は、集合的な知識の共同構築を可能にし、あらゆる人々の知識へのアクセスを拡大します。したがって、それは集団的な文化を拡張し、個人の精神も拡張します。
デジタルが人間を縮小するか拡張するかという問いは、私たちを気を散らすために投げかけられる問いだと思います。本当の問いは、どのようなデジタル産業政策を私たちは推進したいのか、どのようなデジタルイノベーションを生産し、評価したいのか、それらが個人の精神や集団的文化、政治社会に何をもたらすのかということです。
では、私たちが知っているデジタルの発展、つまりソーシャルメディアやデーティングアプリなどの背後にある政治的イデオロギーは何で、それがどのようにこれらのテクノロジーに反映されているのかを詳しく見ていきましょう。
はい、それは非常に良い質問ですね。一般的な答えは避けたいと思います。これらのテクノロジー全てに共通するイデオロギーがあるかどうかわからないからです。より具体的な例に触れる前に、私が問題だと考える一つのイデオロギー的パラダイム、人工知能のパラダイムについて少し言及したいと思います。
私たちは、周囲のテクノロジー装置を擬人的な語彙で描写する傾向があります。テクノロジー装置に知性、思考、意識、感情などの能力を帰属させ、人工知能、機械学習、会話エージェントなどと呼びます。実際には、これらは大量のデータの統計的処理に基づく計算技術なのですが。
この語彙は非常に問題があります。1960年代に、サイバネティクス、認知科学、人工知能が発展していた時期に、ジルベール・シモンドンやジョルジュ・カンギレムといった哲学者たちがこれらの情報学的な比喩を批判していました。これらの表現が非常に問題だと感じるのは、政治的な決定や、これらのテクノロジーを生産するために提供される労働、特にデジタルレイバー(クリックワーカー)の問題、さらには生態学的な課題、これらの装置を機能させるために必要な物理的・自然資源などを隠蔽してしまうからです。
そして何よりも、これらのデジタルテクノロジーが私たちの精神に与える影響を隠蔽してしまいます。機械の知性や意識、学習について問いを立てますが、本当の問題は、これらのメディア環境が私たちの思考能力、表現能力、反省能力に何をもたらすのかということです。
この人工知能、アルゴリズム的意識、技術的特異点といった言説は、シリコンバレーで支配的なイデオロギーとなっているトランスヒューマニズムの言説から生まれた概念です。私たちは日常的なデジタル装置について語るとき、これらの比喩を採用すべきではありません。
あなたの質問にもう少し具体的に答えると、個々のデジタルテクノロジーを見ると、それらは決して中立ではありません。テクノロジーには常にイデオロギー的な次元があります。
例えば、Facebookのようなソーシャルネットワークでは、その背後にある社会観について考えることができます。そこでは、個人は原子化され、収集されたデータに基づいてプロファイリングされます。これらの個人は、個人データに基づいて結びつけられ、個人ページを持ち、活動や投稿が数値化されます。
そのため、競争や競合、模倣的な関係が生まれます。技術的機能により、コンテンツに「いいね」をつけたり、誰かをフォローしたりすることができます。フォローする行為は模倣的な行動です。
このように、Facebookの背後には、個人主義、プロファイリング、個人化、そして模倣に基づく社会観が存在します。これは、Wikipediaのような装置の背後にある政治哲学とは全く異なります。Wikipediaにも多くの批判点はありますが、そこではあなたは匿名でいることができ、個人データに基づいてプロファイリングされることはありません。
興味のある主題に基づいてページに貢献し、共通の主題が異なる個人を結びつけます。議論し、論証し、特定の主題について合意を見出すための機能があります。全く異なる哲学なのです。
また、Polisのような集団的な討議のプラットフォームもあります。ここでも、人々は共通の主題について議論し、プラトフォームは意見グループを形成し、異なる意見グループが合意できる共通の提案を作ることを目指します。
これは、できるだけ多くの視聴を得ることを目的とし、最も分極化した、センセーショナルな、時には最も暴力的なコンテンツを生産することを目的とするソーシャルメディアとは全く異なる哲学です。
このように、それぞれのソーシャルネットワークの技術的機能に、異なる政治的イデオロギーが具体化されています。常にデジタルを扱っていますが、それぞれ異なる政治的イデオロギーが存在し、それが特定の行動を形作っています。
これらのプラットフォームの創設者が目の前にいたら、彼らはこれが「うまくいく」方法だからそうしたのだと言うでしょう。個人主義や競争、模倣的欲望を実装しようとしたわけではなく、単に人々が望むものを提供しようとしたのだと。
その発言については、いくつかの理由から少し異なる見方をしています。まず、全く異なる方式で機能しているWikipediaやPolisを見てください。Polisは2014年か2016年に台湾政府が集団的意思決定を行うために使用したプラットフォームです。市民に特定の課題について質問し、参加してもらうために使用されました。
彼らがどう考えるかはわかりませんが、少なくともそれはオンラインでの集団的討議を可能にするという点で非常に興味深いものです。民主主義を守るのに十分だとは言いませんが、多くのソーシャルメディアよりもはるかに興味深いことができます。
つまり、WikipediaやPolisのようなプラットフォームも機能しているということです。機能するものは複数あり、収益性や効率性の問題だけではありません。
第二に、Facebookの初期の主要な投資家の一人であり、PayPalの創設者でもあり、シリコンバレーの最も重要なイデオローグの一人であるピーター・ティールは、スタンフォード大学でルネ・ジラールの模倣的欲望に関する講義を受講していました。
つまり、彼はFacebookのユーザーを喜ばせるためだけにFacebookを支援したわけではありません。一般的に、そういうことは起こりません。提供側が需要を形作るのです。
そして何よりも、「うまくいく」という考えを絶対に疑問視する必要があります。実際には、全くうまくいっていません。2021年にフランセス・ホーゲンがFacebookファイルを公開し、Facebookの影響が非常に問題であることが明らかになりました。特に、InstagramがMETAグループの一部ですが、10代の少女のメンタルヘルスに壊滅的な影響を与えていることが示されました。
また、Facebookはアムネスティ・インターナショナルから、プラットフォーム上での情報拡散により、ジェノサイドの実行に加担したとして非難されています。アムネスティ・インターナショナルは2019年に、GoogleとFacebookのビジネスモデルとデータ収集が、プライバシーの権利、表現の自由、思考の自由といった基本的権利を妨げているという報告書も発表しています。
これらのテクノロジーを生産し、利益を得ている人々が満足しているのであれば、それは彼らにとっては良いことでしょう。しかし、私たち市民として、また政治的代表者として問わなければならない問題は、このような装置に対して何をすべきか、どのように規制し、社会にとって毒となることをどのように避けるかということです。
少なくとも現在のソーシャルメディアは毒であり、想像するのが難しい...後で話しましょう。彼らがソーシャルネットワークを開発するとき、政治的イデオロギーを具現化しようとしているのか、それとも偶然にそうなっているのか、理解したいのですが。
実際のところ、これらの人々の頭の中で何が起きているかを知ることは重要ではありません。重要なのは、テクノロジーが中立ではないということ、そしてテクノロジー、特にソーシャルネットワークのような社会的テクノロジー、関係性のテクノロジーを設計し開発するとき、特定の原則が具体化され、それが技術的な機能の仕組みに実装されるということを理解することです。
先ほど例を挙げましたが、開発する技術的機能によって、ユーザーの表現の可能性が増減したり、競争や競合の関係が具現化されたり、討議や対話が可能になったりします。これは全て非常に政治的なことです。
したがって、これらのテクノロジーの設計者たちは、設計するテクノロジーに対して責任を持っています。例えば、最も衝撃的なことを投稿することで最も多くの視聴を得なければならないソーシャルネットワークを設計する場合、その後の情報の流通や非流通の仕方に責任があります。
広告に基づいてビジネスモデルを構築する場合、特定の産業が気候変動懐疑論的なコンテンツを大量に流通させるために支払いをした場合、それに対して責任があるのです。
確かに、彼らは自分たちがテクノロジーに実装する原則のいくつかについて意識しています。哲学や社会学の問題により関心を持ち、即座の利益や収益性の問題にあまり注目しなければ、彼らの世界観は完全に変わる可能性があります。
しかし繰り返しになりますが、彼らのテクノロジーは彼ら自身にとってのみ、そして非常に短期的にのみ収益性があります。したがって、他のタイプのイニシアチブからインスピレーションを得て、人々の利益のために働くことは、まさに彼らの利益になるはずです。
あなたの本で読んで非常に興味深かったのは、エコロジーとの並行性です。今日の無制限の資本主義は、利用可能な全ての資源を消費する傾向があり、それによって資源が不足する可能性があるため、長期的な運用可能性を減少させています。
デジタルの巨人たちにとって、資本や資源は私たち、つまり私たちの情報であり、彼らはその資源を急速に燃焼させ、私たちが質の良い情報を生産する能力を減少させているということですね。これは非常に興味深いと思いました。
なぜなら、ソーシャルメディアで誰もが狂ってしまうと、もはや誰も興味深いことを語らなくなり、全ての写真が同じように見えるからです。つまり、ソーシャルメディアの論理に入り込めば入り込むほど、私たちは興味深いものを生産しなくなり、最終的には循環に陥り、ソーシャルメディア上に興味深いデータがなくなってしまうため、もはや搾取する資源がなくなってしまう可能性があるということですね。
はい、それは特に今急速に発展している生成型AIの場合に当てはまります。なぜなら、この資本化の論理がこれらのテクノロジーの場合に非常に顕著だからです。
結局のところ、インターネット上に蓄積された集合的記憶全体が、これらの生成型AI システムの資本や在庫として機能することになります。これらのシステムは、簡単に言えば確率的計算に基づいているのです。
ChatGPTに質問したり、Midjourneyに画像を生成するよう指示したりする際、システムはインターネット上で利用可能なデータという大量のデータに対して確率計算を行い、あなたの要求に応じて確率的な記号の連鎖やピクセルの連鎖を生成します。
これには複数の問題があります。まず、これらの企業の私的データベースとして使用されているインターネット上のコンテンツを作成したユーザーたちは報酬を受け取っていません。そのため、蓄積された富を再分配することなく、インターネット上に投稿されたデジタルコンテンツ全てが、いくつかの私企業によって収奪されているような状況です。
現在、これらの企業、OpenAI、Microsoft、Google、Metaは主要な株式時価総額を占める企業となっています。したがって、富の再分配に関する課題が生じています。
さらに問題なのは、確率的な自動生成コンテンツを生成し続けることで、これらのコンテンツもインターネットを占領し始めることです。テキストや画像を自動生成するのが非常に容易なため、信じられないほどの量のコンテンツが生成されることになります。これは既に始まっています。
そして、これらのシステムはインターネット上で見つけたものを食べているので、最終的には自分たち自身が自動的に生成したものを食べることになります。そのため、常に平均や凡庸なものが強化され、均一化が進んでいきます。
最近、Nature誌に掲載された論文では、他のモデルによって生成されたデータで訓練されたモデルのパフォーマンスが大幅に低下すると述べられています。これは明らかです。なぜなら、コンテンツはますます確率的になり、独創性や多様性が失われていくからです。
これを生態学的な観点から考えることは非常に興味深いのですが、環境生態学ではなく、文化生態学や精神の生態学の観点からです。なぜなら、これは私たちの文化的資源を実りあるものにするのではなく、枯渇させているということを意味するからです。これは明らかに精神の生態学の観点から大きな問題です。
そうですね。デジタルの二つの大きな側面、ソーシャルメディアと生成型AIについて議論してきました。問題の深刻さを理解するために、他に重要な側面はありますか?
私はこれらのテクノロジーを主に研究してきました。その理由をお話しします。私はエンジニアとしての教育を受けておらず、工学的あるいは産業的な観点からのデジタルテクノロジーの専門家ではありません。しかし、これらのテクノロジーがメディア的な公共空間をどのように変容させ、私たちの精神や文化をどのように変えるのかということに、非常に関心があり、懸念を持っています。
これらのテクノロジーを主に研究してきたのは、それらがリスクを持っているように思えたからです。ソーシャルメディアは注意経済に基づいており、私たちの精神的・知的・心的能力を搾取しています。そして明らかに、社会的関係も搾取しています。
これは、注意経済に関する国家デジタル評議会の報告書でも指摘されていました。注意には二つの側面があります。一つはコンテンツや活動に注意を向けるという精神的な能力、もう一つは他者に注意を払い、ケアするという社会的な能力です。
したがって、商業的ソーシャルメディアの注意経済は、精神的な意味での注意と社会的な意味での注意の両方にとって危険なのです。そして生成型AIは、私たちの表現能力、言語能力、創造能力に対して、プロレタリア化の効果を持っています。後でまた触れるかもしれませんが。
また、集団的文化の伝達にも危険な効果を持っています。つまり、精神的・社会的に非常に問題のある効果を持っているのです。同時に、これら二つのテクノロジー、つまり注意経済に基づくソーシャルメディアと表現経済に基づく生成型AIは、今日大規模に普及しており、ほぼ全ての人が自動的に、ほとんど批判的な反省なしに使用しています。
そして、これらは今日非常に強力な私企業によって保有されており、大規模なロビー活動を行い、宣伝活動、ほとんどプロパガンダと呼べるような活動を行っています。だからこそ、私はこれらのテクノロジーに特に注目してきたのです。
実際、これは私も情熱を持っているテーマです。あなたの研究で特に気に入ったのは、政治的側面と社会の未来を結びつけている点です。私は政治を信じています。つまり、政治は私たちが明日の世界を選択し、共に構築する手段だと信じています。
そしてこれらのプラットフォームの政治的力は、政治が必ずしも民主的ではないということにあります。彼らは私たちに相談することなく、私たちの参加はあるものの、本当の意味で私たちの意見を求めることなく、明日の世界を作り出しています。
彼らが作り出す明日の世界について、あなたは一般的なプロレタリア化について語っています。この概念について、そして全ての人がプロレタリア化される、プラットフォームが作り出す明日の世界がどのようなものになるのか、説明していただけますか。
はい、もちろんです。これについて説明しようと思います。その後で政治的な問題に戻りたいと思います。なぜなら、別の未来を描くための手段が確かにあると思うからです。
一般的なプロレタリア化という表現は、実際にはベルナール・スティグレールから来ています。彼のマルクスの再読解からです。ここでそれを全て説明する必要はありませんが、重要なのは、彼にとってプロレタリア化という概念が単に、テクノロジー装置への知識の外部化による知識の喪失を意味するということです。
ある意味で、これはすでにマルクスが工作機械や組立ラインを備えた工場について描写していたことです。なぜなら、職人の技能が自動機械の中に機械的な手続きとして外部化されたからです。
そして明らかに、機械は資本家という所有者に属しており、その資本家は労働者の労働力を使用します。そのため、これらの労働者はある意味で機械の付属品となります。つまり、もはや知識を実践し、解釈し、変容させるのではなく、分割された反復的で単調な小さな作業を実行し、自動機械のリズムに身体的活動を従属させることになります。
したがって、プロレタリア化のプロセスがあります。技能が機械の中に外部化され、スティグレールが描写するのは、今日私たちが直面しているデジタル機械、アルゴリズム機械、デジタル産業やアルゴリズム産業が、このプロレタリア化のプロセスの新しい段階を生み出しているということです。
それはもはや技能の外部化ではなく、思考知の外部化です。思考知が何を意味するのか、後で詳しく説明できますが、例えば解釈する知識、決定する知識、計算する知識、理解する知識、表現する知識などです。特に今日では生成型AIによってです。
そしてプロレタリア化は新しいタイプの知識へと一般化されています。私はこの概念に非常に興味を持ち、ベルナール・スティグレールが知ることのなかった現代の生成型AIの課題を考える際に、この概念を使用しようとしました。
なぜなら、プロレタリア化という問題は、その後あらゆるタイプのテクノロジーを問う方法となるからです。つまり、新しいテクノロジーが突然登場したときに魅了されるのではなく、むしろ「注意してください、私たちはどのような知識をこのテクノロジー装置に委譲しているのか、その知識の委譲にはどのような課題があるのか」と問うことになります。
現在の生成型AIでは、私たちはどのような知識や能力を機械に委譲しているのでしょうか。私には非常に明確に思えるのは、私たちが自分自身で文章を作成せず、自分自身で話さず、自分自身で画像を作成せず、代わりにアルゴリズムシステムに指示を与えて代わりに行わせるとき、私たちの表現能力がプロレタリア化されるリスクがあるということです。
私たちの表現能力は、いくつかの理由で非常に基本的なものです。第一の理由は、私たちが表現するとき、明らかに非常に重要な様々な精神的能力を活用しているということです。例えば記憶です。表現する前に、学んだこと、経験したこと、読んだこと、聞いたことを思い出す必要があります。常に意識しているわけではありませんが。
また想像力も必要です。なぜなら、表現するとき、私たちは生み出したい意味や意義を想像し、対話相手も想像します。たとえ対話相手がその場にいても、例えば今あなたに話しかけるとき、ある意味であなたを想像する必要があります。なぜなら、私はあなたを知らないので、あなたと一致することはできないからです。そのため、話しかける相手に向かって自分を投影する必要があるのです。
そして私たちはこれを全て独自の方法で行います。つまり、世界中で同じ記憶と同じ想像力を持つ人は二人といません。私たちは皆、この点で異なっています。なぜなら、私たちは生きている存在であり、異なる人生経験、異なる記憶、異なる欲望を持っているからです。
したがって、私たちの表現は本質的に独自のものです。これが、私たちのイントネーション、使用する言葉、使用しない言葉、使用する語彙、言語レベルが私たちについて多くのことを語り、文化的に非常に重要な豊かさとなる理由です。各人が独自の表現方法を持っており、それが社会の多様性と豊かさを生み出しているのです。
しかし、私たちが表現能力をこれらの装置に委譲するとき、これらの装置は確率的計算を行い、インターネット上で最も存在する、多数派のデータを常に強化し、平均を強化するため、均一化が生じます。全ての独自性が排除されます。
なぜなら、大量のデータセットの中での独自性は全く価値を持たないからです。確率的計算、統計的計算は独自性を考慮に入れません。これが第一の危険です。
ちなみに、トランスヒューマニストたちの間で非常に一般的な技術的特異点のイデオロギーは、実際には人間の表現の独自性や非確率性の排除を隠蔽する方法だと思います。
表現のプロレタリア化におけるもう一つの非常に危険な点は、私たちが表現するとき、ある方法で世界を理解しているということです。例えば、教師として学生にテキストを要約するよう求めるのは、テキストの独自の解釈を生み出し、独自の方法でテキストを理解することを学ばせるためです。
したがって、表現能力を自動化すると、理解能力も自動化することになります。つまり、もはや解釈する必要がないため、私たちが生きている世界を理解しなくなるのです。これも潜在的に非常に危険だと思います。
つまり、これらのテクノロジーの課題を、知識の獲得や喪失の観点から考えようとするとき、このプロレタリア化の概念は非常に興味深いのです。なぜなら、現在生成型AIとして提示されているものが、自動化プロセスの新しい段階であることを理解させてくれるからです。
そしてこの点で、マルクスを読み返すことは非常に興味深いのです。今日私たちが直面している産業革命の課題を理解するためです。それはもはや労働者と自然資源・物質資源の搾取だけに基づくものではありません。特定の労働者と自然資源・物質資源の搾取も依然として存在しますが、市民の注意と表現の搾取、そしてインターネット上の全てのコンテンツという文化的・記憶的資源の搾取にも基づいています。
労働者が椅子や荷車を作る技能を奪われたように、私たちは完全な人間であることの能力を奪われているのでしょうか。
人間性という概念には非常に慎重になります。なぜなら、古人類学が教えてくれるように、人間になるというプロセス、人類化のプロセスは、技術的外部化のプロセスとも結びついているからです。
例えば、ルロワ=グーランの『身ぶりと言葉』(1964年)は非常に興味深い著作で、ジャック・デリダやベルナール・スティグレールにも大きな影響を与えました。それは、人間と呼ばれるものが、その道具が変化するにつれて常に変化してきたことを示しています。ある意味で、技術以前の人間は存在しないのです。
したがって、私は人間-技術-社会というシステムに注目することが重要だと考えています。今日の私たちが以前よりも人間的でないとは思いません。しかし、今日の私たちが直面しているデジタル資本主義は、カール・マルクスが直面した産業資本主義とは異なる新しい危険をもたらすと考えています。
それらを適切に特定し、技術的、産業的、政治的、経済的な代替案を提案する必要があります。新しい危険とは、表現する能力を失い、知識を奪われることなのでしょうか?
はい、それは一つの側面です。実は、私はあなたの考えに完全に同意する傾向にあります。私たちは世界について考え続け、何を望むのかを共に決定しなければならないと思います。
先週、ジュリアン・ゴバンがここに来ましたが、彼はこの進化に対して非常に中立的な立場を取り、「人々がそこから得るものがあると感じるなら、なぜいけないのか」と言いました。今のところ、私たちはその方向に真っ直ぐに向かっています。このトランスヒューマニスト的なプロジェクトに対する抵抗は、まだ少数派です。
もし私たちがもはや考えることができず、表現することができず、思考することができなくなっても、社会がそのように機能するのであれば、あなたが言ったように私たちは人間性を失うわけではなく、その古人類学者が言ったように技術と共に進化するのであれば...
いいえ、実際にはそうではありません。つまり、問題は...全てが政治的なのです。私たちはその方向に真っ直ぐには向かっていません。私たちがどこに向かっているのかさえわかりません。特定のタイプのテクノロジーが発展しているのは、特定の私企業が例えばヨーロッパ市場で特定の技術装置を押し付けるためにヨーロッパレベルでロビー活動を行っているからです。
トランスヒューマニストの方向に真っ直ぐ進んでいるわけではありません。公的権力と私的権力の間で常に交渉が行われています。私的権力は、多くの場合、短期的な自己利益の論理に従っており、それは人々の利益と対立します。
例を挙げましょう。MetaとGoogleは現在、生成型AIを機能させるためのデータセンターをウルグアイとスペインの深刻な干ばつに見舞われている地域に建設しています。生成型AIは環境的に非常にコストがかかり、データセンターの冷却システムに大量の水を必要とします。
生成型AIは特殊なグラフィックプロセッサを必要とし、それは特に多くのエネルギー、特に電力を消費します。また、データの保存と処理のためにより多くのデータセンターの開発も必要とします。これらのデータセンターは多くの熱を発生するため、常に冷却システムが必要で、そのために水を消費する必要があります。
水の消費の問題は、多くの国で水不足が既に起きており、今後数年でさらに重要な問題となるでしょう。ウルグアイとスペインでは、MetaとGoogleがデータセンターを建設し、近隣都市の水道システムから水を取水しているため...
そうですね、そういった場所で住民と私企業の間に政治的な対立が生じているということです。住民の利益と特定の私企業の利益が対立するとき、政治的代表者として自分の仕事をする者は、地域経済、地域領域、地域住民に害を与える場合、企業の利益よりも住民の利益を優先しようとするのです。
では質問を言い換えましょう。2050年になり、明らかにあなたは戦いに負け、GFAMEが勝利したとします。人類は技術と共に進化し、より人間的でもより非人間的でもないとあなたが言うように、一般的なプロレタリア化のリスクについて語られていますが、もはや私たちのような方法で考えることができなくなり、人々はほとんど書かなくなるでしょう。
しかし社会は機能し、人々の生活必需品は全て満たされ、以前より特に暴力も増えていない、そのような状況では...
問題は、言語は単に情報やメッセージを伝達するためだけのものではないということです。人類学的に非常に重要なのは、対立を象徴的な次元に転換することです。つまり、お互いに暴力を振るう代わりに、議論し、論証し、討論するのです。
あなたが「もはや誰も話したり書いたりできないが、暴力は増えていない」と言うとき、私にはそのような世界は存在し得ないと思います。人々が話すことができず、自己表現ができなくなれば、残念ながら必然的に暴力は増加すると思います。
例えば、言語や象徴的な次元で不一致を表現できないとき - これは言語だけでなく、全ての象徴的表現、芸術的活動、文化的活動にも当てはまります - これらの象徴的活動は、そうでなければ非常に攻撃的な衝動となり得るものを昇華する役割も果たしています。
私が言いたいのは、未来学は行わないということです。人間一般について語ることもしません。なぜなら、そのような議論は私たちの気を散らすためにあるからです。2050年に私たちがどうなっているのか、誰にもわかりません。
気候変動の予測、生態学的災害、人口移動を見てください。GFAMEが最後の言葉を持つような世界は、シリコンバレーの起業家たちでさえ残念ながら知ることはないでしょう。そしてそれは非常に暴力的な世界になるでしょう。
確信はありませんが、トランスヒューマニストたちはそう言います。
トランスヒューマニストたちを全く真剣に受け止めていないわけではありませんが、例えばIPCCの予測を信用しないのであれば、トランスヒューマニストたちを信用するのは全く真剣ではないと思います。IPCCは気候変動を抑制するためのテクノロジーについて、ますます言及するようになるでしょう。
それは全く異なる問題です。今日の生成型AIは気候変動を抑制するためのテクノロジーの一部ではありません。もちろん、デジタルであれ非デジタルであれ、気候変動に対する解決策となり得るテクノロジーはあります。これはまたトランスヒューマニストたちが提案する気候変動への解決策です。
通常、それは全く同じものではありません。専門家ではありませんが、近年これらの議論をよく追っていないかもしれませんが、この問題については非常に慎重である必要があります。
なぜなら、テクノソリューショニズムという傾向があります。これはモロゾフが展開した用語で、政治的、社会的、経済的な原因を持つ問題を全て、新しい技術革新で解決できるという考え方です。
これは、例えば3ヶ月後に次のiPhoneを買うために捨てるような消費主義的な同じ経済モデルを維持したまま、非常に効率的なスマートシティを作るといった解決策を提案することです。これは計画的陳腐化と呼ばれます。
私は個人的に、このような言説には完全には納得できません。なぜなら、現在の生態学的問題を「解決する」ためには、私たちの生産、消費、生活様式を変える必要があると思うからです。これを受け入れるのが難しい人々もいて、彼らは技術革新を推進することを好むのです。
もちろん、有用な技術革新が存在しないという意味ではありません。しかし、これらの言説に対しては少し警戒的である必要があります。
実はこれで私はより理解できました。私は、もしトランスヒューマニストたちが勝利し、彼らが実現したいと主張する世界が実現した場合のリスクについて警告していると思っていました。しかし、あなたが言っているのは、そのような世界を実現することは不可能であり、それを実現しようとすることで、より望ましい世界、持続可能なテクノロジーと...
持続可能性という概念は非常に重要です。私たちのデジタルテクノロジーは、自然環境やエコシステムの観点から、精神環境の観点から、そして社会環境の観点から持続可能なのかという問いを立てることは良い質問です。
『デジタル分裂症』という本の最後で、私はフェリックス・ガタリの三つのエコロジーという概念を取り上げています。これは1989年に書かれた彼の哲学の主要著作ではありませんが、この問題を広げる上で興味深い本です。
私にとって、デジタルテクノロジーは全て、環境的な影響、私たちの精神、思考方法、記憶、想像力への影響、そして社会関係や集団的制度、政治的プロセスへの社会的影響を持っています。
このような観点からテクノロジーを評価すれば、おそらく異なる基準を持ち、より持続可能なテクノロジーに興味を持つことになるでしょう。残念ながら今日、これらのデジタルテクノロジーの生産基準は、その大部分が非常に短期的な収益性の基準であり、それを使用する大多数の人々の利益ではなく、少数の私的アクターの利益になっています。
そうですね、その通りです。しかしご存知のように、タバコ産業や砂糖産業も全く同じように機能してきました。だからと言って、肺がんや肥満の問題がないわけではありません。大企業の利益は、人々がこれらの産業の消費者であったとしても、必ずしも人々の利益とは一致しません。
なぜなら、広告産業も非常に効果的に機能し、時には市民の意識しないところで、時には彼らの利益に反して、彼らの行動に影響を与えるからです。消費主義の歴史を繰り返す必要はありませんが、確かに持続可能性という基準は、現代のデジタル技術産業生産を評価し、より持続可能な未来に向けて方向づけ、破壊的なデジタル技術や産業を提案する者たちの力を規制または制限するための非常に良い基準だと思います。
それらが破壊的だと言うことに何の問題もありません。私の質問をもう一度させてください。これは本当に知りたいのですが、あなたは物質的に具体的に可能だと考えているのか、それとも彼らが利益を追求する中で、トランスヒューマニズムの計画、つまりある種のサイバネティック社会の確立は...
彼らがその計画を追求することで、例えば資本主義と成長を追求すれば、必然的に気候変動や生物多様性、環境問題が人類のプロメテウス的な野心に決定的な終止符を打つことになるとあなたは考えているようですが...
それは私の考えではなく、今日、特に気候の専門家たちの科学的研究が、私たちの経済モデルを変えなければ、非常に急速に自然災害が起こることを予告しているのです。
実際、私はトランスヒューマニズムのイデオロギーと自由主義的資本主義のイデオロギーを区別しません。もちろん、より細かい分析が必要でしょうが、これらのイデオロギーは密接に結びついています。
GDPのような商業的指標で測られる今日の経済成長を加速させるというプロジェクトと、支配的な商業的ソーシャルメディアや支配的な生成型AIのモデルに基づいてますますデジタルテクノロジーを発展させるというプロジェクトの間には、本当の区別はありません。
なぜなら、より多くのテキストを生産することで生産性を向上させ、より多くの画像を生産することで生産性を向上させ、特定の人間労働者を省くことができるため、非常に収益性が高いからです。同様に、ソーシャルメディアは非常に的確なターゲット広告を可能にし、より多くの製品を販売することができます。これは非常に収益性が高く、私たちの経済成長の目標に完全に適合します。
この経済成長の加速化と、シリコンバレーのトランスヒューマニストたちのリバタリアニズムには、特に区別を設けていません。どちらも資本主義と消費主義の論理を加速させるものだと思います。
今あなたが投げかけた質問について、私は未来予測はしませんが、気候学者のように言えるかもしれません。この方向に進めば進むほど、前へ逃げ続けることでは乗り越えられない壁にぶつかることになります。
ええ、技術についても気候変動と同じように、固有の論理があって加速し悪化していくと言えます。精神の全般的なプロレタリア化、存在の知と思考の知の消失によって、ある時点で完全に知を奪われた人々との社会形成は不可能になるでしょう。
これは本当に重要な問題です。今後、言語や表現、社会関係を奪う技術によって社会を形成することは、ますます困難になっていくでしょう。
また重要なのは、これらのシステムが自己破壊的だということです。思考の知が失われると、良い技術を生み出す能力も失われます。これらの技術を作った人々は、書くこと、考えること、話すことをしっかり学んできたわけです。
そのため、シリコンバレーの企業家やデザイナーたちは、自分の子どもたちにスマートフォンやタブレットを使わせないよう制限し、これらの毒から守っています。つまり、経済的な競争力を維持するためにも、私たちは精神的、知的、文化的能力を守る必要があるということです。
他の国々は既にイノベーションを進めていて、私たちは彼らにとって単なる市場でしかありません。彼らには私たちを愚かにする利益があるのかもしれません。
ですから、現実的な観点からも、技術の危険性に注意を払わずに単なる顧客やユーザーになることは、戦略的に賢明とは言えません。
気候学者よりも早く正しいことが証明されるかもしれませんね。90度方向転換して、あなたの意見に沿って考えてみましょう。
過去10-15年の技術の指数関数的な発展が、世界中で見られる出生率低下の主な原因の1つである可能性は否定できません。出生率の高かったアフリカでさえそうです。
日本では、若者が外に出ないため、政府がお金を支給しているほどです。彼らはパソコンの画面の前で一日中過ごし、配達を頼み、在宅勤務で、外出しなくなっています。これは驚くべきことです。
社会形成が困難になるというお話でしたが、それは既にトランスヒューマニズムの妄想やスクリーン、技術の遍在という形で現実化し始めているのかもしれません。子どもを持たなくなるという形で表れているのかもしれません。
気候変動よりも早くこの壁に当たる可能性があります。気温は幸か不幸か緩やかに上昇していますが、出生率は急速に低下しています。シリコンバレーのイデオロギーは、気候変動よりも早く壁に突き当たるかもしれません。
ただし、この問題については全く研究していないので、事実や相関関係については分かりません。ただ、あなたがおっしゃったことは非常に恐ろしいですね。でも、この問題についてはあまり研究していないので、意見は控えさせていただきます。
ロジック的にはある程度理解できます。技術によって人々が互いに切り離され過ぎて、もはや繁殖できなくなるという結果につながる可能性があるということですね。はい、その可能性はありますね。
ただ、因果関係については慎重になりたいと思います。この現象をしっかり研究して、どのような相関関係が見られるのか検討する必要があります。
否定的で暗い話題で終わらないように、残り時間で提案について話しましょう。危機と緊急性の高まりの中で、多かれ少なかれディストピア的な未来のシナリオが人々の関心を集めているのは分かります。
でも、そういったシナリオは一般的過ぎて具体性に欠けることが多く、また政治的な問題を非政治化する傾向があります。経済的なアクターや政治的対立を無視して、「人間」「デジタル」「気候」といった抽象的な話になりがちです。
むしろ、これらの技術が提起する現在の問題や、経済や注意の問題をめぐる現在の議論や緊張に焦点を当てるべきだと思います。
生成AIについても、まだ適切な公の議論が行われていないように思います。おそらく、まだ十分な距離を置いて見られていないことと、まだ魅了の段階にあることが理由でしょう。
もちろん、経済的な集中や差別的なバイアス、人間労働の搾取、環境への影響といった問題を指摘する声も出始めていますが、これらのシステムは今後さらに多くの問題を提起するでしょう。この産業的発展はまだ始まったばかりです。
SNSが登場した当初、多くの人が魅了されたのを覚えているでしょう。でも今、10年20年経って、これらのシステムが自分の子どもに使わせることを禁止している企業家たちの手に委ねられると、非常に有害で毒になり得ることが分かってきました。
生成AIについても同様の幻滅を経験することになるでしょう。今は魅了されていますが、数年後にはもっと複雑な状況になると思います。
では、技術的な方向転換や抑制のために何をすべきか、どんな技術が必要で、今日の世界でどのように実装できるのか、お話ししましょう。
まず理想的な技術について考えてみましょう。
私は理想的な技術というものはないと思いますが、より持続可能な技術を設計するための原則はあると思います。
私はベルナール・スティグレールが設立したアール・アンデュストリアリスト協会で多くの仕事をしました。その後、私たちは『分岐する』という共著を出版しましたが、これはこの点で参考になると思います。
そこでは、解釈的で貢献的な技術の必要性を強調しました。これが何を意味するのか、またどのようなパラダイムと対立するのか説明させていただきます。
まず解釈的技術とは、解釈を必要とする技術です。解釈は私たちが考え、表現するときに常に働いているものです。つまり解釈的技術とは、ユーザーや個人、グループが解釈する可能性を残している技術です。
表現し、議論し、熟考する能力を自動計算によって短絡させないという意味で、ある種の開かれた技術です。アルゴリズムが公開されているという意味ではなく、人間の解釈に開かれているという意味です。後で例を挙げます。
そして貢献的というのは、個人で使用する技術ではなく、集合的な知の共有や集団的な熟議、議論、討論を必要とする技術という意味です。
また、私たちが使用する技術的装置の開発、設計、実験に貢献できるという意味もあります。
より具体的な例を挙げましょう。ウィキペディアのプラットフォームについて既にお話ししましたが、これは解釈的かつ貢献的な技術の例です。
様々な視点や解釈が存在し、特定のルールに基づいて集団的な熟議が行われ、コンセンサスが形成され、ピアレビューによって認証された知識が構築されます。
これはChatGPTのような技術とは全く異なります。ChatGPTでは、あなたは技術と一対一で向き合い、確率的な計算によってテキストが自動生成され、表現や解釈、熟議の能力が短絡化されます。
ある意味であなたは置き換えられてしまうわけです。一方ウィキペディアでは、知識を共有するのです。これは全く異なるパラダイムです。
先ほど話したPoliceというプラットフォームについても同じことが言えます。個人が関係を持ち、集団的な議論を行い、他者の提案に基づいて集団的な提案を行うことができます。
これもChatGPTとは全く異なります。ChatGPTはあなたの代わりにテキストや提案を生成します。つまり一方では技術があなたの行動を模倣して自動化してしまいますが、他方では技術は他者との関係を可能にし、集団的な富を生み出すプラットフォームとなるのです。
ウィキペディアで生み出される知識については、色々な意見があり、場合によっては多くの問題を含んでいますが、社会集団にとっては富となります。
Policeプラットフォームでの議論から生まれた提案は、市民の意思と熟議から生まれ、市民の間でコンセンサスを得たもので、政治的な富として実験されました。
一方、生成AIによって生み出され、アルゴリズムの自動推薦によってSNS上で急速に拡散する誤情報は、時として暴力を生み、政治的不信感を生み出し、世論を操作することにもなります。
これが解釈的で熟議的、貢献的な技術の例です。
もう1つの例として、トゥルヌソル協会が開発した協調的推薦システムがあります。これは様々なプラットフォーム上の動画について、市民の投票と評価に基づく推薦アルゴリズムです。
市民は適切だと思う動画に投票でき、その評価や判断に基づいて動画が推薦されます。通常は、プラットフォームや SNSの経済的利益のために最も視聴された動画が推薦されます。
これは市民の解釈、判断、評価、投票、つまり集団的な貢献に基づく代替的な推薦システムです。
マストドンのような非商業的なSNSでは、推薦システムを自分でカスタマイズしたり、特定の基準に基づいて質の高い推薦サービスを提供する他の組織を利用することができます。
そうすると、SNSは全く異なる形になります。既に得た視聴回数や、あなたに似た他者が見たものを模倣的に推薦するのではなく、自分で定義した基準に基づいて推薦が行われます。
つまり、見たいもの、見たくないものについての自分の解釈に合わせた技術、あるいは特定のコンテンツを推薦するピアグループの解釈に合わせた技術となるのです。
これらの技術は、その機能の中に人間の判断、評価、熟議を組み込んでいます。これが非常に重要です。デジタル技術は必ずしも自動化と全般的なプロレタリア化をもたらす技術である必要はありません。
そもそもウェブの理想は全く異なるものでした。ハイパーテキストリンクによってサイトからサイトへと移動でき、新しい発見をし、新しいことを学び、共通の関心や目的を持つ人々と出会えるメディアでした。
今日のプラットフォームのインターネットと生成型AIは、もはやこの原則に基づいていません。人間の行動の模倣とシミュレーションに基づいています。ChatGPTの魅力は、人間が話しかけているような印象を与えることです。
でもウェブの意義は人間を模倣することではなく、人々を結びつけ、個性を表現し、知識を共有することにあります。
これらの技術は、個人データの収集やデータセンターでのアルゴリズム処理を必要としないため、電力や水の消費も少なく済みます。
また、ケニアでオープンAIのために時給2ドルで画像やコンテンツのインデックス作業を強いられた労働者のような搾取も必要ありません。
つまり、環境的にも精神的にも社会的にも政治的にも持続可能な、全く異なる技術モデルを開発することが可能なのです。集団的な知性を高めることができます。
しかし、このような技術が評価され、資金を得て、支援されるためには、技術に関する政治的な議論と政治的な野心が必要です。常に競争力や競合を意識して、シリコンバレーの産業を模倣しなければならないという考えから脱却する必要があります。
代替的なモデルを想像する必要があります。通常の意味での競争力はないかもしれませんが、環境にとってより持続可能で、人々にとってより望ましいモデルです。
自動化とプロレタリア化のパラダイムに対立する貢献のパラダイムは非常に興味深く、様々な分野でこのパラダイムを参考にして、デジタル技術を人間の行動の模倣、シミュレーション、自動化、置き換えではなく、貢献的な実践のために活用する方法を考えることができます。
私たちが望む世界を定義する上で、哲学を取り戻す必要がありますね。
はい、私たちが開発する技術にも哲学を取り戻す必要があります。哲学には、支配的なモデルに対する代替的な技術を提案する役割もあると思います。
難しいですが、異なるソーシャルメディアや貢献的で解釈的な新しいプラットフォームを考案し、未来と技術の多様性を切り開く必要があります。
ええ、私も全く同感です。私たちはPenserでそれを目指しています。
Penserは素晴らしいですね。ベルナール・スティグレールや他の多くの人々に影響を受けています。もし以前あなたの論文を読んでいれば、もっと言えたのに...。
そうですね。でも、プラットフォームを作る時は、ユーザーに使ってもらう必要があります。つまり、ある時点で人々の注意をプラットフォームに向けてもらう必要があります。
でも、他のところで注意が奪われている中で、ユーザーの注意を引くような技術を開発するのは、起業家としてとても難しいですよね。
実は、あなたの具体的な問題については、申し訳ありませんが解決策は持ち合わせていません。しかし、問題を切り分けて考える必要があります。
コンテンツプラットフォームの設計者として、ユーザーの注意を引く必要があるのは当然です。どんなメディアでもそうする必要があります。
あなたはユーザーの注意を引くための技術を開発しなければならず、猫の動画からユーザーの注意をそらすことができれば、それは素晴らしいことです。今となっては猫の動画を懐かしく思う日が来るかもしれませんが。
ただし、これはあなたに関係する問題です。例えば今日、FacebookやTwitter、TikTokのような商業的SNSの推薦アルゴリズムは、私企業によって設計・開発されています。
これらの技術が使用される国々の市民や政治的代表者は、これらのアルゴリズムの設計について一度も相談を受けていません。
でも、これらのアルゴリズムがコンテンツの可視性と不可視性を決定するのです。推薦されることのないコンテンツは、公開されても決して見られることはありません。
つまり、私企業が開発したアルゴリズムがインターネット上の情報の流通を規制しているのです。商業的SNSは今や市民が情報を得る主要な場となっています。
これは、4-5の覇権的な私企業による市民の注意の支配に他なりません。もちろんもっと多くの企業がありますが、通常最初に思い浮かぶのはGAFAMです。
TikTokもこの点で大きな懸念材料ですし、TwitterもGAFAMには含まれませんがこれらの問題に関わっています。
問題は単に注意を引くことだけではなく、何を可視化するかを決定できることです。これは集団的に議論されるべき問題です。
最近、私たちはデジタル国家評議会と共に情報に関する全国会議に参加し、先月公開報告書を提出しました。
そこで私たちが提言したのが、「アルゴリズムの多元主義」、つまりSNS上の推薦アルゴリズムは複数あるべきだということです。
FacebookやTwitter、TikTokにログインした時、必ずしもそれらの企業が見るべきコンテンツを推薦する必要はありません。異なる推薦システムを選択できるはずです。
これは法律や規制によって各プラットフォームに義務付けることが可能です。これを「ソーシャルメディアのアンバンドリング」と呼びます。この件についてもデジタル国家評議会とのインタビューがサイトで公開されています。
アンバンドリングとは、推薦機能に関して言えば、SNSに異なる推薦システムを提供することを義務付けることです。
FacebookやTwitter、TikTokにアクセスした時、誰がコンテンツを推薦するのか選択できるようになり、必ずしもFacebookやTikTok、Twitterという私企業である必要はありません。
これについて最後に付け加えると、どの組織を選んでも、たとえ自分でコンテンツ推薦の基準を決めたとしても、依然として注意を特定の方向に向けるメディア技術に直面することには変わりありません。
しかし重要なのは、これらの推薦技術に対する政治的・市民的な力を取り戻し、覇権的な私企業の手にのみ委ねられないようにすることです。
推薦は常に存在し、影響力も常に存在し、注意を引く技術も常に存在するでしょう。しかし、これらの注意を引く技術ができるだけ集中せず、できるだけ多様で、何より集団的な議論の対象となるようにしなければなりません。
そうでなければ、情報の流通が少数の私企業によって規制され、表現と思考の自由に対する力を持つことになり、民主主義とは言えなくなります。
つまり、注意の捕捉の問題は、ビジネスモデルを注意の搾取と広告主への販売、個人向け広告のターゲティングに基づいている企業に直面する時、非常に重要になります。
しかし、推薦の問題も同様に重要で、これについては非常に具体的な行動を起こすことができます。
これは、あなたのサイトやプラットフォームにとっても意味があります。例えば人々が「とても知的なコンテンツを見たい」と設定すれば、Penserがもっと推薦されるかもしれません。
つまり、あなたの可視性も、今は私企業の手にある推薦システムに条件付けられているため、戦うのが非常に困難なのです。
そうですね。特定の推薦システムには「注意:中毒性あり」といった警告を付けることもできます。
「これはドーパミン全開の推薦です。爆発的な内容や衝撃的な画像が多く含まれます。この方向に進むと、完全に無傷では済まないかもしれません」といった具合に。
その通りです。まずユーザーに、コンテンツの推薦方法は自然なものではなく、既に政治的なものであることを示し、誰がどのようなコンテンツを、どのような理由で推薦しているのかに注意を払う必要があることを示すのです。
その上で、公的機関が公益性があり中毒性のない推薦システムを支援することも考えられます。様々な可能性があり、集団的に議論することができます。
これは非常に重要です。なぜなら、デジタル公共空間の問題が関わっているからです。
先ほど、より持続可能な技術についてお話ししましたが、今度は技術をめぐる政治的議論について話しています。
Facebookや、TikTok、Twitterに推薦を任せたいというのが全ての市民の希望なら、民主主義に生きているのですから、市民の選択を尊重しましょう。
でも、そうだとは全く思えません。多くの市民が推薦システムを選択できることを喜ぶはずです。私もその一人です。時間を無駄にし、自分を害するものに依存していると感じています。
あなたは決して一人ではありません。私より若い世代、デジタルネイティブと呼ばれ、危険性を認識していないと言われる人々と話してみても、そうではありません。
私の経験では、多くの若者が疑問を持ち、もっと健全で刺激的な情報環境を望んでいます。
これらの効果は、適切な言葉ではありませんが、依存や強迫的な効果を生み出します。うつ的で鈍くなる効果があります。
動画を延々とスクロールしていると、欲望を奪われます。これは非常に奇妙です。脳科学的にも説明できると思います。
私たちは怒りと決意を持って携帯を置きますが、3分後には他に何をする気力も意欲もないため、また戻ってしまいます。これは非常に恐ろしいことです。
だからこそ、この考えが気に入りました。GAFAMを閉鎖するのではなく、他の有害産業と同様に、特定の行動を採用するよう義務付けることができます。
アルゴリズムを公開したり見せたりすることさえ求めていません。単に他者が介入する可能性を与えるだけです。技術的には可能なはずです。
そうですね、政治的にも可能です。私有財産を正面から否定するわけではありません。小さな修正で大きな違いを生む可能性があります。
これは彼らの機能を民主化すると言えるでしょう。FacebookやTwitter、TikTokは誰でも使えるから民主的だと言われますが、それは単なる使用の大衆化であって、何かを民主化することとは全く異なります。
みんが砂糖を食べたり煙草を吸ったりするからといって、それが民主的というわけではありません。それは単に、特定の産業の力と宣伝的言説によって行動が大衆化しただけです。
むしろ、これらの技術の機能に注目し、その機能が民主的かどうかを問う必要があります。注意の経済と推薦アルゴリズムの点で、それが民主的でないことは明らかです。
したがって、これらの企業にどのようにしてより民主的な、つまり私たちの価値観により合致した機能を持たせることができるかを考える必要があります。
デジタル技術は倫理的になり、私たちの価値観に合致する必要があると常に言われます。もし私たちにまだ民主的な価値観があるのなら、不透明な推薦アルゴリズムが私企業によって開発され、デジタル公共空間におけるコンテンツの流通を規制することは受け入れられません。
より倫理的で価値観に合致した技術にするためには、場合によって規制が必要だということも受け入れなければなりません。
規制はイノベーションと対立するわけではありません。むしろこの分野では、新しい推薦システムが生まれ、推薦システムの分野でイノベーションが刺激される可能性があります。
技術を規制すると、イノベーションの障害になると言われますが、そうではありません。時として規制は、より興味深い技術へとイノベーションを方向づけることができます。
全員がOpenAIと競合する大規模言語モデルを作ろうとするのではなく、代替的な推薦システムの開発に取り組むこともできます。
これはアルゴリズム、情報科学、デザインだけでなく、人文科学、政治学、数学など、様々な分野を巻き込んだ研究の可能性があります。
制約は創造性の源です。制約が加わることで、その制約をめぐって新しいものを生み出す可能性が広がります。
この議論は緊急性を帯びています。私たちの価値観に合致させる必要があると言いますが、思考の知を失ってしまえば、コントロールを求める意思さえ失われてしまうかもしれません。
ええ、そもそもコントロールは不可能ですが、ご指摘の通りです。これらのアルゴリズムシステムに思考や決定、熟考の能力を委ねれば委ねるほど、必要な方向への変革の機会を失うことになります。
全く同感です。ある種の緊急性があります。残念ながら、プロレタリア化の効果はイノベーションと同じくらい急速です。
今日では、私たちの注意力や思考力、記憶力、集中力、言語能力は生まれつきのものではないことも分かっています。
非常に長い歴史の中で学んできたことを、とても早く忘れることができるのです。これは早急に取り組むべき問題だと思います。
ここで終わりにしましょう。アンヌ・アロンベールさん、素晴らしいお話をありがとうございました。このインタビューが気に入っていただけたら幸いです。動画の下に貼ったリンクから、私たちのサイトでアンヌ・アロンベールさんと意見交換することもできます。もちろん登録が必要ですが、本当に興味深いことを話していただければ、喜んで読んでご返事させていただきます。
そして10月31日には、アンヌ・アロンベールさんとジュリアン・ゴバンさんとの特別な対談が予定されています。技術を私たちの望む方向に変えていく緊急性と、ゴバンさんの視点からは何もしなかった場合に起こりうる文明の変容について、お二人の考えは非常に補完的で、とても楽しみにしています。
では、その時にお会いしましょう。チャオ!