”サジェスト”される思想―――リアリストが陰謀論にたどり着くまで
AIが人間の思想を左右している、というとSF作品の中のできごとか、何か陰謀論めいたものに聞こえてきますが、アメリカのテクノロジー業界では現実にこのようなことが問題視されているようです。
Netflixのドキュメンタリー「監視資本主義:デジタル社会がもたらす光と陰」ではGoogle、YouTube、SNSの元開発者たちが自分たちのアルゴリズムが「予想しなかった結果」をもたらしたと告白します。Googleの検索結果画面ひとつとっても、ネット上の光景は見ている人の地域、所属や属性、趣味嗜好によって「好みの傾向に」最適化され、それぞればらばらのものになります。この「ユーザー好みの情報をサジェストする」という機能は、結果から言えば個々のユーザーがイデオロギーに基づいて好むであろう情報を優先的に提供し、無自覚のうちにイデオロギーの傾きを加速するという形で一種の情報的分断を深めたと考えられています。
しかし、ネット上の情報や真実が「その人の好みで」選択されていることはもとから自明のはずです。では、なぜ「サジェスト機能」がここまで問題視されるのでしょうか?
脆弱性を突く”おすすめ”の機能
特定のピザ屋への情報が人身売買の暗号だという考え(ピザゲート)がどう始まったのか確信は持てませんが、フォロワーが増えるのに従ってFacebookは普通のユーザーにまで”ピザゲート”のグループを勧めだしました。
反ワクチンやケムトレイルを信じるユーザー、陰謀論に騙されやすいと判断されたユーザーにFacebookがピザゲートをオススメするのです。ついにはある男が銃を持ってピザ屋に現れ―――売買される子どもを地下から救出するために―――しかしそこに地下はありませんでした。
これは陰謀論がSNSで拡散する例のひとつ、SNSのオススメ機能がピザゲートの情報を自発的に提供していたのです。
(スタンフォード・インターネット観測所 ルネ・ディレスタ研究主任)
その理由のひとつに、サジェスト機能のアルゴリズムが陰謀論を通じて「騙されやすい人を騙す」という詐欺師のような手法に収束することが挙げられています。要するに、ひとつの陰謀論に騙されたユーザーは、また別の陰謀論にも「食いつく」であろうことが予測されるために、アクセス数や滞在時間といった”目標”を設定されているアルゴリズムは悪意なくその「コンテンツ」を提供することを選択してしまうわけです。
人間の情報選択の脆弱性を理解するには、何か致命的な病に陥っている人が高額の疑似科学的な民間療法にすがってしまう状況を想像すると分かりやすいかもしれません。このような「精神的・体力的に」衰弱している人は、情報の真偽を見極めたり、信じるべきものを主体的に選択するということが困難な状態に置かれます。
ここではまず、「信じるコスト」の高低が情報選択の鍵を握っていると考えられます。たとえば、私がひどい病に陥っていて余命幾ばくもないという情報よりはそんなのは嘘で比較的健康だという情報のほうが「コストが低く」、はるかに信じやすいといえます。辛く苦しい一般医療によってようやく症状を何割か抑えられる、というより「この奇跡の水を一ヶ月飲むと免疫機能が高まり、どんな病気も完治する」というほうがずっと楽に信じることができます。詐欺師の場合はこの脆弱性を意図的に突くわけです。
またイデオロギーにおいては、誰のせいにもできない問題を含む複雑な現実よりも「分かりやすい原因」が好まれるというような傾向が生じます。たとえば政治的なプロパガンダは、何らかの憎悪に結び付けて問題を外部に置き、本質的な問題を煙に巻いてしまいます。
ここから先は
¥ 100
この記事が気に入ったらサポートをしてみませんか?