痛みの終わり
今年から自分がnoteに上げた記事を、X(Twitter)にも反映させている。
X(Twitter)は、というよりSNS全般は、各ユーザーの興味が高いと思われるツイートを自動的に表示していく。これは、アルゴリズムと呼ばれる仕組みによるものだ。
アルゴリズムは、ユーザーの過去の閲覧履歴やエンゲージメント(「いいね」「リツイート」「コメント」「シェア」など)の履歴から、その人が興味を抱くと思われるツイート内容を判断し、自動的に表示していく。
たいへん便利な機能の反面、デメリットも決して小さくない。
2017年、イギリスで10代の少女が自殺した際、悲しみにくれた父親は自殺の理由を知ろうと、娘のSNSアカウントにアクセスした。
すると14歳だった彼女が、自殺を勧める自傷行為についての画像を見ていたことを知る。そうした画像は、Facebook傘下のInstagramやPinterestなど、人気のあるSNSや画像共有サービスで表示されていた。
父親はSNS企業に対し、自傷行為や自殺を勧めるコンテンツと、もっと真剣に取り組むよう強く要請する。同氏はこうしたコンテンツが娘の死に影響を与えたと語る。
「彼女がオンラインで見たものは、14歳が知る必要のないことを教えてしまった。それが彼女の中で絶望を助長したのだ」
Instagramは「#selfharm(#自傷行為)」というハッシュタグで検索しても、関連する投稿をすぐ表示せずに、検索したユーザーを支援リソースに誘導している。
しかし自傷行為の画像は、「#suicide(#自殺)」で検索しても警告付きで表示される。ユーザーが「あなたが探している単語が含まれる投稿は、危害を及ぼしたり死を導いたりする可能性のある行動を助長する傾向があります」との警告を無視して「投稿を見る」をクリックすれば、画像は表示されてしまうのだ。
X(Twitter)は自傷行為・あるいは自殺コンテンツの推奨を禁じているが、自傷行為の画像は「センシティブなメディア」という警告ラベル付きであれば許可している。
ユーザーはこのラベルを確認した上で画像を表示できる(警告ラベルは投稿するユーザーが設定するよう求められているが、報告があればTwitterが追加する場合もある)。
他のSNSと異なり、X(Twitter)では自傷行為コンテンツの検索結果を、ブロックしていない。
2020年、自殺する男性の動画がTIkTok上で拡散した。
この動画はもともとはFacebookに投稿されたもので、TikTokはこの動画が拡散した原因を「ダークウェブからの協調的襲撃」とした。TikTokのユーザーが自動検出から逃れるために、さまざまな方法で動画を編集したのだ。この出来事は、ユーザーが検索しなくてもSNSに自殺コンテンツが表示されてしまったという事件である。
TikTokはユーザーが自傷行為コンテンツを検索すると、支援リソースを表示するようにしている。
自殺の検索でも支援リソースが表示されるが、結果を表示する選択肢もある。ユーザーは「このコンテンツは一部の視聴者にとって適切でない可能性があります」と警告される。検索結果には、自殺予防あるいは自殺意識に関する動画が含まれていた。
2022年、16歳の少年が自殺した後も、TikTokのアカウントはアクティブなままだった。投稿をたどると、失恋や絶望、苦痛から逃れる究極の道だと自殺を賛美する動画が多数ある。
一周忌を迎える直前、「痛みを取り除いてほしい、死は救いだ」という動画が、少年のアカウント内にある「おすすめ」フィードに送られてきた。
別の投稿では男性の声で、「口の中でショットガンの引き金を引いて脳を吹っ飛ばす」というものがあり、女性の声が「クール」と答えている。
これって、最近読んだスティーブン・キングの『任務の終わり』そのままじゃないか。
2016年に作品が発表されて以降、SNSによって誘発された少年少女の自死が表面化しだしたのは、作者の先見の明によるものなのか。
ひょっとして世界的ベストセラー作家の小説が、現実の世界に大きく影響したものだろうか。
今や現実世界は、仮想世界をトレースし始めているかにも思える。
明日に続く
イラスト hanami🛸|ω・)و