陰謀論対策について
インターネット上には「なんでこんなものを信じるんだ」という陰謀論的な情報を鵜呑みにしている人が多い。
日本人が馬鹿なのかと思っていたけど、アメリカではもっと大規模に陰謀論が流行っているらしい。
僕が日本で見る限り、5年前くらいのTwitter上には既に、
TVや新聞などのマスメディアを「嘘だ!情報操作だ!」と敵視しつつ、出どころもわからない匿名アカウントのツイートを大量にRTするような人たちはいた。
僕はそういう人たちの「自分が信じたい情報かどうか」を基準にし、
都合のいいものは「真実」
都合の悪いものは「嘘・Fake」
と決めつける態度を見て、宗教的な信仰と似ていると思った。
そこで自分なりに、"信仰"に陥らず、客観的に情報の中身を判断するための防衛策を考えてきた。
1: 情報媒体をふるいにかける
まず一日に何千・何万もの記事がアップロードされる時代に、
中身をいちいち見て判断していてはキリがないので、ある程度その発信媒体が信用できるものかどうかふるいにかけることが必須。
具体的にいえば僕はニュースサイトやTwitterアカウントなどを、
「発信した情報が嘘だった場合、発信した者にどれだけのデメリットがあるか」
という基準でふるいにかけている。
たとえば、インターネット上にぽっと出てきた新興ニュースサイトは、もし嘘の情報を流したとしても、失うものが少ない。
もともと固定の読者がいるわけでもなく、実績を積み重ねてきたわけでもないので、信頼を失っても痛くも痒くもないから。
なんなら、嘘でもなんでもいいから炎上してアクセス数を増やしたほうが、誰もアクセスしない状態よりはマシ。
そうすると嘘の情報を流すことがデメリットではなく、むしろメリットを生むことすらある。
こういう状況では、嘘の記事を書かせなくするような抑止力は働きづらい。
逆に大手のメディアにはそれまで積み重ねてきた実績や固定の読者がいるので、信頼を失うことは大きな痛手になる。
具体的にいえば、NHKや新聞の大手五紙なんかの情報では、偏った報道はあれど、真っ赤な嘘というのはなかなか書けないと思っている。
つまり「本当はあったはずの事実を書かない」という消極的な情報操作はできても、
「本当はなかったことを事実として書く」という積極的な情報操作はしづらいだろうと思う。
まとめると、
経済的合理性、つまりメリットとデメリットの比較を軸に考えると、
嘘だった場合のデメリットが少ない発信者ほど、嘘の情報を流している危険性は高い。
具体的にいえば、
・つくりかえが容易な新興ニュースサイト
・匿名のブログ・アカウント
こういった媒体からの情報は、よく注意して見る必要がある。
ただしこれはおおざっぱなふるいにかけるようなもので、10万ある情報を5000に絞るくらいのこと。
本当に難しいのはその先の話なので、これだけではFake Newsや陰謀論は防げない。
2: 信用してしまう心の働きを理解する
次の段階として、"信仰"してしまう心の働きを意識すること。
これを僕は「認知的不協和理論」という心理学の理論をもとにして考えています。
(理論についてはこの記事がわかりやすい→ http://at-ease.info/hukyouwa/ )
おおざっぱにいえば、
「自分が既に得ている知見と、新しく得た知見が異なるときに、不快感を覚える」というのが認知的不協和です。
例えば、
自分が「おいしくて健康にいい」と思って食べていた食品が、
実は病気の原因になるというニュースが流れてきたとき、
人は「そんなはずない」と不快感を覚えて抵抗しようとする。
こういう心の働きのことを、認知的不協和と言います。
陰謀論 ≒ 宗教的信仰が厄介なのは、この抵抗を利用しているからだと僕は思っています。
いちど「この世界はこういうもので、こういう仕組みのものだ」と信仰ができてしまえば、
あとは放っておいてもその世界観に合った快適な情報を「真実」として飲み込むようになっていく。
そしてその世界観に合わない不快な情報は「嘘・Fake」としてはじいてしまうようになる。
僕は心理学の専門家でもないので、
この認知的不協和理論を、陰謀論を信じ込む人たちに当てはめることが適切がどうかは自信がないです。
僕自身ももしかしたら、「認知的不協和理論」という情報が、自分のいままでの知見や行動を肯定してくれる"快適な情報"だから、受け入れて信仰しているだけなのかもしれませんし。
3: 繰り返し同じ情報に触れない
認知的不協和とはまた別の話で、
自分の目の前で、なんども同じことが繰り返されると、それを絶対の法則として信じたり、慣れて安心感を感じるようになってしまうのが脳の怖いところだと思っています。
例を出すまでもないとは思いますが、
石を窓ガラスに投げつければ、ガラスは割れます。
僕らがそれを疑わないのは、なんども繰り返しそういう光景を見てきているからです。
でもインターネット上には、「石はガラスを通り抜けるんだ!」みたいな現実離れしたことを言う人も多い。言うだけなら自由ですから。
そしてもしそういうことを言う人たちに囲まれ、なんども繰り返しそういう話を聞いていると、いつの間にか「石がガラスを通り抜けることもあるよね」と思うようになってしまうかもしれない。
簡単にいえば"洗脳"ですが、
現代ではフィルターバブル、エコーチェンバーなんて言葉でも説明されています。
たとえば、YouTubeは同じような内容の動画を「あなたへのオススメ」として表示してきますし。
Twitterも似たようなアカウントをオススメしてくるので、それをフォローすれば同じような内容のツイートが繰り返し流れてくるようになります。
もしその内容が「石はガラスを通り抜けるんだ!」のような現実離れしたものだったらと考えると、YouTubeやTwitterはセルフ洗脳装置みたいなものにもなり得るわけです。
これを防ぐには、YouTubeでいえばオススメを観ない、Twitterでいえばフォローするアカウントは最小限にする、といった場当たり的な対策しかいまのところ思いつきません。
まとめ
ひとまず、これまで書いたことを前提とした上で、
実際に僕がとっている防衛策をなるべく具体的に書きます。