
人間のAI化
東浩紀の『訂正可能性の哲学』をオーディブルで聞き直していると、新たな発見があった。
個人的に、一度読んだ本をもう一度読むのって少し腰が重くなるけれど、オーディブルだと気軽に聴ける。
一度読んだ本でも、少し時間が経つと新たな気づきがあるものだ。
ゆるい執筆なので、雰囲気になってしまう、というか、オーディブルの性質上、該当箇所を探し出すのが難しい。
こういう時、手元に本が欲しいと思う。
確か、ビッグデータによって処理されることによって個人として判断されず、属性などによって推測されるに過ぎないみたいな感じの話だった。
ほんと、ガバガバ引用で申し訳ないのだが、
この内容自体はなるほどと思った。
ただ、この話を聞いて少し前の出来事を思い出した。
ある人と喋っていて、自分に質問してくるのに自分の話す内容に対して相手が反応を示さないことがあった。
別に反応を示していないわけじゃないんだけど、興味がないというか。
まあ、何に対しても興味を持つ必要はないし、それこそ世間話なんてそんなものだとも思う。
上辺だけの会話だってある。
ただその時に感じたのは、何か自分の話がただのデータとして処理されてるなということだった。
興味がないとか、関心がないとかではなく、その人に自分の発したデータがインプットされたんだなという印象を抱いた。
例えば、たぶん驚く反応するだろうなって思うことを言っても驚かない、みたいな。
別に驚いて欲しいわけじゃないけれど、違和感を抱いた。
それが今回の話に出てきたビッグデータの話と重なった。
関心を持って肯定することもなく、アブノーマルとして排除することもない。
そこにいることは肯定されながらも、ただ、そこにいて新たなサンプルになっているような感じ。
その時、何か言語化できないでいたものが言語された。
ビッグデータを用いたAIに脅威を感じるが、人間のAI化にも同様の脅威を感じた。
もし、東さんに質問する機会があったら、このことを聞いてみたいなと思った。
終わりに
あまりにもこの文章を書きたい気持ちで書き始めたけれど、本の内容に対するものはちゃんと、本を手元に用意して書くべき。
すごく中途半端な文章になってしまった。
けれど、今日感じた記録としてはまあいいかなって気持ちもある。
ちゃんとした文章にしようと思った瞬間に腰が重くなって文章自体が書けなくなってしまうから。
これを元に何か文章を書く際、ちゃんと引用して書こうと思う。