エイプリルフールとは思えない世界で最も有名な賞の話
エイプリルフールの日は、未だにユーモアとして嘘をついて楽しむ人がいますね。
個人的にはこの風習(?)は勘弁してほしく、特に科学技術の分野はフィクションとの境目が見えなくなっているので判別が難しいです。
科学メディアで、こんな記事が出ています。
ようは、
ノーベル賞受賞者をAIが選定するというユーモアをたのしんでください、
という話です。
冒頭にジョークと明示しているので助かりますが、これがないと否定しにくい記事でした。
というのも、ノーベル賞選定プロセスは秘密主義で誰が影響力があるのかもわからないから、です。
もちろん「スウェーデン王立科学アカデミー」が中心となって学術機関協力の下で行われる、ぐらいは分かっていますが、より詳細な基準は全く明かされていません。
その選定には、疑義が呈されることもあり、その1つが「性別問題」です。
ようは、女性科学者を公平に評価していないのではないか?ということです。
冒頭記事で例示されている「呉建雄(Chien-Shiung Wu)」氏はフィクションではありません。(ただ、それをLLMで示したかどうかは分かりませんが)
彼女は
「パリティ(鏡像性)が保存されないことを初めて実験で示した」
科学者で、業界では超がつくほどの有名人です。
が、なぜかノーベル賞を受賞しませんでした。この方の業績はどこかで取り上げたいですが、これは受賞だけでなく就職も同様です。
過去に関連した投稿を載せておきます。(いったんここまで)
AIが物理学どころか基礎科学の研究方法にまで影響を与えているのは事実です。ユニークなところでは、レフリー役も使えるのでは?という実験も行われています。下記投稿記事の後半で、紹介しました。
そして今回のノーベル賞受賞選定にAIを援用する、というのは、あながちありえないことではないと思います。
1つだけ、これはどんな時にでも言えますが、AIもまたなにがしかのバイアスでトレーニングされているという難題です。
初期のAIは、「ルールベース」、つまり人間が事前にルールを決めて愚直にそれに従うモデルのため、それを決める人間に依存します。
今のLLMに代表される最新のAIは、学習方針をきめてあとは大量のデータでトレーニングさせる、というやり方が多く、その内部アルゴリズムは細かくはブラックボックスです。(我々人間の脳がどんな手続きで思考してるのか分からないように)
ルールベースよりは公平っぽく見えますが、この大量データに偏向があればそれが反映されるリスクはあるわけです。
まさにGoogleをはじめとするAI開発プロバイダーが苦慮していることです。
最近でも、こんな騒動もありました。
冷静に見ると、我々人間の間でさえ完全な公平さを担保出来ない以上、そこをAIで完全に代替させることは原理的に不可能かもしれません。
ただ、1つの意見としてAIを参画させるというのは理にかなうと思うので、その権利をどこまでみとめるかという都度議論は建設的だと思います。
ということで、今年のノーベル賞受賞者予想をAIとも対話しながら楽しみたいと思います。
この記事が気に入ったらサポートをしてみませんか?