![見出し画像](https://assets.st-note.com/production/uploads/images/78779289/rectangle_large_type_2_bb5a276d87de1f97a96e4c92248a3e1c.png?width=1200)
人文科学の意義とAI倫理ガイドライン
19世紀は化学、20世紀は物理、21世紀は生命科学の時代と聞いたことがあります。
21世紀になってからのゲノム編集やRNAの発展・成果を見ると結構うなづける言葉です。
では、人の本性を探究する哲学や倫理学といったいわゆる「人文科学」はもはや不要な学問なのでしょうか?
そのつながりについて哲学者のインタビューを見つけたので紹介します。
要は、
人文科学は、テクノロジーを社会実装するときに、指針を示すのに必要、
という話です。
テクノロジーとの付き合い方は重要なテーマです。
本Noteでも基本的には最新の科学・技術の成果を分かりやすくお届けして知的好奇心を読者と一緒に満たしたい、という目的で書いています。
ただ、そのまま社会実装すべしとまで妄信しているわけではないです。
その実装過程においては今まで人類が積み重ねてきた価値観との折り合いが必須で、それがまさに「人文科学」ですね。
今回のインタビューを受けた方は哲学者でありながらAIも研究しているとのことで、結構稀なケースかもしれません。
どうしても、学問全体が高度化に応じて細分化されて横断的なカバーが難しくなります。
しかし、逆にその生活への実装が進んでいるからこそ、両方のバランスが重要になるのだろうとも感じます。悩ましいですね・・・。
1つ個人的に丁度よい活用ケースが「自転車」です。
人間が支配的なままで、もともとの移動手段という基本機能を備え、かつ文化的な色合いをも与える(しかも環境面にも優しい)といういい意味で、ちょうどいい湯加減の技術です。
ただ、自転車も今電動化が進んでおり、そのコストが下がっていくと普及が進んで、徐々にオートバイとの区別がなくなっていきます。
丁度今電動キックボードを免許不要にすることによる社会課題が指摘されていますが、主観ですがややバランスを欠いている感覚です。
最新技術自体はどの時代でもある話で、今はその影響度合いが大きすぎるため、人文科学の視点も織り交ぜないと機械が支配する世の中に知らず知らずになってしまいます。
今においてさえ、例えば検索・パーソナライズ広告・SNS表示方法など、無意識的に最新技術で行動を誘発されていることは起こっていますね。
購買活動であれば、都度違反申請で改善を続けていくことで良い方向になるとおもいますし、広告含めてCookie(ブラウザをユニークに認識する仕組み)使用が禁止される方針なので楽観視しています。
ですので、総論で話すよりはある程度問題が深いテーマに絞っての議論が有効かと思っており、それはインタビューでも触れている「AI倫理」です。
Cookie規制含めて、世界的に先行しているのは欧州で、AI倫理についても実は下記のようにガイドラインは既に提示されています。
以下の7つがその要件です。
人間の活動(human agency)と監視:AIは、人間の活動と基本的人権を支援することで公平な社会を可能とすべきで、人間の主体性を低下させたり、限定・誤導したりすべきではない
堅固性と安全性:信頼できるAIには、全ライフサイクルを通じて、エラーや矛盾に対処し得る安全かつ確実、堅固なアルゴリズムが必要
プライバシーとデータのガバナンス:市民が自身に関するデータを完全に管理し、これらのデータが市民を害し、差別するために用いられることがないようにすべき
透明性:AIシステムのデータの処理のされ方などの追跡可能性の実現
多様性・非差別・公平性:AIは、人間の能力・技能・要求の全分野を考慮し、アクセスしやすいものとすべき
社会・環境福祉:AIは、社会をより良くし、持続可能性と環境に対する責任を向上するために利用すべき
説明責任:AIとAIにより得られる結果について、責任と説明責任を果たすための仕組みを導入すべき
実は、日本でも近い時期に総務省が指針をまとめており、こちらのサイトで閲覧することが出来ます。
まだ法的強制力はありませんが、EUは大体関連する経済地域にも要求を強くしてきます。
実際に個人においてさえもインターネットで普通に国を超えてやり取りをする以上は、ある程度の倫理的なガイドラインは必要だと思います。
ただ、今の国際情勢を鑑みるに、素晴らしい理念やガイドラインを作っても、そこに抑止力がないとむなしいだけなので、なんとか国際機関として最低限のラインは行動規範として強制化してほしいと個人的に感じます。
いずれにしても、どこまでいっても人間の幸福のための道具であることは忘れずに、最新の科学技術に接していきたいと思います。