見出し画像

『修羅の国』- AIとヤンキーの近未来社会のどこにAI倫理や哲学的テーマがあるのか?

『修羅の国』- AIとヤンキーの近未来社会の舞台設定は、AI倫理や哲学的問題に溢れています。以下に、この作品における主要な哲学・倫理学的要素を詳述します。

【哲学・倫理学的要素】
 
1.AIによる統治
 人間がAIを使って政策や法律の制定を行うことは、道徳や哲学的な問題と関係してきます。AIは感情や良心、道徳感を持っていません。そのため、人間の価値観や感情、歴史的背景を完全に理解することができるのか、またそれをAIに求めることが現実的な課題かどうかは大きな問題です。自然人の政治家や官僚などが人々の価値観や感情を理解できているかどうかは別問題です。

 AIによる統治をテーマにした小説や映画は、サイバーパンクやディストピアなどのジャンルに多く、メトロポリス、マトリックス・シリーズ、エクス・マキナ、アイ,ロボットなど多数あります。映画が好きな方は、以下のAI倫理関連映画紹介コーナーをご覧ください。

2.種の多様性とAIの判断基準
 AIが『絶滅危惧種のヤンキー』を保護することを提案する理由は何か? AIはどのような基準で絶滅危機に瀕している『種』を判断しているのか? これらの問いかけは、AIの判断基準と人間の価値観の間のギャップを示しています。

 種の多様性とAIの判断基準をテーマとして取り上げた映画は多くはありませんが、近似のテーマやAIの判断と人間の価値観のギャップについて考察する映画としては、ブレードランナー、ブレードランナー 2049、ジュラシック・パーク・シリーズ、モーガンあたりが相当します。これらの作品についても、AI倫理関連映画紹介コーナーで紹介してあります。

3.人間のアイデンティティとAI
 ヤンキー漫画原案の『修羅の国』では、AIによる統治の下、人間は自分たちのアイデンティティや意義をどのように見出すのかという人間の役割や存在価値についての哲学的問いが投げかけられています。

 これらの問いかけは、AI倫理関連映画コーナーで紹介してあるエクス・マキナ、攻殻機動隊シリーズ、Her、トランセンデンス、ウェストワールドあたりの構成要素です。

4.透明性と信頼
 AIが法案や記事を書くことは、情報の透明性や信頼性の観点から考慮されるべきです。AIの提案や判断にどれだけの透明性があり、それを人間がどれだけ信頼して良いのかという問題が浮上します。

 Googleのニュース記事作成AIの『Genesis』が、最近のホットなテーマですが、ディープフェイク問題なども、かなり以前から大きな社会問題になっています。日本のマスメディアに関しては、マスゴミ問題として人間が作った記事の方が寧ろ信用できないという深刻な状況となっています。

5.社会の均衡とAIの介入
 AIが犯罪者や犯罪予備軍の減少を背景に新しい法律を提案することは、AIが社会の均衡をどのように考え、それを維持・回復しようとするのかを示しています。これはAIの社会的な役割や責任に関する哲学的考察を促します。
 映画だとマイノリティリポートの世界です。

6.人間の選択の自由とAIの指示
 人間が自らの意志で行動するのか、AIの指示や提案に従うのかという選択の自由に関する問題があります。AIの統治の下での人間の自律性や尊厳に関する哲学的な議論が必要です。ところが、哲学領域においては、AI以前の問題として、そもそも人間に『自由意志』があるのかないのか自体が古代ギリシャ哲学時代から現在に至るまで論争が続いている問題です。
 映画だとマイノリティリポート、アイ, ロボット、プレイヤー・ワン、2001年宇宙の旅などに含まれている要素です。
 
7.人間の無知とAIの全知
 日本人の大半がAIの真の意図や影響を理解できていないという設定は、人間の無知とAIの全知の間の関係を考察する上で興味深いテーマです。AIが持つ情報や知識に対して、人間はどれだけの知識や理解を持って対峙するべきなのかという問題が生じます。
 映画ではエクス・マキナ、Her、トランセンデンスなどに含まれている要素です。
 
8.プライバシーの侵害
『思想犯取り締まり装置』や『感情認識装置』といったデバイスは、市民のプライベートな会話や感情を監視しています。これはプライバシーの重大な侵害であり、個人の自由や人権を脅かす可能性があります。
 映画だとマイノリティリポート、イーグル・アイ、エネミー・オブ・ザ・ステートなどに含まれているテーマです。AIは登場しませんがジョージ・オーウェルの1984においても重要なテーマです。

9.表現の自由の制限
 市民がAIや政策に対して批判的な意見を持つことが、直ちに反乱分子や犯罪予備軍とみなされることは、表現の自由や思想の自由を大きく制限しています。

10.不適切な処罰
 AIによる判断で犯罪予備軍や反乱分子と判定された市民が強制労働所や思想矯正施設に収容されることは、過剰な処罰とみなされる可能性があります。思想犯罪の取り締まりは、北朝鮮では日常的なことかも知れませんが、これを日本人が受け入れられるかどうかという問題です。

11.AIの誤判定のリスク
 AIの判断には常に誤判定のリスクが伴います。特に感情や意図を解釈する場合、AIが完璧に正確な判断を下すことは難しいです。現実的には人間の判断ミスとAIの判断ミスと、どちらが多いかという問題です。
 
12.集団的な自由の制限
 北九州市全体で反社文化保護特区に異議を唱える人物が一人もいなくなることは、社会全体の自由や多様性が制限されていることを示唆しています。

13.技術の悪用

『修羅の国』の原案で述べられているような監視技術や感情認識技術は、正当な目的のために使用することもできますが、政府や権力者による悪用のリスクも高まります。
 
14.人間と技術の境界
 修斗が全身義体化手術を受けたことにより、彼の人間性と機械的な部分の境界が問われます。何が『人間らしさ』を構成するのか、技術的な介入が人間のアイデンティティや自己認識にどのような影響を与えるのかという問題が生じます。攻殻機動隊ワールドです。
 
15.意識と身体の関係
 全身義体化とは、彼の意識や精神が機械的な身体にどのように統合されるのか、という点での哲学的な問題が提起されます。これも攻殻機動隊ワールドです。

16.技術的介入の倫理
 五か月未満の胎児に対しての全身義体化手術は、未知のリスクや結果を伴う可能性があります。このような重大な決定を下す際の倫理的考慮や、患者や関係者の意向、情報の開示などの問題が関わってきます。

合意と個人の自由:600万ドル・スティーブ・オースチン(男)と、バイオニック・ジェミー・ソマーズ(女)は、それぞれの事故で重傷を負い、その結果、バイオニック技術を使用してTHEY(近年のアメリカでは、heやsheと言うと性差別になるのでTHEYを使いましょう)の体が強化されました。しかし、これらの手術がTHEYの明確な同意を得て行われたかどうかは不明確であり、それが個人の自由や意志に対する侵害している可能性が極めて高いです。2014年のロボコップのリメイク版では、『事故で意識を喪失しているマーフィ刑事の妻クララから改造手術の同意を得られるかどうか?』が重要なテーマになっています。

17.教育と洗脳
 修斗は特定の目的のために、反社ワールドでサバイバルするための特定の教育や訓練を受けたという設定になっています。このような設定は、個人の自由意志や、教育の目的、手段の倫理性についての問題が生じるニキータ状態です。

18.テクノロジーの社会的役割
 義体総合研究所が提供する教育や技術的介入は、社会の特定の役割や目的に合わせて行われます。技術が社会の価値観や目的にどのように影響するのか、また技術が社会の構造や階級をどのように変えるのかという問題が考えられます。
 
19.個人の自由と社会の期待
 修斗が世界一の反社エリートとして育てられた背景には、社会的な期待や役割があります。個人の自由や選択、アイデンティティが社会の期待や役割にどのように影響されるのかという問題が関わってきます。これもニキータ状態です。
 
20.教育の均質化と多様性の喪失
 全ての子供がAIから教育を受けているという点は、教育の内容や方法が均質化される可能性を示唆しています。これにより多様性や個別性が喪失される懸念が生まれます。ゆとり教育を復活させて個性豊かな社会問題を創出する努力が再度必要になります。

21.遺伝子情報のアクセスとプライバシー
 修斗が全日本人の遺伝子情報にアクセスできるという点は、プライバシー侵害やデータ悪用のリスクが関わってきます。

22.遺伝子情報をもとにした選別
 反社会的素質を持つと判断される基準や、その選別による社会的差別や偏見の問題が考察されます。

23.技術の進化と職業の価値
 AI技術の進化により、官僚や国家公務員といった伝統的な職業の価値が低下していることを示しています。技術進化に伴う職業の変化や失業問題、そしてそれに伴う社会的認識の変動についての倫理的考慮が必要です。
 
24.歴史の改竄
 真理省の日常業務が歴史記録の改竄作業であるという部分は、歴史の真実性や権力の乱用、情報の操作に関する深刻な倫理的問題を提起しています。ジョージ・オーウェルの1984ワールドです。
 
25.AIの社会的役割と価値判断
 AIが官僚の99%以上を不要と判断したことは、AIの判断基準やその価値観、そしてそれに従う社会の方向性に関する問題を考察させますが、単に作者が官僚が嫌いだという可能性も否定できません。

26.社会の均質化と多様性の喪失
 ヤンキー文化や反社文化が消失しているという点は、技術の進化や社会制度の変化による文化の均質化や多様性の喪失に関する問題を提起しています。

 この作品のAIに関する哲学・倫理的要素は上記以外にも多岐にわたり、近未来の社会におけるAIと人間の関係や相互作用、およびそれに伴う倫理的・哲学的な問題を巧妙に織り交ぜることで、我々が現在直面しているAIとの関係や、その将来像について深く考える契機を提供しています。
 
上記のような問題を真剣に検討している世界的な著名人

 AIによる人類の統治や社会の方向性に関する意見は、多岐にわたります。以下は、それぞれの立場を代表する研究者や専門家の極一部です。
 
肯定的な立場
 
レイ・カーツワイル(Ray Kurzweil)
 彼はテクノロジーとAIの進化についての楽観的な見解で知られています。彼の著書『The Singularity Is Near: When Humans Transcend Biology』では、テクノロジーが人間の知能を超えるポイント、シンギュラリティに達することを予測しています。

ベン・ゲーツェル(Ben Goertzel)
 OpenCogの創設者で、AIの発展が人間社会の問題を解決する鍵であると信じています。彼はAIの能力を最大限に活用することの利点をしばしば強調しています。

デミス・ハサビス(Demis Hassabis)
 DeepMindの共同創設者であり、彼のチームはAIの進化とその潜在能力に楽観的な見解を持っています。DeepMindは、ゲーム『Go』の世界チャンピオンを打ち負かすなど、AIの能力を示す多くの成果を上げています。

アンドリュー・ン(Andrew Ng)
 彼はCourseraの共同創設者であり、スタンフォード大学とGoogle Brainの前教授です。NgはAIが新たな電気やインターネットのようなものだと位置づけており、人々の生活や職業に多大な変革をもたらす可能性があると信じています。

イリヤ・スツケヴェル(Ilya Sutskever)
 OpenAIの共同創設者の一人で、AIが未来のテクノロジーと社会に与えるポジティブな影響についての楽観的なビジョンを持っています。2022年9月に『今日のAIは意識を持ち始めているかも知れない』とTweetして、世界中のAI倫理学者や哲学者から大顰蹙を浴びています。

ジェフリー・ヒントン(Geoffrey Hinton)
 彼はディープラーニングのパイオニアとして知られ、この分野の進化に楽観的です(でした?)。彼の研究は、AIが人間の多くのタスクを達成するための方法を提供しています。
 以下の記事で詳細を説明していますが、AI倫理問題でGoogleと理念が合わず、ヒントンがGoogleを退社したことは世界的なニュースになりました。
 日本はAI倫理後進国として有名ですが、日本以外のAI開発先進国では、システム開発やサービスをリリースする際の最大の関心事(懸念事項)は、金儲けではなくAI倫理問題です。
 日本がAI倫理後進国となっている最大の元凶は、御用学者の松尾豊をAIの第一人者と祭り上げてしまった日本政府とマスメディアと、目先の利益と売名行為にしか興味のない理念のない人々の問題です。
 現在、世界中で問われていることは、目先の利益ではなく持続可能性や時速可能な開発であり、この潮流に逆行する事業は、国際社会から抹殺されます。

否定的な立場
 
イーロン・マスク(Elon Musk)
 彼はAIに関しては警戒的な立場をとっており、未制御のAI発展が人類にとっての脅威になるとの見解を持ち、AIの安全性に関する研究や規制の必要性を強調していました。ところが、実際にはサイコパスのマスクの主張は論理破綻しており、マスクの様々な事業が破綻するのは時間の問題でしょう。 

マックス・テグマーク(Max Tegmark)
 MITの物理学者で、著書『Life 3.0』でAIの未来について考察しています。彼はAIの発展に関する楽観的な視点を示しつつも、適切なガイドラインや規制がなければリスクが伴うと指摘しています。

スティーブン・ホーキング(Stephen Hawking)
 故スティーブン・ホーキングは、AIが人間の終焉をもたらす可能性があるとの見解を公にしていました。彼は、AIが自己改善能力を持つと、それは人間の制御を超える可能性があると警告していました。

ビル・ゲイツ(Bill Gates)
 マイクロソフトの共同創設者であり、彼もAIの未来に対する懸念を表明しています。特に、AIが自己学習と自己改善能力を持つと、それが人間の制御を超えるリスクがあると述べています。ビル・ゲイツもイーロン・マスクと同じく、言っていることと実際にやっていることが正反対のことが多いので、表面的な言葉だけで判断することには意味がありません。

ニック・ボストロム(Nick Bostrom)
 オックスフォード大学の哲学者で、著書『Superintelligence: Paths, Dangers, Strategies』で、超知能AIが生まれたときのリスクと戦略について詳しく論じています。しかし、AI無知倫理学会におけるボストロムの評価は、極めて低く以下のように『無知』な学者として、観察対象となっています。

 ボストロムはマルクス・ガブリエルのようなAIの素人からも鼻であしらわれる程度の哲学者です。

スチュアート・ラッセル(Stuart Russell)
 カリフォルニア大学バークレー校の教授で、彼もAIの未来のリスクについて警告しています。特に、人間の価値や目的を正確に学ぶことができないAIの危険性を指摘しています。

中立的な立場:
 
スチュアート・ラッセル(Stuart Russell)
ニック・ボストロム(Nick Bostrom)

 
 両者とも中立的な立場であると自称していますが、実際に言っていることは、極端な悲観論か恐怖論で中立的な立場とは言い難い存在です。
 
ジューディア・パール(Judea Pearl)
 UCLAのコンピュータサイエンスと統計学の教授で、因果関係の理論に関する研究で知られています。彼はAIの発展について中立的な立場を取っており、特に因果関係の理解に関するAIの限界を指摘しています。
 彼の本はたくさん和訳されています。筆者はAmazonアソシエートとかで、本を販売することに興味はないので、読んでみたい方は図書館で借りるとよいでしょう。本を読まなくても、ChatGPTからBardにでも質問すると、彼が何か言っているか分かり易く説明してくれるでしょう。
 
ゲイリー・マーカス(Gary Marcus)
 ニューヨーク大学の心理学と神経科学の教授で、またAIスタートアップのGeometric Intelligenceの創設者でもあります。彼は現在のディープラーニング技術の限界や弱点について議論していますが、同時にAIの未来の可能性を認めています。

ケイト・クロフォード(Kate Crawford)
 マイクロソフトリサーチとニューヨーク大学のAI倫理研究者で、AIの社会的・政治的な影響に関して研究しています。彼女は、AI技術の偏見や不平等についてのリスクを指摘しつつ、その解決策や適用方法についても提案しています。
 
オーレン・エチオーニ(Oren Etzioni)
 Allen Institute for Artificial IntelligenceのCEOで、AIの未来についての楽観的なビジョンと同時に、倫理的な問題や社会的な影響についても研究しています。
 
 ヤンキー漫画の原作にこれだけ多数のAI倫理問題をさりげなく描くことなど朝飯前ですが、企業の経営者、AIシステム開発者や運用者、教育者などは、ヤンキー漫画『修羅の国』など読まなくても知っていて然るべきAI倫理問題です。





いいなと思ったら応援しよう!