見出し画像

生きること、学ぶこと


ICEアプローチが今なぜ求められるのか?


〜カナダで生まれて日本で育ったアクティブラーニング〜



ICE構造

 
9章 人間とAI(生成AI)」
 
 
重要なことは人間が決める
 
鳥取県有識者会議が人間主導のAI活用10原則を提案した。
(鳥取県有識者会議「人間主導のAI活用10原則」座長山本龍彦)

人間の存在が疎外されるのを防ぐために、重要なことは人間が決めるという人間主導の原則を掲げた、民主主義や地方自治の要諦であるとした。AIではなく人間が最後は決断するという原則を最初に明確にするということは、国もやっていない。欧州のAI法は基本的人権や民主主義との関係を基本として議論しているが日本の政府の議論にはそれが欠けている。

提案された10原則は次の内容である。自治体デジタル倫理原則〜人間主導のデジタ社会へ〜(1)住民自治:AIではなく住民の意思に基づく議論による決定(2)人権保障:AI利用目的の明確化、SNSも住民の権利を守る対応(3)インクルーシブ:偏見から住民を守る(4)パートナーシップ:AI活用には住民間の協同、連携(5)課題解決:住民のウエルビーイングにつながるAIの活用ニーズを考える(6)人間主導:人間が最後は責任を持って決断する人間主導の使い方(7)リテラシー:住民の批判的思考を育成すること、住民を守るための情報発信(8)透明性:住民が評価できるようなプロセスの説明(9)ガバナンス:デジタル施策の結果を評価して、AIのロジックやシステムを管理していく(10)機敏性:試行、改良、再挑戦によりフィードバックにより機動的な対応をする。
 
AIを含めたグローバルPFへのIT規制は、すでに世界的な問題になっている。EUがその筆頭である。日本もようやく「スマホソフトウェア競争促進法」によって、独占から市場競争を促し、緊急停止命令や独禁法を上回る課徴金20%の規制法を閣議決定した。また、2024年に広島宣言からパリのOECD閣僚理事会へ向けAI偽・誤情報対処を求める宣言をリードしたが、肝心の著作権法の再改正を考えていないため各国からは日本の規制は甘いという指摘がある。オリジネーター・プロファイル(OP)の提言がその特徴であるが、海外に比べてAI規制の議論は全体として遅れていて、生成AIの安全性確保の法整備を本気で検討せざるをえなくなっている。現在はガイドラインだけである。イノベーションの創出や社会課題の解決、国際競争力の確保などに軸足を置くのではなく、人権侵害や犯罪につながるAIや偽情報への対応を、欧州のAI法案のように実施することを急ぐ。
鳥取県有識者会議のような「人間主導」という明確な原則を全てのスタートとすることを世界に向けて提案するチャンスである。
 
 
憲法に照らしてAIを考える
 
憲法13条「すべて国民は、個人として尊重される。生命、自由及び幸福追求に対する国民の権利については、公共の福祉に反しない限り、立法その他の国政の上で、最大の尊重を必要とする。」
憲法19条「思想及び良心の自由は、これを侵してはならない。」
憲法13条では、個人は人間として尊重されるのであるが、単に尊重されるのではない。「人格的存在として」平等に尊重される。また、「人格的自律の存在として」尊重される。さらに、個人が自律的に・主体的に選択した結果を尊重するのである。

EUのAI法では、「基本権」という言葉が100回以上登場する。憲法上の保護を法律に位置付けることで、何を守ろうとしているのかという法の目的を明確にする。
 
日本では、最高法規の憲法が軽んじられてきた。憲法と個人情報との関わりが強く意識されない。欧州や米国は日本とは確実に異なる。EUのGDRP(一般データ保護規則)では、「本規則は、自然人の基本権利および自由、ならびに、特に彼らの個人データ保護に対する権利を保護する」と明確に憲法と深く関わることを強調する。プロファイリングへの異議主張の権利、ビッグデータの自動処理のみによって重要な決定はなされない権利、人間の介在を得る権利、自らの見解を表明する権利、AIのロジックの告知と言う透明性。
E Uや米国では、ビッグデータのおそろしさが憲法レベルで議論されて、法的処理が行われている。憲法の視点でデジタル社会にどう立ち向かうかを山本は次のように述べている。
 
「ビッグデータの目的は、行動パターンの予測とサービスの個別化である。人間の行動パターンや事物と事物の相関関係を抽出する。これがAIのデータマイニングの迅速化により機能が急速にましている。デジタル社会とは高度な予測社会であり、個別化社会である。個別化は、プライバシーと矛盾する。個人化は、集団化=類型化でもある。1890年、ルイス・ブランダイスとサミュエル・ワレン「プライバシーの権利」(論文)the right to privacyが初めて言語化する。現在は、自己の情報のコントロールする権利として、2015年の個人情報保護法にもある。背景には、個人は自律的に主体的に生きる権利があるということである。

現在のプラバシーポリシーは原則として、同意が必要だが、極めて怪しい。
企業の免責のための文章となっているに過ぎない。同意しないとサービスが受けられない仕組みである。そもそも、ビッグデータとは何か。データの収集と集積が、誰のデータかが無関心に集められる、が特定される場合もある。また、プロファイリング(データベースの分析)として、特定の個人に適用してプロファイリングする。

さらに、AIプロファイリングの可謬性がある。AIはエラーやバイアスが入る。うわべだけの相関関係:考慮に値しない相関関係が含まれてしまう、データの過少・過剰、ある集団のデータに偏る、既存バイアスの反映など。ビッグデータは匿名性の属性データであることが特徴で、どこまで行っても本当ではない。したがって、個人化というのは正確には嘘である。同じ属性の人と同じというに過ぎない。おそろしいことは、人事、融資、保険、教育という人生にとって重要なことがセグメント属性によって確率的な判断がされてしまうことである。

ダニエル・シトロン教授の「自動化バイアス」はAIを過信してしまう神話と言う。広い射程を包含する概念として「AI」という文言を使いながら、AIの予測・決定・推奨等を信頼し過ぎる(over-trustな)ヒトの偏見としての自動化バイアスがかかる。AIになかなか反論ができないのは、的確な根拠を示せないためである。
 
米国では、オバマ時代から議論を重ねている。「ビッグデーターそれは包摂の道具か排除の道具か」(2016年米国大統領府)「ビッグデーターアルゴリズム・システム。機会、市民権に関する報告書」(同)アルゴリズムが与信、雇用、高等教育、刑事手続きなどで弱者に差別を与える可能性の表明をした。
そこでは、「ビッグデータの技術は、差別の損害を発見し、防ぐという私たちの能力を高める可能性を持つが、他方で、これらの技術が慎重に利用されなければ、それらは、忌むべき差別を永続させ、悪化させ、隠蔽することにさえなる。」として、デザインによる平等機会の原則を発展させる。
 
一方日本ではどうか。マイナーシステムは民主主義の基本を考えているか危うい。政府のサービスの個別化は、裏返せばそれだけ詳細な個人情報を集めていることであるが、従順な日本社会であるから、政治や行政が個人の権利の尊重を盾にしつつ、個人の一般意志を集積して、国の考えに順応していく環境(アルゴリズム)をいつの間にか作っていくことも可能である。そうなると民主主義とはどうなるのか。自分だけの世界を勝手に作られて、閉じ込められてしまう。(集団分極化)他者を受け入れられなくなるので民主主義の危機である。」
(山本龍彦「おそろしいビッグデータ〜超類型A I社会のリスク」)
 
我々個人の尊重を守るためにAIへの向き合い方について国を含めて幅広い議論を、憲法に照らして考えていく必要がある。A Iの最大の目標は、未来がはっきりする前に、データを蓄積し、解析ツールにより「既知の未知」「未知の未知」を暴くことである。このままではアルゴリズム統治を認めることになってしまう。
 
 
生成AIに関する国の動向
 
政府がAIについて掲げた「AI に関する暫定的な論点整理」がある。
(AI戦略会議「AI に関する暫定的な論点整理」)

要点は、生成AIのもたらす明るい可能性とリスクを鑑みながら、30年間の産業停滞からの脱却への活用を検討しなければならないこと。生成AI国際的なテーマであり、「広島AIプロセス」では、リスク対応に関する提言でリーダーシップを発揮できるように論点をまとめる。教育では、⽣成 AIが宿題に使われ適切な評価が損なわれる可能性や作⽂やレポートに⽣成AI を使うことで⽣徒・児童の創造⼒等が低下する懸念があるなどの指摘。著作権侵害や雇用リスクへの対応。結論として、デジタル社会実現に向けたAI利⽤を⾏政・企業・教育・医療機関等で官⺠が一緒になって加速していくこととしている。
 
学校教育の中で生成AIにどう向き合うか、文科省はまず初等中等教育向け
(文科省「初等中等教育段階における生成AIの利用に関する暫定的なガイドライン」)の指針を出している。文科省の認識として、対話の内容は統計的にそれらしい回答をするものであり、真偽は自らが確かめる必要があること、アルゴリズムの透明性がないこと、バイアスなど信頼性への懸念などがあげられている。一方で、学習指導要領では、「情報活用能力」の育成を学習基盤の資質として位置付けているので、生成AIについても懸念を理解した上で向き合っていきたい。そのために、生成AIのリテラシーを習得する必要がある。個人情報、著作権、偽情報、批判的思考力や創造性、学習意欲への影響などの懸念を理解しつつ、段階的に実証、活用していくべきであるとして、生成AIの普及と発展を踏まえ、これからの時代に必要となる資質能力をどう考えるか、そのために教育の在り方をどのように見直すべきか。生成AIを積極的に活用すべきだが、全てを受け入れるのではなく、活用方法を実証しつつ段階的に導入する。特にAI依存が学習の本質的なものを奪う懸念やモラル問題の指摘もする。「重要なこととして、デジタル時代だからこそ、改めて「学ことの意味」について考えて欲しい。「学びに向かう力、人間性等」の涵養がこれまで以上に重要である」と強調していることは文科省を評価したい。情報モラル教育も生成AIによってますます重要になっている。
2024年には教育活動や校務において生成AIの活用に取り組む生成AIパイロット校を指定し、「効果的な教育実践の創出」を行う実証も始めた。
(文科省「生成AI利用研究校52校の指定」)
 
高等教育での生成AIへの向き合いについては、個々の大学等の判断に任せるが、文科省が考える「生成AIの取扱の観点」を示している。
(文科省「大学・高専における生成 AI の教学面の取扱いについて(周知)」)

利活用可否の検討、留意すべき観点として生成 AI と学修活動との関係性、成績評価、生成 AI の技術的限界(生成物の内容に虚偽が含まれている可能性)、機密情報や個人情報の流出・漏洩等の可能性、著作権に関する留意点を挙げた。
また、生成AIを含む AIの利活用に当たっては、各大学・高専の学生等が、その最新の動向、AIの普及による可能性とリスク、倫理面やデータリテラシー等を含むデジタル化社会に対応するための基礎的な知識・能力等について理解・習得することが重要であることも示唆している。

経産省は、生成A Iに関して「生成AI時代のDX推進に必要な人材・スキルの考え方」をまとめる。その背景には「生成AIの利用を通じた更なるDXの進展に向けて、本年(2023年)6月から有識者で構成する「デジタル時代の人材政策に関する検討会」において、生成AIを適切かつ積極的に利用する人材・スキルの在り方について集中的に議論し、「生成AI時代のDX推進に必要な人材・スキルの考え方」として、現時点で採るべき対応を「アジャイル」に取りまとめました。」と記述し、IPAのデジタルスキル標準も改正する。具体的には、マインド・スタンス、デジタルリテラシー、プロンプトの習熟、この意味がよくわからないが「言語化の能力、対話力(日本語力含む)」、「問いを立てる力」・「仮説を立てる力・検証する力」とする。
(経産省「生成AI時代のDX推進に必要な人材・スキルの考え方」)

総務省は、AI時代に向けてもとめられる教育や人材育成のあり方について述べている。
「AIの活用は対象の設定に応じたアルゴリズムの設計・開発から始まる。課題解決や論理的思考力が必要である。また、カルチャーやビジネスの考え方が異なる組織間の意向を調整することが重要になるが、そのような場面では、多様な他者と円滑なコミュニケーションを行えることなどが必要とされる。」
(総務省「Chat GPT 等の生成AI の業務利用について」)
 
生成AIの使用状況に関しては多くの調査がある。民間シンクタンクの調査を一つ挙げる。73%の回答者は既に何らかの形で生成AIを利用した経験がある。58%は、今後1年以内に本格導入を検討していると同時に、企業は他社に先を越されるリスクを感じている。62%がAI技術の人材不足を感じている。専門家以外の幅広い層で生成AIに触れることができるようになる一方、ハルシネーションリスクなどユーザーのA Iリテラシーが必要になっている。
(PwC「生成AIに関する実態調査2023年秋」)
 
国は生成AIの開発支援も始めている。Generative AI Accelerator Challenge (GENIAC)
は、計算資源の提供、利活用企業やデータホルダーとのマッチング支援、グローバルテック企業との連携支援を行いつつ、日本発の基盤モデルの開発を促す。
(経産省「Generative AI Accelerator Challenge(GENIAC)」)
 
 
脳とAI
 
「新たな意味の産出可能性」があるかという問いである。文章の要素である意味を理解できるために無数の文を作るという考えがあるが、ゴットロープ・フレーゲは、それは違うと言う。「文の意味との関係で語の意味は決まる。」その一方で「文を構成する語の意味が決まれば文の意味は決まる。ルートヴィヒ・ヴィトゲンシュタインも文脈原理を尊重する。まさに生成A Iが問われるところである。
(野矢茂樹「言語哲学がはじまる」)
 
コンピュータモデルと脳のニューロンの仕組みについて考察したロジャー・ペンローズは、知性には意識が必要と考える。知性とりわけ理解の本質は、意識にこそある。意識なしに知性はない。A Iは本質的なことばの「意味」は直接的には扱えない。これがペンローズの「理解」である。「複素数、テューリング機械、複雑性理論、量子力学のパラドックス、形式的システム、ゲーゲルの非決定性、位相空間、ヒルベルト空間、ブラックホール、ホワイトホール、ホーキング放射、エントロピー、脳の構造、などを語りながら、量子力学の彼方を見る。「人工知能(AI)が心を理解するためには量子重力論が得られないと難しい。AIには、人間の心の思考プロセスと同等の日はこない。我々の意識、知能の説明に近づいている物理的、生物学的、計算的な理論はまだない。人間は人を殺し、動物の頂点にいるように錯覚している愚かものである。しかしこれも現実である。知能が何かをもたらしてきた。科学と技術の進歩である。善と悪の両方を生み出してきた。人間を遥かに超える計算能力によって、心と知力を拡大(あるいは狭める)ことは間違いなくある。さらに人口知能で人間を超えるという主張もある。」
(ロジャー・ペンローズ「心の影」)
 
「意識の持つ基本的性質は、「クオリア」と「志向性」と分析する脳科学者の茂木健一郎の研究がある。「クオリア」とは脳の神経活動が意識を動かすものであり、メタ認知能力である。人はなぜAIを作るのかと問う。人間には自分の似姿を作りたいという本能があるのではないか。人間の知性の応用としてA Iがある。つまりAIは自分の鏡である。しかし、そこには意識は映っていない。だから人間存在の本質ではないA Iへの依存は怖い。」
(茂木健一郎「クオリアと人工意識」)

脳とAIの関係の機能的近似性については、ヒトゲノム解析の後、哲学と認知科学と脳神経科学の学問的融合が急速に進んでいることから、「量子脳」や脳の無意識の働きなどが脳のイメージングなどにより解明されている。自律的AI(AGI: Artificial General Intelligence)の設計は脳の無駄な活動やタンパク質の折りたたみ異常のようなニューロンの予期せぬ対応をどのように取り込めるのだろうか。(「脳科学で解く心の病」エリック・R・カンデル)
 
 
AIの何が問題か
 
「そもそもAIはマーケティングの用語である。1965年にジョン・マッカーシーが使い始めた。監視のビジネスモデルから生まれたものである。データを囲い込むビッグテック企業の支配力が生まれた。A Iは巨大なインフラで運営される統計システムである。この運営のために、膨大な数の低賃金労働者が働いている。因みに、OpenAI はケニアのSamaと契約している。もしAIを一つの知能としてみるならば、こうした人間の基本的な労働があることを考えなければならない。もちろん、AIのテクノロジーそのものの問題ではなくテクノロジーを使う人間の側に問題は存在する。A Iは権力者が権力を簡単に行使できるようにするためのテクノロジー・ツールであり、概して権力者の支配にある人たちを監視するたまに使われる。決して民主的には使われない。現在の社会構造に問題がある。AIは本来的には知能も感覚も持っていない単なる大規模システムである。人間との共存は可能であるが、簡単ではない。」
(メレディス・ウィテカー「人類の終着点 戦争、AI、ヒューマニティの未来 」)
 
AIを徹底的に非人格的存在であるものとして、人間の欲望の上で作られたものとする考えである。AIがもたらすものが資本主義と親和性が高いことを大きな問題とする。AIは、人間の救済はできないが、投資とリターンを教えてくれる。
 
一方で、A Iを一つの人格的存在として承認(信頼)するという考えから、より人間に近いものを作ろうと、身体、感情、欲望を持てるAI開発に突き進む専門家たちがいる。彼らは、AIを人間の他者のように考えて共存の道を探る。そして人間教育のようにAIを教育しようと考えている。
 
「しかし、A Iは何者かを問うと、幾つもの根源的に異なるものがある。AIはアウトプットへの説明責任を負わない。使うなら信頼せよと迫る。AIの認知や思考は仮に近づいても人間の方法とは異なる。人間には規範的次元が内在している。責任を持ちますという規範である。人間には物語性が常に存在する。生きようとして考えて判断している。AIには物語性や規範がない。人間は大半のことは無視できるがA Iにはできない。何もしないことなのでネガティブ・ケイパビリティはできない。
私たちが信頼と言っているのは「安心」に近い。裏切られたことがないものである。人間は、他者とはじめて話すときに、無条件に信頼するところから人間関係を始めてしまう。それが人間の特徴である。合理的に還元できないものを人間は持っている。
ビッグデータの恐ろしさとは、人間が「客観的主体化」に弱いということである。アマアゾンのレコメンドなど、無意識が意識化されてしまう。人間が持っている偶然性が奪われる。ユヴァル・ノア・ハラリは「ホモ・デウス」で「データ教」といったが、人間が進んでデータの支配を受けかねない。」(大澤真幸ほか「私たちはAIを信頼できるか」)
 
 
AIにいかに向き合うか
 
AIと人間の境界に関しては大きく異なる方向での議論がある。論点は両者の共存の可能性という点で4つに分かれるが、その中心は、AGIはまもなく開発されるという考えに対して、擬似的な共存はあっても、生態的かつ社会的存在の人間と機械との本当の共存はないという対立である。また、AIの身体的問題への近接についてもニューロンの働きなど脳のメカニズムの分析だけではなく、人間の脳をベクトル化するという新しい科学的アプローチがある。これまでの量子コンピュータの実現を待っても難しい(人間の理解力にはいかなる計算的手段によってもシミュレートできないものが存在する)というペンローズの考え、に対抗するものである。
これに対して、A Iの自律性は人間の本来持っているものとは違ってアルゴリズムよって得られた非生態的・社会的なものであるという反論がある。人間が持つ無限の責任という意志をAIには委ねることはできない。AIの自律性、人間の役割と責任に関する考察を踏まえて、両者の共存があり得るのかというテーマである。
 
AIは今やイデオロギーによる人間や社会の評価を数値化による評価で同じことができてしまう。急速なAIの進歩で、LLAが文系と理系の境を取り除いてしまった。テクノロジー(人をベクトル化、微分を使って)で、社会的問題や人間を分析できるようになってしまった。これまでの量子コンピューティングやコンピューターシミュレーションではなく、微分可能物理学、微分可能レンダリングの進化により、ディープラーニングは微分により、ニューラルネットワークの最適化や微分可能オントロジーの設計ができるようになっている。人間の脳をベクトル化できる時代になった。デジタルネーチャー自身が自然と同化している。こういう人類の財産はIP化してはならない。人間の価値は、人として生まれたことである。
(落合陽一・山口周「Chat GPTは神か悪魔か」)

AI脅威は誤解である。言語や情報では目覚ましいが。物理空間やフィジカルでは弱い。人間がどう使うか道徳の問題である。AIの進歩は止められない。AIは言語モデルであり、知識モデルではない。真実モデルでもない。ありそうな回答を探すだけである。
生成AIは、Web上の膨大なコンテンツを読み込んでおり、その意味では世界で最も物知りと言えるが、一方で何ひとつ実体験をしたことがない。AIの世界ではエンボディメント(身体性)問題と呼ばれていた。現在の生成AIは、実体験を持たないにもかかわらず、リアル世界のさまざまな問題を解くことができる。一方で、人間は生成AIと比べて非常に狭い範囲の知識しか持ち合わせていないが、一人ひとりがそれぞれ異なる経験を持っており、そのセットこそが“個性”という価値を生み出している可能性がある。」
(落合陽一、金出武雄、藤井輝夫「AIと教育活用」)
 
ニューラルネットワークの開発者であるアンドリュー・ヌグの言葉である。「AIが人類の絶滅を招くことを危惧する人たちがいるが、彼らの愚念は非常にあいまいで空想的で、現実的とは思えない。私は人であれ、機械であれ、より優れた知能を持つことは様々な問題の解決に役立つと思う。
(アンドリュー・ヌグ(AI開発ファンド))
 
人間によって開発されたAIであるが、社会にそのまま取り込んでよいのかという問題提起で特に重要なことはA I には人間の持つ自律性ないことである。AIは(まだ)自律的には動かないので意思も持てない。人間によって運用されることになる。AIに責任を委ねることはできない。開発や運用の裏にはデジタル社会を支配しようするビッグテックがいる。まずそれを規制する方法を考えない。ビッグテックの危険を強く警鐘するのはECである。
 
AIの課題として「フレーム問題」(私たちは膨大な記憶のなかから、今の話題に無用なことを自然に省いている。一方、AIはすべてをチェックしないと判断ができない。)と「記号接地(シンボルグラウンディング)問題」(人間は記号、つまりことばを身体的な感覚によって実世界と結びつけて理解する。しかしAIは外部との設置がない。つまり、AIにはあることに出会って瞬間にああーそうなんだという出会いはない。
 
「人間ならでは」の仕事とは何か?一般的には創造力の必要なもの、社交性が求められるもの、マニュアル化できないものへの対処であるが、人間が創造性の高いと考えているものは、実はさほど独創的ではないのだ。大抵の人間の発想は過去に誰かの思いついたものである。これらのことをAIは得意としている。AIが世界の格差をますます広げていることであるが、超富裕層が数十億人分の資産を所有していること、つまりインターネットの土地を囲い込んで企業が「私有地化」していることへ、人類の共有財産として民主的に管理されるシステムを、私たちは考えなければならない。つまり、生成AIは、国や私企業の所有物ではないので私的所有を超える方向性を考えていく必要がある。これが、ECで規制であり、デジタル立憲主義への挑戦である。(山口周「テクノ封建制」を乗り越えよ」)
 
中心的な議論ではないが、人間とAIの非対称性、テクノロジーと哲学の二項対立は意味がないという考え方がある。人間には人間の仕事がある。AIにはAIの使い方がある。
AIを言語モデルとして考えるのは間違っている。知能とは何か?人間を超えるとはどういう尺度を使うのか?などの問いを曖昧なままで議論するのは、無意味である。すでにコンピューターはシンギュラリティを超えている。明らかに、「情報市場」は需給の関係はかわる。AIのコストが猛烈なスピードで安くなっている。AIの浸透による生産性の向上と同時に違う場所でのボトルネックが生まれる。そこに新たなビジネスも生まれる。AIと人とは、そもそも非対称性であり、比較の意味がない。人はいつもAIを意識して生きているわけでもない。A Iにできることは任せれば良い。人には、人のすることがある。
(大澤真幸、山口周「テクノ封建制」を乗り越えよ」)

AIの進化によって、正しい(らしい)答えの価値がなくなってしまった。AIが正解の過剰供給を生み出した。人間は正解を求めるのではなく、意味ないもの、希少性を求めるようになる。商品市場を例にしたAIと人間の役割分担の変化である。
「ビジネスというのは必ず「役に立つ」か「意味がある」かのどちらかの評価をされています。意味の価値に対して、買い手は4倍、5倍のお金を払っている。」「役に立つ」の領域から「意味がある」の領域にシフトするといっても、簡単ではありません。役に立つモノをずっと作ってきた人が、意味のあるモノを作れるかというという問題があります」「「問題の発見」と「問題の解消」を組み合わせることによって富を生み出しています。しかし現在、このボトルネックの関係は逆転しつつあります。つまり「問題が希少」で「解決能力が過剰」になっているということです。ビジネスが「問題の発見」と「問題の解決」という組み合わせで成り立っているのであれば、今後のビジネスではボトルネックとなる「問題」をいかにして生成し提起するのか、という点がカギになる。AIテクノロジーやSTEMが正解を出すので、問題解決への希少性はなくなっている。AIが正解の過剰供給を生み出した。シリコンバレーではリベラルアーツが復権している。私たちはfuzzyであるべきで今やtechieは誰でもアクセスできます。社会の姿を構想する誰も気づいていない問題を提案することが大切である。」
(スコット・ハートリー「FUZZY-TECHIE(ファジー・テッキー) イノベーションを生み出す最強タッグ」”Fuzzy and Techie Why the Liberal Arts Will Rule the Digital World”)
 
最後の論点は、そもそもAIなど人間社会には必要ない。AIというテクノロジーを開発してしまった人間の問題を指摘する。この論点こそが最も大切なものであると考える。
 
AIというテクノロジは必要なのか?経済的繁栄以外の何をもたらすのか?弱者救済の目的でも、資本家が儲かるしくみになっていく。デジタル化社会で人間はエコーチェンバーの中に閉じ込められている。「リゾーム(芝生の根茎のように)」という横への解放と切断によって、自分が生きていくコンテクストを自由に構築するひつようがある。そのことを、本を読み時間をかけて考える必要がある。
(マルクス・ガブリエル「なぜ世界は存在しないのか」)
 
「AIは人間の想像力を奪ってしまう。現代の動画サイトでは、個人の好みに合ったおすすめの曲を提案してくれる仕組みがある。裏を返せば、その便利な機能によって、私たちの未来の可能性が狭められているということである。なぜなら、もしAIからの提案が無かったとしたら、私たちは全く新しいジャンルを想像できる。批判的な考えが育たない。」
(テオドール・アドルノ「否定弁証法講義)
 
「メディアの本質は何か?機能としては「別の空間・時間への伝達と保存」。複製を通して行う。キーワードは「複製」である。メディアが複製したものが、現実の人間社会をかえていく。それがSociety5.0高度技術メディアは、人間の思考、生活、文化のありかたを規定していく。」
(ヴェルター・ベンヤミン「複製技術時代の芸術」)
 
「新しいAIは文明の存続を脅かしている。言語を操ることを通じて人々と親密な関係を結び、我々の意見や世界観を変える恐れがある」「民主主義は対話であり、対話は言語による。AIが言語を乗っ取れば、有意義な対話、すなわち民主主義は破壊されかねない。」
(ユヴァル・ノア・ハラリ『21 Lessons (トゥエンティワン・レッスンズ)——21世紀の人類のための21の思考』)
 
「現代人は『情報圏』(インフォスフィア)と呼ばれる空間に生きている。オンラインに蓄積された情報が、我々の行動に作用する環境の中にいるということだ。その最先端の例がAIだ。我々の身の回りの環境に知性を与え、知的な手段で人々と相互作用する存在になっている。我々はよく、『異星人が来たらどうなるんだろう』と考える。同じことがAIという非生物的なモデルの普及によって実際に起きている」「AIは正しく、理性・良識を持つ」という人間の思い込みである。A Iに知能や理性や良識はありません。生成AIは人の知能をキャッチアップしている。(具体的にはAI研究者の知能にすぎない。)チャットへの問いの回答は、「演算と画像処理」の結果であり、神託ではない。AIには、デカルトの第一原理の自意識はない。我思わない。「AI安全サミット2023年」には人文社会系の学者が招かれなかった。最先端AIは何ができるのかの深い議論がなかった。「人間は何ができるのか?」の問いがなかった。
デジタル資本主義の到来は、人間社会のあり方を考える好機である。人類が共有できる倫理規範を構築すること。人間は自然の一部であることを前提にして、人間を世界の中心に置く。」
(浅田彰「構造と力」)
 
人間の愚かさをコンピュータは助けて、解決するのだろうか?そうなると、ロボットは人間を排除するだろう。安部公房は、電子頭脳(AI)は未来を見るのではなく、現在を裁くものとして捉える必要性があると言う。「予言機械を通して、人間が知るということばの正しい意味は、秩序や法則を見ることなどではなくて、むしろ混沌を見ることだったのだろうか---?」AIは人間の予言機械の作った合成物であるから、人間が意識していないことまで露出してしまう。
(安部公房「第四間氷期」)

カレル・チャペルは、ロボットが支配する前に、何か方法はあるのかを考える。人間になったロボットは新しい人生を出発する。
(カレル・チャペル「ロボット RUR)
ドイツ語でarbeitは労働すること。arをraに逆にするとrabeit、ロボットとなる。AIは人類と共存するか、破滅させるか。チャペルは「山椒魚戦争」で人間以外の生き物が人間と同じ文明に至った時、人間と同じ愚行を演ずるだろうかと言う問いを投げかけている。安部もチャペルも現代を映す鏡であると人間に警告している。
 
 
AIと教育
 
生成AIが問う教育の「原点」として、教師と学生に求められる高度な批判的思考力が必要である。国立大学協会は「生成AIの利活用に対して心配する声もあるが、これまでも技術は巧みに利活用されてきている。生成AIの問題点を正確に把握しながら利用を進め、AI技術の発展に関する研究を推進すべきだ」との見解を示した。一橋大学のソーシャル・データサイエンス学部長・研究科長である渡部敏明も「これまで以上に思考プロセスを問うような課題を与えるべきだ」との考えを示す。生成AI は、「マルチホップ推論」と呼ばれる段階的な推論は苦手といわれている。人間にとってはそれほど複雑ではない質問であっても、AIは自力では解けないこともあるという。これまで以上に「なぜ」「どうやって」を考えることが重要になりそうだ。

「生成AIが切り拓く未来と日本の展望は明るい。東大としては、First come, first takeで積極的に使い、生成AIリテラシーをあげる提言をする。教育も研究も変わると考えている。」
(東大 x AIシンポジウム)
 
コロナ禍で授業がリモート教育に変わらざるを得なくなってから始まった、喜連川優(NIIの元所長)の「4月からの大学等遠隔授業に関する取組状況共有サイバーシンポジウム」(喜連川優「4月からの大学等遠隔授業に関する取組状況共有サイバーシンポジウム」)の活動は学校現場に大きな反響をもたらす。毎週行われた情報交換から、教育関係者は知恵を得てきた。そこで、最初は、喜連川から引用したい。20121年1月から「大学等におけるオンライン教育とデジタル変革に関するサイバーシンポジウム『教育機関DX(デジタルトランスフォーメーション)シンポ』」に変わった。

大学がICTをどれだけ活用していたか、令和元年の調査では、ビデオオンデマンドでのeラーニングを大学が36.4%。リアルタイムの遠隔教育が32.6%に過ぎなかった。オンライン授業の良かった点は、自分のペースで学習できることが66%、自分の選んだ場所で授業を受けられたというのが79.3%でした。悪かった点は、友人などと一緒に授業が受けられず寂しいという課題が53%、レポート等の課題が多かったというのが49.7%です。質問とか相互のやりとりの機会が少なかったというのも43%。対面授業より理解しにくいが42.7%ありました。」「初等中等教育では、GIGAスクールが、本当は4、5年かけてやるところを一気に短縮して一人一台端末の整備が完了し、令和3年度から使い始めることになった。それで課題が山積している状態です。米国の論文があります。全部対面、ハイブリッド(対面と遠隔の併用)、全部遠隔という3つの方法を比べると、小学校は全部対面が一番よくて全部遠隔になると成績がガーンと落ちる。中学になると、それほど影響がない、という研究結果です。日本の中でこういう定量的な測定を聞いたことがないということです。それが日本の大きな問題だと思います。2020年に教育再生実行会議で「教育のデータ駆動化をしよう」と進言しました。案外、教育関係者の中でも賛同してくださる方が多く、第12次提言の最初に「データ駆動型教育」という言葉が打ち出されました。」「AI、生成系AI、DX、AR、VR、IT、ICT、メタバース、データサイエンスなどの学習活用が諸外国比べて遅れている」

佐藤学は、教育面での生成AIの問題を、「生成AI時代における学校教育・図書館の役割を考える」をテーマに、PISA調査を例証して、コンピューターを活用したデータ学習の意味や課題について糺す。
(佐藤学「生成AI時代における学校教育・図書館の役割を考える」)

情報革命の結果は、「モノ」から「知識」へ、「知識」から「情報」へとなっていく。情報資本主義位おいては、資本主義は、モノの生産と販売から知識の生産と販売へと移行し、さらに情報の生産と販売へと移行している。例えば、2021年の自動車会社でテスラは、他の5社の総額を上回る収益を上げた。販売台数は、他の5社の50分の1以下(全自動車台数の1%程度)だった。知識資本主義と情報資本主義によって何がどう変化したのか。知識と情報の違いは、知識から<主体(人称)>と<関係>と<過程>と<文脈>を奪ったものが情報である。「情報」は「知識」ではない。もはや、大学は学問共同体から知識資本主義の経営体になった。(ハーバードの運営費は東京大学の100倍になっている)
教育の未来への展望を考える上で、図書館の役割を再認識している。生成AI時代の図書館は「読書の権利」を実現する学びのセンターへとすべきである。生成AI時代は読書文化の復権を要請している。学校図書館は「イノベーション」と「ネットワーク」の二つで未来をデザインする必要がある。「探究」「協働」「創造性」を育くむ学校教育へと。
 
 
人間の言葉とは?
 
アクティブラーニングの脳的プロセスについて考える。学びが主体的に学習者に受け入れられ、内的葛藤を経て、新たな価値創出へ繋がっていくか、また自分の経験や思いにコネクトしていくのかということを、ミハイル・バフチンが書いている。
(ミハイル・バフチン「言語論入門」)

他者のことばの伝達と描写、の章から引用する。
「他者の発話、他者の言葉の伝達とそれについての論議は、人間のことばにおける最も普遍的で本質的なテーマの一つである。他者の言葉の理解と解釈の仕方が我々に対して持つ重要性(生活解釈学)である。それを習得しつつ伝達する二つの基本的な学習方法-<その言葉通りに>と<自分の言葉で>-がある。後者は、他者の言葉を二声的に語ることである。内的説得力のある言葉は、それが肯定的に摂取される過程において、<自己の言葉>と緊密に絡みあう。」高木任三郎が、物理学のコゾナンスは違った振動数をとりながら、全体としては一つの調和が取れるもので、レゾナンスに比べて多様性を重んじているもので、これまで軽視されてきたと指摘する。この差異と対話こそがデジタル社会を考える時に重要となる。
(高木任三郎「わが内なるエコロジー―生きる場での変革」)

バフチンは、言語は組織化された社会交通という単一の領域の中に含めなければならないが多面的であり複雑であると述べている。アレクサンダー・フォン・フンボルトやフェルディナン・ド・ソシュールの潮流を示しながら、そこにAI問題を見出すことができる。言語体系と数学的記号の体系の対照や表現の問題、思考や主観的心理がことばの中で生成するという問題が扱われていないことがまずある。言語が客観的に存在するのは誤りであり、A Iは膨大なデータの抽象化に過ぎない。一括に抽出されるデータであるが、話し手の言語体系は一定の発話のコンテキストの中にのみ与えられているものである。AIの進化と発展段階でコンテキスト(発話の非言語的部分)の理解などは進むはずだが、人間の発話と発話はそれが行われる具体的状況への依存性が極めて大きいので本質的な問題にアプローチするのは不可能とも言える。ことばの位置、選択、響きをAIが的確に理解することは難しい。ここに開かれた自分と他者とのコネクトが生じる。
さらに引用する。「権威的な言葉(宗教、政治、道徳上の言葉、父親や大人や教師の言葉)は意識にとっては内的説得力を失っている」権威的な言葉は不活性となり、自分にコネクトしていかない。そこに教師の難しさがある。
 
茂木健一郎が指摘する人間の脳の働きから生まれる「クオリア」によって「万物の理論」が物理学によってだけで説明できない事がわかる。「クオリア」は自然法則の一つであって、そこに存在する人間を明示する。自然言語処理のChatGPTを使ってみると、意味も通るし、文法も正しい。しかし、段々と人間存在から遠ざかっていく。どこにも辿り着かない儚さを感じる。冗長性がある。AIのアルゴリズムは「意識」の設計を全体方向性へ設定しているからである。
 
AIと人間とのちがいを「言語の本質」(今井むつみ、秋田喜美「言語の本質-ことばはどう生まれ、進化したか 」)では記号接地問題として考察する。「言語習得とは推論によって知識を増やしながら同時に「学習の仕方」自体も学習し、洗練させていく。自律的に成長し続けるプロセスである。学習は「経験の丸暗記」によるものでなく、「推論」というステップを経たものである。知識が知識を創造していく。

ニューラルネット型AIは記号接地を全くしていない。人は記号接地しないで、言語や数学の抽象概念を学ぶことができるのか。小学校の2、3年生は「1」の意味の接地ができていない。人は抽象的な概念を簡単に接地できない。接地できないと、その先の学びは全て漂流になってしまう。腑に落ちない。ビッグデータを漂流しても「学習」できるAIとはちがう。」
 

この記事が気に入ったらサポートをしてみませんか?