イギリスのエリート大学群が出した生成AI原則を頭に叩き込もう
2023年7月4日、文科省が小中高向けの生成AIガイドラインを公表した。
2023年7月13日、大学・高専に向けた事務連絡が続く。
おそらく後者は「大学・高専向けにもなんか出せ」風味の社会的要請を受けた結果の事務連絡だろう。「考えられる」に留まる言い回しからスタンスの中途半端さがうかがえる。いいから使えくらい言えなかったものだろうか。
ここでは文科省にはこれくらい言って欲しかったぜという思いを込めて、「Russell Group principles on the use of generative AI tools in education」を紹介する。こちら、イギリスのラッセル・グループが策定した5つの原則から構成される文書である。わずか3ページ。頭に叩き込もう。
以下、原則を抜粋・翻訳(DeepL)して掲載する。
1. 大学は、学生や職員がAIリテラシーを身につけられるよう支援する。
1.1
生成AIツールは、膨大な量の情報を処理して回答を生成することができますが、大きな限界があります。すべての学生やスタッフが、ツールの使用に関連する機会、制限、倫理的問題を理解し、生成AIの機能が発展するにつれて学んだことを適用できるようにすることが重要です:
(a) プライバシーとデータへの配慮:
生成AIツールがユーザーの入力から直接学習するように設計されているかどうかにかかわらず、生徒やスタッフが入力する可能性のある情報に関連するプライバシーと知的財産へのリスクがあります。
(b) バイアスの可能性:生成AIツールは、社会的バイアスやステレオタイプを含む可能性のある人間によって生成された情報に基づいて回答を生成します。
(c) 情報の不正確さ、誤認識: 生成AIツールに含まれるデータや情報は、参照元が乏しいものや不正確なものを含む、幅広い情報源から収集されます。同様に、不明確なコマンドや情報は、生成AIツールによって誤って解釈され、不正確、無関係、または古い情報を生成する可能性があります。つまり、これらのツールによって生成された情報を別の文脈に移した場合の正確性に対する説明責任は、利用者にあるということです。
(d) 倫理規定:生成AIツールの利用者は、倫理規定が存在する一方で、すべての生成AIツールに組み込まれているわけではないこと、また、組み込まれているかどうかは、利用者が容易に確認できるものではない可能性があることを認識しておく必要があります。
(e) 盗用:生成AIツールは、他者によって開発された情報を再提示するため、盗用されたコンテンツや著作権侵害が、ユーザーによって自身のものとして提出されるリスクがあります。
(f)搾取:生成AIツールが構築される過程では、倫理的な問題が生じる可能性があります。例えば、一部の開発者は、劣悪な環境で低賃金労働者にデータのラベリングを委託しています。
1.2
私たちの大学は、生成AIツールがどのように機能するのか、どこで付加価値を与え、学習をパーソナライズすることができるのか、またその限界についても、学生や職員が理解できるようにガイダンスやトレーニングを提供します。AIリテラシーを高めることで、私たちの大学は、学生が学習や将来のキャリアを通じてこれらのツールを適切に使用するために必要なスキルを身につけ、職員が学生の学習を支援し、教育方法を適応させるためにこれらのツールを展開するために必要なスキルと知識を持つことを保証します。
2. 職員は、学生が学習経験において効果的かつ適切に生成AIツールを使用できるようサポートする能力を身につける。
2.1
私たちの大学は、学習、課題、研究を支援するための生成AIの利用方法について、職員が学生に明確なガイダンスを提供できるよう、リソースや研修の機会を整備します。
2.2
生成AIツールの適切な使用方法は、学問分野によって異なる可能性が高く、学問分野団体の方針やガイダンスによって決定されます。また、大学は、これらのツールが、異なる学生グループや特定の学習ニーズを持つ学生に対して、どのように適切に適用されるかを検討することも奨励されます。
2.3
生成AIツールの適切な使用について共通の理解を得るためには、教員と学生の関与と対話が重要です。この対話が定期的かつ継続的に行われるようにすることは、生成AIの進化のペースを考えると極めて重要です。
3. 大学は、生成AIの倫理的利用を取り入れ、平等なアクセスを支援するために、教育と評価を適応させる。
3.1
大学では、新しい研究、技術開発、ワークフォースニーズなどの推進力に応じて、教育方法や評価方法を継続的に更新し、強化しています。生成AIツールの使用を教育方法と評価に組み込むことは、学生の学習経験を向上させ、批判的推論のスキルを向上させ、学生が大学卒業後に遭遇する生成AI技術の現実世界での応用に備える可能性を秘めています。
3.2
教育や評価方法への適切な適応は、大学や分野によって異なり、この自主性を守ることが重要です。学生の学習を支援するすべてのスタッフは、適切な場合には、生成AIツールの創造的な使用を組み込んだ教育セッション、教材、および評価を設計する権限を与えられるべきです。また、専門機関は、特に認証評価に関連して、大学の実践を適応させるための支援において重要な役割を果たすでしょう。
3.3
技術が発展し、新たな生成AIツールが利用できるようになると、大学内で使用される生成AIの要素は、ペイウォールの背後に存在するか、有料購読者に制限される可能性があります。大学は、そのようなサブスクリプション・ツールの普及の可能性にどのように対応するのが最善かを検討し、学生や職員が教育や学習の実践を支援するために必要な生成AIツールやコンピューティング・リソースにアクセスできるよう、アクセスの公平性を確保する試みを行う必要があります。
4. 大学は、学問の厳密性と完全性が維持されるようにする。
4.1
Russell Groupの全24大学は、生成AIの出現を反映するために、学業行動方針とガイダンスを見直しました。これらの方針は、生成AIの使用が不適切である箇所を学生や職員に明確にし、学生や職員が十分な情報を得た上で意思決定を行うことを支援し、これらのツールを適切に使用し、必要に応じてその使用を認識できるようにすることを目的としています。
4.2
このような明確で透明性の高いポリシーは、ラッセル・グループの大学全体で一貫性のある高水準の学習、教育、評価を維持するために不可欠です。
4.3
学問的誠実性と生成AIの倫理的使用の確保は、学生が生成AIの具体的な使用例について質問し、罰則を恐れることなく、関連する課題について率直に議論できる環境を醸成することによっても達成できます。
5. 大学は、テクノロジーとその教育への応用が進化する中で、ベストプラクティスを共有するために協力的に取り組む。
5.1
変化し続けるこの状況を乗り切るには、大学、学生、学校、FEカレッジ、雇用主、セクター、専門機関が協力し、方針、原則、実践の継続的な見直しと評価を行うことが必要です。
5.2
本学は、AIツールの活用と教育・学習・評価への影響に関する教職員・学生向けの方針・ガイダンスを定期的に評価します。これには、生成AIツールの学術生活への統合の有効性、公平性、倫理的意味を監視し、生成AI技術が進化してもそれらが有効であり続けるように方針と手順を適応させることが含まれます。
5.3
高等教育機関、学校、雇用主、学位を認定する専門機関、AIの専門家、一流の学者や研究者間の関係を育むとともに、新たな課題に対処し、生成AIの倫理的利用を促進するための学際的なアプローチを確保することが極めて重要になります。ラッセル・グループの大学は、今後待ち受けている課題を認識し、教育、学習、評価、支援における生成AIとその応用に関する国内外の議論に専門知識を提供するとともに、他者からのインプットを引き続き重視していきます。
おわりに
大学組織として取るべき対応がきちんと抑えられている。素晴らしい。
概ねUNESCOガイドを整理・詳述した印象を受ける。
改めて文科省の事務連絡を見ると、教育機関を管轄する省庁がアクセシビリティへの懸念を放念した点は看過できないと思った。ラッセル・グループは3.で言及している。文科省の文書とラッセル・グループの文書を単純化した比較や批評はできないが、示唆に富む文書なのでぜひ原文も参照していただきたい。
ではでは。