文部科学省の生成AI指針に反してChatGPTを用いた定期テストを出してしまいました。でも、「自分のためにならない」って?
本日2023年7月4日に文部科学省から「「初等中等教育段階における生成AIの利用に関する暫定的なガイドライン」の作成について」の通知が発出されました。なぜこのタイミングかというと、夏休みが始まる前に夏休みの宿題を出す際の対応に混乱がないようにとのことです。また、5月に行われたG7広島サミットで決まった議論の枠組みである「広島AIプロセス」に基づいて、日本は議長国として教育分野における生成AIの活用の議論を進めたい意図もあるかもしれません。
【反省】定期テストにChatGPTを使ってしまいました
さて、このガイドライン、実は、今日公表される1週間前の6月27日にニュース各紙で指針案という形で報道されていました。
このニュースでは「生成AI、定期テストは不適切」という大きな見出し。えっ、この前の学年末テストでもろChatGPTを使ったんだけど?もしかして処分されてしまうのかしら・・・、とこの1週間内心ビクビクしていた私(大袈裟)。学年末テストで出題した実際の問題はコチラのnote記事にしています。
処分されてしまうかもという生きた心地がしない中(大袈裟)、今日、文部科学省から正式に発表がありました。様々なメディアで概要が報道されていますが、まずは、正式通知を確認、と。いつも生徒に対して、情報源をちゃんと読むように伝えていることもあり、通知全文に目を通しました。こちらにPDFのリンクがあります。
生成AI活用が適切でない例と、適切な例がそれぞれ列挙されています。まずは、不適切な例の一覧を見ていきましょう。
生成AIの利用が適切でないと考えられる例
8つのうち、⑥がテストに関するものですね。「⑥ 定期考査や⼩テストなどで⼦供達に使わせること」が適切でないとのこと。この文を普通に解釈すると、子供達がテストでChatGPTを使うことが適切でないだけで、教員がChatGPTを使ったテスト問題を出す場合は問題なさそう。よかった、お咎めなしのようです。処分されずにすみました。
ただ、この⑥はどういった状況を想定しているのでしょうか?オンライン授業の時にGoogle Formsを使って小テストをしたことはありますが、そのような場面でしょうか?いちおう、Google Classroomを使ってテストをする場合に他の情報を参照できないように、ウェブブラウザーで他のタブやウィンドウを見ることができないようにする機能はあります。ただ、リモート授業でオンラインでやっている時に、他のタブを見られないようにしても、スマホやタブレットなど、手元で別のデバイスを操作することまで防ぐことはできません(実際に生徒がするかは別として)。それよりも、Google検索しようが、ChatGPT使おうが、LINEで相談しようが、何を見ても構わない、いわゆるオープンブック試験を前提に、どのように自分の意見や考えを書くことができるかに振り切ってしまった方がよい気がします。
生成AIの活用が考えられる例
続いて、生成AIの活用が考えられる例は7つ紹介されています。
これはすごくいいですね。③④⑤⑥は、英語や文章推敲、プログラミング、そして議論のたたき台など、具体的な活用場面が想像できます。また、①②は、生成AIを教材として情報モラル・情報セキュリティについて考えたり、社会的課題について議論したりと、教科学習との関連付けや発展的な学びにもつながりそうです。⑦は、意味するところがわかりづらいかもしれませんが、探究活動などにおいて生成AIを効果的に活用できているかを確認する目的と理解しています。うん、なんかわくわくしますね。
インターネット上の様々な反応
既にインターネット上では様々な意見が出ています。私が気になったのは、「自分のためにならない」という言葉を巡るあれこれです。この「自分のためにならない」という言葉は、文部科学省のガイドラインにも登場します。
ここでいう自分は、児童生徒を指しますが、インターネット上では色々な角度から「自分のためにならない」という意見が表出しています。例えば・・
子どもたちはAI時代をこれから生きるのだから、AIとうまく付き合う教育を阻害するのは、自分のためにならない
子どもたちは、AIの使い方もわからずに、間違っているかもしれない情報を丸写しするだけなので、AIを使ってしまうと、自分のためにならない
情報の信頼性を確かめる意識や方法を教えることをせずに、AIの使用を子どもに許可しても、自分のためにならない
AIに頼りきりになってしまうと、同級生や先生との心の通い合いがなくなり、自分のためにならない
最近の子どもたちは忙しく疲弊しているので、夏休みの宿題などでAIを使って効率化できないのは、自分のためにならない
詩や音楽などの芸術系科目は、苦手な子にとっては苦痛でしかなく、将来使う子も限られるため、AIなどのツールを活用できないことは、自分のためにならない
子どもたちがAIを使うと同じようなアウトプットにしかならず、個性を消してしまうため、自分のためにならない
そもそも、せっかくの休暇中に画一的に出される夏休みの宿題なんて、自分のためにならない
本当に色々な意見がありますが、皆さんはどの意見に近いですか?それとも全く別の視点をお持ちですか?
この、「自分のためになるかどうか」、つまり、「児童生徒のためになるかどうか」という問いは本当に難しい。私も常にこの問いかけを自分自身にしている感じです。
今ためになると信じていることが将来のためになっているのかわからない。では将来を生きる子どもたち自身に選ばせればいいじゃないか、という意見もあるかもしれませんが、児童生徒(というか大人も含めて人間の性として)はどうしても楽な方に流れがちなので、子どもたち自身が選んだことが本当にためになっているのかはわからない。また、この子にとってためになることが、あの子にとってためになるかはわからない。そもそも、ためにならないことはやらないって考えが正しいのかもわからない。そして、傍から見ればためにもならない日常の何気ないクラスでの場面が、とても大切な青春の1ページとして心に残るということもあって、「自分のため」というものがほとほとよくわからない、といつも思考の沼に陥ってしまいます。。
生成AIを教師が〇〇で使うことは不適切!?
少し話題を変えて。生成AIの利用が適切でないと考えられる例において、基本的には、主語が「先生」で、「児童生徒」に◯◯という場面では使わせないようにする、という文章構造になっています。ところが、いくつかの項目は、「教師が使わない」と先生による活用を制限するものもあります。具体的には、⑤⑦⑧の3つです。以下に再掲します。
教員による評価・フィードバック、広い意味での生徒とのコミュニケーションの部分はAIを使うな、ということですね。その通り。その通りで、これが教師の本分たるところなのですが、私の担当した国際バカロレアの授業でも、個人またはグループでそれぞれ興味がある分野で問いを立てて探究活動をするのですが、そのアウトプット(レポートだったり、プレゼンテーションだったり、たまに動画)に対して、フィードバックすることが、やりがいがある一方で、最も時間がかかり、最も気を遣う大変なプロセスでした。特にコメントをするに当たり、レポートの参考文献ガーや引用ガーとか、体裁面だけではなく、そんな学問的な形式も大事ですが、それよりも、生徒としては探究した内容や自分の考察についてどうだったのかフィードバックを求めるていると思っているので、読み込んでそれぞれの生徒に適したフィードバックを書いていくのは、本当に大変です。生徒のレポートをChatGPTに放り込んでコメントさせたい衝動に駆られます(いや、やってないですよ)。生徒の学習評価のコメントや報告書については、生成AIを使わないまでも、巷にはコメント案にポチポチっとフラグを立てて、選択し終われば文章が完成している、のような簡易プログラムもあるようなので、ここをどう効率化するかは多くの教員が模索しているところだと思いますが、生成AIは不適切、と先手を打たれてしまった形です。うーん、子どもたちにしっかり向き合ってコミュニケーションを取るということろは大事なところでもあるので、難しいところですね。
ちなみに、このガイドラインはVer1.0ということで機動的に改訂していくそうです。定期テストでChatGPTを出題したのは2022年2月でまだGPT-3.5で、GPT-4に進化する前だったり、それ以降のプロンプトの実践例が広く共有される前だったりで、技術と実践の進化は目覚ましく、ガイドラインも見直しされていくようなので、これからも機動的にチェックしていきたいと思います。