見出し画像

文部科学省の生成AI指針に反してChatGPTを用いた定期テストを出してしまいました。でも、「自分のためにならない」って?

本日2023年7月4日に文部科学省から「「初等中等教育段階における生成AIの利用に関する暫定的なガイドライン」の作成について」の通知が発出されました。なぜこのタイミングかというと、夏休みが始まる前に夏休みの宿題を出す際の対応に混乱がないようにとのことです。また、5月に行われたG7広島サミットで決まった議論の枠組みである「広島AIプロセス」に基づいて、日本は議長国として教育分野における生成AIの活用の議論を進めたい意図もあるかもしれません。

【反省】定期テストにChatGPTを使ってしまいました

さて、このガイドライン、実は、今日公表される1週間前の6月27日にニュース各紙で指針案という形で報道されていました。

このニュースでは「生成AI、定期テストは不適切」という大きな見出し。えっ、この前の学年末テストでもろChatGPTを使ったんだけど?もしかして処分されてしまうのかしら・・・、とこの1週間内心ビクビクしていた私(大袈裟)。学年末テストで出題した実際の問題はコチラのnote記事にしています。

処分されてしまうかもという生きた心地がしない中(大袈裟)、今日、文部科学省から正式に発表がありました。様々なメディアで概要が報道されていますが、まずは、正式通知を確認、と。いつも生徒に対して、情報源をちゃんと読むように伝えていることもあり、通知全文に目を通しました。こちらにPDFのリンクがあります。

生成AI活用が適切でない例と、適切な例がそれぞれ列挙されています。まずは、不適切な例の一覧を見ていきましょう。

生成AIの利用が適切でないと考えられる例

① ⽣成AI⾃体の性質やメリット・デメリットに関する学習を⼗分に⾏っていないなど、情報モラルを含む情報活⽤能⼒が⼗分育成されていない段階において、⾃由に使わせること
② 各種コンクールの作品やレポート・⼩論⽂などについて、⽣成AIによる⽣成物をそのまま⾃⼰の成果物として応募・提出すること (コンクールへの応募を推奨する場合は応募要項等を踏まえた十分な指導が必要)
③ 詩や俳句の創作、⾳楽・美術等の表現・鑑賞など⼦供の感性や独創性を発揮させたい場⾯、初発の感想を求める場⾯などで最初から安易に使わせること
④ テーマに基づき調べる場⾯などで、教科書等の質の担保された教材を⽤いる前に安易に使わせること
⑤ 教師が正確な知識に基づきコメント・評価すべき場⾯で、教師の代わりに安易に⽣成AIから⽣徒に対し回答させること
⑥ 定期考査や⼩テストなどで⼦供達に使わせること(学習の進捗や成果を把握・評価するという目的に合致しない。CBTで行う場合も、フィルタリング等により、生成AIが使用しうる状態とならないよう十分注意すべき)
⑦ 児童⽣徒の学習評価を、教師がAIからの出⼒のみをもって⾏うこと
⑧ 教師が専⾨性を発揮し、⼈間的な触れ合いの中で⾏うべき教育指導を実施せずに、安易に⽣成AIに相談させること

文部科学省 初等中等教育段階における 生成AIの利用に関する暫定的なガイドライン(2023)

8つのうち、⑥がテストに関するものですね。「⑥ 定期考査や⼩テストなどで⼦供達に使わせること」が適切でないとのこと。この文を普通に解釈すると、子供達がテストでChatGPTを使うことが適切でないだけで、教員がChatGPTを使ったテスト問題を出す場合は問題なさそう。よかった、お咎めなしのようです。処分されずにすみました。
ただ、この⑥はどういった状況を想定しているのでしょうか?オンライン授業の時にGoogle Formsを使って小テストをしたことはありますが、そのような場面でしょうか?いちおう、Google Classroomを使ってテストをする場合に他の情報を参照できないように、ウェブブラウザーで他のタブやウィンドウを見ることができないようにする機能はあります。ただ、リモート授業でオンラインでやっている時に、他のタブを見られないようにしても、スマホやタブレットなど、手元で別のデバイスを操作することまで防ぐことはできません(実際に生徒がするかは別として)。それよりも、Google検索しようが、ChatGPT使おうが、LINEで相談しようが、何を見ても構わない、いわゆるオープンブック試験を前提に、どのように自分の意見や考えを書くことができるかに振り切ってしまった方がよい気がします。

生成AIの活用が考えられる例

続いて、生成AIの活用が考えられる例は7つ紹介されています。

① 情報モラル教育の⼀環として、教師が⽣成AIが⽣成する誤りを含む回答を教材として使⽤し、その性質や限界等を⽣徒に気付かせること。
② ⽣成AIをめぐる社会的論議について⽣徒⾃⾝が主体的に考え、議論する過程で、その素材として活⽤させること
③ グループの考えをまとめたり、アイデアを出す活動の途中段階で、⽣徒同⼠で⼀定の議論やまとめをした上で、⾜りない視点を⾒つけ議論を深める⽬的で活⽤させること
④ 英会話の相⼿として活⽤したり、より⾃然な英語表現への改善や⼀⼈⼀⼈の興味関⼼に応じた単語リストや例⽂リストの作成に活⽤させること、外国⼈児童⽣徒等の⽇本語学習のために活⽤させること
⑤ ⽣成AIの活⽤⽅法を学ぶ⽬的で、⾃ら作った⽂章を⽣成AIに修正させたものを「たたき台」として、⾃分なりに何度も推敲して、より良い⽂章として修正した過程・結果をワープロソフトの校閲機能を使って提出させること
⑥ 発展的な学習として、⽣成AIを⽤いた⾼度なプログラミングを⾏わせること
⑦ ⽣成AIを活⽤した問題発⾒・課題解決能⼒を積極的に評価する観点からパフォーマンステストを⾏うこと

文部科学省 初等中等教育段階における 生成AIの利用に関する暫定的なガイドライン(2023)

これはすごくいいですね。③④⑤⑥は、英語や文章推敲、プログラミング、そして議論のたたき台など、具体的な活用場面が想像できます。また、①②は、生成AIを教材として情報モラル・情報セキュリティについて考えたり、社会的課題について議論したりと、教科学習との関連付けや発展的な学びにもつながりそうです。⑦は、意味するところがわかりづらいかもしれませんが、探究活動などにおいて生成AIを効果的に活用できているかを確認する目的と理解しています。うん、なんかわくわくしますね。

インターネット上の様々な反応

既にインターネット上では様々な意見が出ています。私が気になったのは、「自分のためにならない」という言葉を巡るあれこれです。この「自分のためにならない」という言葉は、文部科学省のガイドラインにも登場します。

AIの利⽤を想定していないコンクールの作品やレポートなどについて、⽣成AIによる⽣成物をそのまま⾃⼰の成果物として応募・提出することは評価基準や応募規約によっては不適切⼜は不正な⾏為に当たること、活動を通じた学びが得られず、⾃分のためにならないこと等について⼗分に指導する

文部科学省 初等中等教育段階における 生成AIの利用に関する暫定的なガイドライン(2023)
(太字は筆者による)

ここでいう自分は、児童生徒を指しますが、インターネット上では色々な角度から「自分のためにならない」という意見が表出しています。例えば・・

  • 子どもたちはAI時代をこれから生きるのだから、AIとうまく付き合う教育を阻害するのは、自分のためにならない

  • 子どもたちは、AIの使い方もわからずに、間違っているかもしれない情報を丸写しするだけなので、AIを使ってしまうと、自分のためにならない

  • 情報の信頼性を確かめる意識や方法を教えることをせずに、AIの使用を子どもに許可しても、自分のためにならない

  • AIに頼りきりになってしまうと、同級生や先生との心の通い合いがなくなり、自分のためにならない

  • 最近の子どもたちは忙しく疲弊しているので、夏休みの宿題などでAIを使って効率化できないのは、自分のためにならない

  • 詩や音楽などの芸術系科目は、苦手な子にとっては苦痛でしかなく、将来使う子も限られるため、AIなどのツールを活用できないことは、自分のためにならない

  • 子どもたちがAIを使うと同じようなアウトプットにしかならず、個性を消してしまうため、自分のためにならない

  • そもそも、せっかくの休暇中に画一的に出される夏休みの宿題なんて、自分のためにならない

本当に色々な意見がありますが、皆さんはどの意見に近いですか?それとも全く別の視点をお持ちですか?
この、「自分のためになるかどうか」、つまり、「児童生徒のためになるかどうか」という問いは本当に難しい。私も常にこの問いかけを自分自身にしている感じです。
今ためになると信じていることが将来のためになっているのかわからない。では将来を生きる子どもたち自身に選ばせればいいじゃないか、という意見もあるかもしれませんが、児童生徒(というか大人も含めて人間の性として)はどうしても楽な方に流れがちなので、子どもたち自身が選んだことが本当にためになっているのかはわからない。また、この子にとってためになることが、あの子にとってためになるかはわからない。そもそも、ためにならないことはやらないって考えが正しいのかもわからない。そして、傍から見ればためにもならない日常の何気ないクラスでの場面が、とても大切な青春の1ページとして心に残るということもあって、「自分のため」というものがほとほとよくわからない、といつも思考の沼に陥ってしまいます。。

生成AIを教師が〇〇で使うことは不適切!?

少し話題を変えて。生成AIの利用が適切でないと考えられる例において、基本的には、主語が「先生」で、「児童生徒」に◯◯という場面では使わせないようにする、という文章構造になっています。ところが、いくつかの項目は、「教師が使わない」と先生による活用を制限するものもあります。具体的には、⑤⑦⑧の3つです。以下に再掲します。

⑤ 教師が正確な知識に基づきコメント・評価すべき場⾯で、教師の代わりに安易に⽣成AIから⽣徒に対し回答させること
⑦ 児童⽣徒の学習評価を、教師がAIからの出⼒のみをもって⾏うこと
⑧ 教師が専⾨性を発揮し、⼈間的な触れ合いの中で⾏うべき教育指導を実施せずに、安易に⽣成AIに相談させること

文部科学省 初等中等教育段階における 生成AIの利用に関する暫定的なガイドライン(2023)

教員による評価・フィードバック、広い意味での生徒とのコミュニケーションの部分はAIを使うな、ということですね。その通り。その通りで、これが教師の本分たるところなのですが、私の担当した国際バカロレアの授業でも、個人またはグループでそれぞれ興味がある分野で問いを立てて探究活動をするのですが、そのアウトプット(レポートだったり、プレゼンテーションだったり、たまに動画)に対して、フィードバックすることが、やりがいがある一方で、最も時間がかかり、最も気を遣う大変なプロセスでした。特にコメントをするに当たり、レポートの参考文献ガーや引用ガーとか、体裁面だけではなく、そんな学問的な形式も大事ですが、それよりも、生徒としては探究した内容や自分の考察についてどうだったのかフィードバックを求めるていると思っているので、読み込んでそれぞれの生徒に適したフィードバックを書いていくのは、本当に大変です。生徒のレポートをChatGPTに放り込んでコメントさせたい衝動に駆られます(いや、やってないですよ)。生徒の学習評価のコメントや報告書については、生成AIを使わないまでも、巷にはコメント案にポチポチっとフラグを立てて、選択し終われば文章が完成している、のような簡易プログラムもあるようなので、ここをどう効率化するかは多くの教員が模索しているところだと思いますが、生成AIは不適切、と先手を打たれてしまった形です。うーん、子どもたちにしっかり向き合ってコミュニケーションを取るということろは大事なところでもあるので、難しいところですね。

ちなみに、このガイドラインはVer1.0ということで機動的に改訂していくそうです。定期テストでChatGPTを出題したのは2022年2月でまだGPT-3.5で、GPT-4に進化する前だったり、それ以降のプロンプトの実践例が広く共有される前だったりで、技術と実践の進化は目覚ましく、ガイドラインも見直しされていくようなので、これからも機動的にチェックしていきたいと思います。

いいなと思ったら応援しよう!

この記事が参加している募集