![見出し画像](https://assets.st-note.com/production/uploads/images/72712421/rectangle_large_type_2_ec81bc500e66d183160c7653f19dcaeb.png?width=1200)
元大学教員の高校教諭が総務省「情報II」教材を利用した機械学習の授業案を考えてみた|第7回:画像認識AI構築・後編
こんにちは。ヒューマノーム研究所 次世代先端教育特命研究員の辻敏之と申します。普段は中学・高校の教員をしながら、ヒューマノーム研究所のお手伝いをさせていただいています。
この連載では総務省から発表された「高等学校における「情報II」のためのデータサイエンス・データ解析入門」を授業で活用するアイデアについて共有します。
無理なくデータ解析全体の流れを学ぶことに主眼を置き、授業内でプログラミングレスな初心者向けノーコードAI構築ツール Humanome CatData とHumanome Eyes を利用することで、生徒がより楽しくデータサイエンスが学べます、という提案です。
これまでの連載は以下のリンクよりお読み下さい。
前回に引き続き、今回もノーコード画像検知AI構築ツール Humanome Eyes(以下 Eyes)を用いて、画像認識AIを作成していきます。主人公の美緒さんが思い出の写真を整理するのにニューラルネットワークを用いることはできないかな?と考える内容です。
本稿内の全ての図は、本編最後にまとめてPDF形式で無料配布します。授業でスライドとして示すなどしてご活用下さい。
1. 作ったモデルで予測する
このモデルを使ってテストデータの予測を行ってみましょう。タスク一覧に戻って、新しいタスクを作成します。図3と同じ画面になりますので、テストデータと分かる名前、学習したときと同じラベル(America、Itary、Australia)を定義してください。最後にテストデータをアップロードします。最初に2つに分けたデータのうち、学習に使っていない方のデータです。
![](https://assets.st-note.com/img/1645419119296-ysRJEXOeEr.png?width=1200)
図9は、テストデータのアップデートが終わった後のタスク画面です。「アノテーション」セクションでアップロードした画像の枚数を確認し、きちんとアップロードできていることを確認してください。
予測はこれまでに作成したモデルを用い、自動でアノテーションするという形式(AIアノテーション)で行います。図9に示したように右上の「操作」から「AIアノテーション」を選択してください。
![](https://assets.st-note.com/img/1645419118218-M5PVrJ3WSu.png?width=1200)
ダイアログが表示され、AIアノテーションに使うAI(学習モデル)をどれにするか訪ねられるので、プルダウンメニューから選択します。ここでは当然、先ほど作成したモデルを指定します。指定するとラベルの互換性などを確認されますが、同じように作っていればそのままで問題ありません。「登録」ボタンを押して進みましょう。
![](https://assets.st-note.com/img/1645419118438-bU7iwaVzcK.png?width=1200)
実施中は画面表示が図11のように「自動アノテーション実施中」に変わります。終了すると元に戻るのでしばらくお待ちください。結果は「アノテーション」セクションの「アノテーション数」として示され、アノテーションエディタ上で確認することになります。
![](https://assets.st-note.com/img/1645419118626-4FptKrla6f.png?width=1200)
2. 予測結果に対する考察
図12の通り、残念ながらこの学習モデルではテストデータに対して予測することはできませんでした。この理由として、学習率・ステップ数が小さく十分に学習できていなかったことが挙げられると思います。
すごく簡単に表現すると、学習率は1回の学習において学ぶ歩幅のようなものです。歩幅は小さい方が緻密に学習できますが、このケースでは100回の学習では本質的な部分に届かなかったと思われます。肉まん食べたけど、一口目に肉まで届かなかったような感じです。
学習率の調整に関してはこちらの記事が参考になります。
私の方でいろいろ試してみたたところ、学習率0.003、学習回数200回くらいが良いようです。それでも多くの部分をイタリアだと予測してしまいます。これはイタリアの写真に偏っていること、画像全体をオブジェクトとして扱っているためだと考えられます。
授業では、
AIを扱う際に必ずしもうまく行くものではないということ
アノテーションのやり方によって精度が変わるということ
などを表現すると、より機械学習の本質的な部分に触れられると思います。
例えば建物にフォーカスしてアノテーションしてみる。空にフォーカスして空の色で分離してみる。何がうまく分類できるファクタになり得るかは分かりませんが、どんな方法でも可能性はあります。
こういったことを生徒たちに自由に考えさせ、
判別するファクタとして何を選んだか
それを選んだ理由
そのファクタで学習させたときの結果
をプレゼンテーションしてもらうと、機械学習・AIに対する理解を深めるよいワークになるのではないかと感じました。
3. 本稿のまとめ
今回は写真を撮影された国別に仕分けるAIの構築に挑戦してみました。結果はあまりうまく行きませんでしたが、よりよくするためにはどうすれば良いか考える素地が作れたのではないかと思います。次回は、アノテーションを工夫することでよりよくなるかどうか、検討してみたいと思います。
なお、今回の記事内で使用した図はPDFにまとめました。以下のリンクよりダウンロードして下さい。授業でのスライド用途などにご利用いただけます。また、本連載は下記リンクからまとめて読むことができます。
それではまた次回もぜひお読み下さい!
※ 筆者紹介
辻敏之:機械学習やIoTデバイスを用いた先進的な教育活動に興味があります。好きなことは写真撮影と美味しいものを食べること。普段は中高生に理科を教えたり、研究指導したりしています。
連載第6〜7回図版資料
![](https://assets.st-note.com/img/1645420733304-uO6rmCrX5K.png)
4. データ解析・AI構築の初学者向け自習テキスト
表データを利用したAI学習テキスト(Humanome CatData)
画像・動画を利用したAI学習テキスト(Humanome Eyes)
AI・DX・データサイエンスについてのご質問・共同研究等についてはお気軽にお問い合わせ下さい!