ディープラーニングにおけるデータ収集をめぐる問題に対する2つのアプローチ事例
最近目にした二つの記事を紹介します。両方ともディープラーニングにおける訓練データをたくさん集めないとならない問題に対する解決策に関するもの。
一つ目は本田技研工業が「製品の欠陥を数十枚の画像サンプルだけで学習できる人口知能の技術」を導入した話。エンジン部品の検査を自動化できたそうだ。
その技術を開発した会社はアダコテック。いままでは数千枚の不良品画像が必要だったので、ラベルをつけたりと学習データの準備で多大な時間がかかり、そのデータをもとにモデルを構築するのも試行錯誤だし、計算資源もかなり必要だった。それを画像中の各画素の濃淡や明るさを示す値を単純に積和するだけで必要な特徴量を計算できる手法を編み出したとのこと。
詳しい意計算方法は詳細がないのでイメージしかないけど、おそらくRGBではなくHSLやHSVなどの色空間を使って特徴量を引き出しているのではと僕は予測している。ちなみに、HSLは「色相(Hue) 、彩度(Saturation)、輝度(Luminance) 」の略で、 HSVは「色相(Hue) 、彩度(Saturation)、明度(Value)」の略。細かい定義は僕も詳しくはないが、道路の車線を判別するような場合に明るさを無視できるなど利便があるので、こういった色空間を使うケースがあると習ったのを思い出した。僕も使ってみた事がある。
ディープラーニングが流行る以前は、人間が編み出したさまざまなフィルターなどを使って特徴量を抽出しており、そういった特徴量をSVMに入力して分類判別するのが典型的な手法だった。そんな特徴量をディープラーニングで使用することも可能なはず。ただし、アダコテックが実際にそうしているかはわからない。これは僕の推測でしかなく実際の手法はまったく別かもしれないので、あしからず。
いずれにせよ数十枚のサンプルで、欠陥検出率100%で、不良分類精度88%を達成したと記事は伝えている。こういう工夫がうまくいく事例はこれからも出てくると思われる。特にデータを大量に集めるのが難しい場合は特徴量を自動で抽出するのが難しいので。
もう一方、どうしても大量なデータが必要なケースがある。例えば自動運転用のAIを学習させる場合がそうだ。そこで、データを集めるのが大変なら自分で作ってしまえというのが次に紹介する記事。タイトルを日本語訳すると「あなたは人工知能の訓練するのに本物のデータにまだこだわっているの?」となる。
NVIDIAによるものだが、人工的に作られたデータで学習をおこなう手法だ。簡単に言えば、「シュミレーションの世界が本物の特徴を捉えていれば、別に本物を使わなくてもいいでしょ」というアプローチ。Metaよりもっとメタバース的な感じがする。そんなにリアルなシュミレーションなんて無理だと思われる方は、このビデオを見てほしい。
いわば超リアルなゲーム環境だ。これなら物体の位置を逐次把握できるのでデータにラベルを付ける必要もない。朝も夜も簡単に作り出せる。事故が起きても誰も傷つかない。何度でも実験できる。データ拡張(Data Augmentation)も自由自在だ。
個人的にはこういうのに好奇心をくすぐられる。もちろん、NVIDIAはGPUを買ってほしいから宣伝がてらでもあるとは思うけど、彼れらの研究チームは画像処理関係では常に先端の技術を発表している。何年か前に彼らが発表した人間のドライブ行動をディープラーニングで模倣する論文を元に僕はこんな動画を作ったこともある。
これからもNVIDIAの仕事には注目していくつもりだ。それでは、また。