㉓(ここをクリック)
アスパラガスの
収穫作業をロボットが行います。
農業AIベンチャー
『inaho』さんが開発。
キャタピラを持つロボットが
圃場(ほじょう)を自走。
畑には白いテープを敷いて、
ロボットはそのテープを、読み取って走る
シンプルなしくみ。
何してるの?
①
不規則に生えている
アスパラガスの前まで進むと止まり、
内蔵カメラが圃場に生えている
アスパラガスをとらえます。
②
とらえたアスパラの画像は、
赤外線センサーと
ディープラーニングによる
画像認識によって、
『収穫どきのアスパラ』か
『まだ収穫しないアスパラ』か
区別します。
また、
正確な位置や現在の長さを測定。
③
ロボットアームが伸び、
根元付近をつかむ.
④
アームについていたカッターが
アスパラガスを切断。
⑤
切られたアスパラガスは、
そのままカゴの中に収穫します。
⑥
カゴがいっぱいになると
農家の人のスマホに通知が届きます。
特徴は?
・ロボットアームは,モーターで制御。
・充電は,家庭用コンセント。
2時間の充電→約6時間稼働。
・車体底部に,LEDライトを搭載。
→夜間の作業もできます。
・収穫対象は,cm単位で設定可能。
キュウリにも対応してます。
Root AIさんが
リリースしている
収穫ロボットが
『Virgo』
カメラと関節付きアーム(グリッパー)
あと、
これらを制御する人工知能を搭載。
高性能の
画像解析機能を組み込み、
人工知能(AI)が
画像分析を行うための学習手法
「CNN(畳み込みニューラルネットワーク)」
を用いて、
トマトの実をリアルタイムで検知し、
熟度や大きさ、品質を分類。
果実が熟しているかどうかを判断してます。
実をキズつけることなく
グリッパーでつかみ取ります。
ざっくり言うと、
①
カメラがトマトを認識し、
収穫すべき個体を決定します。
②
グリッパーで、トマトを1コずつ収穫。
③
掴んだトマトを横にあるカゴに落とします。
メリットは?
・深夜でも動作します。
・キュウリやいちごも収穫できます。
ことばの意味は?
畳み込みニューラルネットワーク
(Convolution Neural Network)
略してCNN。
AIが画像分析を行うための
学習手法の1つ。
ざっくり言うと、
①畳み込み層
→特徴をぬき出す処理,
②プーリング層
→特徴を小さくまとめる処理,
③全結合層
→特徴ごとにまとめられた
データを使って画像認識,
という流れ。
人間の視覚をモデルに考案。
人間の視覚は、
物体の「部分」→像「全体」から
把握してます。
視覚認識に関係するニューロンは、
「単純型細胞」と「複雑型細胞」
があります。
CNNでは、
単純型細胞に対応する
①「畳み込み層」
複雑型細胞に対応する
②「プーリング層」
と呼んでます。
①畳み込みとは、
画像から特徴を抽出することです。
畳み込み層は、
元の画像にフィルタをかけて
『特徴マップ』を出力します。
畳み込みフィルタは、
「特徴を際立たせるためのフィルタ」です。
フィルタといっても種類はさまざま。
画像を鮮明にするフィルタ、ぼかすフィルタ、
エッジを際立たせるフィルタなど。
役割は、
「データの特徴を際立たせる」こと。
②画像を集約するのがプーリング層。
先ほど抽出したデータをプーリング(圧縮)。
その結果、4分の1ていどに圧縮。
圧縮することで処理が簡単になります。
プーリング層では、
重要な情報を残しながら
元の画像を縮小します。
メリットは?
1.画像内のズレやノイズに対応。
判別したい対象が
画像のどこにいても検知しやすい。
(移動不変性)
→イヌさんの画像が
ちょっとズレてもイヌ。
2.計算量を大幅にへらせる。
③全結合層では、
コンパクト化された『特徴マップ』を
すべて結合して出力します。
何ができるの?
一部が見えにくくなっている画像でも
解析できます。
→物体検出、顔認識システムで利用。
jwpさんは、
「画像認識」と「物体検出」してます。
この人も熟してますか?