「トル・オートマトン」制作記録
筆者が代表を務めるシステムエンジニアを養成する教育機関「HOPTER TECH SCHOOL」の展示会「進級・卒業制作展 HOPTER 2024」において、6年ぶりに個人作品を展示することになったので、その作品制作の背景と記録を残しておく。
制作の背景
みんながカメラマン(テレビ朝日)というサイトがあるように、現代では多くの人々がスマホに内蔵されるカメラで、日々写真や動画を撮っている。
先日、大学の研究室で学生がパンケーキを焼いていたが、焼いている最中に誰かが「早く早く!いまの写真を撮って!」と言うと、その場に居た人たちがおもむろにスマホを取り出し撮影する。「誰かカメラ持ってきて」と言うことはない。人類は見ているものをすぐに写真や動画として記録することができるようになった。
しかし、人々が撮影しているものは本当に「現実(リアル)」なのだろうか。
近年、カメラの性能向上が著しい。
撮像素子(イメージセンサ)等のハードウェアの進化もあるが、ソフトウェアの補正能力の向上が大きな理由として挙げられる。
スマホのHDR撮影は、複数枚の写真を瞬時に撮影し合成しているし、ポートレートモードの撮影で多用される人物の背景のボケも、レンズ特性ではなく、被写体までの距離を計算して背景がぼけるようにソフトウェアによるフィルタがかけられている。
スマホのカメラだけでなく、カメラ自体の出荷実績もミラーレスカメラが一眼レフカメラの10倍となっている。
これまでのカメラは、レンズから取り込んだ風景をミラーが反射しファインダーに届けていた。しかし、ミラーレスカメラは、レンズから入った光を撮像素子が受け、ファインダーの液晶には映像が映る。人々が覗いているファインダーには、現実の風景ではなくソフトウェア処理された映像が映し出されている。
スマホでも一眼レフカメラでも、人々は「現実(リアル)」を見ているつもりで、実際は画像処理された「仮想(バーチャル)」を見ている。
ソフトウェアは徐々に人工知能化されていき、ノイズフィルタリングによって除去されるノイズの定義は人工知能が決める時代になっていくだろう。
もはやカメラによる「撮影」という行為において、人が干渉されずに自由に行えるアクションは、構図を決めてシャッターを押す行為しか残されていないといえる。
本作「トル・オートマトン(撮る自動機械)」は、そのシャッターを押す行為すら機械に奪われた世界を鑑賞者に問いかける作品になっている。
作品の概要
「トル・オートマトン」は、2024年3月1日(土)〜2日(日)に開催予定の「進級・卒業制作展 HOPTER 2024」に展示予定の作品である。
自律移動する台車が展示会場をランダムに動き回り、台車の上の三脚に取り付けられたスマホが展示会のアーカイブ写真を撮影する。
スマホは専用アプリで動作しており、一定間隔で写真を撮影したあと、被写体が写っていると画像認識すると画像を専用サイト(外部サーバ)に送信する。
「トル・オートマトン」は、いわゆる非決定性有限オートマトン(Nondeterministic Finite Automaton)である。
動作の流れを下記に示す。
実装
駆動(台車)部分
カメラを移動させる台車部分は、ESP32(マイコン)とモーター2台により構成され、ESP32は後述するiOSアプリとBLEによる通信で「前進」と「停止」、「旋回」の指示を受け、モータを動作させる。
iOSアプリ
iOS専用アプリとしてSwiftで実装している。
一定間隔で撮影を行い、撮影した画像をCoreML(学習モデルはYOLOv3tinyを使用)による画像解析にかける。画像解析により物体を認識した場合は、専用サーバにHTTP(POSTリクエスト(multipart/form-data))で送信する。
また、ARKitにより、進行方向の点群(PointCloud)データを取得し、前方に障害物がある場合は、ESP32に「旋回」コマンドを送信する。
Webサイト
iOSアプリから送信された画像をAWSで立ち上げたサーバ内に保存し、写っている物体情報と撮影時刻をデータベース(MySQL)に記録する。PHP(Laravel)により実装した。
ユーザが閲覧するサイトには、最新順に撮影した写真を表示する。
まとめ
現状の仕様では撮影した写真に物体が写っているか判断してサーバに残す機能しかなく、撮影した写真の良し悪しは判断していない。
そこで、サイト上で写真の良し悪しを鑑賞者に判断してもらい、そのデータを学習して、写真を保存するかどうかの判断に利用したいと考えている。