街の変化を「自己教師あり学習」!ストリートビュー画像で見るロンドンの進化
街は日々変化している……。でもその「変化」を正確にとらえるのって、意外と難しいですよね。私自身、引っ越して数年ぶりに前の家のあたりを訪れると、「あれ、こんなに建物変わっていたっけ?」と驚くことがよくあります。とはいえ、街全体の変化を大規模に把握するのは、個人の体験だけじゃどうにも限界があります。
そこで登場するのが、今回ご紹介する「街の変化をAIで検出する」という研究。ストリートビュー画像をAIに読み込ませることで、建物や街路の変化を自動で見つけ出しちゃうんです。そこで気になるのがその仕組み。今回は、この論文「Self-supervised learning unveils urban change from street-level images」の内容を分かりやすく(できるだけ専門用語なしで)ご紹介していきたいと思います。
街の変化を捉えたい理由
社会的背景
近年、世界の都市部では住宅不足やインフラの老朽化、また街の景観の再生など、いろいろな課題が山積みだと言われています。ロンドンでも、住宅価格の高騰や再開発が進む一方で、「本当に必要な場所で、どれだけの規模の建物が新しく建っているの?」という基本的なデータですら、しっかり揃っているとは限りません。国勢調査や自治体の調査は10年に一度だったり、規模も限られていたりするのが現状です。そんなときに役立ちそうなのが、都市をくまなく撮影してくれるストリートビューの画像データです。
研究のきっかけと重要性
論文の執筆陣は、「街づくりや政策判断に役立つ、もっと細かい住宅や環境のデータが欲しい!」「でもそのためには高価な調査が必要だったり、ラベル付きのサンプル(これは新築、これはリフォームなどといった人での判別データ)が無いとAIが学習できなかったりする」という壁を感じていたそうです。
そこで、新しいアプローチとして提示されたのが「自己教師あり学習を使い、ラベルなしでも変化を学習させる」という方法。これは非常に画期的で、画像の撮影年月日と場所の情報さえあれば、自動で変化の度合いを測定できる可能性があるんです。
AIが街の変化をどう学習するのか?
目的:街の変化を可視化・定量化する
研究の目的は明快です。ストリートビューに写っている建物や街路の様子を、画像から抽出した特徴量として捉え、何年か後の同じ場所の画像と比較。そこから「どれだけ変化があったか」を算出します。例えば、10年前と今を比べて、「大きな建物が丸ごとできたのか?」あるいは「ちょっと塀が変わっただけなのか?」といった違いを把握したいのです。この仕組みが確立されれば、政策の進捗確認や、開発がうまく進んでいるエリアの把握なんかに応用できるわけですね。
方法:画像を比較して学ぶ「自己教師あり学習」
ここがこの研究の目玉です。通常のAI学習なら、「これは建物が新しくなった画像」とか「これは環境があまり変わってない画像」といった明確なラベルが必要。でもそんな細かい情報は膨大で手に負えません。そこで研究者たちは、同じ場所で違う年に撮影された画像ペアをたくさん集め、「普通はそんなに大きく変わっていないはず」という前提でAIに学習させました。
AIは、よくある日射の違いや車・人の写り込みなど、「本質的には街の構造に関係ない変化」を無視するように調整されます(これを学習の過程で自動的に獲得するイメージですね)。その結果、本当に街の構造が変わった場所については、画像の特徴が大きく変わっていると捉えることができるようになります。
データと実験:ロンドンのストリートビュー1500万枚!
研究では、2008年から2021年にわたる約1500万枚のストリートビュー画像を取得。同じ場所の画像を比較し、コサイン距離という指標で「どのくらい画像の特徴がズレているか」を数値化しました。たとえば、2008年の画像と2018年の画像を比べて距離が大きいほど、街の構造上、大きな変化があったとみなせる、というわけです。
結果:大規模開発から小さな改修まで丸見え
実際にロンドンで政策上重要とされている「オポチュニティ・エリア(新たな住宅や雇用創出の見込まれるエリア)」と、それ以外のエリアを比較すると、期待どおりオポチュニティ・エリアのほうが変化が大きく検出されました。また、人手で検証した結果をみても、まるごと建て替わったような大きな開発はもちろん、壁の色が変わる程度の小さな改修もAIがちゃんと捕まえているのが分かったそうです。
さらに面白いのは、本来は変化していないはずの場所なのに、天候や撮影角度などで画像がずれているだけのケースをうまく除外できていた点。「ここは変化なし、それはただの光の具合ね」と自動で学習したのはまさにAIならではです。
先行研究との違い:ラベルがなくても学習できる
これまでの多くの街並み画像解析の研究は、何らかの手動ラベリングが必要でした。ところが今回の手法は、撮影日時と位置情報だけを頼りに「AIが自分で 重要でない変化を無視する能力を身につける」という発想。これは自己教師あり学習という分野でも先端的なアプローチで、都市解析への適用は世界でも初めてに近いそうです。
第4章 結論と今後の展望
研究チームは、本研究によって「街の変化を細かいレベルまで、しかも網羅的かつ自動で捉えることができる」可能性を示しました。その意義は大きく、
住宅不足や再開発の進捗をほぼリアルタイムで把握
細かなリノベーションや環境改善も見逃さない
人手をほぼかけずに(つまりコストをかけずに)定量化できる
といった恩恵が期待できます。もちろん、建物の内部改修など外観に出にくい変化は拾えない、ストリートビューの撮影頻度や範囲に偏りがある……などの限界もあります。
しかし、今後はこれを他のデータ(統計やセンサーデータ、ドローン撮影など)と組み合わせれば、さらに精度の高い「街のデジタルツイン」みたいな世界が見えてくるかもしれません。研究者たちは「世界各地に展開して、住まいの質や街並みの変容をグローバルにモニタリングする」ことも視野に入れているようです。最後に、「どうしても個人レベルのプライバシーやデータライセンスの問題はあるけれど、うまく利活用できればSDGsや地域政策など幅広い分野にメリットがあるはず」と彼らは締めくくっています。
補足情報:専門用語や引用文献など
自己教師あり学習(Self-supervised Learning)
ラベル(教師データ)がほぼなくても、データそのものから特徴を学習するAIの手法。大量のデータを扱うときに強力な武器になります。研究の著者
Steven Stalder, Michele Volpi, Nicolas Büttner, Stephen Law, Kenneth Harttgen, Esra Suel
引用文献・論文情報
Computers, Environment and Urban Systems, Volume 112, September 2024, 102156
私はこの研究を通じて、「街を見る」ってただ歩き回って感じ取るだけじゃなく、客観的なデータを大規模に取得する方法があるんだ、と改めて実感しました。もし新しい住宅が増えるスピードをリアルタイムに知ることができたら、都市政策の現場では強力なツールになるでしょうね。もちろん社会的・倫理的課題もあるから、そこをどうクリアしていくかがこれからの大きなポイントになりそう。何かと話題の生成AIもこうしたビッグデータ分析に積極的に組み込まれていく流れが見えて、未来がますます楽しみです。