- 運営しているクリエイター
#SAM2
segment-anything-2で遊ぶメモ
このメモを読むと
・segment-anything-2を試せる
・動画からオブジェクトを抜き出せる
検証環境
・OS : Ubuntu 22.04(WSL on Windows11)
・Mem : 64GB
・GPU : GeForce RTX™ 4090
・ローカル
・python 3.10.12
・2024/8/B時点
segment-anything-2Meta(旧Facebook
SAM2をUltralyticsで試してみた
概要YOLOv8等が利用できる Ultralytics がSAM2をサポートしたので試してみました。
SAM2の tiny ~ large サイズの重みを利用できます。
画像や動画のセグメンテーションが可能です。
YOLOv8等の物体検出モデルを組み合わせたセグメンテーションの自動アノテーション関数が利用できます。
タイトルの通り本記事はUltralytics上のSAM2を利用しています
Segment Anything Model2(SAM2),Meta AIを使ってみた
先日紹介しましたSAMは、画像認識のモデルでした。
2024年7月29日に発表がありましたSAM2は、動画と画像の両方を認識できるモデルになります。
SAM2のデモサイトのリンクは↓の通りです。
SAMとの違い
SAMは画像認識だけだったので、SAM2は動画も認識できるようになりました。
以下の画像の通り、動画で流れている途中で分類したい箇所を選択して再送すると、その後も分類された状態になりま
Google Colab で SAM 2 を試す
「Google Colab」で「SAM 2」を試したのでまとめました。
1. SAM 2「SAM 2」(Segment Anything Model 2) は、画像や動画のセグメンテーションを行うためのAIモデルです。目的のオブジェクトを示す情報 (XY座標など) が与えられた場合に、オブジェクトマスクを予測します。
具体的に何ができるかは、以下のデモページが参考になります。
2. セットア
Metaのセグメンテーションモデル「SAM2」の論文を読む
この記事の概要Meta AIから発表されたSAM2の論文を解説しています。
SAM2とは動画に対するセグメンテーションモデルです。あるフレームでセグメントしたい物体を選択するとその物体を時間方向にセグメントしてくれます。
SAM2は自身も含むモデルでアノテーションを補助し、さらにモデルを改善していく仕組みで、動画セグメンテーション用の大規模なデーセットを構築しています。
結果、画像と動画の両
【論文瞬読】SAM 2:画像と動画を自在に切り取る魔法のAI
こんにちは!株式会社AI Nestです。今日は、画像・動画処理の世界に革命を起こす可能性を秘めた最新のAIモデル「SAM 2」について、わかりやすく解説していきます。準備はいいですか?それでは、AIの魔法の世界へ飛び込んでいきましょう!
1. SAM 2とは? AIによる"万能はさみ"の誕生皆さんは、写真や動画から特定のものだけを切り取りたいと思ったことはありませんか?例えば、家族写真から背景だ