- 運営しているクリエイター
#yolo
Depth Pro+YOLO11でカメラと人物の距離の推定を試してみた
概要Appleが発表した単眼深度推定モデルのDepth Proを試してみました。
Depth Proはゼロショットで実際の距離の推定ができる点が特徴です。
YOLO11のセグメンテーションモデルと組み合わせて、カメラと人物の距離を推定してみました。
高速な推論を謳っていますが、あまり速くはありませんでした。
Google ColabのL4インスタンスで810×1080のサンプル画像に2秒
はじめてのキーポイント検出 by YOLO
やってみました。意外と楽しいのでシェア。
キーポイント検出とはキーポイント検出とは、画像や動画に現れる物体のランドマークを検出する行為です。ランドマークとは、間接、目、鼻など、物体中の重要部位のことです。
この技術を用いると、スポーツをしている人のフォーム分析や、料理をしている人の動きの特徴を分析することが可能となります。
YOLOv7 poseによるキーポイント検出の解説として、以下が分
YOLO11を試してみた
概要YOLOv8を発表したUltralyticsが新しいYOLOシリーズのモデル YOLO11 を発表したので試してみました。
Ultralyticsのドキュメントもv8から11へ更新されています。
命名はこれまでと異なり「v」無しの YOLO11 です。
「v」付きの命名を避けたのは、既にYOLOv11という命名の悪戯リポジトリがあるためかもしれません
YOLOは物体検出モデルとして有
【論文要約:自動運転関連】YOLO-PPA based Efficient Traffic Sign Detection for Cruise Control in Autonomous Driving
自動車のADAS(先進運転支援システム)および自動運転に関わる仕事をしています。
新しい技術が次々と登場するため、最新情報の収集が重要です。
その一環として、自動運転に関連する論文の紹介と要約を行っています。
興味のある論文については、ぜひ実際の論文をお読みください。
論文へのリンク:https://arxiv.org/abs/2409.03320
1. タイトル:
原題: YOLO-PPA
SAM2をUltralyticsで試してみた
概要YOLOv8等が利用できる Ultralytics がSAM2をサポートしたので試してみました。
SAM2の tiny ~ large サイズの重みを利用できます。
画像や動画のセグメンテーションが可能です。
YOLOv8等の物体検出モデルを組み合わせたセグメンテーションの自動アノテーション関数が利用できます。
タイトルの通り本記事はUltralytics上のSAM2を利用しています
YOLO-NAS物体検出モデルのonnx、Torchscript、TensorRT処理速度評価:EC2編
1. はじめに 本記事では物体検出モデルYOLO-NASを用いて推論処理を行った際の「1フレーム処理速度」とそれから推定される「フレーム処理速度」の評価を行う。
YOLO-NASはPytorchのモデル形式であるが、本記事ではOnnx、Torchscript、TensorRTのモデルに変換して上記指標を比較して、最もフレーム処理速度の速いモデル形式を明らかにした。
2. YOLO-NASYO
Youtubeストリーミング動画をYoloV10でリアルタイム物体認識する方法
UltralyticsでYoloV10が使えるようになりましたので、Youtubeストリーミング動画をリアルタイムで物体認識するコードを紹介していきます。
Pythonライブラリをインストールします。
pip install opencv-python yt-dlp numpy ultralytics tempfile
次に、youtubeyolov10.pyという名前で以下内容をコピーしま
UltralyticsのYoloV10でリアルタイムで物体認識する
UltralyticsでYoloV10が使えるようになりましたので、紹介していきます。
YoloV10で使えるモデルは、以下となります。
今回は、Yolov10-Sをダウンロードして使ってみます。
最初に、test.pyとして次のコードを張り付けてください。
import cv2import torchfrom ultralytics import YOLO# モデルの読み込みmodel
画像認識AI YOLOの歴史
2024年10月更新:YOLOv11を追加しました
記事作成者について:ダンスの全国大会などで動きの分析のお仕事などをさせて頂いております。
YOLOとはAIの力で画像内の映っているものを分類し、それが何かを類推することが出来る技術です。YOLOは"You Only Look Once"を意味し、「一度見れば何が映っているか分かるよ」というメッセージの略となっています。
元々、YOLOは "
小さな物体の検出率UPのためにSAHIを試してみた
概要物体検出モデルが見逃しやすい小さな物体の検出力向上を目的としたライブラリSAHIを試してみました。
物体検出モデルにはYOLOv8sとYOLOv8xを使用しました。
YOLOのインスタンスセグメンテーションは未対応なようです。
SAHI (Slicing Aided Hyper Inference)入力画像を分割して物体検出モデルに入力し、その結果をマージしてくれるライブラリです。
G
YOLOによるUSBカメラを利用した物体認識をしてみる
YOLO-v10が出ましたので、USBカメラによる物体認識をしてみようと思いました。
下記の文言をよく読んでみると、Ultralyticsへの統合はまだのようです。yolov10n.ptを利用してみようとしましたがうまくいきませんでした。
そのうち統合されることを願って、yolov9c.ptをダウンロードして、USBカメラで物体認識できるコードを紹介していきます。
import cv2imp
YOLOv8をONNXに変換して動かしてみる
前回の記事では、YOLOv8で物体検出を行う手順を紹介しました。
今回は前回からの続きで、学習したYOLOv8のモデルをONNX形式に変換し、ONNX Runtime で実行する方法について紹介します。
■ ONNXとは機械学習モデルを、異なるフレームワーク間でシームレスに移行させるための共通フォーマットです。
通常、TensorFlowのフレームワークで作成した機械学習モデルは、Tenso