[YOLO-NAS × Google Colaboratory] 物体検出を試してみる(静止画版)
概要
本記事では物体検出モデルのYOLO-NASをGoogle Colab環境でハンズオンします。
YOLO-NASとは
- deciによって公開されている物体検出モデル。GitHub
- 画像や動画を読み込ませることで高精度な物体検出を行い、バウンディングボックス(枠線)を描画して返してくれる
- v5、v6、v7、v8と進化を遂げ、2023年5月にNASがリリース
Google Colaboratoryとは
- Googleが提供しているブラウザ上でPythonの記述、実行ができるWeb環境。 Introduction
- Googleアカウントがあれば利用可能
- 無料プラン、有償プランあり
- Colab ノートブックというファイル形式(.ipynb)で、Pythonコードとリッチテキスト(画像やHTML)などを1つのファイルで記述可能
- ファイルはGoogleドライブに格納
実践
兎にも角にも「実行したい!」方は下記でGoogleColabのノートブックを公開していますので、ポチポチしてみてください。
yolonas-hands-on-20230629_public.ipynb
YOLO-NASはsuper-gradientsというパッケージ経由で提供されているので該当パッケージをインストールします。
※ランタイムエラーが発生した場合はツールバー>ランタイム>ランタイムの再起動を実行します。
物体検出モデル(YOLO-NAS)をロードします。
web上からテストイメージを取得します。今回はPAKUTASO様から拝借しています。猫ちゃん画像です。
レンダリングを実行します。
↓がレンダリング後の画像です。「cat」とちゃんと認識されていますね!