macOS & Dockerで動作するリアルタイム画像認識デモ環境を作ってみた(2)
以前投稿しましたmacOS & Dockerで動作するリアルタイム画像認識デモ環境を作ってみた(1)では、
マシン:Mac mini (2018) Intel Core i7 (物理コア数6+メモリ16GB)
OS:macOS Catalina
仮想化製品:VirtualBox 6.1.12
の環境下でdocker machineのドライバとしてvirtualboxを指定してDockerコンテナを動かすというものでした。VIrtualBoxを使えばUSB機器をコンテナと繋ぐことができますので、この機能を使ってホストOSが利用するWebcamで撮影した動画に対してDockerコンテナ上で稼働するYOLOを適用しました。
この方式の難点として、Docker Desktop for Mac + VirtualBox 5 or 6 + boot2docker改 という、いささか特殊な環境を用意する必要があるというところでした。そこで、Dockerを使うにしても、もう少し汎用の環境にして、ホストOSから利用するWebcamで撮影した動画をDockerコンテナに配送し、DockerコンテナにてYOLOを適用する方法を試みます。もっともDockerを使わずにMac上に環境を構築すれば早いのですが、Macで稼働しているDockerコンテナ上で画像認識したい!と思いたってしまいましたもので。
環境:
マシン:Mac mini (2018) Intel Core i7 (物理コア数6+メモリ16GB)
OS:macOS Ventura 13.2.1
CLI環境:Homebrew導入済
仮想化製品:Lima limactl version 0.15.0
Docker:Homebrew版 Docker version 23.0.1, build a5ee5b1dfc
本記事の大まかな流れは以下のとおり。
1.ffmpegを使用してWebcam撮影動画を配送する
2.Lima + Dockerを導入する
3.Dockerイメージを作成する
4.動画をTCP TunnelさせてDockerコンテナに配送する
5.リアルタイム画像認識デモを実行する
本記事を記載するにあたっては多くのWebサイトの記事を参考にしています。主なもののみ記事中に出典記載しますが、ありがとうございます。
最近のコメント