openvinotoolkit/cvat 安裝&使用

來源

git

git clone https://github.com/openvinotoolkit/cvat

進入目錄

cd cvat

建立 docker-compose.override.yml

nano docker-compose.override.yml

貼上內容(ip記得改為自己機器位置)

version: "2.3"
services:
  cvat_proxy:
    environment:
      CVAT_HOST: 193.168.50.99

存擋離開

對外ip

export CVAT_HOST=<YOUR_HOSTNAME>

啟動 docker

docker-compose up -d

建立超級使用者

docker exec -it cvat /bin/bash
python3 ~/manage.py createsuperuser

瀏覽器開啟後登入

http://localhost:8080/admin

一般登入

http://localhost:8080/tasks

自動標記

上述方法會發現沒有 models 選項,使專案無法進行自動標記功能,下面介紹如何使用帶有自動標記功能的 cvat

官方說明

關閉原有 docker

docker-compose down

建立 Docker

docker-compose -f docker-compose.yml -f components/serverless/docker-compose.serverless.yml up -d

左上角出現 Models

進入 Models 後會發現裡面沒有模型,安裝模型使用 nuclio 先進入 nuclio 1.5.10 頁面下載

wget https://github.com/nuclio/nuclio/releases/download/1.5.10/nuctl-1.5.10-linux-amd64

安裝

sudo chmod +x nuctl-1.5.10-linux-amd64
sudo ln -sf $(pwd)/nuctl-1.5.10-linux-amd64 /usr/local/bin/nuctl

安裝模型

nuctl create project cvat
nuctl deploy --project-name cvat \
  --path serverless/openvino/dextr/nuclio \
  --volume `pwd`/serverless/openvino/common:/opt/nuclio/common \
  --platform local

回到 cvat 網頁端會看到可用模型

測試 GPU 模型

nuctl deploy tf-faster-rcnn-inception-v2-coco-gpu \
  --project-name cvat --path "serverless/tensorflow/faster_rcnn_inception_v2_coco/nuclio" --platform local \
  --base-image tensorflow/tensorflow:2.1.1-gpu \
  --desc "Faster RCNN from Tensorflow Object Detection GPU API" \
  --image cvat/tf.faster_rcnn_inception_v2_coco_gpu \
  --resource-limit nvidia.com/gpu=1

使用專案批次檔安裝所有預設模型

./serverless/deploy_cpu.sh

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *