git
git clone https://github.com/openvinotoolkit/cvat
進入目錄
cd cvat
建立 docker-compose.override.yml
nano docker-compose.override.yml
貼上內容(ip記得改為自己機器位置)
version: "2.3"
services:
cvat_proxy:
environment:
CVAT_HOST: 193.168.50.99
存擋離開

對外ip
export CVAT_HOST=<YOUR_HOSTNAME>
啟動 docker
docker-compose up -d

建立超級使用者
docker exec -it cvat /bin/bash
python3 ~/manage.py createsuperuser

瀏覽器開啟後登入
http://localhost:8080/admin

一般登入
http://localhost:8080/tasks

自動標記
上述方法會發現沒有 models 選項,使專案無法進行自動標記功能,下面介紹如何使用帶有自動標記功能的 cvat
關閉原有 docker
docker-compose down
建立 Docker
docker-compose -f docker-compose.yml -f components/serverless/docker-compose.serverless.yml up -d
左上角出現 Models

進入 Models 後會發現裡面沒有模型,安裝模型使用 nuclio 先進入 nuclio 1.5.10 頁面下載
wget https://github.com/nuclio/nuclio/releases/download/1.5.10/nuctl-1.5.10-linux-amd64
安裝
sudo chmod +x nuctl-1.5.10-linux-amd64
sudo ln -sf $(pwd)/nuctl-1.5.10-linux-amd64 /usr/local/bin/nuctl
安裝模型
nuctl create project cvat
nuctl deploy --project-name cvat \
--path serverless/openvino/dextr/nuclio \
--volume `pwd`/serverless/openvino/common:/opt/nuclio/common \
--platform local
回到 cvat 網頁端會看到可用模型

測試 GPU 模型
nuctl deploy tf-faster-rcnn-inception-v2-coco-gpu \
--project-name cvat --path "serverless/tensorflow/faster_rcnn_inception_v2_coco/nuclio" --platform local \
--base-image tensorflow/tensorflow:2.1.1-gpu \
--desc "Faster RCNN from Tensorflow Object Detection GPU API" \
--image cvat/tf.faster_rcnn_inception_v2_coco_gpu \
--resource-limit nvidia.com/gpu=1

使用專案批次檔安裝所有預設模型
./serverless/deploy_cpu.sh