訂閱
糾錯(cuò)
加入自媒體

如何在自定義的數(shù)據(jù)集上訓(xùn)練YOLOv5?

YOLO系列的目標(biāo)檢測(cè)模型隨著YOLOv5的引入變得越來(lái)越強(qiáng)大了。在這篇文章中,我們將介紹如何訓(xùn)練YOLOv5為你識(shí)別自己定制的對(duì)象。

本文我們使用公共血細(xì)胞檢測(cè)數(shù)據(jù)集,你可以自己導(dǎo)出,也可以在自己自定義數(shù)據(jù)上使用本教程。公共血細(xì)胞檢測(cè)數(shù)據(jù)集:https://public.roboflow.a(chǎn)i/object-detection/bccd為了訓(xùn)練檢測(cè)器,我們采取以下步驟:安裝YOLOv5依賴(lài)項(xiàng)下載自定義YOLOv5對(duì)象檢測(cè)數(shù)據(jù)定義YOLOv5模型配置和架構(gòu)訓(xùn)練一個(gè)定制的YOLOv5檢測(cè)器評(píng)估YOLOv5性能可視化YOLOv5訓(xùn)練數(shù)據(jù)對(duì)測(cè)試圖像使用YOLOv5進(jìn)行推斷導(dǎo)出并保存YOLOv5權(quán)重以供將來(lái)使用YOLOv5的新技術(shù)點(diǎn)就在兩個(gè)月前,我們對(duì)googlebrain引入EfficientDet感到非常興奮,并寫(xiě)了一些關(guān)于EfficientDet的博客文章。我們認(rèn)為這個(gè)模型可能會(huì)超越Y(jié)OLO家族在實(shí)時(shí)目標(biāo)探測(cè)領(lǐng)域的突出地位,但事實(shí)證明我們錯(cuò)了。三周內(nèi),YOLOv4在Darknet框架下發(fā)布,我們還寫(xiě)了很多關(guān)于YOLOv4技術(shù)解析的文章。在寫(xiě)這些文章的幾個(gè)小時(shí)之前,YOLOv5發(fā)布了,我們發(fā)現(xiàn)它非常清晰明了。YOLOv5是在Ultralytics-Pythorch框架中編寫(xiě)的,使用起來(lái)非常直觀,推理速度非常快。事實(shí)上,我們和許多人經(jīng)常將YOLOv3和YOLOv4 Darknet權(quán)重轉(zhuǎn)換為Ultralytics PyTorch權(quán)重,以便使用更輕的庫(kù)來(lái)更快地進(jìn)行推理。YOLOv5比YOLOv4表現(xiàn)更好嗎?我們很快會(huì)向你介紹,在此之前你需要已經(jīng)對(duì)YOLOv5和YOLOv4有了初步的了解。

YOLOv5與EfficientDet的性能對(duì)比YOLOv4顯然沒(méi)有在YOLOv5存儲(chǔ)庫(kù)中進(jìn)行評(píng)估,也就是說(shuō),YOLOv5更易于使用,而且它在我們最初運(yùn)行的定制數(shù)據(jù)上表現(xiàn)非常出色。我們建議你在 YOLOv5 Colab Notebook 中同時(shí)進(jìn)行接下來(lái)的操作。https://colab.research.google.com/drive/1gDZ2xcTOgR39tGGs-EZ6i3RTs16wmzZQ安裝YOLOv5環(huán)境首先我們克隆YOLOv5存儲(chǔ)庫(kù)并安裝依賴(lài)項(xiàng),這會(huì)設(shè)置我們的編程環(huán)境,準(zhǔn)備好運(yùn)行對(duì)象檢測(cè)訓(xùn)練和推理命令。!git clone https://github.com/ultralytics/yolov5  # clone repo!pip install -U -r yolov5/requirements.txt  # install dependencies

%cd /content/yolov5

然后,我們可以看看谷歌Colab免費(fèi)提供給我們的訓(xùn)練環(huán)境。import torchfrom IPython.display import Image  # for displaying imagesfrom utils.google_utils import gdrive_download  # for downloading models/datasets

print('torch %s %s' % (torch.__version__, torch.cuda.get_device_properties(0) if torch.cuda.is_available() else 'CPU'))你會(huì)從谷歌Colab收到一個(gè) Tesla P100 GPU。以下是我收到的:torch 1.5.0+cu101 _CudaDeviceProperties(name='Tesla P100-PCIE-16GB', major=6, minor=0, total_memory=16280MB, multi_processor_count=56)GPU可以讓我們加快訓(xùn)練時(shí)間,Colab預(yù)裝了torch和cuda。如果你嘗試在本地使用本教程,可能需要執(zhí)行其他步驟來(lái)設(shè)置YOLOv5。下載自定義YOLOv5對(duì)象檢測(cè)數(shù)據(jù)在本教程中,我們將從Roboflow下載YOLOv5格式的自定義對(duì)象檢測(cè)數(shù)據(jù)。在本教程中,我們使用公共血細(xì)胞檢測(cè)數(shù)據(jù)集訓(xùn)練YOLOv5檢測(cè)血流中的細(xì)胞,你可以使用公共血細(xì)胞數(shù)據(jù)集或上傳你自己的數(shù)據(jù)集。Roboflow:https://roboflow.a(chǎn)i/公共血細(xì)胞數(shù)據(jù)集:https://public.roboflow.a(chǎn)i/object-detection/bccd關(guān)于標(biāo)記工具的說(shuō)明如果你有未標(biāo)記的圖像,則首先需要標(biāo)記它們。對(duì)于免費(fèi)的開(kāi)源標(biāo)簽工具,我們推薦你閱讀 LabelImg入門(mén) 或 CVAT注釋工具入門(mén) 的教程指南。嘗試標(biāo)記約50幅圖像再繼續(xù)本教程,因?yàn)樵谝院筇岣吣P偷男阅艿倪^(guò)程中,你將需要添加更多標(biāo)簽。https://blog.roboflow.a(chǎn)i/getting-started-with-labelimg-for-labeling-object-detection-data/https://blog.roboflow.a(chǎn)i/getting-started-with-cvat/一旦你標(biāo)記了數(shù)據(jù),要將數(shù)據(jù)移動(dòng)到Roboflow中,請(qǐng)創(chuàng)建一個(gè)免費(fèi)帳戶,然后你可以以任何格式拖動(dòng)數(shù)據(jù)集:(VOC XML、COCO JSON、TensorFlow對(duì)象檢測(cè)CSV等)。上傳后,你可以選擇預(yù)處理和增強(qiáng)步驟:

為BCCD示例數(shù)據(jù)集選擇設(shè)置然后,單擊 Generate 和 Download,你將可以選擇YOLOv5 Pythorch格式了。

1  2  3  下一頁(yè)>  
聲明: 本文由入駐維科號(hào)的作者撰寫(xiě),觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問(wèn)題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

    掃碼關(guān)注公眾號(hào)
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)