首頁人工智能技術(shù)資訊正文

yolo算法模型訓(xùn)練的樣本怎樣構(gòu)建?

更新時間:2022-12-07 來源:黑馬程序員 瀏覽量:

在進(jìn)行模型訓(xùn)練時,我們需要構(gòu)造訓(xùn)練樣本和設(shè)計損失函數(shù),才能利用梯度下降對網(wǎng)絡(luò)進(jìn)行訓(xùn)練。

訓(xùn)練樣本的構(gòu)建

將一幅圖片輸入到y(tǒng)olo模型中,對應(yīng)的輸出是一個7x7x30張量,構(gòu)建標(biāo)簽label時對于原圖像中的每一個網(wǎng)格grid都需要構(gòu)建一個30維的向量。對照下圖我們來構(gòu)建目標(biāo)向量:

1670392915921_28.png

20個對象分類的概率

對于輸入圖像中的每個對象,先找到其中心點(diǎn)。比如上圖中自行車,其中心點(diǎn)在黃色圓點(diǎn)位置,中心點(diǎn)落在黃色網(wǎng)格內(nèi),所以這個黃色網(wǎng)格對應(yīng)的30維向量中,自行車的概率是1,其它對象的概率是0。所有其它48個網(wǎng)格的30維向量中,該自行車的概率都是0。這就是所謂的"中心點(diǎn)所在的網(wǎng)格對預(yù)測該對象負(fù)責(zé)"。狗和汽車的分類概率也是同樣的方法填寫

2個bounding box的位置

訓(xùn)練樣本的bbox位置應(yīng)該填寫對象真實(shí)的位置bbox,但一個對象對應(yīng)了2個bounding box,該填哪一個呢?需要根據(jù)網(wǎng)絡(luò)輸出的bbox與對象實(shí)際bbox的IOU來選擇,所以要在訓(xùn)練過程中動態(tài)決定到底填哪一個bbox。

2個bounding box的置信度

預(yù)測置信度的公式為:

1670393030360_29.png

利用網(wǎng)絡(luò)輸出的2個bounding box與對象真實(shí)bounding box計算出來。然后看這2個bounding box的IOU,哪個比較大,就由哪個bounding box來負(fù)責(zé)預(yù)測該對象是否存在,即該bounding box的Pr(Object)=1,同時對象真實(shí)bounding box的位置也就填入該bounding box。另一個不負(fù)責(zé)預(yù)測的bounding box的Pr(Object)=0。

上圖中自行車所在的grid對應(yīng)的結(jié)果如下圖所示:

樣本標(biāo)簽

損失函數(shù)

損失就是網(wǎng)絡(luò)實(shí)際輸出值與樣本標(biāo)簽值之間的偏差:

損失函數(shù)

yolo給出的損失函數(shù):

損失函數(shù)

模型訓(xùn)練

Yolo先使用ImageNet數(shù)據(jù)集對前20層卷積網(wǎng)絡(luò)進(jìn)行預(yù)訓(xùn)練,然后使用完整的網(wǎng)絡(luò),在PASCAL VOC數(shù)據(jù)集上進(jìn)行對象識別和定位的訓(xùn)練。

Yolo的最后一層采用線性激活函數(shù),其它層都是Leaky ReLU。訓(xùn)練中采用了drop out和數(shù)據(jù)增強(qiáng)(data augmentation)來防止過擬合。

模型預(yù)測

將圖片resize成448x448的大小,送入到y(tǒng)olo網(wǎng)絡(luò)中,輸出一個 7x7x30 的張量(tensor)來表示圖片中所有網(wǎng)格包含的對象(概率)以及該對象可能的2個位置(bounding box)和可信程度(置信度)。在采用NMS(Non-maximal suppression,非極大值抑制)算法選出最有可能是目標(biāo)的結(jié)果。

總結(jié):yolo模型預(yù)測速度非???,處理速度可以達(dá)到45fps,其快速版本(網(wǎng)絡(luò)較小)甚至可以達(dá)到155fps。訓(xùn)練和預(yù)測可以端到端的進(jìn)行,非常簡便。準(zhǔn)確率會打折扣對于小目標(biāo)和靠的很近的目標(biāo)檢測效果并不好。

分享到:
在線咨詢 我要報名
和我們在線交談!