TensorFlow 的「物體檢測 API」有了一個新功能,它能根據(jù)目標對象的像素位置來確定該對象的像素。換句話來說,TensorFlow 的物體檢測從原來的圖像級別成功上升到了像素級別。
使用 TensorFlow 的「物體檢測 API」圖片中的物體進行識別,最后的結(jié)果是圖片中一個個將不同物體框起來的方框。最近,這個「物體檢測 API」有了一個新功能,它能根據(jù)目標對象的像素位置確定該對象的像素,實現(xiàn)物體的像素分類。

TensorFlow 的物體檢測 API 模型——Mask-RCNN
實例分割
「實例分割」是物體檢測的延伸,它能讓我們在普通的物體檢測的基礎(chǔ)上獲取關(guān)于該對象更加精確、全面的信息。
在什么情況下我們才需要這樣精確的信息呢?
- 無人駕駛汽車
為了確保安全,無人駕駛汽車需要精確定位道路上其他車輛和行人。
- 機器人系統(tǒng)
機器人在連接兩個部件時,如果知道這兩個部件的確切位置,那么機器人的操作就會更加高效、準確。
「實例分割」的方法有很多,TensorFlow 進行「實例分割」使用的是 Mask RCNN 算法。
Mask R-CNN 算法概述

Mask RCNN 算法架構(gòu)
在介紹 Mask RCNN 之前,我們先來認識一下 Faster R-CNN。
Faster-RCNN 是一個用于物體檢測的算法,它被分為兩個階段:第一階段被稱為「候選區(qū)域生成網(wǎng)絡」(RPN),即生成候選物體的邊框;第二階段本質(zhì)上是 Fast R-CNN 算法,即利用 RolPool 從每個候選邊框獲取對象特征,并執(zhí)行分類和邊框回歸。這兩個階段所使用的特征可以共享,以更快地獲得圖像推算結(jié)果。
Faster R-CNN 對每個候選對象都有兩個輸出,一個是分類標簽,另一個是對象邊框。而 Mask-RCNN 就是在 Faster R-CNN 的兩個輸出的基礎(chǔ)上,添加一個掩碼的輸出,該掩碼是一個表示對象在邊框中像素的二元掩碼。但是這個新添加的掩碼輸出與原來的分類和邊框輸出不同,它需要物體更加精細的空間布局和位置信息。因此,Mask R-CNN 需要使用「全卷積神經(jīng)網(wǎng)絡」(FCN)。
「全卷積神經(jīng)網(wǎng)絡」是「語義分割」中十分常見的算法,它利用了不同區(qū)塊的卷積和池化層,首先將一張圖片解壓至它原本大小的三十二分之一,然后在這種粒度水平下進行預測分類,最后使用向上采樣和反卷積層將圖片還原到原來的尺寸。
因此,Mask RCNN 可以說是將?Faster RCNN 和「全卷積神經(jīng)網(wǎng)絡」這兩個網(wǎng)絡合并起來,形成的一個龐大的網(wǎng)絡架構(gòu)。
實操 Mask-RCNN
- 圖片測試
你可以利用 TensorFlow 網(wǎng)站上的共享代碼來對 Mask RCNN 進行圖片測試。以下是測試結(jié)果:

Mask RCNN on Kites Image
- 視頻測試
最有意思的是用 YouTube 視頻來測試這個模型。從 YouTube 上下載幾條視頻,開始了視頻測試。
視頻測試的主要步驟:
1. 使用 VideoFileClip 功能從視頻中提取出每個幀;
2. 使用 fl_image 功能對視頻中截取的每張圖片進行物體檢測,然后用修改后的視頻圖片替換原本的視頻圖片;
3. 最后,將修改后的視頻圖像合并成一個新的視頻。
Mask RCNN 的深入研究
下一步的探索包括:
- 測試一個精確度更高的模型,觀察兩次測試結(jié)果的區(qū)別;
- 使用 TensorFlow 的物體檢測 API 在定制的數(shù)據(jù)集上對 Mask RCNN 進行測試。
特別提醒:本網(wǎng)信息來自于互聯(lián)網(wǎng),目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點。其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本站證實,對本文以及其中全部或者部分內(nèi)容、文字的真實性、完整性、及時性本站不作任何保證或承諾,并請自行核實相關(guān)內(nèi)容。本站不承擔此類作品侵權(quán)行為的直接責任及連帶責任。如若本網(wǎng)有任何內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系我們,本站將會在24小時內(nèi)處理完畢。