如何使用Python分析姿態(tài)估計數(shù)據(jù)集COCO?
# 遍歷所有圖像
for img_id, img_fname, w, h, meta in get_meta(coco):
images_data.a(chǎn)ppend({
'image_id': int(img_id),
'path': img_fname,
'width': int(w),
'height': int(h)
})
# 遍歷所有元數(shù)據(jù)
for m in meta:
persons_data.a(chǎn)ppend({
'image_id': m['image_id'],
'is_crowd': m['iscrowd'],
'bbox': m['bbox'],
'area': m['area'],
'num_keypoints': m['num_keypoints'],
'keypoints': m['keypoints'],
})
# 創(chuàng)建帶有圖像路徑的數(shù)據(jù)幀
images_df = pd.DataFrame(images_data)
images_df.set_index('image_id', inplace=True)
# 創(chuàng)建與人相關(guān)的數(shù)據(jù)幀
persons_df = pd.DataFrame(persons_data)
persons_df.set_index('image_id', inplace=True)
return images_df, persons_df
我們使用get_meta函數(shù)構(gòu)造兩個數(shù)據(jù)幀—一個用于圖像路徑,另一個用于人的元數(shù)據(jù)。在一個圖像中可能有多個人,因此是一對多的關(guān)系。在下一步中,我們合并兩個表(left join操作)并將訓練集和驗證集組合,另外,我們添加了一個新列source,值為0表示訓練集,值為1表示驗證集。這樣的信息是必要的,因為我們需要知道應該在哪個文件夾中搜索圖像。如你所知,這些圖像位于兩個文件夾中:train2017/和val2017/images_df, persons_df = convert_to_df(train_coco)
train_coco_df = pd.merge(images_df, persons_df, right_index=True, left_index=True)
train_coco_df['source'] = 0
images_df, persons_df = convert_to_df(val_coco)
val_coco_df = pd.merge(images_df, persons_df, right_index=True, left_index=True)
val_coco_df['source'] = 1
coco_df = pd.concat([train_coco_df, val_coco_df], ignore_index=True)
最后,我們有一個表示整個COCO數(shù)據(jù)集的數(shù)據(jù)幀。圖像中有多少人現(xiàn)在我們可以執(zhí)行第一個分析。COCO數(shù)據(jù)集包含多個人的圖像,我們想知道有多少圖像只包含一個人。代碼如下:# 計數(shù)
annotated_persons_df = coco_df[coco_df['is_crowd'] == 0]
crowd_df = coco_df[coco_df['is_crowd'] == 1]
print("Number of people in total: " + str(len(annotated_persons_df)))
print("Number of crowd annotations: " + str(len(crowd_df)))
persons_in_img_df = pd.DataFrame({
'cnt': annotated_persons_df['path'].value_counts()
})
persons_in_img_df.reset_index(level=0, inplace=True)
persons_in_img_df.rename(columns = {'index':'path'}, inplace = True)
# 按cnt分組,這樣我們就可以在一張圖片中得到帶有注釋人數(shù)的數(shù)據(jù)幀
persons_in_img_df = persons_in_img_df.groupby(['cnt']).count()
# 提取數(shù)組
x_occurences = persons_in_img_df.index.values
y_images = persons_in_img_df['path'].values
# 繪圖
plt.bar(x_occurences, y_images)
plt.title('People on a single image ')
plt.xticks(x_occurences, x_occurences)
plt.xlabel('Number of people in a single image')
plt.ylabel('Number of images')
plt.show()
結(jié)果圖表:
如你所見,大多數(shù)COCO圖片都包含一個人。但也有相當多的13個人的照片,讓我們舉幾個例子:
好吧,甚至有一張圖片有19個注解(非人群):
這個圖像的頂部區(qū)域不應該標記為一個人群嗎?是的,應該,但是,我們有多個沒有關(guān)鍵點的邊界框!這樣的注釋應該像對待人群一樣對待,這意味著它們應該被屏蔽。在這張圖片中,只有中間的3個方框有一些關(guān)鍵點。讓我們來優(yōu)化查詢,以獲取包含有/沒有關(guān)鍵點的人圖像的統(tǒng)計信息,以及有/沒有關(guān)鍵點的人的總數(shù):annotated_persons_nokp_df = coco_df[(coco_df['is_crowd'] == 0) & (coco_df['num_keypoints'] == 0)]
annotated_persons_kp_df = coco_df[(coco_df['is_crowd'] == 0) & (coco_df['num_keypoints'] > 0)]
print("Number of people (with keypoints) in total: " +
str(len(annotated_persons_kp_df)))
print("Number of people without any keypoints in total: " +
str(len(annotated_persons_nokp_df)))
persons_in_img_kp_df = pd.DataFrame({
'cnt': annotated_persons_kp_df[['path','source']].value_counts()
})
persons_in_img_kp_df.reset_index(level=[0,1], inplace=True)
persons_in_img_cnt_df = persons_in_img_kp_df.groupby(['cnt']).count()
x_occurences_kp = persons_in_img_cnt_df.index.values
y_images_kp = persons_in_img_cnt_df['path'].values
f = plt.figure(figsize=(14, 8))
width = 0.4
plt.bar(x_occurences_kp, y_images_kp, width=width, label='with keypoints')
plt.bar(x_occurences + width, y_images, width=width, label='no keypoints')
plt.title('People on a single image ')
plt.xticks(x_occurences + width/2, x_occurences)
plt.xlabel('Number of people in a single image')
plt.ylabel('Number of images')
plt.legend(loc = 'best')
plt.show()
現(xiàn)在我們可以看到區(qū)別是明顯的。
雖然COCO官方頁面上描述有25萬人擁有關(guān)鍵點,而我們只有156165個這樣的例子。他們可能應該刪除了“帶關(guān)鍵點”這幾個字。添加額外列一旦我們將COCO轉(zhuǎn)換成pandas數(shù)據(jù)幀,我們就可以很容易地添加額外的列,從現(xiàn)有的列中計算出來。我認為最好將所有的關(guān)鍵點坐標提取到單獨的列中,此外,我們可以添加一個具有比例因子的列。特別是,關(guān)于一個人的邊界框的規(guī)模信息是非常有用的,例如,我們可能希望丟棄所有太小規(guī)模的人,或者執(zhí)行放大操作。為了實現(xiàn)這個目標,我們使用Python庫sklearn中的transformer對象。一般來說,sklearn transformers是用于清理、減少、擴展和生成數(shù)據(jù)科學模型中的特征表示的強大工具。我們只會用一小部分的api。代碼如下:from sklearn.base import BaseEstimator, TransformerMixin
class AttributesAdder(BaseEstimator, TransformerMixin):
def __init__(self, num_keypoints, w_ix, h_ix, bbox_ix, kp_ix):
"""
:param num_keypoints: 關(guān)鍵點的數(shù)量
:param w_ix: 包含圖像寬度的列索引
:param h_ix: 包含圖像高度的列索引
:param bbox_ix: 包含邊框數(shù)據(jù)的列索引
:param kp_ix: 包含關(guān)鍵點數(shù)據(jù)的列索引
"""
self.num_keypoints = num_keypoints
self.w_ix = w_ix
self.h_ix = h_ix
self.bbox_ix = bbox_ix
self.kp_ix = kp_ix
def fit(self, X, y=None):
return self
def transform(self, X):
# 檢索特定列
w = X[:, self.w_ix]
h = X[:, self.h_ix]
bbox = np.a(chǎn)rray(X[:, self.bbox_ix].tolist()) # to matrix
keypoints = np.a(chǎn)rray(X[:, self.kp_ix].tolist()) # to matrix

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
-
即日-9.1立即下載>> 【限時下載】ADI中國三十周年感恩回饋助力企業(yè)升級!
-
即日-9.16點擊進入 >> 【限時福利】TE 2025國際物聯(lián)網(wǎng)展·深圳站
-
10月23日立即報名>> Works With 開發(fā)者大會深圳站
-
10月24日立即參評>> 【評選】維科杯·OFweek 2025(第十屆)物聯(lián)網(wǎng)行業(yè)年度評選
-
11月27日立即報名>> 【工程師系列】汽車電子技術(shù)在線大會
-
12月18日立即報名>> 【線下會議】OFweek 2025(第十屆)物聯(lián)網(wǎng)產(chǎn)業(yè)大會
推薦專題
- 1 阿里首位程序員,“掃地僧”多隆已離職
- 2 先進算力新選擇 | 2025華為算力場景發(fā)布會暨北京xPN伙伴大會成功舉辦
- 3 宇樹機器人撞人事件的深度剖析:六維力傳感器如何成為人機安全的關(guān)鍵屏障
- 4 清華跑出具身智能獨角獸:給機器人安上眼睛和大腦,融資近20億
- 5 特朗普要求英特爾首位華人 CEO 辭職
- 6 踢館大廠和微軟,剖析WPS靈犀的AI實用主義
- 7 騰訊 Q2 財報亮眼:AI 已成第二增長曲線
- 8 谷歌吹響AI沖鋒號,AI還有哪些機會
- 9 蘋果把身家押在Siri上:一場輸不起的自我革命
- 10 共探合作新機遇!江門市新會區(qū)(深圳)“AI + 機器人” 產(chǎn)業(yè)對接會成功舉辦