使用Tensorflow+OpenCV構(gòu)建會玩石頭剪刀布的AI
我使用了Python的OpenCV庫進(jìn)行所有與相機(jī)相關(guān)的操作,所以這里的label指的是圖像屬于哪個類,根據(jù)標(biāo)簽,圖像保存在適當(dāng)?shù)哪夸浿。ct和maxCt是用來保存圖像的起始索引和最終索引,剩下的是標(biāo)準(zhǔn)的OpenCV代碼,用于獲取網(wǎng)絡(luò)攝像頭源并將圖像保存到目錄中。需要注意的一點(diǎn)是,我所有的圖片維數(shù)都是300 x 300的。運(yùn)行此目錄樹后,我的目錄樹如下所示。
C:.
├───paper
│ paper0.jpg
│ paper1.jpg
│ paper2.jpg
│
├───rock
│ rock0.jpg
│ rock1.jpg
│ rock2.jpg
│
└───scissor
scissor0.jpg
scissor1.jpg
scissor2.jpg
如果你引用的是Github存儲庫(https://github.com/HOD101s/RockPaperScissor-AI-) ,則getData.py會為你完成這項(xiàng)工作!預(yù)處理我們的數(shù)據(jù)我們需要使用圖像,而計(jì)算機(jī)可以識別數(shù)字,因此,我們將所有圖像轉(zhuǎn)換為它們各自的矢量表示,另外,我們的標(biāo)簽尚待生成,由于已建立的標(biāo)簽不能是文本,因此我使用shape_to_label字典為每個類手動構(gòu)建了“獨(dú)熱編碼”表示。
DATA_PATH = sys.a(chǎn)rgv[1] # Path to folder containing data
shape_to_label = {'rock':np.a(chǎn)rray([1.,0.,0.,0.]),'paper':np.a(chǎn)rray([0.,1.,0.,0.]),'scissor':np.a(chǎn)rray([0.,0.,1.,0.]),'ok':np.a(chǎn)rray([0.,0.,0.,1.])}
arr_to_shape = {np.a(chǎn)rgmax(shape_to_label[x]):x for x in shape_to_label.keys()}
imgData = list()
labels = list()
for dr in os.listdir(DATA_PATH):
if dr not in ['rock','paper','scissor']:
continue
print(dr)
lb = shape_to_label[dr]
i = 0
for pic in os.listdir(os.path.join(DATA_PATH,dr)):
path = os.path.join(DATA_PATH,dr+'/'+pic)
img = cv2.imread(path)
imgData.a(chǎn)ppend([img,lb])
imgData.a(chǎn)ppend([cv2.flip(img, 1),lb]) #horizontally flipped image
imgData.a(chǎn)ppend([cv2.resize(img[50:250,50:250],(300,300)),lb]) # zoom : crop in and resize
i+=3
print(i)
np.random.shuffle(imgData)
imgData,labels = zip(*imgData)
imgData = np.a(chǎn)rray(imgData)
labels = np.a(chǎn)rray(labels)
當(dāng)我們根據(jù)類將圖像保存在目錄中時(shí),目錄名用作標(biāo)簽,該標(biāo)簽使用shape_to_label字典轉(zhuǎn)換為獨(dú)熱表示。在我們遍歷系統(tǒng)中的文件以訪問圖像之后,cv2.imread()函數(shù)返回圖像的矢量表示。我們通過翻轉(zhuǎn)圖像并放大圖像來進(jìn)行一些手動的數(shù)據(jù)增強(qiáng),這增加了我們的數(shù)據(jù)集大小,而無需拍攝新照片,數(shù)據(jù)增強(qiáng)是生成數(shù)據(jù)集的關(guān)鍵部分。最后,圖像和標(biāo)簽存儲在單獨(dú)的numpy數(shù)組中。cv2.imread()函數(shù)https://www.geeksforgeeks.org/python-opencv-cv2-imread-method/更多關(guān)于數(shù)據(jù)增強(qiáng)的信息。https://towardsdatascience.com/data-augmentation-for-deep-learning-4fe21d1a4eb9通過遷移學(xué)習(xí)建立我們的模型:在處理圖像數(shù)據(jù)時(shí),有許多經(jīng)過預(yù)訓(xùn)練的模型可供使用,這些模型已經(jīng)在具有數(shù)千個標(biāo)簽的數(shù)據(jù)集上進(jìn)行了訓(xùn)練,由于這些模型通過其應(yīng)用程序api的Tensorflow和Keras分布,我們可以使用這些模型,這使得在我們的應(yīng)用程序中包含這些預(yù)先訓(xùn)練的模型看起來很容易!
總之,遷移學(xué)習(xí)采用的是經(jīng)過預(yù)訓(xùn)練的模型,并且不包含進(jìn)行最終預(yù)測的最終層,能夠區(qū)分這種情況下圖像中的特征,并將這些信息傳遞給我們自己的Dense神經(jīng)網(wǎng)絡(luò)。為什么不訓(xùn)練你自己的模型呢?完全取決于你!然而,使用遷移學(xué)習(xí)可以在很多時(shí)候使你的進(jìn)步更快,從某種意義上說,你避免了重復(fù)造輪子。

發(fā)表評論
請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
-
7月8日立即報(bào)名>> 【在線會議】英飛凌新一代智能照明方案賦能綠色建筑與工業(yè)互聯(lián)
-
7月22-29日立即報(bào)名>> 【線下論壇】第三屆安富利汽車生態(tài)圈峰會
-
7月31日免費(fèi)預(yù)約>> OFweek 2025具身機(jī)器人動力電池技術(shù)應(yīng)用大會
-
7.30-8.1火熱報(bào)名中>> 全數(shù)會2025(第六屆)機(jī)器人及智能工廠展
-
免費(fèi)參會立即報(bào)名>> 7月30日- 8月1日 2025全數(shù)會工業(yè)芯片與傳感儀表展
-
即日-2025.8.1立即下載>> 《2024智能制造產(chǎn)業(yè)高端化、智能化、綠色化發(fā)展藍(lán)皮書》
推薦專題
- 1 AI 眼鏡讓百萬 APP「集體失業(yè)」?
- 2 豆包前負(fù)責(zé)人喬木出軌BP后續(xù):均被辭退
- 3 一文看懂視覺語言動作模型(VLA)及其應(yīng)用
- 4 “支付+”時(shí)代,支付即生態(tài) | 2025中國跨境支付十大趨勢
- 5 中國最具實(shí)力AI公司TOP10
- 6 特斯拉Robotaxi上路,馬斯克端上畫了十年的餅
- 7 國家數(shù)據(jù)局局長劉烈宏調(diào)研格創(chuàng)東智
- 8 AI的夏天:第四范式VS云從科技VS地平線機(jī)器人
- 9 張勇等人退出阿里合伙人
- 10 深圳跑出40億超級隱形冠軍:賣機(jī)器人年入6.1億,港股上市