摘要:機器學習的出現讓圖像識別技術有了突破性的進展卷積神經網絡的出現又使圖像識別更上了一次層次。與其他深度學習結構相比,卷積神經網絡在圖像和語音識別方面能夠給出更好的結果。這里我們使用卷積神經網絡對人臉進行性別識別項目中使用了機器學習庫。
原博地址https://laboo.top/2018/12/02/tfjs-face/#more
在傳統編程中, 圖像識別一直是一個難點, 雖然人能輕松做到, 但是用邏輯來描述這個過程, 并轉換成程序是很難的。機器學習的出現讓圖像識別技術有了突破性的進展, 卷積神經網絡的出現, 又使圖像識別更上了一次層次。
卷積神經網絡由一個或多個卷積層和頂端的全連通層組成, 這一結構使得卷積神經網絡能夠利用輸入數據的二維結構。與其他深度學習結構相比,卷積神經網絡在圖像和語音識別方面能夠給出更好的結果。
這里我們使用卷積神經網絡對人臉進行性別識別, 項目中使用了TensorFlow機器學習庫。
項目地址face-gender-classification
數據收集與處理機器學習的基礎就是大量的數據。我以前從網上爬了一萬張證件照, 現在正好用上, 作為訓練數據。
簡便的也可以從谷歌直接搜搜索 男(女)性證件照也可以得到并且有標簽的數據。
由于我收集的照片沒有標簽, 于是我花了一點時間從其中人工選出男女照片各200張并打上標記。
為了使識別更加準確, 項目中利用openCV裁剪出人臉部分的圖像, 并縮放至28*28大小。
recognizer = cv2.CascadeClassifier("model/haarcascade_frontalface_default.xml") crop(img_path): try: img = cv2.imread(img_path) gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) faces = recognizer.detectMultiScale(gray) if len(faces): x, y, w, h = faces[0] c_img = img[y:y + h, x:x + w] return cv2.resize(c_img, (28, 28), interpolation=cv2.INTER_AREA) except: pass return None
對所有的數據都進行這樣處理, 結果如下:
最后我們還需要清理異常的數據, 過一遍訓練集, 把其中沒有定位到人臉的圖片去除掉。
讀取訓練數據。
def read_img(files): arr = [] for file in files: img = Image.open("%s" % file) pix = img.load() view = np.zeros((IMAGE_H, IMAGE_W, 1), dtype=np.float) for x in range(IMAGE_H): for y in range(IMAGE_W): r, g, b = pix[y, x] view[x, y, 0] = (r + g + b) // 3 arr.append(view) return np.array(arr)
這里對訓練圖像灰度化, 并且將訓練數據中的一小部分作為驗證集。
開始創建模型。
model = keras.Sequential([ keras.layers.Conv2D(32, (3, 3), input_shape=(IMAGE_W, IMAGE_H, 1), strides=(1, 1), activation="relu"), keras.layers.MaxPool2D(pool_size=(2, 2)), keras.layers.Conv2D(64, (3, 3), strides=(1, 1), activation="relu"), keras.layers.MaxPool2D(pool_size=(2, 2)), keras.layers.Flatten(), keras.layers.Dense(128, activation=tf.nn.relu), keras.layers.Dropout(0.2), keras.layers.Dense(2, activation=tf.nn.softmax) ])
選擇適當的優化器和損失函數編譯模型。
model.compile(optimizer=tf.train.AdamOptimizer(learning_rate=0.001), loss="categorical_crossentropy", metrics=["accuracy"])
開始訓練模型。
model.fit(x=train_x, y=train_y, batch_size=32, epochs=30, verbose=1, callbacks=my_callbacks, validation_split=0.05, shuffle=True )測試模型
這里使用matplotlib來顯示測試圖片及結果。
predictions = model.predict(test_x) class_names = ["Female", "Male"] plt.figure(figsize=(12, 6)) for i in range(min(9, len(test_y))): result = predictions[i] max_label = int(np.argmax(result)) correct_label = int(np.argmax(test_y[i])) plt.subplot(3, 6, 2 * i + 1) plt.grid(False) plt.xticks([]) plt.yticks([]) img = test_x.reshape(test_x.shape[0], IMAGE_W, IMAGE_H)[i] plt.imshow(img, cmap="gray") plt.xlabel("{} - prob:{:2.0f}%".format(class_names[max_label], 100 * np.max(result))) plt.subplot(3, 6, 2 * i + 2) plt.grid(False) plt.yticks([]) plt.ylim([0, 1]) bar = plt.bar(range(2), result) bar[max_label].set_color("red") bar[correct_label].set_color("green") plt.show()
臉部頭像右側的兩列分別代表女性概率和男性概率。
這里我們看到全都對了, 正確率非常高。
模型并不復雜, 大部分工作都在收集數據和調整訓練參數上, 這也體現出了卷積神經網絡對圖像強大的處理能力。
歡迎關注我的博客公眾號
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://m.specialneedsforspecialkids.com/yun/42731.html
摘要:本文內容節選自由主辦的第七屆,分享的實錄。據美國紐約時報報道,人工智能的測試會根據膚色種族,出現不同的錯誤率。微軟在美國工時比較長,而在歐洲工作時間有嚴格的要求,我們需要花費時間磨合并找到共同的時間。 showImg(https://segmentfault.com/img/bVbm2f7?w=1080&h=720); 本文內容節選自由msup主辦的第七屆TOP100summit,Mi...
摘要:的發布已經有一些時日,其主要的提供的能力是給予前端直接可用的特征檢測的接口包括條形碼人臉文本檢測。本文將簡單的對其進行介紹,對前端進行人臉檢測進行普適性的講解。 Shape Detection API 的發布已經有一些時日,其主要的提供的能力是給予前端直接可用的特征檢測的接口(包括條形碼、人臉、文本檢測)。本文將簡單的對其進行介紹,對前端進行人臉檢測進行普適性的講解。(本文不講算法~望...
閱讀 1516·2021-08-09 13:47
閱讀 2776·2019-08-30 15:55
閱讀 3500·2019-08-29 15:42
閱讀 1122·2019-08-29 13:45
閱讀 3015·2019-08-29 12:33
閱讀 1748·2019-08-26 11:58
閱讀 991·2019-08-26 10:19
閱讀 2416·2019-08-23 18:00