摘要:我們的目標是構建一個可以讀取手寫數字的應用程序為此,我們需要一些和附帶一個在文件夾中,它有個手寫數字每個數字個每個數字是圖像所以首先要將圖片切割成個不同圖片每個數字變成一個單行像素前面的個數字作為訓練數據,后個作為測試數據輸出進一步
OCR of Hand-written Data using kNN
OCR of Hand-written Digits我們的目標是構建一個可以讀取手寫數字的應用程序, 為此,我們需要一些train_data和test_data. OpenCV附帶一個images digits.png(在文件夾opencvsourcessamplesdata中),它有5000個手寫數字(每個數字500個,每個數字是20x20圖像).所以首先要將圖片切割成5000個不同圖片,每個數字變成一個單行400像素.前面的250個數字作為訓練數據,后250個作為測試數據.
import numpy as np import cv2 import matplotlib.pyplot as plt img = cv2.imread("digits.png") gray = cv2.cvtColor(img,cv2.COLOR_BGR2GRAY) # Now we split the image to 5000 cells, each 20x20 size cells = [np.hsplit(row,100) for row in np.vsplit(gray,50)] # Make it into a Numpy array. It size will be (50,100,20,20) x = np.array(cells) # Now we prepare train_data and test_data. train = x[:,:50].reshape(-1,400).astype(np.float32) # Size = (2500,400) test = x[:,50:100].reshape(-1,400).astype(np.float32) # Size = (2500,400) # Create labels for train and test data k = np.arange(10) train_labels = np.repeat(k,250)[:,np.newaxis] test_labels = train_labels.copy() # Initiate kNN, train the data, then test it with test data for k=1 knn = cv2.ml.KNearest_create() knn.train(train, cv2.ml.ROW_SAMPLE, train_labels) ret,result,neighbours,dist = knn.findNearest(test,k=5) # Now we check the accuracy of classification # For that, compare the result with test_labels and check which are wrong matches = result==test_labels correct = np.count_nonzero(matches) accuracy = correct*100.0/result.size print( accuracy )
輸出:91.76
進一步提高準確率的方法是增加訓練數據,特別是錯誤的數據.每次訓練時最好是保存訓練數據,以便下次使用.
# save the data np.savez("knn_data.npz",train=train, train_labels=train_labels) # Now load the data with np.load("knn_data.npz") as data: print( data.files ) train = data["train"] train_labels = data["train_labels"]OCR of English Alphabets
在opencv / samples / data /文件夾中附帶一個數據文件letter-recognition.data.在每一行中,第一列是一個字母表,它是我們的標簽. 接下來的16個數字是它的不同特征.
import numpy as np import cv2 import matplotlib.pyplot as plt # Load the data, converters convert the letter to a number data= np.loadtxt("letter-recognition.data", dtype= "float32", delimiter = ",", converters= {0: lambda ch: ord(ch)-ord("A")}) # split the data to two, 10000 each for train and test train, test = np.vsplit(data,2) # split trainData and testData to features and responses responses, trainData = np.hsplit(train,[1]) labels, testData = np.hsplit(test,[1]) # Initiate the kNN, classify, measure accuracy. knn = cv2.ml.KNearest_create() knn.train(trainData, cv2.ml.ROW_SAMPLE, responses) ret, result, neighbours, dist = knn.findNearest(testData, k=5) correct = np.count_nonzero(result == labels) accuracy = correct*100.0/10000 print( accuracy )
輸出:93.06
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://m.specialneedsforspecialkids.com/yun/42127.html
摘要:最后,與前一種情況一樣,我們首先將大數據集拆分為單個單元格,對于每個數字,保留個單元用于訓練數據,剩余的個數據保留用于測試。 OCR of Hand-written Data using SVM 在kNN中,我們直接使用像素強度作為特征向量。 這次我們將使用方向梯度直方圖(HOG)作為特征向量。在計算HOG之前,使用其二階矩來校正圖像: def deskew(img): m ...
寫這篇文章的主要目的,是關于Python Opencv的相關知識,包括ann神經網絡識別手寫數字功能,教給大家怎么去使用這種功能,接下來請大家仔細的進行閱讀哦。 opencv會給大家提供一種神經網絡的功能,即為ann,這種神經的網絡功能與Keras的很接近。 關于mnist數據怎么去進行解析,讀者人員可以自己從網上downland軟件,用python自己編寫解析代碼,由于這里主要研究knn...
摘要:實現實時人臉識別本文記錄了在學習深度學習過程中,使用,開發環境為,實現局域網連接手機攝像頭,對目標人員進行實時人臉識別,效果并非特別好,會繼續改進這里是項目地址項目中用到的大文件地址如果各位老爺看完覺得對你有幫助的話,請給個小星星,當前時間 opencv+mtcnn+facenet+python+tensorflow 實現實時人臉識別 Abstract:本文記錄了在學習深度學習過程中,...
摘要:實現實時人臉識別更新新增測試方法直接使用特征進行計算對比此次更新主要想法上一個版本是使用對準備好的若干張照片進行訓練,首先準確率不是很高還沒細究問題,猜測原因是自己準備的圖片問題,以及實時采集實時的環境影響,但最主要的原因還是對每個目標對象 opencv+mtcnn+facenet+python+tensorflow 實現實時人臉識別(2018.9.26更新) 新增測試方法直接使用em...
閱讀 2958·2021-11-24 09:39
閱讀 2870·2021-09-29 09:34
閱讀 3563·2021-09-24 10:23
閱讀 1746·2021-09-22 15:41
閱讀 1702·2019-08-30 15:55
閱讀 3517·2019-08-30 13:58
閱讀 2624·2019-08-30 13:11
閱讀 1672·2019-08-29 12:31