摘要:算法的基本原理簡單假設我們有一堆點,和一個小的圓形窗口,算法就是不斷移動小圓形窗口,直到找到圓形區域內最大灰度密度處為止初始窗口以藍色圓圈顯示,名稱為其原始中心標有藍色矩形,名為但是,這個窗口當中所有點的點集構成的質心在藍色圓形點處圓環的型
Meanshift and Camshift
MeanshiftMeanshift 算法的基本原理簡單,假設我們有一堆點,和一個小的圓形窗口,Meanshift 算法就是不斷移動小圓形窗口,直到找到圓形區域內最大灰度密度處為止.
初始窗口以藍色圓圈顯示,名稱為“C1”,其原始中心標有藍色矩形,名為“C1_o”.但是,這個窗口當中所有點的點集構成的質心在藍色圓形點處,圓環的型心和質心并不重合,所以,移動藍色的窗口以使型心與之前得到的質心重合.
不斷執行上面的移動過程,直到型心和質心大致重合結束.
通常通過直方圖反投影圖像和初始目標位置,當物體移動時,移動反映在直方圖反投影圖像中,最后圓形的窗口會落到像素分布最大的地方,也就是圖中的綠色圈并命名為C2.
首先要設定目標,并計算的直方圖,然后對這個直方圖在每一幀當中進行反向投影.需要提供一個初試的窗口位置,計算HSV模型當中H(色調)的直方圖,為了避免低亮度造成的影響,使用 cv2.inRange()將低亮度值忽略.
import numpy as np import cv2 import matplotlib.pyplot as plt cap = cv2.VideoCapture("test.mp4") # take first frame of the video ret,frame = cap.read() # setup initial location of window r,h,c,w = 50,200,50,100 # simply hardcoded the values track_window = (c,r,w,h) # set up the ROI for tracking roi = frame[r:r+h, c:c+w] hsv_roi = cv2.cvtColor(roi, cv2.COLOR_BGR2HSV) mask = cv2.inRange(hsv_roi, np.array((0., 60.,32.)), np.array((180.,255.,255.))) roi_hist = cv2.calcHist([hsv_roi],[0],mask,[180],[0,180]) cv2.normalize(roi_hist,roi_hist,0,255,cv2.NORM_MINMAX) # Setup the termination criteria, either 10 iteration or move by atleast 1 pt term_crit = ( cv2.TERM_CRITERIA_EPS | cv2.TERM_CRITERIA_COUNT, 10, 1 ) while(1): ret ,frame = cap.read() if ret == True: hsv = cv2.cvtColor(frame, cv2.COLOR_BGR2HSV) dst = cv2.calcBackProject([hsv],[0],roi_hist,[0,180],1) # apply meanshift to get the new location ret, track_window = cv2.CamShift(dst, track_window, term_crit) # Draw it on image pts = cv2.boxPoints(ret) pts = np.int0(pts) img2 = cv2.polylines(frame,[pts],True, 255,2) cv2.imshow("img2",img2) k = cv2.waitKey(60) & 0xff if k == 27: break else: cv2.imwrite(chr(k)+".jpg",img2) else: break cv2.destroyAllWindows() cap.release()CamShift
在目標跟蹤中,物體的大小不是固定的,所以設置的跟蹤窗口也應該隨之變化,CAMshift算法,首先使用meanshift算法找到目標,然后調整窗口大小,而且還會計算目標對象的的最佳外接圓的角度,并調整窗口,并使用調整后的窗口對物體繼續追蹤.
Camshift in OpenCV它與meanshift幾乎相同,但它返回一個旋轉的矩形.
import numpy as np import cv2 import matplotlib.pyplot as plt cap = cv2.VideoCapture("test.mp4") # take first frame of the video ret,frame = cap.read() # setup initial location of window r,h,c,w = 50,200,50,100 # simply hardcoded the values track_window = (c,r,w,h) # set up the ROI for tracking roi = frame[r:r+h, c:c+w] hsv_roi = cv2.cvtColor(roi, cv2.COLOR_BGR2HSV) mask = cv2.inRange(hsv_roi, np.array((0., 60.,32.)), np.array((180.,255.,255.))) roi_hist = cv2.calcHist([hsv_roi],[0],mask,[180],[0,180]) cv2.normalize(roi_hist,roi_hist,0,255,cv2.NORM_MINMAX) # Setup the termination criteria, either 10 iteration or move by atleast 1 pt term_crit = ( cv2.TERM_CRITERIA_EPS | cv2.TERM_CRITERIA_COUNT, 10, 1 ) while(1): ret ,frame = cap.read() if ret == True: hsv = cv2.cvtColor(frame, cv2.COLOR_BGR2HSV) dst = cv2.calcBackProject([hsv],[0],roi_hist,[0,180],1) # apply meanshift to get the new location ret, track_window = cv2.CamShift(dst, track_window, term_crit) # Draw it on image pts = cv2.boxPoints(ret) pts = np.int0(pts) img2 = cv2.polylines(frame,[pts],True, 255,2) cv2.imshow("img2",img2) k = cv2.waitKey(60) & 0xff if k == 27: break else: cv2.imwrite(chr(k)+".jpg",img2) else: break cv2.destroyAllWindows() cap.release()
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://m.specialneedsforspecialkids.com/yun/42097.html
摘要:將軀干圖像灰度化后經插值運算和歸一化變換為大小的矩陣,作為結構的卷積神經網絡的輸入進行個體識別。卷積神經網絡構建為減少數據量并保證輸入圖像的細節信息,將奶牛軀干圖像灰度化后通過插值計算變化為的圖像,并除以歸一化后作為輸入數據。 最近看了一個有趣的人工智能應用,給大家分享一下~這是一個人工智能與農業的結合,在農業中我們經常需要給個體動物做標記,目的是對奶牛做身份識別,然后可以對動物做養殖和繁殖...
摘要:比較復雜的是下載源代碼使用安裝。上安裝的方法先上可以直接編譯安裝首先要安裝編譯需要的依賴包下載的源代碼解壓編譯并安裝另外在上使用調用需要安裝對應的包完整腳本地址使用一個簡單用來驗證是否能夠調用的方法可以得到版本 OpenCV全稱:Open Source Computer Vision Library,是一個開源的跨平臺計算機視覺庫,github地址:https://github.com...
摘要:而這其中,很多應用都涉及到計算機視覺這樣一個細分領域。常見的圖像處理灰度圖二值化平滑邊緣提取這幾種都屬于數字圖像處理的常用方法。對這方面知識感興趣的,可以找本數字圖像處理的相關教材系統地看一遍,了解數字圖像處理的基礎。 人工智能 ,一個已經被談論了幾十年的概念(最早是 圖靈 在 1950年 提出)。如今這幾年,相關技術的發展速度是越來越快。高大上如無人駕駛、智能安防、AI輔助診斷,接地...
閱讀 555·2021-08-31 09:45
閱讀 1665·2021-08-11 11:19
閱讀 897·2019-08-30 15:55
閱讀 836·2019-08-30 10:52
閱讀 2869·2019-08-29 13:11
閱讀 2938·2019-08-23 17:08
閱讀 2850·2019-08-23 15:11
閱讀 3079·2019-08-23 14:33