├── 094206fd31951e1305dd93cda69aec67.webp ├── 0b4254edbec2d7995b3cf0e39d43644e.webp ├── 204be5aa28a8788fba2f8aca954b0961.webp ├── 30fd441a4f520d3112c4d5b35237c9ab.webp ├── 337c5bc1200055bb502cec10ba3bb441.webp ├── 3836e16a0172cd54d6a5809216ba71e0.webp ├── 433d5e487021f018c1403606ae50dd4c.webp ├── 781684f9588c9d2c8a8834c36de256a3.webp ├── 7f0f25144f3ec9c184b6f55ba58ea6d5.webp ├── 86ae52cd8973b9b00b90ec9bac2ee80c.webp ├── adf0c0b9a49f1c0b043afd3c8d985ac3.webp ├── b4fe6f5f5be7d25d3d5714c2c5b13282.webp ├── bd42cfe386ce95ca43fb3b7c5bb398ae.webp ├── cc71b9d3e3ff2af3f56e4e8877a029f9.webp ├── settings.py ├── main.py ├── bs.py ├── fall_detection.py ├── person.py ├── video.py └── README.md /094206fd31951e1305dd93cda69aec67.webp: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/qunshansj/fall-detection-opencv/HEAD/094206fd31951e1305dd93cda69aec67.webp -------------------------------------------------------------------------------- /0b4254edbec2d7995b3cf0e39d43644e.webp: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/qunshansj/fall-detection-opencv/HEAD/0b4254edbec2d7995b3cf0e39d43644e.webp -------------------------------------------------------------------------------- /204be5aa28a8788fba2f8aca954b0961.webp: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/qunshansj/fall-detection-opencv/HEAD/204be5aa28a8788fba2f8aca954b0961.webp -------------------------------------------------------------------------------- /30fd441a4f520d3112c4d5b35237c9ab.webp: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/qunshansj/fall-detection-opencv/HEAD/30fd441a4f520d3112c4d5b35237c9ab.webp -------------------------------------------------------------------------------- /337c5bc1200055bb502cec10ba3bb441.webp: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/qunshansj/fall-detection-opencv/HEAD/337c5bc1200055bb502cec10ba3bb441.webp -------------------------------------------------------------------------------- /3836e16a0172cd54d6a5809216ba71e0.webp: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/qunshansj/fall-detection-opencv/HEAD/3836e16a0172cd54d6a5809216ba71e0.webp -------------------------------------------------------------------------------- /433d5e487021f018c1403606ae50dd4c.webp: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/qunshansj/fall-detection-opencv/HEAD/433d5e487021f018c1403606ae50dd4c.webp -------------------------------------------------------------------------------- /781684f9588c9d2c8a8834c36de256a3.webp: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/qunshansj/fall-detection-opencv/HEAD/781684f9588c9d2c8a8834c36de256a3.webp -------------------------------------------------------------------------------- /7f0f25144f3ec9c184b6f55ba58ea6d5.webp: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/qunshansj/fall-detection-opencv/HEAD/7f0f25144f3ec9c184b6f55ba58ea6d5.webp -------------------------------------------------------------------------------- /86ae52cd8973b9b00b90ec9bac2ee80c.webp: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/qunshansj/fall-detection-opencv/HEAD/86ae52cd8973b9b00b90ec9bac2ee80c.webp -------------------------------------------------------------------------------- /adf0c0b9a49f1c0b043afd3c8d985ac3.webp: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/qunshansj/fall-detection-opencv/HEAD/adf0c0b9a49f1c0b043afd3c8d985ac3.webp -------------------------------------------------------------------------------- /b4fe6f5f5be7d25d3d5714c2c5b13282.webp: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/qunshansj/fall-detection-opencv/HEAD/b4fe6f5f5be7d25d3d5714c2c5b13282.webp -------------------------------------------------------------------------------- /bd42cfe386ce95ca43fb3b7c5bb398ae.webp: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/qunshansj/fall-detection-opencv/HEAD/bd42cfe386ce95ca43fb3b7c5bb398ae.webp -------------------------------------------------------------------------------- /cc71b9d3e3ff2af3f56e4e8877a029f9.webp: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/qunshansj/fall-detection-opencv/HEAD/cc71b9d3e3ff2af3f56e4e8877a029f9.webp -------------------------------------------------------------------------------- /settings.py: -------------------------------------------------------------------------------- 1 | python 2 | class Settings(object): 3 | def __init__(self): 4 | self.debug = 1 5 | self.source = 0 6 | self.bsMethod = 1 7 | self.MOG2learningRate = 0.001 8 | self.MOG2shadow = 0 9 | self.MOG2history = 100 10 | self.MOG2thresh = 20 11 | self.minArea = 50*50 12 | self.thresholdLimit = 20 13 | self.dilationPixels = 30 14 | self.useGaussian = 1 15 | self.useBw = 1 16 | self.useResize = 1 17 | self.gaussianPixels = 31 18 | self.movementMaximum = 75 19 | self.movementMinimum = 3 20 | self.movementTime = 35 21 | self.location = 'Viikintie 1' 22 | self.phone = '01010101010' 23 | -------------------------------------------------------------------------------- /main.py: -------------------------------------------------------------------------------- 1 | python 2 | 3 | 4 | class FallDetector: 5 | def __init__(self, video_path): 6 | self.video = video.Video(video_path) 7 | time.sleep(0.5) 8 | self.video.nextFrame() 9 | self.video.testBackgroundFrame() 10 | 11 | def run(self): 12 | while True: 13 | try: 14 | self.video.nextFrame() 15 | self.video.testBackgroundFrame() 16 | self.video.updateBackground() 17 | self.video.compare() 18 | self.video.showFrame() 19 | self.video.testSettings() 20 | if self.video.testDestroy(): 21 | sys.exit() 22 | except Exception as e: 23 | break 24 | 25 | -------------------------------------------------------------------------------- /bs.py: -------------------------------------------------------------------------------- 1 | python 2 | 3 | class Bs: 4 | def __init__(self): 5 | self.settings = settings.Settings() 6 | self.method = self.settings.bsMethod 7 | 8 | if self.method == 0: 9 | self.fgbg = cv2.BackgroundSubtractorMOG2(self.settings.MOG2history, self.settings.MOG2thresh, self.settings.MOG2shadow) 10 | self.foregroundMask = None 11 | 12 | if self.method == 1: 13 | self.backgroundFrame = None 14 | self.frameCount = 1 15 | 16 | def updateBackground(self, frame): # Updating the background 17 | if self.method == 0: 18 | self.foregroundMask = self.fgbg.apply(frame, self.foregroundMask, self.settings.MOG2learningRate) 19 | 20 | if self.method == 1: 21 | alpha = (1.0/self.frameCount) 22 | if self.backgroundFrame is None: 23 | self.backgroundFrame = frame 24 | self.backgroundFrame = cv2.addWeighted(frame, alpha, self.backgroundFrame, 1.0-alpha, 0) 25 | self.frameCount += 1 26 | 27 | def compareBackground(self, frame): 28 | if self.method == 0: 29 | return self.foregroundMask 30 | 31 | if self.method == 1: 32 | self.frameDelta = cv2.absdiff(self.backgroundFrame, frame) 33 | self.foregroundMask = cv2.threshold(self.frameDelta, self.settings.thresholdLimit, 255, cv2.THRESH_BINARY)[1] # Creating a foregroundMask 34 | return self.foregroundMask 35 | 36 | def deleteBackground(self): 37 | if self.method == 0: 38 | self.foregroundMask = None 39 | 40 | if self.method == 1: 41 | self.backgroundFrame = None 42 | 43 | def resetBackgroundIfNeeded(self, frame): 44 | if self.method == 0: 45 | if self.foregroundMask is None: 46 | self.foregroundMask = self.fgbg.apply(frame) 47 | 48 | if self.method == 1: 49 | if self.backgroundFrame is None: 50 | self.updateBackground(frame) 51 | self.frameCount = 1 52 | -------------------------------------------------------------------------------- /fall_detection.py: -------------------------------------------------------------------------------- 1 | python 2 | 3 | class MotionDetection: 4 | def __init__(self): 5 | self.cap = None 6 | self.fgbg = cv2.createBackgroundSubtractorKNN() 7 | self.consecutive_frames = 0 8 | 9 | def select_file(self): 10 | file_path = filedialog.askopenfilename() 11 | return file_path 12 | 13 | def use_webcam(self): 14 | self.cap = cv2.VideoCapture(0) 15 | 16 | def process_frame(self, frame): 17 | gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) 18 | fgmask = self.fgbg.apply(gray) 19 | 20 | contours, _ = cv2.findContours(fgmask, cv2.RETR_TREE, cv2.CHAIN_APPROX_TC89_KCOS) 21 | 22 | if contours: 23 | areas = [] 24 | heights = [] 25 | widths = [] 26 | for contour in contours: 27 | x, y, w, h = cv2.boundingRect(contour) 28 | ar = cv2.contourArea(contour) 29 | areas.append(ar) 30 | heights.append(h) 31 | widths.append(w) 32 | 33 | max_area = max(areas or [0]) 34 | max_area_index = areas.index(max_area) 35 | 36 | cnt = contours[max_area_index] 37 | x, y, w, h = cv2.boundingRect(cnt) 38 | cv2.drawContours(fgmask, [cnt], 0, (255, 255, 255), 3) 39 | 40 | if h < w: 41 | self.consecutive_frames += 1 42 | 43 | aspect_ratio = h / w 44 | if self.consecutive_frames > 10 and aspect_ratio < 0.5: 45 | cv2.putText(fgmask, 'FALL', (x, y), cv2.FONT_HERSHEY_TRIPLEX, 0.5, (255, 255, 255), 2) 46 | 47 | cv2.rectangle(frame, (x, y), (x + w, y + h), (0, 0, 255), 2) 48 | 49 | if aspect_ratio >= 0.5: 50 | self.consecutive_frames = 0 51 | cv2.rectangle(frame, (x, y), (x + w, y + h), (0, 255, 0), 2) 52 | 53 | cv2.imshow('video', frame) 54 | 55 | if cv2.waitKey(2) & 0xff == ord('q'): 56 | return False 57 | else: 58 | return False 59 | 60 | return True 61 | 62 | def run(self): 63 | root = tk.Tk() 64 | root.withdraw() 65 | 66 | mode = input("Enter 'webcam' to use webcam or 'file' to select a file: ") 67 | 68 | if mode == 'webcam': 69 | self.use_webcam() 70 | elif mode == 'file': 71 | file_path = self.select_file() 72 | self.cap = cv2.VideoCapture(file_path) 73 | else: 74 | print("Invalid mode. Exiting program.") 75 | exit() 76 | 77 | while True: 78 | ret, frame = self.cap.read() 79 | 80 | if not ret: 81 | break 82 | 83 | if not self.process_frame(frame): 84 | break 85 | 86 | self.cap.release() 87 | cv2.destroyAllWindows() 88 | 89 | -------------------------------------------------------------------------------- /person.py: -------------------------------------------------------------------------------- 1 | python 2 | class Person(object): 3 | """Person""" 4 | amount = 0 5 | 6 | def __init__(self, x, y, w, h, movementMaximum, movementMinimum, movementTime): 7 | self.x = x 8 | self.y = y 9 | self.w = w 10 | self.h = h 11 | self.movementTime = movementTime 12 | self.movementMaximum = movementMaximum 13 | self.movementMinimum = movementMinimum 14 | self.lastmoveTime = 0 15 | self.alert = 0 16 | self.alarmReported = 0 17 | self.lastseenTime = 0 18 | self.remove = 0 19 | Person.amount += 1 20 | if Person.amount > 1000: # If person amount > 1000, set amount to 0 21 | Person.amount = 0 22 | self.id = Person.amount 23 | 24 | def samePerson(self, x, y, w, h): # To Check if its the same person in the frame 25 | same = 0 26 | if x+self.movementMaximum > self.x and x-self.movementMaximum < self.x: 27 | if y+self.movementMaximum > self.y and y-self.movementMaximum < self.y: 28 | same = 1 29 | return same 30 | 31 | def editPerson(self, x, y, w, h): # To Check 32 | if abs(x-self.x) > self.movementMinimum or abs(y-self.y) > self.movementMinimum or abs(w-self.w) > self.movementMinimum or abs(h-self.h) > self.movementMinimum: 33 | self.lastmoveTime = 0 34 | self.x = x 35 | self.y = y 36 | self.w = w 37 | self.h = h 38 | self.lastseenTime = 0 39 | 40 | def getId(self): # To get the id of the person 41 | return self.id 42 | 43 | def tick(self): 44 | self.lastmoveTime += 1 # Lastmovetime 45 | self.lastseenTime += 1 # Lastseentime 46 | if self.lastmoveTime > self.movementTime: 47 | self.alert = 1 48 | if self.lastseenTime > 4: # how many frames ago last seen 49 | self.remove = 1 50 | 51 | def getAlert(self): # Raise an alert function 52 | return self.alert 53 | 54 | def getRemove(self): 55 | return self.remove 56 | 57 | 58 | class Persons: 59 | def __init__(self, movementMaximum, movementMinimum, movementTime): 60 | self.persons = [] # Making an empty list of persons 61 | self.movementMaximum = movementMaximum 62 | self.movementMinimum = movementMinimum 63 | self.movementTime = movementTime 64 | Person.amount = 0 # Initial count of person 65 | 66 | def addPerson(self, x, y, w, h): 67 | person = self.familiarPerson(x, y, w, h) 68 | if person: # if its the same person edit the coordinates and w, h 69 | person.editPerson(x, y, w, h) 70 | return person 71 | else: # Else append the person to the list 72 | person = Person(x ,y ,w ,h , self.movementMaximum, self.movementMinimum, self.movementTime) 73 | self.persons.append(person) 74 | return person 75 | 76 | def familiarPerson(self, x, y, w, h): # To check if its the same person 77 | for person in self.persons: 78 | if person.samePerson(x, y, w, h): 79 | return person 80 | return None 81 | 82 | def tick(self): 83 | for person in self.persons: 84 | person.tick() 85 | if person.getRemove(): 86 | self.persons.remove(person) 87 | -------------------------------------------------------------------------------- /video.py: -------------------------------------------------------------------------------- 1 | python 2 | 3 | class Video: 4 | def __init__(self, path): 5 | self.settings = settings.Settings() 6 | self.camera = cv2.VideoCapture(path) 7 | self.bs = bs.Bs() 8 | self.persons = person.Persons(self.settings.movementMaximum, self.settings.movementMinimum, self.settings.movementTime) 9 | self.start = time.time() 10 | self.webservice = webservice.Webservice(self.settings.location, self.settings.phone) 11 | self.errorcount = 0 12 | self.alertLog = [] 13 | self.frameCount = 1 14 | 15 | def nextFrame(self): 16 | grabbed, self.frame = self.camera.read() 17 | if not grabbed: 18 | self.destroyNow() 19 | self.convertFrame() 20 | 21 | def showFrame(self): 22 | if self.settings.debug: 23 | cv2.imshow("Thresh", self.thresh) 24 | cv2.imshow("Feed", self.frame) 25 | 26 | def destroyNow(self): 27 | self.camera.release() 28 | cv2.destroyAllWindows() 29 | 30 | def testDestroy(self): 31 | key = cv2.waitKey(1) & 0xFF 32 | if key == ord("q"): 33 | self.destroyNow() 34 | return 1 35 | else: 36 | return 0 37 | 38 | def resetBackgroundFrame(self): 39 | grabbed, self.frame = self.camera.read() 40 | self.convertFrame() 41 | self.bs.resetBackgroundIfNeeded(self.frame) 42 | self.persons = person.Persons(self.settings.movementMaximum, self.settings.movementMinimum, self.settings.movementTime) 43 | 44 | def testBackgroundFrame(self): 45 | key = cv2.waitKey(1) & 0xFF 46 | if key == ord("n"): 47 | self.bs.deleteBackground() 48 | 49 | def updateBackground(self): 50 | self.bs.updateBackground(self.frame) 51 | 52 | def testSettings(self): 53 | key = cv2.waitKey(1) & 0xFF 54 | if key == ord("0"): 55 | self.settings.minArea += 50 56 | print("minArea: " , self.settings.minArea) 57 | if key == ord("9"): 58 | self.settings.minArea -= 50 59 | print("minArea: " , self.settings.minArea) 60 | if key == ord("8"): 61 | self.settings.dilationPixels += 1 62 | print("dilationPixels: " , self.settings.dilationPixels) 63 | if key == ord("7"): 64 | self.settings.dilationPixels -= 1 65 | print("dilationPixels: " , self.settings.dilationPixels) 66 | if key == ord("6"): 67 | self.settings.thresholdLimit += 1 68 | print("thresholdLimit: " , self.settings.thresholdLimit) 69 | if key == ord("5"): 70 | self.settings.thresholdLimit -= 1 71 | print("thresholdLimit: " , self.settings.thresholdLimit) 72 | if key == ord("4"): 73 | self.settings.movementMaximum += 1 74 | print("movementMaximum: " , self.settings.movementMaximum) 75 | if key == ord("3"): 76 | self.settings.movementMaximum -= 1 77 | print("movementMaximum: " , self.settings.movementMaximum) 78 | if key == ord("2"): 79 | self.settings.movementMinimum += 1 80 | print("movementMinimum: " , self.settings.movementMinimum) 81 | if key == ord("1"): 82 | self.settings.movementMinimum -= 1 83 | print("movementMinimum: " , self.settings.movementMinimum) 84 | if key == ord("o"): 85 | if self.settings.useGaussian: 86 | self.settings.useGaussian = 0 87 | print("useGaussian: off") 88 | self.resetbackgroundFrame() 89 | else: 90 | self.settings.useGaussian = 1 91 | print("useGaussian: on") 92 | self.resetbackgroundFrame() 93 | if key == ord("+"): 94 | self.settings.movementTime += 1 95 | print("movementTime: " , self.settings.movementTime) 96 | if key == ord("p"): 97 | self.settings.movementTime -= 1 98 | print("movementTime : " , self.settings.movementTime) 99 | 100 | def convertFrame (self): 101 | if self.settings.useResize: 102 | r = 750.0 / self.frame.shape[1] 103 | dim = (750, int(self.frame.shape[0] * r)) 104 | self.frame = cv2.resize(self.frame, dim, interpolation = cv2.INTER_AREA) 105 | if self.settings.useBw: 106 | self.frame = cv2.cvtColor(self.frame, cv2.COLOR_BGR2GRAY) 107 | if self.settings.useGaussian: 108 | self.frame = cv2.GaussianBlur(self.frame, (self.settings.gaussianPixels, self.settings.gaussianPixels), 0) 109 | 110 | def compare(self): 111 | self.thresh = self.bs.compareBackground(self.frame) 112 | self.thresh = cv2.dilate(self.thresh, None, iterations=self.settings.dilationPixels) 113 | contours, _ = cv2.findContours(self.thresh.copy(), cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE) 114 | 115 | self.persons.tick() 116 | 117 | detectStatus = "idle" 118 | 119 | for contour in contours: 120 | if cv2.contourArea(contour) < self.settings.minArea: 121 | continue 122 | 123 | (x, y, w, h) = cv2.boundingRect(contour) 124 | 125 | person = self.persons.addPerson(x, y, w, h) 126 | color = (0, 255, 0) 127 | if person.alert: 128 | color = (0, 0, 255) 129 | cv2.line(self.frame, (x, y), (x + w, y + h), color, 2) 130 | cv2.line(self.frame, (x + w, y), (x , y + h), color, 2) 131 | detectStatus = "Alarm, not moving" 132 | if not person.alarmReported: 133 | self.webservice.alarm("not moving", person.id) 134 | person.alarmReported = 1 135 | 136 | cv2.rectangle(self.frame, (x, y), (x + w, y + h), color, 2) 137 | cv2.putText(self.frame, "{}".format(cv2.contourArea(contour)), (x, y+h+20), cv2.FONT_HERSHEY_SIMPLEX, 0.7, color, 1) 138 | cv2.putText(self.frame, "{} : {}".format(person.id, person.lastmoveTime), (x, y+20), cv2.FONT_HERSHEY_SIMPLEX, 0.8, color, 1) 139 | 140 | if self.settings.debug: 141 | self.end = time.time() 142 | seconds = self.end - self.start 143 | fps = round((1 / seconds), 1) 144 | self.start = time.time() 145 | 146 | cv2.putText(self.frame, "Status: {}".format(detectStatus), (10, 20), cv2.FONT_HERSHEY_SIMPLEX, 0.8, (0, 140, 255), 1) 147 | cv2.putText(self.frame, "FPS: {}".format(fps), (400, 20), cv2.FONT_HERSHEY_SIMPLEX, 0.8, (0, 140, 255), 1) 148 | 149 | def newLightconditions(self): 150 | self.errorcount += 1 151 | if self.errorcount > 10: 152 | time.sleep(1.0) 153 | self.resetBackgroundFrame() 154 | self.errorcount = 0 155 | -------------------------------------------------------------------------------- /README.md: -------------------------------------------------------------------------------- 1 | 2 | 3 | ## 1.研究背景与意义 4 | 5 | 随着人口老龄化程度的不断加深,老年人的健康问题越来越受到关注。其中,老年人跌倒是一种常见但危险的事件,可能导致严重的身体损伤甚至死亡。因此,开发一种能够及时检测和预警老年人跌倒的系统具有重要的现实意义。 6 | 7 | 在过去的几十年里,计算机视觉技术取得了巨大的进步,尤其是在图像和视频处理方面。OpenCV作为一个开源的计算机视觉库,提供了丰富的图像处理和分析工具,被广泛应用于各个领域。基于OpenCV的人员跌倒检测系统能够利用计算机视觉技术实时监测和分析视频流,从而及时发现跌倒事件并进行预警。 8 | 9 | 该系统的研究意义主要体现在以下几个方面: 10 | 11 | 1. 提高老年人的安全性:老年人跌倒是导致伤害和死亡的主要原因之一。通过开发基于OpenCV的人员跌倒检测系统,可以及时发现老年人跌倒事件并及时采取救援措施,提高老年人的安全性。 12 | 13 | 2. 减轻护理负担:老年人跌倒后,需要及时的救援和护理。基于OpenCV的人员跌倒检测系统可以自动监测老年人的行为,一旦发现跌倒事件,可以立即向护理人员发送警报,减轻护理负担。 14 | 15 | 3. 促进智能化养老:随着人工智能技术的发展,智能化养老已经成为一个热门的研究方向。基于OpenCV的人员跌倒检测系统可以作为智能化养老的一部分,为老年人提供更加智能、便捷的生活服务。 16 | 17 | 4. 推动计算机视觉技术的应用:计算机视觉技术在人员跌倒检测系统中的应用,可以推动计算机视觉技术在其他领域的应用。通过研究基于OpenCV的人员跌倒检测系统,可以进一步提高计算机视觉技术的准确性和稳定性,为其他领域的应用提供技术支持。 18 | 19 | 总之,基于OpenCV的人员跌倒检测系统具有重要的现实意义和研究价值。通过该系统的研究和应用,可以提高老年人的安全性,减轻护理负担,促进智能化养老,并推动计算机视觉技术的应用和发展。 20 | 21 | # 2.图片演示 22 | ![2.png](adf0c0b9a49f1c0b043afd3c8d985ac3.webp) 23 | 24 | ![3.png](bd42cfe386ce95ca43fb3b7c5bb398ae.webp) 25 | 26 | ![4.png](3836e16a0172cd54d6a5809216ba71e0.webp) 27 | 28 | # 3.视频演示 29 | [基于OpenCV的人员跌倒检测系统(源码&部署教程)_哔哩哔哩_bilibili](https://www.bilibili.com/video/BV1ew411Q7hm/?vd_source=ff015de2d29cbe2a9cdbfa7064407a08) 30 | 31 | # 4.图像预处理 32 | #### 4.1 中值滤波 33 | 中值滤波法为非线性平滑方法,它主要是把图像中像素点的灰度值替换为这个像素相邻区域内其他像素点灰度值的中间值。对于有限的实数集,中值既是集合排序后中间的数值的值。在一定条件下,线性滤波都拥有低通滤波的特性,在降噪的时候可能会模糊图像边缘细节,中值滤波能够解决线性滤波在处理图像边缘时存在的问题,并且因为其冲激响应为零,使得它能够抑制脉冲干扰和图像扫描噪声,对消除椒盐噪声效果不错,但是如果图像拥有众多条纹,效果一般不理想。 34 | 中值滤波的步骤为: 35 | 1、通过滑动模板窗口,使其中心点和图像里的某个像素点保持重合;2、获取像素点灰度值; 36 | 3、把读取到的灰度值从小到大排序; 37 | 4、从排列好的数值中取出这些值的中值,接着把中值赋值给模板的中心像素点。如果这些排列好的序列总数是奇数,中值就为这些数值的中间那个像素的灰度值,如果是偶数,就是中间两个像素点的灰度值平均值。在实际处理中一般使用奇数模板,这样可以保证中值具有唯一性。 38 | 下面利用序列来理解中值滤波的原理32],假定xx2x3...xn为一组数列,按照大小顺序排列为 39 | i1 ≤Xi2 ≤Xi3 ≤...≤Xin 40 | 在OpenCV函数库中,cv2.medianBlur(src,ksize)可以对图像进行中值滤波处理,其中src为图像矩阵,Ksize为内核大小。对图3.1进行中值滤波处理,处理结果如下图3.3所示,从左至右内核大小分别为3、5、7,内核数值越大,得到的结果往往越模糊,而且在图中能够看到使用中值滤波处理后的图像在线条处丢失了较多的细节,图像中的字体依旧变得非常模糊。 41 | ![image.png](cc71b9d3e3ff2af3f56e4e8877a029f9.webp) 42 | 43 | #### 4.2 阈值处理 44 | 本文后续的工作对于目标的检测,将会用到阈值处理提取目标人体,经过阈值处理后,一般只保留图像的关键信息,会使图像的目标更加明确,图像的像素拥有灰度相似性与灰度不连续性两种特性,图像同一区域内是像素拥有灰度相似性,不同区域的一般拥有灰度不连续性l34]。通过设置不同的阈值,可以把图像分离为不同的区域。 45 | 阈值处理它是通过预先设置好的阈值来划分图像像素,大于阈值的划分为一个区域,小于阈值的划分为另一个区域。它适用于目标与背景存在较大的灰度对比度,且目标与背景灰度单一的图像。但是这种方法比较依赖于灰度直方图,对于背景复杂的图像效果并不理想。根据对图像采用一个或多个阈值,可以分成全局阈值法和局部阈值法。根据阈值算法的自有特性又可以分为Р参数法、Otsu阈值法、迭代阈值法、双阈值法等。 46 | (1)Р参数法 47 | Р参数法根据目标区域在整个图像上占的比例设定阈值,然后进行二值化。假如已知了目标占到整幅图像的多少,这个时候便能够使用Р参数法,Р为比例值。Р参数法的步骤如下: 48 | ①计算出图像的直方图分布P(t),t=0,1,2.....255。 49 | ②计算阈值T,m×n为图像大小。 50 | (2)Otsu阈值法 51 | Otus阈值法又名最大类间方差法,由Otsu在1978年提出,基本思想是根据图像的灰度特征把图像分成前景和背景两种,他们的类间方差最大时的阈值就是最优阈值。类间方差越大,前景与背景就越不一样,所以最大化类间方差法拥有很好的效果[36l。(3)迭代阈值法 52 | 迭代阈值法利用像素的相似性,先选择一个合适的开始阈值,接着使用某种方法不停的更新直到收敛,即直到找到相似的像素点。迭代阈值法简单且容易实现,拥有较好的执行速度。 53 | (4)双阈值法 54 | 针对单阈值法的局限性,即图像的灰度直方图的双峰通常都会重叠,使用单阈值法会有较大误差。双阈值法是利用两个阈值T与T,来区分背景与目标,T, 10 and aspect_ratio < 0.5: 176 | cv2.putText(fgmask, 'FALL', (x, y), cv2.FONT_HERSHEY_TRIPLEX, 0.5, (255, 255, 255), 2) 177 | 178 | cv2.rectangle(frame, (x, y), (x + w, y + h), (0, 0, 255), 2) 179 | 180 | if aspect_ratio >= 0.5: 181 | self.consecutive_frames = 0 182 | cv2.rectangle(frame, (x, y), (x + w, y + h), (0, 255, 0), 2) 183 | 184 | cv2.imshow('video', frame) 185 | 186 | if cv2.waitKey(2) & 0xff == ord('q'): 187 | return False 188 | else: 189 | return False 190 | 191 | return True 192 | 193 | def run(self): 194 | root = tk.Tk() 195 | root.withdraw() 196 | 197 | mode = input("Enter 'webcam' to use webcam or 'file' to select a file: ") 198 | 199 | if mode == 'webcam': 200 | self.use_webcam() 201 | elif mode == 'file': 202 | file_path = self.select_file() 203 | self.cap = cv2.VideoCapture(file_path) 204 | else: 205 | print("Invalid mode. Exiting program.") 206 | exit() 207 | 208 | while True: 209 | ret, frame = self.cap.read() 210 | 211 | if not ret: 212 | break 213 | 214 | if not self.process_frame(frame): 215 | break 216 | 217 | self.cap.release() 218 | cv2.destroyAllWindows() 219 | 220 | ``` 221 | 222 | 这个程序是一个用于检测摔倒的程序。它使用OpenCV库来处理视频流或者从文件中读取视频,并使用背景减法算法来提取前景物体。然后,它通过计算轮廓的面积、高度和宽度来找到最大的轮廓,并绘制一个矩形框来标记该物体。如果检测到物体的高度小于宽度,并且连续帧数超过10帧且高宽比小于0.5,则将"FALL"标签添加到图像上。程序会在一个窗口中显示视频,并在按下"q"键时退出程序。 223 | 224 | #### 5.3 main.py 225 | 226 | ```python 227 | 228 | 229 | class FallDetector: 230 | def __init__(self, video_path): 231 | self.video = video.Video(video_path) 232 | time.sleep(0.5) 233 | self.video.nextFrame() 234 | self.video.testBackgroundFrame() 235 | 236 | def run(self): 237 | while True: 238 | try: 239 | self.video.nextFrame() 240 | self.video.testBackgroundFrame() 241 | self.video.updateBackground() 242 | self.video.compare() 243 | self.video.showFrame() 244 | self.video.testSettings() 245 | if self.video.testDestroy(): 246 | sys.exit() 247 | except Exception as e: 248 | break 249 | 250 | ``` 251 | 252 | 这个程序文件是一个摔倒检测器的主程序。它使用了一个名为"video"的自定义模块来处理视频流。程序首先导入了必要的库和模块,然后创建了一个名为"video"的视频对象,指定了要处理的视频文件路径。接着程序进入一个循环,不断获取下一帧视频,对帧进行处理并更新背景模型。然后,程序进行比较,显示帧,并进行一些设置的测试。如果检测到程序需要终止,则退出程序。 253 | 254 | #### 5.4 person.py 255 | 256 | ```python 257 | class Person(object): 258 | """Person""" 259 | amount = 0 260 | 261 | def __init__(self, x, y, w, h, movementMaximum, movementMinimum, movementTime): 262 | self.x = x 263 | self.y = y 264 | self.w = w 265 | self.h = h 266 | self.movementTime = movementTime 267 | self.movementMaximum = movementMaximum 268 | self.movementMinimum = movementMinimum 269 | self.lastmoveTime = 0 270 | self.alert = 0 271 | self.alarmReported = 0 272 | self.lastseenTime = 0 273 | self.remove = 0 274 | Person.amount += 1 275 | if Person.amount > 1000: # If person amount > 1000, set amount to 0 276 | Person.amount = 0 277 | self.id = Person.amount 278 | 279 | def samePerson(self, x, y, w, h): # To Check if its the same person in the frame 280 | same = 0 281 | if x+self.movementMaximum > self.x and x-self.movementMaximum < self.x: 282 | if y+self.movementMaximum > self.y and y-self.movementMaximum < self.y: 283 | same = 1 284 | return same 285 | 286 | def editPerson(self, x, y, w, h): # To Check 287 | if abs(x-self.x) > self.movementMinimum or abs(y-self.y) > self.movementMinimum or abs(w-self.w) > self.movementMinimum or abs(h-self.h) > self.movementMinimum: 288 | self.lastmoveTime = 0 289 | self.x = x 290 | self.y = y 291 | self.w = w 292 | self.h = h 293 | self.lastseenTime = 0 294 | 295 | def getId(self): # To get the id of the person 296 | return self.id 297 | 298 | def tick(self): 299 | self.lastmoveTime += 1 # Lastmovetime 300 | self.lastseenTime += 1 # Lastseentime 301 | if self.lastmoveTime > self.movementTime: 302 | self.alert = 1 303 | if self.lastseenTime > 4: # how many frames ago last seen 304 | self.remove = 1 305 | 306 | def getAlert(self): # Raise an alert function 307 | return self.alert 308 | 309 | def getRemove(self): 310 | return self.remove 311 | 312 | 313 | class Persons: 314 | def __init__(self, movementMaximum, movementMinimum, movementTime): 315 | self.persons = [] # Making an empty list of persons 316 | self.movementMaximum = movementMaximum 317 | self.movementMinimum = movementMinimum 318 | self.movementTime = movementTime 319 | Person.amount = 0 # Initial count of person 320 | 321 | def addPerson(self, x, y, w, h): 322 | person = self.familiarPerson(x, y, w, h) 323 | if person: # if its the same person edit the coordinates and w, h 324 | person.editPerson(x, y, w, h) 325 | return person 326 | else: # Else append the person to the list 327 | person = Person(x ,y ,w ,h , self.movementMaximum, self.movementMinimum, self.movementTime) 328 | self.persons.append(person) 329 | return person 330 | 331 | def familiarPerson(self, x, y, w, h): # To check if its the same person 332 | for person in self.persons: 333 | if person.samePerson(x, y, w, h): 334 | return person 335 | return None 336 | 337 | def tick(self): 338 | for person in self.persons: 339 | person.tick() 340 | if person.getRemove(): 341 | self.persons.remove(person) 342 | ``` 343 | 344 | 这个程序文件名为person.py,它定义了两个类:Person和Persons。 345 | 346 | Person类代表一个人,具有以下属性: 347 | - x, y, w, h:人的位置和尺寸 348 | - movementTime:人的移动时间 349 | - movementMaximum:人的最大移动范围 350 | - movementMinimum:人的最小移动范围 351 | - lastmoveTime:上次移动的时间 352 | - alert:是否发出警报 353 | - alarmReported:是否报告了警报 354 | - lastseenTime:上次被观察到的时间 355 | - remove:是否需要移除 356 | - id:人的唯一标识符 357 | 358 | Person类还有以下方法: 359 | - samePerson:检查是否是同一个人 360 | - editPerson:编辑人的属性 361 | - getId:获取人的标识符 362 | - tick:更新人的状态 363 | - getAlert:获取警报状态 364 | - getRemove:获取移除状态 365 | 366 | Persons类代表多个人的集合,具有以下属性: 367 | - persons:人的列表 368 | - movementMaximum:人的最大移动范围 369 | - movementMinimum:人的最小移动范围 370 | - movementTime:人的移动时间 371 | 372 | Persons类还有以下方法: 373 | - addPerson:添加一个人到集合中 374 | - familiarPerson:检查是否是同一个人 375 | - tick:更新集合中每个人的状态 376 | 377 | #### 5.5 settings.py 378 | 379 | ```python 380 | class Settings(object): 381 | def __init__(self): 382 | self.debug = 1 383 | self.source = 0 384 | self.bsMethod = 1 385 | self.MOG2learningRate = 0.001 386 | self.MOG2shadow = 0 387 | self.MOG2history = 100 388 | self.MOG2thresh = 20 389 | self.minArea = 50*50 390 | self.thresholdLimit = 20 391 | self.dilationPixels = 30 392 | self.useGaussian = 1 393 | self.useBw = 1 394 | self.useResize = 1 395 | self.gaussianPixels = 31 396 | self.movementMaximum = 75 397 | self.movementMinimum = 3 398 | self.movementTime = 35 399 | self.location = 'Viikintie 1' 400 | self.phone = '01010101010' 401 | ``` 402 | 403 | 这个程序文件名为settings.py,它定义了一个名为Settings的类。这个类有一个构造函数__init__(),用于初始化类的属性。 404 | 405 | 类的属性包括: 406 | - debug:一个布尔值,用于调试目的。 407 | - source:相机源。 408 | - bsMethod:一个整数,表示在bs.py中选择的方法。 409 | - MOG2learningRate:一个浮点数,表示MOG2学习率。 410 | - MOG2shadow:一个整数,表示MOG2阴影。 411 | - MOG2history:一个整数,表示MOG2历史。 412 | - MOG2thresh:一个整数,表示MOG2阈值。 413 | - minArea:一个整数,表示被视为人的最小面积。 414 | - thresholdLimit:一个整数,表示阈值限制。 415 | - dilationPixels:一个整数,表示膨胀像素。 416 | - useGaussian:一个布尔值,表示是否使用高斯。 417 | - useBw:一个布尔值,表示是否使用黑白。 418 | - useResize:一个布尔值,表示是否使用调整大小。 419 | - gaussianPixels:一个整数,表示高斯像素。 420 | - movementMaximum:一个整数,表示仍然被视为同一个人的最大移动量。 421 | - movementMinimum:一个整数,表示不触发警报的最小移动量。 422 | - movementTime:一个整数,表示警报触发后的帧数。 423 | - location:一个字符串,表示位置。 424 | - phone:一个字符串,表示电话号码。 425 | 426 | 这个类的作用是设置和存储各种参数和设置,用于一个跌倒检测器的程序。 427 | 428 | #### 5.6 video.py 429 | 430 | ```python 431 | 432 | class Video: 433 | def __init__(self, path): 434 | self.settings = settings.Settings() 435 | self.camera = cv2.VideoCapture(path) 436 | self.bs = bs.Bs() 437 | self.persons = person.Persons(self.settings.movementMaximum, self.settings.movementMinimum, self.settings.movementTime) 438 | self.start = time.time() 439 | self.webservice = webservice.Webservice(self.settings.location, self.settings.phone) 440 | self.errorcount = 0 441 | self.alertLog = [] 442 | self.frameCount = 1 443 | 444 | def nextFrame(self): 445 | grabbed, self.frame = self.camera.read() 446 | if not grabbed: 447 | self.destroyNow() 448 | self.convertFrame() 449 | 450 | def showFrame(self): 451 | if self.settings.debug: 452 | cv2.imshow("Thresh", self.thresh) 453 | cv2.imshow("Feed", self.frame) 454 | 455 | def destroyNow(self): 456 | self.camera.release() 457 | cv2.destroyAllWindows() 458 | 459 | def testDestroy(self): 460 | key = cv2.waitKey(1) & 0xFF 461 | if key == ord("q"): 462 | self.destroyNow() 463 | return 1 464 | else: 465 | return 0 466 | 467 | def resetBackgroundFrame(self): 468 | grabbed, self.frame = self.camera.read() 469 | self.convertFrame() 470 | self.bs.resetBackgroundIfNeeded(self.frame) 471 | self.persons = person.Persons(self.settings.movementMaximum, self.settings.movementMinimum, self.settings.movementTime) 472 | 473 | def testBackgroundFrame(self): 474 | key = cv2.waitKey(1) & 0xFF 475 | if key == ord("n"): 476 | self.bs.deleteBackground() 477 | 478 | def updateBackground(self): 479 | self.bs.updateBackground(self.frame) 480 | 481 | def testSettings(self): 482 | key = cv2.waitKey(1) & 0xFF 483 | if key == ord("0"): 484 | self.settings.minArea += 50 485 | print("minArea: " , self.settings.minArea) 486 | if key == ord("9"): 487 | self.settings.minArea -= 50 488 | print("minArea: " , self.settings.minArea) 489 | if key == ord("8"): 490 | self.settings.dilationPixels += 1 491 | print("dilationPixels: " , self.settings.dilationPixels) 492 | if key == ord("7"): 493 | self.settings.dilationPixels -= 1 494 | print("dilationPixels: " , self.settings.dilationPixels) 495 | if key == ord("6"): 496 | self.settings.thresholdLimit += 1 497 | print("thresholdLimit: " , self.settings.thresholdLimit) 498 | if key == ord("5"): 499 | self.settings.thresholdLimit -= 1 500 | print("thresholdLimit: " , self.settings.thresholdLimit) 501 | if key == ord("4"): 502 | self.settings.movementMaximum += 1 503 | print("movementMaximum: " , self.settings.movementMaximum) 504 | if key == ord("3"): 505 | self.settings.movementMaximum -= 1 506 | print("movementMaximum: " , self.settings.movementMaximum) 507 | if key == ord("2"): 508 | self.settings.movementMinimum += 1 509 | print("movementMinimum: " , self.settings.movementMinimum) 510 | if key == ord("1"): 511 | self.settings.movementMinimum -= 1 512 | print("movementMinimum: " , self.settings.movementMinimum) 513 | if key == ord("o"): 514 | if self.settings.useGaussian: 515 | self.settings.useGaussian = 0 516 | print("useGaussian: off") 517 | self.resetbackgroundFrame() 518 | else: 519 | self.settings.useGaussian = 1 520 | print("useGaussian: on") 521 | self.resetbackgroundFrame() 522 | if key == ord("+"): 523 | self.settings.movementTime += 1 524 | print("movementTime: " , self.settings.movementTime) 525 | if key == ord("p"): 526 | self.settings.movementTime -= 1 527 | print("movementTime : " , self.settings.movementTime) 528 | 529 | def convertFrame (self): 530 | if self.settings.useResize: 531 | r = 750.0 / self.frame.shape[1] 532 | dim = (750, int(self.frame.shape[0] * r)) 533 | self.frame = cv2.resize(self.frame, dim, interpolation = cv2.INTER_AREA) 534 | if self.settings.useBw: 535 | self.frame = cv2.cvtColor(self.frame, cv2.COLOR_BGR2GRAY) 536 | if self.settings.useGaussian: 537 | self.frame = cv2.GaussianBlur(self.frame, (self.settings.gaussianPixels, self.settings.gaussianPixels), 0) 538 | 539 | def compare(self): 540 | self.thresh = self.bs.compareBackground(self.frame) 541 | self.thresh = cv2.dilate(self.thresh, None, iterations=self.settings.dilationPixels) 542 | contours, _ = cv2.findContours(self.thresh.copy(), cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE) 543 | 544 | self.persons.tick() 545 | 546 | detectStatus = "idle" 547 | 548 | for contour in contours: 549 | if cv2.contourArea(contour) < self.settings.minArea: 550 | continue 551 | 552 | (x, y, w, h) = cv2.boundingRect(contour) 553 | 554 | person = self.persons.addPerson(x, y, w, h) 555 | color = (0, 255, 0) 556 | if person.alert: 557 | color = (0, 0, 255) 558 | cv2.line(self.frame, (x, y), (x + w, y + h), color, 2) 559 | cv2.line(self.frame, (x + w, y), (x , y + h), color, 2) 560 | detectStatus = "Alarm, not moving" 561 | if not person.alarmReported: 562 | self.webservice.alarm("not moving", person.id) 563 | person.alarmReported = 1 564 | 565 | cv2.rectangle(self.frame, (x, y), (x + w, y + h), color, 2) 566 | cv2.putText(self.frame, "{}".format(cv2.contourArea(contour)), (x, y+h+20), cv2.FONT_HERSHEY_SIMPLEX, 0.7, color, 1) 567 | cv2.putText(self.frame, "{} : {}".format(person.id, person.lastmoveTime), (x, y+20), cv2.FONT_HERSHEY_SIMPLEX, 0.8, color, 1) 568 | 569 | if self.settings.debug: 570 | self.end = time.time() 571 | seconds = self.end - self.start 572 | fps = round((1 / seconds), 1) 573 | self.start = time.time() 574 | 575 | cv2.putText(self.frame, "Status: {}".format(detectStatus), (10, 20), cv2.FONT_HERSHEY_SIMPLEX, 0.8, (0, 140, 255), 1) 576 | cv2.putText(self.frame, "FPS: {}".format(fps), (400, 20), cv2.FONT_HERSHEY_SIMPLEX, 0.8, (0, 140, 255), 1) 577 | 578 | def newLightconditions(self): 579 | self.errorcount += 1 580 | if self.errorcount > 10: 581 | time.sleep(1.0) 582 | self.resetBackgroundFrame() 583 | self.errorcount = 0 584 | ``` 585 | 586 | 这个程序文件名为video.py,它是一个用于检测摔倒的视频类。它包含了一些功能和类,如设置、人物、网络服务和背景差分等。在初始化函数中,它接受一个路径参数,用于指定视频源。它还创建了一个摄像头对象和一个背景差分对象。它还初始化了一些变量,如开始时间、错误计数和警报日志等。它还定义了一些方法,如获取下一帧、显示帧、销毁帧等。它还定义了一些用于测试和设置的方法,如重置背景帧、更新背景、测试设置等。最后,它定义了一个用于比较帧和检测人物的方法。在这个方法中,它比较当前帧和背景帧的差异,并找到轮廓。然后,它根据轮廓的面积和移动时间判断是否发生了摔倒,并根据情况报警。它还显示了一些HUD信息,如状态和FPS。如果检测到光照条件发生变化,它会重置背景帧。 587 | 588 | ## 6.系统整体结构 589 | 590 | 整体功能和构架概述: 591 | 该程序是一个用于检测摔倒的系统,通过处理视频流来实时监测人体的状态。它使用背景差分算法来提取前景物体,并通过比较轮廓的面积和移动时间来判断是否发生了摔倒。如果检测到摔倒事件,系统会触发警报并记录日志。程序的整体构架包括多个模块和类,如背景差分模块、人物类、设置类、视频类和网络服务类。 592 | 593 | 下面是每个文件的功能整理: 594 | 595 | | 文件名 | 功能 | 596 | | --- | --- | 597 | | bs.py | 实现背景减除操作,根据选择的方法更新、比较、删除和重置背景。 | 598 | | fall_detection.py | 检测摔倒事件,通过提取前景物体并计算轮廓的面积和移动时间来判断是否发生了摔倒。 | 599 | | ui.py | 程序的主程序,创建视频对象并循环处理视频帧,更新背景模型并进行摔倒检测。 | 600 | | person.py | 定义了人物类和人物集合类,用于管理和跟踪检测到的人物。 | 601 | | settings.py | 定义了设置类,用于存储和管理程序的各种参数和设置。 | 602 | | video.py | 实现了视频类,用于处理视频流,包括获取帧、显示帧、检测摔倒事件等功能。 | 603 | | webservice.py | 实现了网络服务类,用于接收和处理来自其他系统的请求,并提供摔倒事件的警报和日志记录。 | 604 | 605 | 以上是对重点文件功能的简要概括。每个文件在整个系统中扮演不同的角色,共同构成了一个完整的摔倒检测系统。 606 | 607 | # 7.运动目标检测 608 | 目标检测是计算机视觉技术的重要组成部分,在目标检测过程中,计算机能否自动且准确的检测到目标,并且拥有快速性及鲁棒性及其重要。现阶段目标检测算法虽然还有一些不足,但是已经广泛的应用在安全监控、智能交通、医疗诊断及视觉导航等领域之中。本小节主要介绍运动目标检测一些常用算法及其使用。 609 | 运动目标检测是指通过某种方法将一系列图像里变化的部分给检测出来,并把运动目标提取出来的过程39][2]。运动目标检测是计算机视觉应用的基础,在目标定位,目标跟踪,目标分类等后期处理中非常关键。视频摄像头可以分成移动式与固定式,使得目标检测方法也可以分成静态背景下的检测与运动背景下的检测两种,现实生活中,由于大部分监控的摄像头都是固定不变的,所以本小节主要对静态背景下的运动检测进行研究。在此状态下,常用的检测方法有光流法、帧间差分法、背景减除法等[4]。 610 | (1)光流法 611 | 物体在空间里的运动可以用运动场来表示,运动场变化引起的光线的变化透过视网膜,从而让人们看到物体的运动,由于这种光线的变化像流水一样,所以 Gisbon在1950年首次提出了光流的概念。后来研究人员将光流的概念引入到计算机视觉中,把图像的灰度变化与二维速度场相联系,由于摄像头所捕捉到的图像也是二维且连续的,所以图像上的光流场就反映了像素点在图像平面上的运动速度与幅度。运动的物体在图像上可以由像素值的灰度变化来表示,假设在现实场景下,一个不变的点在图像上的投影像素点的瞬时灰度值是不会变的[1]。 612 | (2)背景减除法 613 | 背景减除法的主要思想是把包含目标的视频图像帧与不包含目标的背景帧做差分运算,最后得到目标[3]。背景减除法也比较常用于目标分割中。要利用背景减除法,首先应该进行背景建模,且背景图像也要进行实时更新。背景模型必须具有自适应性,这样才能最大限度的降低场景的动态变化对运动目标检测的影响。常用的背景建模方法有线性卡尔曼滤波法和混合高斯模型等。 614 | 把背景灰度图像用B(x, y)表示,当前图像帧用C(x,y)表示,差分图像用D(x,y)表示。背景减除法过程可以描述为: 615 | ![image.png](86ae52cd8973b9b00b90ec9bac2ee80c.webp) 616 | 617 | 式中BW(x,y)表示二值图像,T为阈值。 618 | 背景减除法广泛应用于实时的视觉跟踪系统中,检测的过程中能够实时的确定目标的位置、形状等信息特征,并且准确度也较高。但是,背景减除法对背景的依赖比较高,容易受光线等环境因素变化的影响。因为背景建模的时间与当前帧所在时间有一定的时间间隔,背景已经发生了较大的变化,所以对检测结果也会有较大的影响。 619 | 下图为背景图,图为有人体目标的运动图,利用背景减除法提取目标,提取之后进行阈值处理,然后可以如图所示的效果图。由于人体皮肤与背景中的柜子颜色较为类似,且存在一些光线的干扰,图中存在较多的噪声,后续可以利用形态学处理减少噪声,突出目标人体。利用形态学对图进行预处理,所得结果如图。可以看出人体目标更加突出明显。 620 | ![image.png](30fd441a4f520d3112c4d5b35237c9ab.webp) 621 | ![image.png](204be5aa28a8788fba2f8aca954b0961.webp) 622 | 623 | # 8.人体宽高比 624 | 当一个人站立的时候,他的高度一定比宽度大,当他跌倒后,宽度就会比高度大。使用这个特性可以对人体的活动状态进行检测。人体宽高比(WH-Ratio)的定义为:人体最小外接矩阵的宽度与高度的比值,人体最小外接矩阵即完全包围人体面积的最小矩形框。如果人体未跌倒,人体宽高比就会远小于1,如果跌倒了,且处于跌倒状态,人体宽高比就会远大于1。所以可以把人体宽高比的阈值设定为1。 625 | 下图为做跌倒检测时的人体摔倒实验图,绿色矩形框为人体最小外接矩阵。如图所示,人体在站立的状态下,人体最小外接矩阵的高度大于其宽度。图中人体跌倒后,外接矩阵的宽度大于高度。 626 | ![image.png](b4fe6f5f5be7d25d3d5714c2c5b13282.webp) 627 | 628 | # 9.中心变化 629 | 对于类似于深蹲捡东西等动作,可能会出现同时满足人体宽高比与有效面积比的情况,为了解决这个干扰问题,可以采用中心变化率来作为判断依据。做深蹲动作时,视频前后两帧的人体中心点的距离会变大,两点连线的斜率也会发生变化。假设跌倒前后两帧的人体中心坐标分别为(x,yo),(x1,y),则斜率k为 630 | ![image.png](781684f9588c9d2c8a8834c36de256a3.webp) 631 | 632 | 在平常活动中,斜率会趋近于0,而在人体深蹲时斜率会变大,且趋向于无穷大,而当人摔倒时,斜率k是不可能趋向于无穷大的。利用这个特性,可以排除人体在深蹲或起身时造成的跌倒误判。另外,两点之间的距离|AB(可以用来作为辅助判断,在人跌倒的瞬间往往时间非常短,而在平常人体移动的较慢,如果在相对比较短的时间内|ABl非常大,说明极有可能是摔倒了。 633 | 文献[5]利用身体轮廓边缘的像素点来计算人体的中心,求取过程稍微有些麻烦,本文取人体最小外接矩阵的对角线交点来近似作为人体的中心。如下图所示: 634 | ![image.png](094206fd31951e1305dd93cda69aec67.webp) 635 | 636 | # 10.算法流程图 637 | 首先从视频流中获取图像信息,对图像进行预处理,包括图像的二值化来获得灰度图像,利用高斯滤波读图像进行平滑处理,减少图像噪声。利用背景减除法获取人体大概轮廓,进一步进行图像处理,去除噪声及阈值处理,然后对图像进行形态学处理,获得更加清晰的轮廓。获取人体最小外接矩阵,对矩阵信息进行判断,是否满足宽高比阈值即宽高比大于1,不满足则处理下一帧图像,满足则进行有效面积比与中心变化判断,排除一些特殊动作与活动的情况,全部条件满足,则表示有人摔倒,最后输出信号,发出警告。如果都不满足,则不断获取下帧图像进行判断。如图为改进的跌倒算法流程图。 638 | ![image.png](337c5bc1200055bb502cec10ba3bb441.webp) 639 | 640 | # 11.系统整合 641 | 下图[完整源码&环境部署视频教程&自定义UI界面](https://s.xiaocichang.com/s/b2e902) 642 | ![1.png](0b4254edbec2d7995b3cf0e39d43644e.webp) 643 | 644 | 参考博客[《基于OpenCV的人员跌倒检测系统(源码&部署教程)》](https://mbd.pub/o/qunshan/work) 645 | 646 | # 12.参考文献 647 | --- 648 | [1][陈玮](https://s.wanfangdata.com.cn/paper?q=%E4%BD%9C%E8%80%85:%22%E9%99%88%E7%8E%AE%22),[周晴](https://s.wanfangdata.com.cn/paper?q=%E4%BD%9C%E8%80%85:%22%E5%91%A8%E6%99%B4%22),[曹桂涛](https://s.wanfangdata.com.cn/paper?q=%E4%BD%9C%E8%80%85:%22%E6%9B%B9%E6%A1%82%E6%B6%9B%22).[基于SVM和阈值分析法的摔倒检测系统](https://d.wanfangdata.com.cn/periodical/jsjyyyrj201707035)[J].[计算机应用与软件](https://sns.wanfangdata.com.cn/perio/jsjyyyrj).2017,(7).DOI:10.3969/j.issn.1000-386x.2017.07.034. 649 | 650 | [2][张立](https://s.wanfangdata.com.cn/paper?q=%E4%BD%9C%E8%80%85:%22%E5%BC%A0%E7%AB%8B%22),[王渊民](https://s.wanfangdata.com.cn/paper?q=%E4%BD%9C%E8%80%85:%22%E7%8E%8B%E6%B8%8A%E6%B0%91%22).[基于核函数的非线性支持向量机](https://d.wanfangdata.com.cn/periodical/kjzw201701274)[J].[科技展望](https://sns.wanfangdata.com.cn/perio/kjzw).2017,(1). 651 | 652 | [3][詹志宇](https://s.wanfangdata.com.cn/paper?q=%E4%BD%9C%E8%80%85:%22%E8%A9%B9%E5%BF%97%E5%AE%87%22),[安友军](https://s.wanfangdata.com.cn/paper?q=%E4%BD%9C%E8%80%85:%22%E5%AE%89%E5%8F%8B%E5%86%9B%22),[崔文超](https://s.wanfangdata.com.cn/paper?q=%E4%BD%9C%E8%80%85:%22%E5%B4%94%E6%96%87%E8%B6%85%22).[图像阈值分割算法及对比研究](https://d.wanfangdata.com.cn/periodical/hbydjs201704044)[J].[信息通信](https://sns.wanfangdata.com.cn/perio/hbydjs).2017,(4). 653 | 654 | [4][刘继元](https://s.wanfangdata.com.cn/paper?q=%E4%BD%9C%E8%80%85:%22%E5%88%98%E7%BB%A7%E5%85%83%22).[基于树莓派的物联网应用](https://d.wanfangdata.com.cn/periodical/dzsj201608021)[J].[电子世界](https://sns.wanfangdata.com.cn/perio/dzsj).2016,(8). 655 | 656 | [5][高青](https://s.wanfangdata.com.cn/paper?q=%E4%BD%9C%E8%80%85:%22%E9%AB%98%E9%9D%92%22),[陈洪波](https://s.wanfangdata.com.cn/paper?q=%E4%BD%9C%E8%80%85:%22%E9%99%88%E6%B4%AA%E6%B3%A2%22),[冯涛](https://s.wanfangdata.com.cn/paper?q=%E4%BD%9C%E8%80%85:%22%E5%86%AF%E6%B6%9B%22),等.[老年人跌倒检测系统的研究现状与发展趋势](https://d.wanfangdata.com.cn/periodical/ylwszb201512032)[J].[医疗卫生装备](https://sns.wanfangdata.com.cn/perio/ylwszb).2015,(12).DOI:10.7687/J.ISSN1003-8868.2015.12.102. 657 | 658 | [6][宋菲](https://s.wanfangdata.com.cn/paper?q=%E4%BD%9C%E8%80%85:%22%E5%AE%8B%E8%8F%B2%22),[薛质](https://s.wanfangdata.com.cn/paper?q=%E4%BD%9C%E8%80%85:%22%E8%96%9B%E8%B4%A8%22).[基于OpenCV的老人跌倒检测的设计和实现](https://d.wanfangdata.com.cn/periodical/xxjs201511035)[J].[信息技术](https://sns.wanfangdata.com.cn/perio/xxjs).2015,(11).DOI:10.13274/j.cnki.hdzj.2015.11.035. 659 | 660 | [7][高峰](https://s.wanfangdata.com.cn/paper?q=%E4%BD%9C%E8%80%85:%22%E9%AB%98%E5%B3%B0%22),[陈雄](https://s.wanfangdata.com.cn/paper?q=%E4%BD%9C%E8%80%85:%22%E9%99%88%E9%9B%84%22),[陈婉秋](https://s.wanfangdata.com.cn/paper?q=%E4%BD%9C%E8%80%85:%22%E9%99%88%E5%A9%89%E7%A7%8B%22).[基于树莓派B +微处理器的视频检测跟踪系统](https://d.wanfangdata.com.cn/periodical/dsjs201519026)[J].[电视技术](https://sns.wanfangdata.com.cn/perio/dsjs).2015,(19).DOI:10.16280/j.videoe.2015.19.026. 661 | 662 | [8][陈金辉](https://s.wanfangdata.com.cn/paper?q=%E4%BD%9C%E8%80%85:%22%E9%99%88%E9%87%91%E8%BE%89%22),[叶西宁](https://s.wanfangdata.com.cn/paper?q=%E4%BD%9C%E8%80%85:%22%E5%8F%B6%E8%A5%BF%E5%AE%81%22).[行人检测中非极大值抑制算法的改进](https://d.wanfangdata.com.cn/periodical/hdlgdxxb201503015)[J].[华东理工大学学报(自然科学版)](https://sns.wanfangdata.com.cn/perio/hdlgdxxb).2015,(3).DOI:10.3969/j.issn.1006-3080.2015.03.015. 663 | 664 | [9][季鸣](https://s.wanfangdata.com.cn/paper?q=%E4%BD%9C%E8%80%85:%22%E5%AD%A3%E9%B8%A3%22),[王红茹](https://s.wanfangdata.com.cn/paper?q=%E4%BD%9C%E8%80%85:%22%E7%8E%8B%E7%BA%A2%E8%8C%B9%22).[一种基于改进差分的运动目标检测方法](https://d.wanfangdata.com.cn/periodical/wjsjyy201503009)[J].[网络新媒体技术](https://sns.wanfangdata.com.cn/perio/wjsjyy).2015,(3).DOI:10.3969/j.issn.2095-347X.2015.03.009. 665 | 666 | [10][张春凤](https://s.wanfangdata.com.cn/paper?q=%E4%BD%9C%E8%80%85:%22%E5%BC%A0%E6%98%A5%E5%87%A4%22),[宋加涛](https://s.wanfangdata.com.cn/paper?q=%E4%BD%9C%E8%80%85:%22%E5%AE%8B%E5%8A%A0%E6%B6%9B%22),[王万良](https://s.wanfangdata.com.cn/paper?q=%E4%BD%9C%E8%80%85:%22%E7%8E%8B%E4%B8%87%E8%89%AF%22).[行人检测技术研究综述](https://d.wanfangdata.com.cn/periodical/dsjs201403043)[J].[电视技术](https://sns.wanfangdata.com.cn/perio/dsjs).2014,(3).DOI:10.3969/j.issn.1002-8692.2014.03.043. 667 | 668 | 669 | 670 | 671 | --- 672 | #### 如果您需要更详细的【源码和环境部署教程】,除了通过【系统整合】小节的链接获取之外,还可以通过邮箱以下途径获取: 673 | #### 1.请先在GitHub上为该项目点赞(Star),编辑一封邮件,附上点赞的截图、项目的中文描述概述(About)以及您的用途需求,发送到我们的邮箱 674 | #### sharecode@yeah.net 675 | #### 2.我们收到邮件后会定期根据邮件的接收顺序将【完整源码和环境部署教程】发送到您的邮箱。 676 | #### 【免责声明】本文来源于用户投稿,如果侵犯任何第三方的合法权益,可通过邮箱联系删除。 --------------------------------------------------------------------------------