惊!Python能够检测动态的物体颜色!

作者 | 李秋键
责编 | 刘静
出品 | CSDN(ID:CSDNnews)

本篇文章将通过图片对比的方法检查视频中的动态物体,并将其中会动的物体定位用cv2矩形框圈出来。本次项目可用于树莓派或者单片机追踪做一些思路参考。寻找动态物体也可以用来监控是否有人进入房间等等场所的监控。不仅如此,通过对物体的像素值判断分类,达到判断动态物体总体颜色的效果。

引言
物体检测,是一种基于目的几何学和统计资料特点的影像拆分,它将目的的拆分和辨识,其准确度和实时性是整个该系统的一项最重要战斗能力。特别是在是在简单桥段中的,必须对多个目的展开实时处理时,目的系统会萃取和辨识就变得尤其最重要。
随着计算机的持续发展和计算机系统感官基本原理的应用,建模数据处理新技术对目的展开动态追踪研究工作更加受欢迎,对目的展开静态动态追踪整合在信息化公交系统、人工智能监视该系统、军事战略目的检验及药学导航系统手术后中的手术器械整合等各个方面具备普遍的应用于商业价值。

而这里显然我们没必要做到如此高深的地步,而是借助python和OpenCV通过图片相减的方法找到动态物体,然后根据像素值的大小判断其中的均值颜色。
首先我们使用的库有cv2,numpy,collections,time。其中导入模块的代码如下:
import?cv2
import?numpy?as?np
import?collections
import?time
camera?=?cv2.VideoCapture(0)
firstframe?=?None
a=0
ret0,frame0?=?camera.read()
cv2.imwrite("1.jpg",frame0)
x,?y,?w,?h?=?10,10,100,100

然后可以知道黑色的最低值为0,0,0,最大值为180,255,46然后建立数组存储颜色数据,通过字典达到映射效果。
#?处理图片
def?get_color(frame):
????print('go?in?get_color')
????hsv?=?cv2.cvtColor(frame,?cv2.COLOR_BGR2HSV)
????maxsum?=?-100
????color?=?None
????color_dict?=?getColorList()
????for?d?in?color_dict:
????????mask?=?cv2.inRange(frame,?color_dict[d][0],?color_dict[d][1])
????????cv2.imwrite(d?+?'.jpg',?mask)
????????binary?=?cv2.threshold(mask,?127,?255,?cv2.THRESH_BINARY)[1]
????????binary?=?cv2.dilate(binary,?None,?iterations=2)
????????img,?cnts,?hiera?=?cv2.findContours(binary.copy(),?cv2.RETR_EXTERNAL,?cv2.CHAIN_APPROX_SIMPLE)
????????sum?=?0
????????for?c?in?cnts:
????????????sum?+=?cv2.contourArea(c)
????????if?sum?>?maxsum:
????????????maxsum?=?sum
????????????color?=?d?
return?color

图像处理
#?处理图片
def?get_color(frame):
????print('go?in?get_color')
????hsv?=?cv2.cvtColor(frame,?cv2.COLOR_BGR2HSV)
????maxsum?=?-100
????color?=?None
????color_dict?=?getColorList()
????for?d?in?color_dict:
????????mask?=?cv2.inRange(frame,?color_dict[d][0],?color_dict[d][1])
????????cv2.imwrite(d?+?'.jpg',?mask)
????????binary?=?cv2.threshold(mask,?127,?255,?cv2.THRESH_BINARY)[1]
????????binary?=?cv2.dilate(binary,?None,?iterations=2)
????????img,?cnts,?hiera?=?cv2.findContours(binary.copy(),?cv2.RETR_EXTERNAL,?cv2.CHAIN_APPROX_SIMPLE)
????????sum?=?0
????????for?c?in?cnts:
????????????sum?+=?cv2.contourArea(c)
????????if?sum?>?maxsum:
????????????maxsum?=?sum
????????????color?=?d?
return?color

:
while?True:
????ret,?frame?=?camera.read()
????if?not?ret:
????????break
????gray?=?cv2.cvtColor(frame,?cv2.COLOR_BGR2GRAY)
????gray?=?cv2.GaussianBlur(gray,?(21,?21),?0)
????a=a+1
????if?a%5==0:
????????cv2.imwrite("1.jpg",?frame)
????firstframe=cv2.imread("1.jpg")
????firstframe=?cv2.cvtColor(firstframe,?cv2.COLOR_BGR2GRAY)
????firstframe=?cv2.GaussianBlur(firstframe,?(21,?21),?0)
????frameDelta?=?cv2.absdiff(firstframe,?gray)
????thresh?=?cv2.threshold(frameDelta,?25,?255,?cv2.THRESH_BINARY)[1]
????thresh?=?cv2.dilate(thresh,?None,?iterations=2)
????#?cnts=?cv2.findContours(thresh.copy(),cv2.RETR_EXTERNAL,cv2.CHAIN_APPROX_SIMPLE)
????x,?y,?w,?h?=?cv2.boundingRect(thresh)
????frame?=?cv2.rectangle(frame,?(x,?y),?(x?+?w,?y?+?h),?(0,?0,?255),?2)
????cv2.imshow("frame",?frame)
?try:
????????ret0,?frame0?=?camera.read()
????????cropped?=?frame0[y:y+h,x:x+w?]??#?裁剪坐标为[y0:y1,?x0:x1]
????????cv2.imwrite("3.jpg",?cropped)
????????frame1?=?cv2.imread(filename)
????????print(get_color(frame1))
????????#?plt.title(label[model.predict_classes(image)],?fontproperties=myfont)
????????imgzi?=?cv2.putText(frame,?get_color(frame1),?(30,?30),?cv2.FONT_HERSHEY_COMPLEX,?1.2,
????????????????????????????(255,?255,?255),?2)
????????cv2.imwrite("2.jpg",?imgzi)
????????cv2.imshow("frame",?cv2.imread("2.jpg"))
????except:
????????pass
????key?=?cv2.waitKey(1)?&?0xFF
????if?key?==?ord("q"):
????????break
camera.release()

至此,动态物体检测代码基本实现。其中的拓展功能可以按照自己的需求进行修改、

目标检测的发展
下面就将目标检测发展做个简单介绍,感兴趣的朋友可以多多学习。
目标检验对于生物来说非常艰难,通过对照片中的有所不同色调组件的感官很更容易整合并归类出有其中目标物体,但对于计算机系统来说,面临的是像素分辨率行列式,难以从影像中的必要获得猫和狗这样的基本概念并整合其方位,再行再加通常多个物体和凌乱的复杂背景夹杂在一同,目标检验更为艰难。但这难不倒生物学家们,在现代感官各个领域,目的检验就是一个十分受欢迎的研究工作朝向,一些特定目的的检验,比如图片检验和天桥检验早已有十分成熟期的新技术了。一般来说的目标检验也有过很多的试图,但是视觉效果常常不错。现代的目的检验一般用于转动视窗的构建,主要还包括三个方法:
借助有所不同大小的转动视窗框住图中的某一部分作为候选区域内;
萃取候选区域内涉及的感官特点。比如图片检验常见的Harr特点;天桥检验和一般来说目的检验常见的HOG特点等;
借助决策树展开辨识,比如常见的SVM建模。
目的检验的第一步是要做到区域提名(region Proposal),也就是找到有可能的有兴趣区域内(region In Risk, ROI)。区域提名类似透镜字符识别(OCR)各个领域的重复,OCR重复常见过重复方式,非常简单说道就是尽可能磨碎到小的相连(比如小的笔划之类),然后再行根据邻接块的一些亲缘特点展开拆分。但目的检验的单纯比起OCR各个领域千差万别,而且三维点状,大小不等,所以一定高度上可以说道区域提名是比OCR重复更难的一个难题。
区域提名有可能的方式有:
一、转动视窗。转动视窗事物上就是穷举法,借助有所不同的时间尺度和长方形比把所有有可能的大大小小的块都穷举出来,然后送来去辨识,辨识出来机率大的就留下。很显著,这样的方式复杂性太低,造成了很多的校验候选区域内,在现实生活中不不切实际。
二、比赛规则块。在穷举法的为基础展开了一些剪枝,只搭配相同的尺寸和长方形比。这在一些特定的应用于桥段是很有效地的,比如照片搜题App小猿搜题中的的简化字检验,因为简化字方方正正,长方形比多数较为完全一致,因此用比赛规则块做到区域内奖提名是一种较为适合的自由选择。但是对于一般来说的目的检验来说,比赛规则块仍然必须采访很多的方位,复杂性低。
三、特异性搜寻。从神经网络的视角来说,后面的方式解任是不俗了,但是精确度不错,所以难题的架构在于如何有效除去校验候选区域内。只不过校验候选区域内多数是再次发生了重合,特异性搜寻借助这一点,自底向上拆分邻接的重合区域内,从而增加校验。
【END】

?热 文?推 荐?
?万字长文详解 Go 程序是怎样跑起来的?| CSDN 博文精选
?2019年胡润百富榜发布,比特大陆创始人詹克团成「中国区块链首富」!
点击阅读原文,输入关键词,即可搜索您想要的 CSDN 文章。

关注公众号:拾黑(shiheibook)了解更多
[广告]赞助链接:
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/
关注网络尖刀微信公众号随时掌握互联网精彩
- 1 美军用超100枚导弹空袭“伊斯兰国” 7809467
- 2 解放军报详解美对台111亿美元军售案 7713315
- 3 中国桥“上新”了哪些黑科技 7617401
- 4 爱泼斯坦案文件公布:现克林顿浴缸照 7520511
- 5 小伙伦敦开店卖胡辣汤:一碗卖130 7424208
- 6 净网:网警斩断“脚本黄牛”链条 7332949
- 7 91岁老人欲把亡妻房子给50岁女友 7232651
- 8 美军士兵在日本冲绳街头全裸被逮捕 7138499
- 9 私人影院要求顾客选异性陪侍套餐 7047448
- 10 演唱会出轨门女主首度发声 6947678







CSDN
