阈值的求解(两峰之间)

简介: 阈值的求解(两峰之间)
import cv2
import numpy as np
image=cv2.imread('4.jpg')
# image=cv2.resize(image1,(200,200))
image_gray=cv2.cvtColor(image,cv2.COLOR_BGR2GRAY)
w,h=image_gray.shape
px_count=np.zeros(256)
#照片长、宽分别是w,h
for w_w in range(w):
    for h_h in range(h):
        px_count[image_gray[w_w,h_h]]+=1
# print(px_count)
#找最大次数(最大峰)
max_index=np.argmax(px_count,axis=0)
#找次大峰
px_count[max_index]*=-1
next_max_index=np.argmax(px_count,axis=0)
px_count[next_max_index]*=-1
#找谷值
if max_index>next_max_index:
    min_index=np.agrmin(px_count[next_max_index:max_index+1],axis=0)
    min_index+=next_max_index
else:
    min_index=np.argmin(px_count[max_index:next_max_index+1],axis=0)
    min_index+=max_index
#TODO.1
# image_gray 上面转换为黑白的照片;
# min_index  谷值
#0~255 代表不同的颜色,min_index为阈值,大于阈值的全部置为255(白色)
_,image_binary=cv2.threshold(image_gray,min_index,255,cv2.THRESH_BINARY)
cv2.imshow('the original image',image)
cv2.imshow('black and white figure',image_gray)
cv2.imshow('the threshold figure',image_binary)
if cv2.waitKey(0)&0xFF==27:
    cv2.destroyAllWindows()

image.png

image.png

4.jpg

image.png

照片来源于网络,侵权请联系我删除

目录
相关文章
|
3月前
【代数学作业5】理想的分解:高斯整数环中理想的结构,并根据其范数和素数的性质进行分解
【代数学作业5】理想的分解:高斯整数环中理想的结构,并根据其范数和素数的性质进行分解
34 0
|
15天前
极值分析:分块极大值BLOCK-MAXIMA、阈值超额法、广义帕累托分布GPD拟合降雨数据时间序列
极值分析:分块极大值BLOCK-MAXIMA、阈值超额法、广义帕累托分布GPD拟合降雨数据时间序列
33 0
极值分析:分块极大值BLOCK-MAXIMA、阈值超额法、广义帕累托分布GPD拟合降雨数据时间序列
|
5月前
|
算法 定位技术
插值、平稳假设、本征假设、变异函数、基台、块金、克里格、线性无偏最优…地学计算概念及公式推导
插值、平稳假设、本征假设、变异函数、基台、块金、克里格、线性无偏最优…地学计算概念及公式推导
|
机器学习/深度学习 传感器 算法
【蝴蝶算法】基于随机惯性权重策略+最优邻域扰动策略+动态转换概率策略的蝴蝶算法求解单目标优化问题附matlab代码IBOA
【蝴蝶算法】基于随机惯性权重策略+最优邻域扰动策略+动态转换概率策略的蝴蝶算法求解单目标优化问题附matlab代码IBOA
|
BI Python
平均互信息与条件熵
平均互信息与条件熵
83 0
|
算法
基于PSO的最优路径优化仿真,带GUI界面,可以设置粒子数目,迭代次数,优化目标,输出最优解和最优路径
基于PSO的最优路径优化仿真,带GUI界面,可以设置粒子数目,迭代次数,优化目标,输出最优解和最优路径
124 0
基于PSO的最优路径优化仿真,带GUI界面,可以设置粒子数目,迭代次数,优化目标,输出最优解和最优路径
|
算法 编译器 应用服务中间件
加权随机设计与实现
加权随机,是指当我们从某种容器中随机选择一个元素,每个元素被选中的机会并不相等,而是由相对“权重”(或概率)被选中的,也就是说我们想要有“偏心”的得到某种随机结果。
78638 1
加权随机设计与实现
加权平均的重要作用
加权平均的重要作用
507 0
加权平均的重要作用
|
机器学习/深度学习 传感器 算法
基于变因子加权学习与邻代维度交叉策略的改进乌鸦算法求解单目标优化问题含Matlab代码
基于变因子加权学习与邻代维度交叉策略的改进乌鸦算法求解单目标优化问题含Matlab代码
|
机器学习/深度学习 算法
梯度下降算法主要通过哪两个控制因子实现最优参数选择?这两个因子分别起到什么作用?为什么计算损失函数最优值采用梯度下降算法而不是直接对损失函数求导数等于0时的最优解?如何判断梯度下降算法是否正确工作?
梯度下降算法主要通过哪两个控制因子实现最优参数选择?这两个因子分别起到什么作用?为什么计算损失函数最优值采用梯度下降算法而不是直接对损失函数求导数等于0时的最优解?如何判断梯度下降算法是否正确工作? 梯度下降算法有两个重要的控制因子:一个是步长,由学习率控制;一个是方向,由梯度指定。 1.在梯度下降算法中,步长决定了每一次迭代过程中,会往梯度下降的方向移动的距离。试想一下,如果步长很大,算法会在局部最优点附近来回跳动,不会收敛(如下图);但如果步长太短,算法每步的移动距离很短,就会导致算法收敛速度很慢。 2
181 0