图片拼接 --全景图合成

简介: 图片拼接 --全景图合成

图片拼接 --全景图合成

开发环境
  • python3
  • opencv-contrib-python—3.4.2.16
  • opencv-python—3.4.2.16
  • PyQt5 — 5.15.6
基本思路
  • SIFT特征提取
  • FLANN 特征匹配
  • 单应性矩阵
  • 仿射变换
  • 图片融合
  • 最大内接矩形裁剪
  • GUI界面显示
代码程序

完整工程:https://gitee.com/wangchaosun/image_merge

图片融合

merge_pic.py

import numpy as np
import cv2
LEFTDIR = 1
RIGHTDIR = 2
#  get sift ,flann Machine
def getMachine():
    FLANN_INDEX_KDTREE = 1
    index_params = dict(algorithm=FLANN_INDEX_KDTREE, trees=5)
    search_params = dict(checks=50)
    flann = cv2.FlannBasedMatcher(index_params, search_params)
    sift = cv2.xfeatures2d_SIFT().create()
    return sift,flann
def imgProcess(img,top,bot,left,right):
    imgBord = cv2.copyMakeBorder(img,top,bot,left,right,cv2.BORDER_CONSTANT,value=(0,0,0))
    imgGray = cv2.cvtColor(imgBord,cv2.COLOR_BGR2GRAY)
    return imgBord,imgGray
def findEdgeDot(img,x1,x2,y1,y2):
    dotsum = 0
    for i in range(x1,x2+1):
        for j in range(y1,y2+1):
            if not img.item(j,i):
                dotsum +=1 
    return dotsum 
def getSmallOuterRect(img):
    gray = cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)
    thresh,binary=cv2.threshold(gray,1,255,cv2.THRESH_BINARY)
    image,contours,hierarchy = cv2.findContours(binary, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)
    areaList = []
    for contour in contours:
        area = cv2.contourArea(contour)
        areaList.append(area)
    return cv2.boundingRect(contours[np.argmax(areaList)])
def getMaxInnerRect(img,step): # 输入的图像是二进制的
    gray = cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)
    thresh,binary=cv2.threshold(gray,1,255,cv2.THRESH_BINARY)
    x = 0
    y = 0
    h,w = binary.shape
    topdot  =  findEdgeDot(binary,x,x+w-1,y,y)
    botdot  =  findEdgeDot(binary,x,x+w-1,y+h-1,y+h-1)
    lefdot  =  findEdgeDot(binary,x,x,y,y+h-1)
    rigdot  =  findEdgeDot(binary,x+w-1,x+w-1,y,y+h-1)
    edgedot = [topdot,botdot,lefdot,rigdot]
    while topdot or botdot or lefdot or rigdot :
        maxedge = max(edgedot)
        if maxedge == topdot:
            y += step
            h -= step 
        elif maxedge == botdot:
            h -= step
        elif maxedge == lefdot:
            x += step
            w -= step
        else:
            w -= step
        topdot  =  findEdgeDot(binary,x,x+w-1,y,y)
        botdot  =  findEdgeDot(binary,x,x+w-1,y+h-1,y+h-1)
        lefdot  =  findEdgeDot(binary,x,x,y,y+h-1)
        rigdot  =  findEdgeDot(binary,x+w-1,x+w-1,y,y+h-1)
        edgedot = [topdot,botdot,lefdot,rigdot]
    return x,y,w,h
            
def mergeImge(img1,img2,sift,flann):
    srcImg,img1gray = imgProcess(img1,img1.shape[0]//2,img1.shape[0]//2,img1.shape[1]//2,img1.shape[1]//2)
    testImg,img2gray= imgProcess(img2,img2.shape[0]//2,img2.shape[0]//2,img2.shape[1]//2,img2.shape[1]//2)
    
    # find the keypoints and descriptors with SIFT
    kp1, des1 = sift.detectAndCompute(img1gray, None)
    kp2, des2 = sift.detectAndCompute(img2gray, None)
    # FLANN parameters
    matches = flann.knnMatch(des1, des2, k=2)
    # Need to draw only good matches, so create a mask
    matchesMask = [[0, 0] for i in range(len(matches))]
    good = []
    pts1 = []
    pts2 = []
    # ratio test as per Lowe's paper
    for i, (m, n) in enumerate(matches):
        if m.distance < 0.7*n.distance:
            good.append(m)
            pts2.append(kp2[m.trainIdx].pt)
            pts1.append(kp1[m.queryIdx].pt)
            matchesMask[i] = [1, 0]
    # draw_params = dict(matchColor=(0, 255, 0),
    #                    singlePointColor=(255, 0, 0),
    #                    matchesMask=matchesMask,
    #                    flags=0)
    #img3 = cv2.drawMatchesKnn(img1gray, kp1, img2gray, kp2, matches, None, **draw_params)
    rows, cols = srcImg.shape[:2]
    MIN_MATCH_COUNT = 10
    if len(good) > MIN_MATCH_COUNT:
        src_pts = np.float32([kp1[m.queryIdx].pt for m in good]).reshape(-1, 1, 2)
        dst_pts = np.float32([kp2[m.trainIdx].pt for m in good]).reshape(-1, 1, 2)
        M, mask = cv2.findHomography(src_pts, dst_pts, cv2.RANSAC, 5.0)
        warpImg = cv2.warpPerspective(testImg, np.array(M), (testImg.shape[0]*2, testImg.shape[1]*2), flags=cv2.WARP_INVERSE_MAP)
        direction = -1
        # overlap region
        for col in range(0, cols):
            if srcImg[:, col].any() and warpImg[:, col].any():
                left = col
                break
        if srcImg[:, left-1].any():
            direction = LEFTDIR
        else: 
            direction = RIGHTDIR
        for col in range(cols-1, 0, -1):
            if srcImg[:, col].any() and warpImg[:, col].any():
                right = col
                break
        # get max region
        res = np.zeros([rows, cols, 3], np.uint8)
        for row in range(0, rows):
            for col in range(0, cols):
                if not srcImg[row, col].any():
                    res[row, col] = warpImg[row, col]
                elif not warpImg[row, col].any():
                    res[row, col] = srcImg[row, col]
                else:
                    srcImgLen = float(abs(col - left))
                    testImgLen = float(abs(col - right))
                    alpha = 1- srcImgLen / (srcImgLen + testImgLen) # 离得越近权重越大
                    if direction == LEFTDIR:
                        alpha = 1-alpha
                    res[row, col] = np.clip(srcImg[row, col] * (1-alpha) + warpImg[row, col] * alpha, 0, 255)
 
        # opencv is bgr, matplotlib is rgb
        x,y,w,h = getSmallOuterRect(res)
        resImg = res[y:y+h,x:x+w]
        x,y,w,h = getMaxInnerRect(resImg,2)
        outimg = resImg[y:y+h,x:x+w]
        return (True,resImg,outimg)
        #res = cv2.cvtColor(res, cv2.COLOR_BGR2RGB)
        # show the result
        # plt.figure()
        # plt.imshow(res)
        # plt.show()
    else:
        return (False)
if __name__ == "__main__":
    img1 = cv2.imread("./img/test1.jpg")
    img2 = cv2.imread("./img/test2.jpg")
    sift,flann = getMachine()
    res = mergeImge(img1,img2,sift,flann)
    if(res[0]):
        cv2.imshow("res",res[2])
        cv2.waitKey()
GUI界面

gui.py

import sys
import cv2 
from merge_pic import mergeImge,getMachine
from PyQt5.QtWidgets import  QApplication,QPushButton,QFileDialog,QMainWindow,QMessageBox,QLabel
from PyQt5.QtGui import QIcon,QImage, QPixmap
class myGUI(QMainWindow):
    def __init__(self):
        super().__init__()
        self.img1 = None
        self.img2 = None
        self.outimg = None
        self.outimg_state = 0
        self.imgNum = 0
        self.sift,self.flann = getMachine()
        self.initUI()
    def initUI(self): 
        self.setFixedSize(1000,800)                    
        self.setWindowTitle('IMAGE MERGE')  
        #self.statusBar()
        self.setWindowIcon(QIcon('./source/imgsrc/icon.png')) 
        self.imglbl = QLabel(self)
        #self.imglbl.setScaledContents (True)  
        self.imglbl.resize(900,700)
        self.imglbl.move(50,50)
        choiceImg = QPushButton('加载图片', self)  
        choiceImg.setFixedSize(100,50)
        choiceImg.move((1000//3-100)//2, 30) 
        choiceImg.clicked.connect(self.openFile)
        mergeImg = QPushButton('拼接图片', self)  
        mergeImg.setFixedSize(100,50)
        mergeImg.move((1000//3-100)//2+1000//3, 30) 
        mergeImg.clicked.connect(self.merge)
        saveImg = QPushButton('保存图片', self)  
        saveImg.setFixedSize(100,50)
        saveImg.move((1000//3-100)//2+1000//3*2, 30) 
        saveImg.clicked.connect(self.saveFile)
        self.statusBar().showMessage("请加载图片!!!")
        
        self.show() 
    def saveFile(self):
        if self.outimg_state:
            filter = "Images (*.jpg);;Images (*.bmp);;Images (*.png)"
            fname = QFileDialog.getSaveFileName(self, 'Save file', './output/',filter)
            cv2.imwrite(fname[0],self.outimg)
        else:
            self.statusBar().showMessage("没有拼接成功的图片!!!")
    def merge(self):
        if self.imgNum == 2:
            self.statusBar().showMessage("正在拼接中,请耐心等待~~~")
            QApplication.processEvents()
            res = mergeImge(self.img1,self.img2,self.sift,self.flann)
            self.img2 = None
            if not res[0]:
                self.statusBar().showMessage("没有足够的特征点,拼接失败!!!")
                self.imgNum = 0
                self.img1 = None
            else:
                self.imgNum = 1
                self.img1 = res[1]
                self.outimg = res[2]
                outimg = self.outimg.copy()
                self.outimg_state=1
                if outimg.shape[1] >900:
                    outimg = cv2.resize(outimg,(900,int(900/outimg.shape[1] * outimg.shape[0])))
                if outimg.shape[0] >700:
                    outimg = cv2.resize(outimg,(int(700/outimg.shape[0] * outimg.shape[1]),700))
                imgrgb = cv2.cvtColor(outimg,cv2.COLOR_BGR2RGB)
                w = imgrgb.shape[1]  # 获取图像大小
                h = imgrgb.shape[0]
                frame = QImage(imgrgb.data, w,h,w*3,QImage.Format_RGB888)
                pix = QPixmap.fromImage(frame)
                self.imglbl.setPixmap (pix)
                self.statusBar().showMessage("继续拼接-->请加载新的图片")
        else:
            self.statusBar().showMessage("图片数量不足,请继续添加...")
    def openFile(self):
        fname = QFileDialog.getOpenFileName(self, 'Choice Image', './img/')
        if not self.imgNum:
            self.img1 = cv2.imread(fname[0])
            if self.img1 is None:
                self.statusBar().showMessage("加载图片失败,请重新选择!!!")
                QMessageBox.warning(self,'Warning', '无效的图片!   ')
            else:
                self.imgNum += 1
                self.statusBar().showMessage("还需加载一张图片")
        elif self.imgNum==1:
            self.img2 = cv2.imread(fname[0])
            if self.img2 is None:
                self.statusBar().showMessage("加载图片失败,请重新选择!!!")
                QMessageBox.warning(self,'Warning', '无效的图片!   ')
            else:
                self.imgNum += 1
                self.statusBar().showMessage("已加载两张图片,可以拼接!!!")   
if __name__ == '__main__': 
    app = QApplication(sys.argv)
    ex = myGUI()
    sys.exit(app.exec_())
结果展示
原始图片

拼接结果
  1. 两张
  2. 三张
相关文章
|
6月前
|
人工智能 搜索推荐
StableIdentity:可插入图像/视频/3D生成,单张图即可变成超人,可直接与ControlNet配合使用
【2月更文挑战第17天】StableIdentity:可插入图像/视频/3D生成,单张图即可变成超人,可直接与ControlNet配合使用
109 2
StableIdentity:可插入图像/视频/3D生成,单张图即可变成超人,可直接与ControlNet配合使用
|
6月前
|
测试技术
【sgUploadTileImage】自定义组件:浏览器端生成瓦片图,并转换为File文件序列上传瓦片图
【sgUploadTileImage】自定义组件:浏览器端生成瓦片图,并转换为File文件序列上传瓦片图
|
5月前
|
文字识别 算法 API
视觉智能开放平台产品使用合集之分别用两张同一个人像的png图片,一个可以调用成功,一个提示参数有问题,是什么原因
视觉智能开放平台是指提供一系列基于视觉识别技术的API和服务的平台,这些服务通常包括图像识别、人脸识别、物体检测、文字识别、场景理解等。企业或开发者可以通过调用这些API,快速将视觉智能功能集成到自己的应用或服务中,而无需从零开始研发相关算法和技术。以下是一些常见的视觉智能开放平台产品及其应用场景的概览。
|
5月前
|
人工智能 自然语言处理 机器人
字节打造大模型TTS:不仅能高保真合成,而且支持调整编辑
【6月更文挑战第26天】字节跳动的Seed-TTS是先进的文本转语音系统,生成与人类语音难辨别的声音,并允许编辑。模型通过语音、文本编码器、解码器和声码器实现高保真、可控及多样化的语音生成。应用于智能客服、有声读物、导航,提升用户体验。虽在多模态任务、长文本生成、实时应用及隐私问题上面临挑战[[arxiv.org/pdf/2406.02430](https://arxiv.org/pdf/2406.02430)]。
114 7
|
5月前
|
文字识别 API 开发工具
视觉智能开放平台产品使用合集之人像分割抠图返回的图片URL是否可以直接转存到自己的储存桶
视觉智能开放平台是指提供一系列基于视觉识别技术的API和服务的平台,这些服务通常包括图像识别、人脸识别、物体检测、文字识别、场景理解等。企业或开发者可以通过调用这些API,快速将视觉智能功能集成到自己的应用或服务中,而无需从零开始研发相关算法和技术。以下是一些常见的视觉智能开放平台产品及其应用场景的概览。
|
5月前
|
存储 生物认证 API
视觉智能开放平台产品使用合集之只有一张原图,该如何设置输出图片的格式
视觉智能开放平台是指提供一系列基于视觉识别技术的API和服务的平台,这些服务通常包括图像识别、人脸识别、物体检测、文字识别、场景理解等。企业或开发者可以通过调用这些API,快速将视觉智能功能集成到自己的应用或服务中,而无需从零开始研发相关算法和技术。以下是一些常见的视觉智能开放平台产品及其应用场景的概览。
|
6月前
|
机器学习/深度学习 搜索推荐 计算机视觉
字节推出DreamTuner:只需提供一张图片,就能帮你生成与该图片主题风格一致的新图像
【2月更文挑战第17天】字节推出DreamTuner:只需提供一张图片,就能帮你生成与该图片主题风格一致的新图像
150 2
字节推出DreamTuner:只需提供一张图片,就能帮你生成与该图片主题风格一致的新图像
|
6月前
|
开发工具 数据安全/隐私保护 Android开发
视觉智能平台常见问题之图片解析出的水印图判断是自己添加的水印图如何解决
视觉智能平台是利用机器学习和图像处理技术,提供图像识别、视频分析等智能视觉服务的平台;本合集针对该平台在使用中遇到的常见问题进行了收集和解答,以帮助开发者和企业用户在整合和部署视觉智能解决方案时,能够更快地定位问题并找到有效的解决策略。
|
存储 人工智能 前端开发
前端合成海报并保存到本地
前端合成海报并保存到本地
82 0
|
6月前
|
机器学习/深度学习 生物认证 API
视觉智能平台常见问题之只有一张原图设置输出图片格式如何解决
视觉智能平台是利用机器学习和图像处理技术,提供图像识别、视频分析等智能视觉服务的平台;本合集针对该平台在使用中遇到的常见问题进行了收集和解答,以帮助开发者和企业用户在整合和部署视觉智能解决方案时,能够更快地定位问题并找到有效的解决策略。