理解SIFT
ç解SIFT
## SIFT步骤### 找尺度空间极值 可以用DoG找 需要讲理论依据和DoG结合进行推导 s值和$\sigma$值的选取问题### 关键点定位 和泰勒展开相关### 方向赋值### 局部图像描述符## SIFT用于目标识别的步骤 目标图像提取SIFT特征;搭建SIFT特征数据库 用快速kNN将目标特征在数据库中查找 用霍夫变换寻找属于同一单目标的簇(cluster) 用least-square(最小二乘法)验证## SIFT算法步骤 多尺度极值检测(用DoG找) 关键点定位 方向赋值 关键点描述符## 尺度空间极值检测尺度空间定义:$L(x,y,\sigma)=G(x,y,\sigma)*I(x,y)$相关论文已证明,真正具有尺度无关性的算子只有一种:归一化的LoG函数:$\sigma^2\nabla^2G$考虑高斯查分函数DoG:$G(x,y,k\sigma)-G(x,y,\sigma)$对应的尺度空间表达式有:$D(x,y,\sigma)=L(x,y,k\sigma)-L(x,y,\sigma) \\=(G(x,y,k\sigma)-G(x,y,\sigma))*I(x,y)$考虑热放射等式,有:$\frac{\partial G}{\partial \sigma}=\sigma\nabla^2G$其证明过程:$G(x,y)=\frac{1}{2\pi \sigma^2}e^{\frac{x^2+y^2}{2\sigma^2}} \\\frac{\partial G}{\partial x}=-\frac{x}{2\pi\sigma^4}e^{-\frac{x^2+y^2}{2\sigma^2}} \\\frac{\partial^2G}{\partial^2x}=-\frac{\sigma^2-x^2}{2\pi\sigma^6}e^{-\frac{x^2+y^2}{2\sigma^2}} \\\nabla^2G=\frac{\partial^2G}{\partial^2x}+\frac{\partial^2G}{\partial^2y} = \frac{x^2+y^2-2\sigma^2}{2\pi\sigma^6}e^{-\frac{x^2+y^2}{2\sigma^2}} \\\frac{\partial G}{\partial \sigma}=\frac{x^2+y^2-2\sigma^2}{2\pi\sigma^5}e^{-\frac{x^2+y^2}{2\sigma^2}} \\\therefore \frac{\partial G}{\partial x}=\sigma \nabla^2 G$$G(x,y)=\frac{1}{2\pi \sigma^2}e^{\frac{x^2+y^2}{2\sigma^2}} \\\frac{\partial G}{\partial x}=-\frac{x}{2\pi\sigma^4}e^{-\frac{x^2+y^2}{2\sigma^2}} \\\frac{\partial^2G}{\partial^2x}=-\frac{\sigma^2-x^2}{2\pi\sigma^6}e^{-\frac{x^2+y^2}{2\sigma^2}} \\\nabla^2G=\frac{\partial^2G}{\partial^2x}+\frac{\partial^2G}{\partial^2y} = \frac{x^2+y^2-2\sigma^2}{2\pi\sigma^6}e^{-\frac{x^2+y^2}{2\sigma^2}} \\\frac{\partial G}{\partial \sigma}=\frac{x^2+y^2-2\sigma^2}{2\pi\sigma^5}e^{-\frac{x^2+y^2}{2\sigma^2}} \\\therefore \frac{\partial G}{\partial x}=\sigma \nabla^2 G$而考虑$\frac{\partial G}{\partial \sigma}$的近似替代公式:$\sigma\nabla^2G=\frac{\partial G}{\partial \sigma} \approx \frac{G(x,y,k\sigma)-G(x,y,\sigma)}{k\sigma-\sigma}$因此有:$G(x,y,k\sigma)-G(x,y,\sigma) \approx (k-1)\sigma^2\nabla^2G$即:用DoG来近似替代LoG算子,得到近似不变的尺度无关特性。相差的倍数是常量没有影响。当k->1,误差几乎为0.### 高斯金字塔的建立**octave**:采样率相同、尺寸相同,模糊度逐渐增强的一组相邻图像**level**:octave中的每张图像,叫做一个level每个octae内是持续高斯模糊得到;每个octave的第一个levle通过降采样得到。每个octave内有s次模糊。$\sigma$的选取和$s$选取,不能太小,否则不准确;太大又会消耗太多计算资源,得不到实时效果。Lowe的论文实验表明,选取$\sigma=1.6$,$s=3$是合适的。不过为了充分利用输入的图像,可以考虑在生成octave前做一次升采样:认为照相机采集的图像本身就是模糊的,其$\sigma=0.5$,利用线性插值得到$\sigma=1.0$的图像,然后用于生成octave**疑问**l升采样后的图像,有没有再次做模糊操作得到octave的第一张?还是说直接作为octave的第一个level?### DoG金字塔每两个高斯金字塔level之间做差值就得到DoG的一个level。为了得到所有极值,因为高斯金字塔的首尾两层不会被带入计算,因此在首尾各添加一层,最上面再加一层**这段还是不够清晰,需要修改**### 局部极值检测在DoG金字塔中,检测空间中每个像素点周边的26个点。如果是极值,那么继续往金字塔高层进行检测。极值检测需要考虑检测的策略:检测到的极值点数量会影响到后续的特征检测数量,特征越少则匹配的结果越少,但是往往是正确率较高的匹配;特征越多则匹配的结果越多,但是正确率往往不高。前者更多地考虑了效率,后者更多地考虑了完整性,需要在效率和完整性之间权衡。因而,要选取合适数量的特征数量,在这之前需要选取合适数量的极值点,这就需要考虑采样频率的问题。(实际上,集中在一起的极值点对于小的扰动非常不稳定)。采样频率的问题,包括尺度上的采样频率、空间域上的采样频率两个方面。Lowe通过实验得到一些测量结果,从结果的图表中得到$s$值和$\sigma$值的经验值。Lowe的实验图像“有32张,包括室外场景、人脸、航拍图片、工业图像(这些图像的来源领域对结果几乎没有影响)”。但是本人认为,仅仅从32张图像就得到相关的经验参数,并不很具有说服力,如果有时间,不妨使用更多的图片进行相关测定。尺度上的采样频率问题,就是考虑图像金字塔中每个octave内的尺度空间数量s。实验中尺度图像由随机的旋转和0.2~0.9之间的随机尺度变换得到,同时也添加了1%的噪声(使用平均分布为每个像素点增加一个随机数)。实验结果为:随着尺度数量s的增加,同一位置的重复匹配率“先增加后减小”,同一极值点对应的特征描述符在数据库中被**正确**搜索到的比率,也是“先增加后减小”。折可以被解释为:随着尺度数量s的增加,尽管极值点数量增加,但是过了一定限度后增加的极值点都是低于平均稳定程度的,因而反倒降低了匹配的重复率和正确率。对应于Lowe的实验结果,选取$s=3$时,正确匹配率最高。而随着尺度数量s的增加,极值点数量也增加,并且正确匹配的极值点的总数也是增加的;而通常目标识别通常更依赖于正确匹配的极值点数量而不是正确匹配率,因此看起来使用更大的尺度空间数s会得到更好的效果。但是,这会增加计算消耗。因而,Lowe的论文中权衡了正确率和计算消耗,选取$s=3$作为每个octave内的尺度数量。也就是说,仅仅检测那些稳定的极值点,同时又能够避免大量的计算消耗,还能够得到很好的正确率。空间域上的采样频率问题,就是高斯模糊的参数$\sigma$,即平滑尺度。考虑到极值可能随机地出现在一起,也需要类似前面一种情况考虑采样频率和检率的问题。实验数据表明,随着$\sigma$的增加,同一特征点在变换后的图像中被重复检测到的百分比、极值点对应的特征描述符在数据库中被查找到的正确率,都呈现增加趋势。但是$\sigma$增加后计算量也增加,权衡考虑算法效率和正确率,使用$\sigma=1.6$。(同样地,这显然也是Lowe的32张图像的测试结果带来的经验数据,个人认为这个数据要根据不同的情况可以适当修改)。同时也可以考虑图像预先平滑操作,这样能**有效地忽略最高空域频率**(这句其实并不理解),其做法是:认为相机拍摄得到的原始图像的模糊度为$\sigma=0.5$,通过双线性差值得到$\sigma=1.0$模糊尺度的图像。这就意味着,在创建尺度空间的第一个octave之前,需要做一次平滑操作(也就是:原图升采样得到$\sigma=1.0$-->做第一次预先处理的平滑得到$\sigma=1.6$的尺度图像作为第一个octave的第一个level)。**这里发现对于“采样”并不很理解,需要找书仔细看下**## 确定关键点的精确位置前面得到的极值,只是离散的图像金字塔中不同尺度下的极值点。真正的尺度空间应当是连续的,而不是离散的,图像金字塔中的极值只是真正极值的近似,还需要进一步的精确检测,得到真正的极值点和极值。使用泰勒公式对DoG函数进行展开,并求导,解出导数为0的点,得到的解就是“前面极值检测中检测到的极值采样点,与真正的尺度空间中的极值点的偏差(这个偏差是向量(x,y,$\sigma$))”。即:$定义向量\vec{x} = (x, y, \sigma)对D函数,泰勒展开有:D(\vec {x})=D+\frac{\partial D^T}{\partial \vec {x}}\vec {x} + \frac{1}{2}\vec {x}^T\frac{\partial^2 D}{\partial \vec{x}^2}\vec {x}求解得到:\vec {x_0} = - \frac{\partial^2 D^{-1}}{\partial \vec {x}^2}\frac{\partial D}{\partial \vec {x}} $$其中使用到对于向量求导的计算,包括: \\\frac{\partial \vec {x}}{\partial \vec {x}}=单位矩阵E \\\frac{\partial \vec{x}^T \vec{x}}{\vec{x}} = 2 \vec{x}$将$\vec{x_0}$带入$D(\vec{x})$的表达式,得到对应的极值:$D(\vec{x}) = D + \frac{1}{2}\frac{\partial D^T}{\partial \vec{x}}\vec{x}$实验中忽略$D \lt 0.03$的极值点。这样,得到的$\vec{x}$表示采样点的偏离量。此时,keypoint的表示中包括了:位置(x,y),尺度$\sigma$。后面还会包括方向。### 消除边界响应还需要去除边界上的干扰,需要考虑**主曲率**。 通过计算**黑塞矩阵**能得到特征值之间的关系,而主曲率和特征值之间是成倍的关系,因此只需要考虑特征值之间的关系。假设黑塞矩阵算出的特征值中,大的为$\alpha$,小的为$\beta$,而:$ H=\begin{matrix} D_{xx} & D_{xy} \\ D_{xy} & D_{yy}\end{matrix}$$Tr(H)=D_{xx}+D_{yy} = \alpha + \beta \\Det(H)=D_{xx}D_{yy}-(D_{xy})^2 = \alpha \beta$显然,$\frac{Tr(H)}{Det(H)}$是增函数,因此只需要保证:$\frac{Tr(H)^2}{Det(H)}
## SIFTæ¥éª¤### æ¾å°ºåº¦ç©ºé´æå¼ å¯ä»¥ç¨DoGæ¾ éè¦è®²ç论ä¾æ®åDoGç»åè¿è¡æ¨å¯¼ så¼å$\sigma$å¼çéåé®é¢### å ³é®ç¹å®ä½ åæ³°åå±å¼ç¸å ³### æ¹åèµå¼### å±é¨å¾åæ述符## SIFTç¨äºç®æ è¯å«çæ¥éª¤ ç®æ å¾åæåSIFTç¹å¾ï¼æ建SIFTç¹å¾æ°æ®åº ç¨å¿«ékNNå°ç®æ ç¹å¾å¨æ°æ®åºä¸æ¥æ¾ ç¨é夫åæ¢å¯»æ¾å±äºåä¸åç®æ çç°(cluster) ç¨least-square(æå°äºä¹æ³)éªè¯## SIFTç®æ³æ¥éª¤ å¤å°ºåº¦æå¼æ£æµ(ç¨DoGæ¾) å ³é®ç¹å®ä½ æ¹åèµå¼ å ³é®ç¹æ述符## 尺度空é´æå¼æ£æµå°ºåº¦ç©ºé´å®ä¹ï¼$L(x,y,\sigma)=G(x,y,\sigma)*I(x,y)$ç¸å ³è®ºæå·²è¯æï¼çæ£å ·æ尺度æ å ³æ§çç®ååªæä¸ç§ï¼å½ä¸åçLoGå½æ°ï¼$\sigma^2\nabla^2G$èèé«æ¯æ¥åå½æ°DoG:$G(x,y,k\sigma)-G(x,y,\sigma)$对åºç尺度空é´è¡¨è¾¾å¼æï¼$D(x,y,\sigma)=L(x,y,k\sigma)-L(x,y,\sigma) \\=(G(x,y,k\sigma)-G(x,y,\sigma))*I(x,y)$èèçæ¾å°çå¼ï¼æï¼$\frac{\partial G}{\partial \sigma}=\sigma\nabla^2G$å ¶è¯æè¿ç¨ï¼$G(x,y)=\frac{1}{2\pi \sigma^2}e^{\frac{x^2+y^2}{2\sigma^2}} \\\frac{\partial G}{\partial x}=-\frac{x}{2\pi\sigma^4}e^{-\frac{x^2+y^2}{2\sigma^2}} \\\frac{\partial^2G}{\partial^2x}=-\frac{\sigma^2-x^2}{2\pi\sigma^6}e^{-\frac{x^2+y^2}{2\sigma^2}} \\\nabla^2G=\frac{\partial^2G}{\partial^2x}+\frac{\partial^2G}{\partial^2y} = \frac{x^2+y^2-2\sigma^2}{2\pi\sigma^6}e^{-\frac{x^2+y^2}{2\sigma^2}} \\\frac{\partial G}{\partial \sigma}=\frac{x^2+y^2-2\sigma^2}{2\pi\sigma^5}e^{-\frac{x^2+y^2}{2\sigma^2}} \\\therefore \frac{\partial G}{\partial x}=\sigma \nabla^2 G$$G(x,y)=\frac{1}{2\pi \sigma^2}e^{\frac{x^2+y^2}{2\sigma^2}} \\\frac{\partial G}{\partial x}=-\frac{x}{2\pi\sigma^4}e^{-\frac{x^2+y^2}{2\sigma^2}} \\\frac{\partial^2G}{\partial^2x}=-\frac{\sigma^2-x^2}{2\pi\sigma^6}e^{-\frac{x^2+y^2}{2\sigma^2}} \\\nabla^2G=\frac{\partial^2G}{\partial^2x}+\frac{\partial^2G}{\partial^2y} = \frac{x^2+y^2-2\sigma^2}{2\pi\sigma^6}e^{-\frac{x^2+y^2}{2\sigma^2}} \\\frac{\partial G}{\partial \sigma}=\frac{x^2+y^2-2\sigma^2}{2\pi\sigma^5}e^{-\frac{x^2+y^2}{2\sigma^2}} \\\therefore \frac{\partial G}{\partial x}=\sigma \nabla^2 G$èèè$\frac{\partial G}{\partial \sigma}$çè¿ä¼¼æ¿ä»£å ¬å¼ï¼$\sigma\nabla^2G=\frac{\partial G}{\partial \sigma} \approx \frac{G(x,y,k\sigma)-G(x,y,\sigma)}{k\sigma-\sigma}$å æ¤æï¼$G(x,y,k\sigma)-G(x,y,\sigma) \approx (k-1)\sigma^2\nabla^2G$å³ï¼ç¨DoGæ¥è¿ä¼¼æ¿ä»£LoGç®åï¼å¾å°è¿ä¼¼ä¸åç尺度æ å ³ç¹æ§ãç¸å·®çåæ°æ¯å¸¸é没æå½±åãå½k->1ï¼è¯¯å·®å ä¹ä¸º0.### é«æ¯éåå¡ç建ç«**octave**ï¼éæ ·çç¸åã尺寸ç¸åï¼æ¨¡ç³åº¦éæ¸å¢å¼ºçä¸ç»ç¸é»å¾å**level**ï¼octaveä¸çæ¯å¼ å¾åï¼å«åä¸ä¸ªlevelæ¯ä¸ªoctaeå æ¯æç»é«æ¯æ¨¡ç³å¾å°ï¼æ¯ä¸ªoctaveç第ä¸ä¸ªlevleéè¿ééæ ·å¾å°ãæ¯ä¸ªoctaveå æs次模ç³ã$\sigma$çéåå$s$éåï¼ä¸è½å¤ªå°ï¼å¦åä¸åç¡®ï¼å¤ªå¤§åä¼æ¶è太å¤è®¡ç®èµæºï¼å¾ä¸å°å®æ¶ææãLoweç论æå®éªè¡¨æï¼éå$\sigma=1.6$ï¼$s=3$æ¯åéçãä¸è¿ä¸ºäºå åå©ç¨è¾å ¥çå¾åï¼å¯ä»¥èèå¨çæoctaveååä¸æ¬¡åéæ ·ï¼è®¤ä¸ºç §ç¸æºééçå¾åæ¬èº«å°±æ¯æ¨¡ç³çï¼å ¶$\sigma=0.5$ï¼å©ç¨çº¿æ§æå¼å¾å°$\sigma=1.0$çå¾åï¼ç¶åç¨äºçæoctave**çé®**låéæ ·åçå¾åï¼æ没æå次å模ç³æä½å¾å°octaveç第ä¸å¼ ï¼è¿æ¯è¯´ç´æ¥ä½ä¸ºoctaveç第ä¸ä¸ªlevelï¼### DoGéåå¡æ¯ä¸¤ä¸ªé«æ¯éåå¡levelä¹é´åå·®å¼å°±å¾å°DoGçä¸ä¸ªlevelã为äºå¾å°æææå¼ï¼å 为é«æ¯éåå¡çé¦å°¾ä¸¤å±ä¸ä¼è¢«å¸¦å ¥è®¡ç®ï¼å æ¤å¨é¦å°¾åæ·»å ä¸å±ï¼æä¸é¢åå ä¸å±**è¿æ®µè¿æ¯ä¸å¤æ¸ æ°ï¼éè¦ä¿®æ¹**### å±é¨æå¼æ£æµå¨DoGéåå¡ä¸ï¼æ£æµç©ºé´ä¸æ¯ä¸ªåç´ ç¹å¨è¾¹ç26个ç¹ãå¦ææ¯æå¼ï¼é£ä¹ç»§ç»å¾éåå¡é«å±è¿è¡æ£æµãæå¼æ£æµéè¦èèæ£æµççç¥ï¼æ£æµå°çæå¼ç¹æ°éä¼å½±åå°åç»çç¹å¾æ£æµæ°éï¼ç¹å¾è¶å°åå¹é çç»æè¶å°ï¼ä½æ¯å¾å¾æ¯æ£ç¡®çè¾é«çå¹é ï¼ç¹å¾è¶å¤åå¹é çç»æè¶å¤ï¼ä½æ¯æ£ç¡®çå¾å¾ä¸é«ãåè æ´å¤å°èèäºæçï¼åè æ´å¤å°èèäºå®æ´æ§ï¼éè¦å¨æçåå®æ´æ§ä¹é´æè¡¡ãå èï¼è¦éååéæ°éçç¹å¾æ°éï¼å¨è¿ä¹åéè¦éååéæ°éçæå¼ç¹ï¼è¿å°±éè¦èèéæ ·é¢ççé®é¢ãï¼å®é ä¸ï¼éä¸å¨ä¸èµ·çæå¼ç¹å¯¹äºå°çæ°å¨é常ä¸ç¨³å®ï¼ãéæ ·é¢ççé®é¢ï¼å æ¬å°ºåº¦ä¸çéæ ·é¢çã空é´åä¸çéæ ·é¢ç两个æ¹é¢ãLoweéè¿å®éªå¾å°ä¸äºæµéç»æï¼ä»ç»æçå¾è¡¨ä¸å¾å°$s$å¼å$\sigma$å¼çç»éªå¼ãLoweçå®éªå¾åâæ32å¼ ï¼å æ¬å®¤å¤åºæ¯ã人è¸ãèªæå¾çãå·¥ä¸å¾åï¼è¿äºå¾åçæ¥æºé¢å对ç»æå ä¹æ²¡æå½±åï¼âãä½æ¯æ¬äººè®¤ä¸ºï¼ä» ä» ä»32å¼ å¾åå°±å¾å°ç¸å ³çç»éªåæ°ï¼å¹¶ä¸å¾å ·æ说æåï¼å¦æææ¶é´ï¼ä¸å¦¨ä½¿ç¨æ´å¤çå¾çè¿è¡ç¸å ³æµå®ã尺度ä¸çéæ ·é¢çé®é¢ï¼å°±æ¯èèå¾åéåå¡ä¸æ¯ä¸ªoctaveå ç尺度空é´æ°ésãå®éªä¸å°ºåº¦å¾åç±éæºçæ转å0.2~0.9ä¹é´çéæºå°ºåº¦åæ¢å¾å°ï¼åæ¶ä¹æ·»å äº1%çåªå£°ï¼ä½¿ç¨å¹³ååå¸ä¸ºæ¯ä¸ªåç´ ç¹å¢å ä¸ä¸ªéæºæ°ï¼ãå®éªç»æ为ï¼éç尺度æ°ésçå¢å ï¼åä¸ä½ç½®çéå¤å¹é çâå å¢å ååå°âï¼åä¸æå¼ç¹å¯¹åºçç¹å¾æ述符å¨æ°æ®åºä¸è¢«**æ£ç¡®**æç´¢å°çæ¯çï¼ä¹æ¯âå å¢å ååå°âãæå¯ä»¥è¢«è§£é为ï¼éç尺度æ°ésçå¢å ï¼å°½ç®¡æå¼ç¹æ°éå¢å ï¼ä½æ¯è¿äºä¸å®é度åå¢å çæå¼ç¹é½æ¯ä½äºå¹³å稳å®ç¨åº¦çï¼å èååéä½äºå¹é çéå¤çåæ£ç¡®çã对åºäºLoweçå®éªç»æï¼éå$s=3$æ¶ï¼æ£ç¡®å¹é çæé«ãèéç尺度æ°ésçå¢å ï¼æå¼ç¹æ°éä¹å¢å ï¼å¹¶ä¸æ£ç¡®å¹é çæå¼ç¹çæ»æ°ä¹æ¯å¢å çï¼èé常ç®æ è¯å«é常æ´ä¾èµäºæ£ç¡®å¹é çæå¼ç¹æ°éèä¸æ¯æ£ç¡®å¹é çï¼å æ¤çèµ·æ¥ä½¿ç¨æ´å¤§ç尺度空é´æ°sä¼å¾å°æ´å¥½çææãä½æ¯ï¼è¿ä¼å¢å 计ç®æ¶èãå èï¼Loweç论æä¸æè¡¡äºæ£ç¡®çå计ç®æ¶èï¼éå$s=3$ä½ä¸ºæ¯ä¸ªoctaveå ç尺度æ°éãä¹å°±æ¯è¯´ï¼ä» ä» æ£æµé£äºç¨³å®çæå¼ç¹ï¼åæ¶åè½å¤é¿å 大éç计ç®æ¶èï¼è¿è½å¤å¾å°å¾å¥½çæ£ç¡®çã空é´åä¸çéæ ·é¢çé®é¢ï¼å°±æ¯é«æ¯æ¨¡ç³çåæ°$\sigma$ï¼å³å¹³æ»å°ºåº¦ãèèå°æå¼å¯è½éæºå°åºç°å¨ä¸èµ·ï¼ä¹éè¦ç±»ä¼¼åé¢ä¸ç§æ åµèèéæ ·é¢çåæ£ççé®é¢ãå®éªæ°æ®è¡¨æï¼éç$\sigma$çå¢å ï¼åä¸ç¹å¾ç¹å¨åæ¢åçå¾åä¸è¢«éå¤æ£æµå°çç¾åæ¯ãæå¼ç¹å¯¹åºçç¹å¾æ述符å¨æ°æ®åºä¸è¢«æ¥æ¾å°çæ£ç¡®çï¼é½åç°å¢å è¶å¿ãä½æ¯$\sigma$å¢å å计ç®éä¹å¢å ï¼æè¡¡èèç®æ³æçåæ£ç¡®çï¼ä½¿ç¨$\sigma=1.6$ãï¼åæ ·å°ï¼è¿æ¾ç¶ä¹æ¯Loweç32å¼ å¾åçæµè¯ç»æ带æ¥çç»éªæ°æ®ï¼ä¸ªäººè®¤ä¸ºè¿ä¸ªæ°æ®è¦æ ¹æ®ä¸åçæ åµå¯ä»¥éå½ä¿®æ¹ï¼ãåæ¶ä¹å¯ä»¥èèå¾åé¢å å¹³æ»æä½ï¼è¿æ ·è½**ææå°å¿½ç¥æé«ç©ºåé¢ç**ï¼è¿å¥å ¶å®å¹¶ä¸ç解ï¼ï¼å ¶åæ³æ¯ï¼è®¤ä¸ºç¸æºææå¾å°çåå§å¾åç模ç³åº¦ä¸º$\sigma=0.5$ï¼éè¿å线æ§å·®å¼å¾å°$\sigma=1.0$模ç³å°ºåº¦çå¾åãè¿å°±æå³çï¼å¨å建尺度空é´ç第ä¸ä¸ªoctaveä¹åï¼éè¦åä¸æ¬¡å¹³æ»æä½ï¼ä¹å°±æ¯ï¼åå¾åéæ ·å¾å°$\sigma=1.0$-->å第ä¸æ¬¡é¢å å¤ççå¹³æ»å¾å°$\sigma=1.6$ç尺度å¾åä½ä¸ºç¬¬ä¸ä¸ªoctaveç第ä¸ä¸ªlevelï¼ã**è¿éåç°å¯¹äºâéæ ·â并ä¸å¾ç解ï¼éè¦æ¾ä¹¦ä»ç»çä¸**## ç¡®å®å ³é®ç¹ç精确ä½ç½®åé¢å¾å°çæå¼ï¼åªæ¯ç¦»æ£çå¾åéåå¡ä¸ä¸å尺度ä¸çæå¼ç¹ãçæ£ç尺度空é´åºå½æ¯è¿ç»çï¼èä¸æ¯ç¦»æ£çï¼å¾åéåå¡ä¸çæå¼åªæ¯çæ£æå¼çè¿ä¼¼ï¼è¿éè¦è¿ä¸æ¥ç精确æ£æµï¼å¾å°çæ£çæå¼ç¹åæå¼ã使ç¨æ³°åå ¬å¼å¯¹DoGå½æ°è¿è¡å±å¼ï¼å¹¶æ±å¯¼ï¼è§£åºå¯¼æ°ä¸º0çç¹ï¼å¾å°ç解就æ¯âåé¢æå¼æ£æµä¸æ£æµå°çæå¼éæ ·ç¹ï¼ä¸çæ£ç尺度空é´ä¸çæå¼ç¹çåå·®ï¼è¿ä¸ªåå·®æ¯åé(x,y,$\sigma$)ï¼âãå³ï¼$å®ä¹åé\vec{x} = (x, y, \sigma)对Då½æ°ï¼æ³°åå±å¼æï¼D(\vec {x})=D+\frac{\partial D^T}{\partial \vec {x}}\vec {x} + \frac{1}{2}\vec {x}^T\frac{\partial^2 D}{\partial \vec{x}^2}\vec {x}æ±è§£å¾å°ï¼\vec {x_0} = - \frac{\partial^2 D^{-1}}{\partial \vec {x}^2}\frac{\partial D}{\partial \vec {x}} $$å ¶ä¸ä½¿ç¨å°å¯¹äºåéæ±å¯¼ç计ç®ï¼å æ¬ï¼ \\\frac{\partial \vec {x}}{\partial \vec {x}}=åä½ç©éµE \\\frac{\partial \vec{x}^T \vec{x}}{\vec{x}} = 2 \vec{x}$å°$\vec{x_0}$å¸¦å ¥$D(\vec{x})$ç表达å¼ï¼å¾å°å¯¹åºçæå¼ï¼$D(\vec{x}) = D + \frac{1}{2}\frac{\partial D^T}{\partial \vec{x}}\vec{x}$å®éªä¸å¿½ç¥$D \lt 0.03$çæå¼ç¹ãè¿æ ·ï¼å¾å°ç$\vec{x}$表示éæ ·ç¹çå离éãæ¤æ¶ï¼keypointç表示ä¸å æ¬äºï¼ä½ç½®(x,y),尺度$\sigma$ãåé¢è¿ä¼å æ¬æ¹åã### æ¶é¤è¾¹çååºè¿éè¦å»é¤è¾¹çä¸çå¹²æ°ï¼éè¦èè**主æ²ç**ã éè¿è®¡ç®**é»å¡ç©éµ**è½å¾å°ç¹å¾å¼ä¹é´çå ³ç³»ï¼è主æ²çåç¹å¾å¼ä¹é´æ¯æåçå ³ç³»ï¼å æ¤åªéè¦èèç¹å¾å¼ä¹é´çå ³ç³»ãå设é»å¡ç©éµç®åºçç¹å¾å¼ä¸ï¼å¤§ç为$\alpha$ï¼å°ç为$\beta$ï¼èï¼$ H=\begin{matrix} D_{xx} & D_{xy} \\ D_{xy} & D_{yy}\end{matrix}$$Tr(H)=D_{xx}+D_{yy} = \alpha + \beta \\Det(H)=D_{xx}D_{yy}-(D_{xy})^2 = \alpha \beta$æ¾ç¶ï¼$\frac{Tr(H)}{Det(H)}$æ¯å¢å½æ°ï¼å æ¤åªéè¦ä¿è¯ï¼$\frac{Tr(H)^2}{Det(H)}