revisión de algunas técnicas de registro de imágenes...
TRANSCRIPT
Reporte de Avance de Tesis
Revisión de Algunas Técnicas de Registro
de Imágenes Multimodales
Alejandro Sánchez Gómez
OCTUBRE DEL 2014
Asesores
Dr. Flavio Vigueras Gómez
Dr. Edgar Arce Santana
Introducción
El registro de imágenes, ha adquirido una gran importancia hoy en nuestros días. Muchas
aplicaciones requieren hacer uso de él como procesamiento previo. El registro puede
llevarse a cabo de distintas maneras, en las cuales algunos enfoques resultan más
beneficiosos que otros, por lo que no existe un método universal aplicable a todas las
tareas de registro [1][2][3]. Desde el surgimiento del registro de imágenes, se han
desarrollado muchas estrategias para llevarlo a cabo solamente considerando imágenes
con las mismas características, es decir, capturadas con el mismo tipo de sensor. A este tipo
de registro se le conoce como registro monomodal [2]. Sin embargo, en las últimas décadas
han surgido muchas aplicaciones que requieren registrar imágenes de características
completamente diferentes por lo que el estudio de estas estrategias de registro multimodal
es también reciente.
Para llevar a cabo el registro multimodal, es necesario establecer una medida de similitud
invariante a las distintas modalidades que las imágenes a registrar puedan presentar [4].
Una función de costo que ha demostrado tener una gran robustez ante situaciones
multimodales es la Información Mutua [4][5][6][7][8]; esta función es capaz de manejar
cambios de iluminación y oclusiones parciales, consiguiéndose buenos resultados. La
Información Mutua (IM) surge de la teoría de la información como una medida del grado de
dependencia entre dos señales y es de carácter completamente estadístico; esta función
está dada por:
𝑀𝐼(𝐴, 𝐵) = ∑ 𝑝𝐴𝐵(𝑎, 𝑏) log𝑝𝐴𝐵(𝑎, 𝑏)
𝑝𝐴(𝑎)𝑝𝐵(𝑏),
𝑎,𝑏
(1)
donde A y B son variables aleatorias (v.a.), pA(a) y pB(b) son sus respectivas probabilidades de y pAB(a,b)
es la probabilidad conjunta [9]. A pesar de los beneficios que puede otorgar, la Información Mutua es
altamente no lineal.
Debido a que esta función es una medida estadística, es necesario hacer uso de histogramas de las
imágenes a registrar. Lo anterior, significa un costo computacional importante, es por ello que se han
aplicado muchas estrategias para tratar de reducir los tiempos de cómputo, tales como la construcción
de histogramas a partir de un subconjuto de la imagen, la reducción de los bins en los histogramas a
través de diferentes niveles cuantización en las imágenes y el uso de implementaciones piramidales,
entre otras.
Por otro lado, se han adaptado varias estrategias para encontrar la máxima similitud entre dos imágenes
de modalidades diferentes utilizando la IM. Entre ellas, métodos de optimización de descenso de
gradiente [6], el método de Newton [7] y algunos métodos de estimación bayesiana como lo es el filtro
de partículas [5].
El presente trabajo de tesis busca estudiar los distintos resultados obtenidos por varios métodos de
maximización de la IM, considerando transformaciones geométricas parametrizables. Una vez
implementados los métodos estudiados se llevará a cabo un análisis comparativo de los resultados
analizando algunos aspectos tales como la repetibilidad de éxito en el registro, la confiabilidad y los
tiempos de registro.
Maximización de la Información Mutua
El caracterizar la deformación paramétrica que existe entre una imagen patrón y una imagen candidata,
utilizando como medida de similitud a una función de costo no lineal, como lo es la IM, hace necesario el
uso de herramientas conocidas con el nombre de métodos de optimización para llevar a cabo este
cometido.
Los métodos de optimización pueden clasificarse en varias categorías, entre ellas: métodos de
optimización lineales y no lineales [10]. Para el manejo de la función de costo propuesta, se
considerarán los métodos no lineales y de múltiples variables, puesto que las deformaciones a estudiar
pueden representarse con ocho parámetros o menos.
Dentro de los métodos no lineales para N variables [11], se puede establecer una clasificación de los
métodos de búsqueda del valor óptimo como la siguiente:
1. Métodos sin el uso de derivadas o de búsqueda directa: estos se basan en comparaciones del
valor obtenido en la función en ciertos puntos de prueba. Estos métodos pueden resultar
bastante eficientes ya que no dependen de la información proporcionada por las derivadas de la
función de costo.
2. Métodos que utilizan información de la primer derivada: Al utilizar información del gradiente,
estos métodos tienden a converger más rápido que los de búsqueda directa. Además tienen la
ventaja de que se puede detectar la convergencia cuando el gradiente es cercano a cero.
3. Métodos que utilizan información de la segunda derivada: Bajo condiciones favorables, estos
pueden ser muy eficientes y su velocidad de convergencia puede ser muy alta.
Los métodos que utilizan información de la primera y segunda derivada de la función de costo son
conocidos como métodos de búsqueda indirecta. Estos tienen la ventaja de que su convergencia es más
rápida; sin embargo, algunos de estos tienden a converger en puntos estacionarios que no son el
máximo global al que se desea llegar [11].
Por otra parte, la evolución en el diseño en los procesadores, tales como las arquitecturas multi-núcleo,
hace posible la eficiente implementación de métodos de búsqueda directa [12]. Estos métodos poseen
el beneficio de que pueden tratar con situaciones que pueden ser no derivables.
Con base en lo anterior, se decidió revisar en el estado del arte metodologías que resuelvan el problema
de registro de imágenes multimodales por alguno de las estrategias de optimización anteriormente
mencionadas. Dentro de los métodos seleccionados se encuentran:
1. Manipulación y Análisis de la Entropía Empírica [6].
2. Seguimiento preciso en tiempo real utilizando Información Mutua [7].
3. Registro de imágenes guiado por filtro de partículas [5].
Cada uno de estas opciones representa a las diferentes categorías para los métodos de optimización no
lineal de múltiples variables anteriormente presentadas. A continuación se mencionarán algunos
detalles de cada uno de los métodos.
Manipulación y Análisis de la Entropía Empírica
Este método fue propuesto por Paul Viola et al, en él se resuelve el problema de optimización utilizando
un método de búsqueda indirecta conocido como Descenso de Gradiente [10]. Básicamente, se
selecciona una deformación inicial de la imagen candidata con parámetros xk y se espera avanzar hacia
el máximo valor de la IM, que es cuando las dos imágenes se encuentran lo mejor alineadas. Esta
dirección está dada por el gradiente y un tamaño de paso λ.
Debido a que la IM es una medida estadística que depende de las densidades de probabilidad de la
imagen patrón y candidata, y de la densidad de probabilidad conjunta, es necesario que el modelo
utilizado para la construcción de las densidades de probabilidad sea derivable para poder emplear el
método de descenso de gradiente. Es por ello, que en esta técnica se propone la construcción de las
densidades de probabilidad utilizando una estimación por ventanas de Parzen a través de una
distribución gaussiana [13], la cual es derivable.
Otra ventaja que se puede destacar, es que no se usa toda la información de las imágenes, sino que
utiliza un subconjunto de ambas para llevar a cabo la maximización de la IM.
Seguimiento Preciso en tiempo real utilizando Información Mutua
De reciente desarrollo, este método fue propuesto por Amaury Dame et al, muchas estrategias de
reducción de costo computacional son empleadas en él; entre ellas: i) cuantización de los bins
empleados en la construcción de los histogramas, ii) uso de espacio de escalas y iii) cálculo de las
derivadas utilizando sólo las regiones que ofrecen mayor información en el cálculo de las derivadas, es
decir, regiones no homogéneas en los valores de intensidad.
Esta técnica utiliza el método de Newton para Maximizar la función de costo; lo anterior, implica que su
región de convergencia está limitada a valores cercanos al valor óptimo [11]. Además es necesario el
cálculo de segundas derivadas, lo cual es computacionalmente costoso. Sin embargo, en este método se
utiliza un enfoque de composición inversa, en el cual se considera que la actualización modifica a la
imagen de referencia o patrón, es por ello, que se busca un xk que maximice a la función. Lo anterior,
permite que el cálculo de las derivadas se realice sólo una vez. Entonces la actualización de xk queda
dada por:
Δ𝒙𝒌 = −𝑯−1𝑮⊺ (2)
Donde G y H son el Gradiente y la Hessiana de la IM respectivamente, y están dadas por:
𝑮 =𝜕𝑀𝐼(𝑤(𝐼∗, Δ𝒙𝒌), 𝑤(𝐼, 𝒙𝒌))
𝜕Δ𝒙𝒌 (3)
𝑯 =𝜕2𝑀𝐼(𝑤(𝐼∗, Δ𝒙𝒌), 𝑤(𝐼, 𝒙𝒌))
𝜕Δ𝒙𝒌2
(4)
donde I*e I son las imágenes patrón y candidata respectivamente y w es la función de transformación
de una imagen dado el punto de prueba xk.
Para construir las densidades de probabilidad, se utiliza también un enfoque de estimación por ventanas
de Parzen, pero en este caso se hace uso de B-Splines que son funciones polinómicas a pedazos [14]. Lo
anterior, además de permitir la derivabilidad de las densidades de probabilidad, logra que la función de
costo tienda a aproximarse a una forma convexa.
Para lidiar con el problema de la reducida región de convergencia, se calcula una sola vez H asumiendo
que las imágenes se encuentran registradas. Esto permite que su región de convergencia tienda a la de
los métodos de búsqueda que solo utilizan información de la primer derivada [7].
Registro de Imágenes guiado por filtro de partículas
El filtro de partículas, es una técnica que se basa en una representación de algunos modelos de
comportamiento de algunas especies en la naturaleza, por ejemplo: un enjambre de abejas, un banco de
peces o una parvada de aves; del estudio de estos comportamientos, se observó que estos podían
adaptarse para la solución de algunos problemas de optimización.
Mediante el filtro de partículas se puede optimizar un problema a partir de una población de soluciones
o puntos de prueba candidatos, los cuales son denominados partículas. La evolución de cada partícula es
determinada por la mejor posición encontrada hasta el momento y conforme se encuentren mejores
soluciones, éstas servirán para guiar a nuevas y mejores posiciones, dando pie a un problema de
estimación secuencial [15].
Desde el punto de vista de la estimación bayesiana, el problema de estimación secuencial consiste en el
cálculo recursivo del estado del sistema xt en el instante t, considerando un cierto grado de confianza y
donde se encuentran dadas las observaciones z1:t={z1,…,zt}. Además la medición de salida está
representada por:
𝒛𝑡 = ℎ𝑡(𝒙𝑡, 𝑢𝑡), (5)
en la cual xt, es dado por la ecuación de estado:
𝒙𝑡 = 𝑓𝑡(𝒙𝑡−1, 𝑣𝑡−1), (6)
donde ft y ht son funciones que pueden ser no lineales, además ut y vt son muestras de ruido
independiente e idénticamente distribuido i.i.d. . Entonces, para resolver el sistema no lineal
anteriormente descrito, es necesario calcular la función de densidad de probabilidad p(xt|z1:t),
asumiendo la función de densidad de probabilidad (pdf) inicial como conocida, p(x0,z0)=p(x0) . Con base
en lo anterior, la pdf a posteriori p(xt|z1:t) puede ser calculada en dos etapas:
1. Etapa de predicción: Suponiendo que se conoce la pdf p(xt-1|z1:t-1) en el instante t-1, puede
obtenerse de manera recursiva la pdf a priori p(xt|z1:t-1) en el instante t, a través de la ecuación
de Chapman-Kolmogorov:
𝑝(𝒙𝑡|𝒛1:𝑡−1) = ∫ 𝑝(𝒙𝑡|𝒙𝑡−1) 𝑝(𝒙𝑡−1|𝒛1:𝑡−1)𝑑𝒙𝑡−1 (7)
2. Etapa de evaluación: En esta etapa, es posible predecir la pdf a posteriori, puesto que en el
instante t la medición zt está disponible. Para ello, es posible utilizar el teorema de Bayes:
𝑝(𝒙𝑡|𝒛1:𝑡) =𝑝(𝒛𝑡|𝒙𝑡)𝑝(𝒙𝑡|𝒛1:𝑡−1)
𝑝(𝒛𝑡|𝒛1:𝑡), (8)
donde p(zt|z1:t-1) es una constante de normalización dada por:
𝑝(𝒛𝑡|𝒛1:𝑡−1) = ∫ 𝑝(𝒛𝑡|𝒙𝑡)𝑝(𝒙𝑡|𝒛1:𝑡−1)𝑑𝒙𝑡 . (9)
Las ecuaciones (8) y (9) dependen de la función de verosimilitud p(zt|xt) definida por el modelo
de medición en (5).
Las ecuaciones (7) y (8) son la base de la solución bayesiana óptima [16]. Sin embargo, esta propagación
recursiva de la densidad a posteriori es sólo un resultado conceptual, ya que no se puede determinar
analíticamente [17]. Es entonces conveniente, el uso de modelos aproximados a esas funciones de
distribución, tal como lo es el filtro de partículas.
Algoritmo del filtro de partículas
Esta técnica implementa filtros recursivos bayesianos, representando la pdf a posteriori a través de un
conjunto de muestras discretas con pesos asociados, donde la estimación se calcula utilizando las
muestras y sus pesos asociados [18]. Al inicio, se genera una población de partículas utilizando una pdf
conocida. Después se calculan las mediciones y pesos de cada partícula generada utilizando las
ecuaciones (5) y (8) respectivamente. Lo anterior, constituye a una aproximación discreta de la pdf a
posteriori. Después se realiza un proceso de remuestreo, para evadir el problema de degeneración de
algunas partículas [19]; en este proceso, se seleccionan aquellas partículas que aportan un mayor peso
en la aproximación de la pdf a priori, la cual está dada por la ecuación (7). Finalmente, si 𝑡 → ∞, la
distribución de la densidad a posteriori se aproxima a la verdadera pdf, entonces, puede obtenerse el
estimado utilizando:
𝒙𝑡∗ = 𝐸[𝒙𝑡|𝒛𝑡] = ∑ 𝒙𝑡
𝑖 𝒒𝑡𝑖
𝑁𝑠
𝑖=1
, (10)
donde qt son los pesos asociados a las Ns partículas.
Aplicado al Registro de Imágenes Multimodales, la medición en (5) queda definida como:
𝒛𝑡 = 𝑀𝐼(𝐼∗, 𝑤(𝐼, 𝒙𝑡)) + 𝑢𝑡, (11)
donde I*e I son las imágenes patrón y candidata respectivamente y w es la función de transformación
geométrica paramétrica de una imagen dado el punto de prueba xt; ut es un vector de ruido i.i.d.
generado por una distribución Normal de media cero y matriz de covarianza Σu.
Suponiendo que I es el resultado de un mapeo inyectivo de I*, 𝐼∗ = 𝑤(𝐼, 𝒙𝑡), entonces la Información
Mutua, estará limitada por 0 ≤ 𝑀𝐼(𝐼∗, 𝑤(𝐼, 𝒙𝑡) ≤ 𝐻(𝐼∗), donde 𝐻(𝐼∗) es la entropía de la imagen
patrón. Con base en lo anterior, puede considerarse como función de verosimilitud a la siguiente
ecuación
𝑝(𝒛𝑡|𝒙𝑡) =1
𝜎√2𝜋𝑒
−{[𝐻(𝐼∗)−𝑀𝐼(𝐼∗,𝑤(𝐼,𝒙𝑡))]2
2𝜎2 }, (12)
donde es conocida una varianza de ruido en la medición σ2, dada por σ2>0; además xt es el vector de
parámetros de la transformación geométrica.
En [5] se propone un algoritmo de registro paramétrico de imágenes guiado por filtro de partículas, el
cual se describe a continuación:
Algoritmo de Registro de Imágenes guiado por filtro de partículas
Sean 𝐼∗ e 𝐼, las imágenes a registrar
Definir un valor inicial para x0 y Σu0
Generar Ns partículas para t=1
𝒙1𝑖 = 𝒙0 + 𝒖0
𝑖 , con 𝑖 = 1,2, … , 𝑁𝑠 y 𝒖0𝑖 ~𝓝(𝟎, Σ𝒖0
)
Obtener el peso de cada partícula usando la verosimilitud en el instante t=1
𝑞1𝑖 = 𝑝(𝒛𝑡|𝒙𝑡) =
1
𝜎√2𝜋𝑒
−{[𝐻(𝐼∗)−𝑀𝐼(𝐼∗,𝑤(𝐼,𝒙𝑡))]2
2𝜎2 }, para 𝑖 = 1,2, … , 𝑁𝑠
Normalizar los pesos de las partículas
𝑞1𝑖 =
𝑞1𝑖
∑ 𝑞1𝑗𝑁𝑠
𝑗=1
Repetir para 𝑡 = 1,2, …
Etapa de remuestreo:
Definir 𝑐1 = 𝑞𝑡1
Para 𝑗 = 2, … , 𝑁𝑠
𝑐𝑗 = 𝑐𝑗−1 + 𝑞𝑡𝑗
Terminar
Para 𝑖 = 1,2, … , 𝑁𝑠
Generar un número aleatorio 𝑟~𝒰[0,1]
Encontrar el índice 𝑗 tal que 𝑐𝑗 ≥ 𝑟, entonces
𝑥𝑡𝑖 = 𝑥𝑡
𝑗
𝑞𝑡𝑖 = 1/𝑁𝑠
Terminar
Incrementar t en 1
Reducir las varianzas en las perturbaciones para disminuir la variabilidad gradualmente
Σ𝑢𝑡= βtΣ𝑢𝑡−1
, con 0 < β𝑡 < 1
Etapa de predicción:
Obtener un nuevo conjunto de partículas para el instante t
𝒙𝑡𝑖 = 𝒙𝑡−1
𝑖 + 𝒖𝑡−1𝑖 , para 𝑖 = 1,2, … , 𝑁𝑠 y 𝒖𝑡−1
𝑖 ~𝓝(𝟎, Σ𝒖𝑡)
Etapa de actualización:
Obtener el peso normalizado de cada partícula
𝑞1𝑖 = 𝑝(𝒛𝑡|𝒙𝑡) =
1
𝜎√2𝜋𝑒
−{[𝐻(𝐼∗)−𝑀𝐼(𝐼∗,𝑤(𝐼,𝒙𝑡))]2
2𝜎2 }, para 𝑖 = 1,2, … , 𝑁𝑠
𝑞𝑡𝑖 =
𝑞𝑡𝑖
∑ 𝑞𝑡𝑗𝑁𝑠
𝑗=1
, para 𝑖 = 1,2, … , 𝑁𝑠
Hasta que ‖Σ𝑢𝑡‖ sea muy pequeño
Actividades realizadas durante el periodo Mayo a Octubre del 2014
Se concluyó la revisión bilbiográfica de los métodos de registro de imágenes multimodales con el
estudio del tercer método contemplado, el cual es “Registro de imágenes guiado por filtro de
partículas”. También, se realizó la implementación de este método utilizando el lenguaje de
programación c++, en el cual se consideraron diferentes casos de transformaciones geométricas
proyectivas. En el anexo A, se presentan algunos resultados obtenidos por este método de registro.
Se cursó y aprobó el seminario de Proyecto de Tesis II, impartido por el Dr. Enrique Stevens Navarro,
completando así el 100% de los créditos a obtener mediante el plan de estudios de la Maestría en
Ingeniería Electrónica.
En cuanto a la redacción del documento de tesis, se ha estructurado el contenido en seis capítulos, de
los cuales se ha llevado a cabo la escritura de un capítulo.
Con la conclusión de la revisión e implementación de los métodos de interés para el registro de
imágenes multimodales, se estima que se ha alcanzado un grado de avance del 85%.
Cronograma de Actividades para el periodo Noviembre 2014 - Mayo
2015
Actividad Mes
Noviembre Diciembre Enero Febrero Marzo Abril Mayo
Presentación de Póster en el ETAS 2014
Análisis comparativo de los métodos estudiados
Escritura de Tesis
Presentación de examen previo
Bibliografía
[1] Zitová, B. , “Image Registration methods: a survey”, en Image and Vision Computing, 2003, pp 977-
1000.
[2] J. P. Pluim y J. M. Fitzpatrick, “Image registration”, IEEE Transactions on Medical Imaging, vol. 22, no.
11, 2003, pp. 1341-1343.
[3] N. Dowson, R. Bowden, “A Unifying Framework for Mutual Information methods for use in Non-linear
Optimisation, en European Conference on Computer Vision, ECCV’06, vol. 1, 2006, pp 365-378.
[4] G. Penney, et al, “A Comparison of Similarity Measures for Use in 2D-3D Medical Image Registration”,
en IEEE Transactions on Medical Imaging, vol. 17, No. 4, 1998, pp 586-595.
[5] E. R. Arce-Santana, D. U. Campos-Delgado, y A. Alba, “Image registration guided by particle filter”, en
Advances in Visual Computing, Parte I, ser. Lecture Notes in Computer Science, vol. 5875. Springer-Verlag,
Nov. 2009, pp. 554-563.
[6] Viola, P. ,“Alignment by Maximization of Mutual Information”, International Journal of Computer
Vision, 24(2) 1997, pp 137-154.
[7] F. Maes, A. Collignon, D. Vandermeulen, G. Marchal, y P. Suetens, “Multimodality image registration
by maximization of mutual information”, en IEEE Transactions on Medical Imaging, vol. 16, no. 2, 1997,
pp. 187-198.
[8] A. Dame, E. Marchand, “Accurate Real-time Tracking Using Mutual Information”, en Proc.
International Symposium on Mixed and Augmented Reality, 2010.
[9] C. E. Shannon, “A mathematical theory of communication”, The Bell System Technical Journal, vol. 27,
1948, pp. 379-423.
[10] J. Nocedal y S. J. Wright, “Numerical Optimization”, 2nd ed. Springer, 2006.
[11] D. Himmelblau y K. Bischoff, “Process analysis and simulation”, ed. John Willey, 1968.
[12] I. Reducindo, E. Arce, D. Campos y A. Alba, “Evaluation of Multimodal Medical Image Registration
Base don Particle Filter” en Seventh International Conference on Electrical Engineering, Computing Science
and Automatic Control, 2010.
[13] Parzen, E., “On estimation of a probability density function and mode”, The Annals of Mathematical
Statistics, vol. 33, 1962, pp 1065–1076.
[14] P. Thévenaz, M. Unser, “Optimization of Mutual Information for Multiresolution Image Registration”,
en IEEE Transactions on Image Proessing, vol. 9, No. 12, 2000, pp. 2083-2093.
[15] J. Kennedy y R. Eberhart, “Particle Swarm Optimization” en Proceedings of IEEE International
Conference on Neural Networks, vol. IV, 1995, pp 1942-1948.
[16] M. S. Arulampalam, S. Maskell, N. Gordon, y T. Clapp, “A tutorial on particle filters for online nonlinear/non-gaussian bayesian tracking”, en IEEE Transactions on Signal Processing, vol. 50, no. 2, pp. 174-188, 2002. [17] A. Doucet, S. Godsill y C. Andrieu, “On sequential Monte Carlo sampling methods for Bayesian filtering” en Statistics and Computing,vol. 10, pp 197-208, 2000. [18] J.J. Pantrigo, A. Sánchez, A. S. Montemayor, “Filtro de partículas Metaheurístico para el seguimiento en Secuencias de Imágenes”, Reporte técnico, Universidad Rey Juan Carlos, España, 2008. [19] J.D. Hol, T.B. Schon y F. Gustafsson, “On Resampling Algorithms for Particle Filters” en Nonlinear
Statistical Signal Processing Workshop, IEEE, pp 70-76, 2006.
Anexo A
En la figura A.1, se muestra un caso donde se aplicó el filtro de partículas para llevar a cabo el
registro entre dos imágenes. En el cual se utilizaron 100 partículas; se consideró un umbral de
convergencia en el proceso hasta que ‖Σ𝑢𝑡‖ < 1x10−9 (400 iteraciones aprox.). Cabe señalar que se
utilizó un submuestreo aplicando pirámides gaussianas para reducir la cantidad de información en el
proceso de registro, se consideró la imagen obtenida del 3er nivel de escalamiento. Para generar las
partículas, se consideró ruido i.i.d. gaussiano de media cero y covarianza Σ𝒖0= diag(0.015625,
0.015625, 72, 0.015625, 0.015625,40, 0.00000015625, 0.00000015625). La transformación que se
consideró fue una transformación proyectiva, la cual se realizó sintéticamente; el grado de error
establecido para llevar a cabo la deformación, se consideró calculando una deformación aleatoria que
lograra que los desplazamientos de las esquinas provocados por la deformación sumaran 200 px (cabe
señalar que las imágenes originales son de tamaño 480x350 px). La deformación aleatoria sintética que
se utilizó en este caso fue la siguiente:
𝑤𝒙 = [0.0131386 −0.122718 −36.59190.0256214 −0.158975 −5.82247
0.000117412 −0.000548456 1] [
𝑥1
𝑥2
1]
La transformación estimada por el proceso de registro fue:
𝑤𝒙 = [0.0189671 −0.120188 −40.263920.0283158 −0.155244 −9.53856
0.000104001 −0.000592609 1] [
𝑥1
𝑥2
1]
Puede observarse que la transformación estimada, es cercana a la transformación con la que fue
deformada la imagen inicialmente. Con lo anterior, se puede concluir que el filtro de partículas puede
realizar registros apropiados utilizando IM.
a b
c d
Fig. A.1: Registro de imágenes utilizando filtro de partículas. En a y b se muestran las imágenes patrón y
candidata respectivamente, donde a es una transformación sintética proyectiva de b; c corresponde a la
imagen estimada por el filtro de partículas y d es una imagen a color utilizando el modelo rgb, la cual
muestra a la imagen patrón en el canal rojo y a la imagen estimada en el canal azul.