Localización absoluta
Uno de los principales objetivos de este tema es la localización del robot dentro del espacio; esto debido a que su posición inicial es desconocida; siendo que a partir de el punto de referencia donde se encuentra el robot se partirá para poder determinar los datos necesarios para la navegación; debido a que hay diferentes puntos de vista de cómo determinar la posición inicial, se han desarrollado métodos para poder establecer la localización inicial como son la localización de Markov, localización de Montecarlo, filtrado de hipótesis múltiples de Kalman; entre otros.
Hatiya y Hanger propusieron un método para poder ubicar la posición inicial del robot el cuyo principal funcionamiento esta basado en el reconocer entidades dentro de las imágenes que la cámara esta procesando y que son invariantes; es decir busca puntos de referencia constantes durante la navegación en el entorno; una vez que se tengan los puntos de referencia el robot necesitara hacer las triangulaciones entre los puntos de referencia para obtener su localización; aunque existen varios errores por los que se podría incurrir; como lo puede ser el error de pixeles en la imagen, multiplicidad en los puntos de referencia entre otros. Sin embargo para poder lidiar con estos problemas de incertidumbre y ambigüedades en los puntos de referencia y poder obtener la localización del robot, se han utilizado conjuntos basados en acercamientos; y se ha denominado problema de etiquetado.
A continuación explicare el problema de etiquetado:
Sea j un punto de referencia observado en la imagen, y este punto de referencia es observado por dos cámaras, una en la derecha y otra en la izquierda; entonces podemos decir que:
Donde:
Oj -> es el intervalo de observación entre las cámaras izquierda y derecha.
ol -> es la observación de la cámara izquierda.
or -> es la observación de la cámara derecha.
ε -> es el error de la medición sensorial.
Sea pj el intervalo de localización del punto de referencia j con respecto al marco de la imagen ± una tolerancia δ. Y sea p la posición del robot, entonces podemos dar un intervalo de observación esperado dado por la proyección en el plano:
Para que la obtención de los puntos de referencia estén libres de errores; el intervalo de observaciones y el intervalo de puntos de referencia deben conincidir. Y por lo tanto podemos definir a:
λ ={oi,pj}
como la coincidencia de los intervalos de observación y puntos de referencia; y a el conjunto de dichas coincidencias como:
Λ= {{oi,pj}}
Dado que ya hemos definido los intervalos en los que se basara para obtener la localización del objeto; esta localización estará en función de todas las intersecciones de estos dos intervalos.
“Esta se tornara mas pequeña mientras mas observaciones estén combinadas, dando un mejor estimado de la incertidumbre” (DeSouza, Guilherme, 2002).
Para poder estimar la posición del robot dada por p=(x,y,Θ) donde x, y es la posición del robot y Θ es la orientación de este; se dieron puntos de referencia conocidos y observaciones de estos; lo cual los conllevo a dos problemas.
“Problema 1. Dados n puntos localizados en los intervalos p1, p2, . . . ,pn en el marco de coordenadas del mundo que representan los puntos de referencia y los m pares de intervalos de observación o1,o2, . . . ,om en el marco de coordenadas de la cámara del robot, determinar un etiquetado constante Λ = {{oi,pj}}, tal que: Proy(p,pj) ∩ oi ≠ 0, para todo Є Λ .
Problema 2. Dado el etiquetado de arriba, encontrar el conjunto de posiciones de P del robot, consistentes con el etiquetado. Es decir, encontrar el conjunto P={p | Proy(p,pj) ∩ oi ≠ 0}, para todo Є Λ. “ (DeSouza, Guilherme, 2002)
Para solucionar el problema se sugiere usar el etiquetado con mayor número de concordancias, o mayor a cuatro; esto comparando todas las posibles triangulaciones sujetas a la heurística, esto con todos los posibles puntos de referencia que pueden ser encontrados en la imagen analizada.
Debido a que primero se tiene que resolver el problema 1, que consiste en encontrar un etiquetado consistente Λ, para poder seguir con determinar la posición del robot dado por el problema 2; para resolver este segundo se analizaron las fuerzas geométricas que involucran los puntos de referencia en las triangulaciones. Resumiendo podemos decir que la posición del robot esta dada por p=(x,y,Θ) donde:
Además
t -> representa segmentos conectando dos regiones de incertidumbre (t=o1-o2)
s -> representa segmentos dentro de la regiones (s=o2,k – o2,j ; j^k son esquinas de o2)
r -> representa segmentos conectando los puntos de referencia localizados por p1 y p2.
“Debido a la representación triangula, las regiones de incertidumbre producen diferentes valores de Θ. Estos valores son combinados para formar un intervalo o conjunto de intervalos.” (DeSouza, Guilherme, 2002)
Dada la intersección de los intervalos sobre las concordancias de λ se obtiene Θ*; y a partir de esto podemos determinar la posición del robot que esta dada por las ecuaciones:
xi = pi,x + sin(Θ*)ti – cos(Θ*)si
yi = pi,y + sin(Θ*)si – cos(Θ*)ti
La intersección de los conjuntos xi y yi para todas las regiones producen x*, y* que con Θ* tienden a cero mientras mas iteraciones haya.
Usando representaciones geométricas del espacio; es posible conocer la posición inicial del robot de una forma aproximada; esto es utilizando algoritmos que sigan la pista de la incertidumbres en las posiciones en las que se encuentra el robot y dar movimientos a partir de estos. Uno de los sistemas de navegación que utilizan este tipo es el sistema FINALE; el cual utiliza técnicas probabilísticas que se acercan a la representación y actualización de incertidumbres posicionales, a medida que el robot se mueve; este sistema consta de los siguientes elementos.
1. Representa la incertidumbre de una posición p=(x,y,Θ) por distribuciones Gaussianas; y esta incertidumbre es caracterizada por p y la covarianza Σp.
2. Se caracterizan y parametrizan los movimientos del robot conforme a movimientos de traslación y rotación.
3. Determinando la incertidumbre de la posición del robot cuando tiene movimientos de rotación y traslación; estos cambios son dependientes de p y Σp en dichos movimientos.
4. Diseño de un modelo basado en filtros Kalfman.
Referencias:
• Guilherme DeSouza and A. C. Kak, "Vision for Mobile Robot Navigation: A Survey," IEEE Transactions on Pattern Analysis and Machine Intelligence, pp. 237-267, February 2002.
Uno de los principales objetivos de este tema es la localización del robot dentro del espacio; esto debido a que su posición inicial es desconocida; siendo que a partir de el punto de referencia donde se encuentra el robot se partirá para poder determinar los datos necesarios para la navegación; debido a que hay diferentes puntos de vista de cómo determinar la posición inicial, se han desarrollado métodos para poder establecer la localización inicial como son la localización de Markov, localización de Montecarlo, filtrado de hipótesis múltiples de Kalman; entre otros.
Hatiya y Hanger propusieron un método para poder ubicar la posición inicial del robot el cuyo principal funcionamiento esta basado en el reconocer entidades dentro de las imágenes que la cámara esta procesando y que son invariantes; es decir busca puntos de referencia constantes durante la navegación en el entorno; una vez que se tengan los puntos de referencia el robot necesitara hacer las triangulaciones entre los puntos de referencia para obtener su localización; aunque existen varios errores por los que se podría incurrir; como lo puede ser el error de pixeles en la imagen, multiplicidad en los puntos de referencia entre otros. Sin embargo para poder lidiar con estos problemas de incertidumbre y ambigüedades en los puntos de referencia y poder obtener la localización del robot, se han utilizado conjuntos basados en acercamientos; y se ha denominado problema de etiquetado.
A continuación explicare el problema de etiquetado:
Sea j un punto de referencia observado en la imagen, y este punto de referencia es observado por dos cámaras, una en la derecha y otra en la izquierda; entonces podemos decir que:
Oj=(ol,or) con intervalo el cuadro de la cámara ± ε.
Donde:
Oj -> es el intervalo de observación entre las cámaras izquierda y derecha.
ol -> es la observación de la cámara izquierda.
or -> es la observación de la cámara derecha.
ε -> es el error de la medición sensorial.
Sea pj el intervalo de localización del punto de referencia j con respecto al marco de la imagen ± una tolerancia δ. Y sea p la posición del robot, entonces podemos dar un intervalo de observación esperado dado por la proyección en el plano:
h = Proy(p,pj)
Para que la obtención de los puntos de referencia estén libres de errores; el intervalo de observaciones y el intervalo de puntos de referencia deben conincidir. Y por lo tanto podemos definir a:
λ ={oi,pj}
como la coincidencia de los intervalos de observación y puntos de referencia; y a el conjunto de dichas coincidencias como:
Λ= {{oi,pj}
Dado que ya hemos definido los intervalos en los que se basara para obtener la localización del objeto; esta localización estará en función de todas las intersecciones de estos dos intervalos.
“Esta se tornara mas pequeña mientras mas observaciones estén combinadas, dando un mejor estimado de la incertidumbre” (DeSouza, Guilherme, 2002).
Para poder estimar la posición del robot dada por p=(x,y,Θ) donde x, y es la posición del robot y Θ es la orientación de este; se dieron puntos de referencia conocidos y observaciones de estos; lo cual los conllevo a dos problemas.
“Problema 1. Dados n puntos localizados en los intervalos p1, p2, . . . ,pn en el marco de coordenadas del mundo que representan los puntos de referencia y los m pares de intervalos de observación o1,o2, . . . ,om en el marco de coordenadas de la cámara del robot, determinar un etiquetado constante Λ = {{oi,pj}
Problema 2. Dado el etiquetado de arriba, encontrar el conjunto de posiciones de P del robot, consistentes con el etiquetado. Es decir, encontrar el conjunto P={p | Proy(p,pj) ∩ oi ≠ 0}, para todo
Para solucionar el problema se sugiere usar el etiquetado con mayor número de concordancias, o mayor a cuatro; esto comparando todas las posibles triangulaciones sujetas a la heurística, esto con todos los posibles puntos de referencia que pueden ser encontrados en la imagen analizada.
Debido a que primero se tiene que resolver el problema 1, que consiste en encontrar un etiquetado consistente Λ, para poder seguir con determinar la posición del robot dado por el problema 2; para resolver este segundo se analizaron las fuerzas geométricas que involucran los puntos de referencia en las triangulaciones. Resumiendo podemos decir que la posición del robot esta dada por p=(x,y,Θ) donde:
Θ = Θo - Θd
Además
Θo = atan((ty + λsy)/(tx+λsx)) y Θd = atan(ry/rx)
Donde:t -> representa segmentos conectando dos regiones de incertidumbre (t=o1-o2)
s -> representa segmentos dentro de la regiones (s=o2,k – o2,j ; j^k son esquinas de o2)
r -> representa segmentos conectando los puntos de referencia localizados por p1 y p2.
“Debido a la representación triangula, las regiones de incertidumbre producen diferentes valores de Θ. Estos valores son combinados para formar un intervalo o conjunto de intervalos.” (DeSouza, Guilherme, 2002)
Dada la intersección de los intervalos sobre las concordancias de λ se obtiene Θ*; y a partir de esto podemos determinar la posición del robot que esta dada por las ecuaciones:
xi = pi,x + sin(Θ*)ti – cos(Θ*)si
yi = pi,y + sin(Θ*)si – cos(Θ*)ti
La intersección de los conjuntos xi y yi para todas las regiones producen x*, y* que con Θ* tienden a cero mientras mas iteraciones haya.
Localización Incremental
Usando representaciones geométricas del espacio; es posible conocer la posición inicial del robot de una forma aproximada; esto es utilizando algoritmos que sigan la pista de la incertidumbres en las posiciones en las que se encuentra el robot y dar movimientos a partir de estos. Uno de los sistemas de navegación que utilizan este tipo es el sistema FINALE; el cual utiliza técnicas probabilísticas que se acercan a la representación y actualización de incertidumbres posicionales, a medida que el robot se mueve; este sistema consta de los siguientes elementos.
1. Representa la incertidumbre de una posición p=(x,y,Θ) por distribuciones Gaussianas; y esta incertidumbre es caracterizada por p y la covarianza Σp.
2. Se caracterizan y parametrizan los movimientos del robot conforme a movimientos de traslación y rotación.
3. Determinando la incertidumbre de la posición del robot cuando tiene movimientos de rotación y traslación; estos cambios son dependientes de p y Σp en dichos movimientos.
4. Diseño de un modelo basado en filtros Kalfman.
Referencias:
• Guilherme DeSouza and A. C. Kak, "Vision for Mobile Robot Navigation: A Survey," IEEE Transactions on Pattern Analysis and Machine Intelligence, pp. 237-267, February 2002.
No hay comentarios:
Publicar un comentario