Navegación en exteriores
Similarmente a la navegación en interiores; para que un robot móvil pueda navegar en el mundo exterior se necesita evitar obstáculos, detectar puntos de referencia, construcción de mapas y estimar su posición en el entorno para poder moverse dentro de este; aunque difícilmente es posible estimar un mapa de el entorno, dado que este es muy cambiante; además de que es muy difícil poder determinar su ubicación en el plano. Para poder determinar un sistema de navegación fiable se han dividido su estudio en dos vertientes que son la navegación en ambientes estructurados y la navegación en ambientes no estructurados.
Navegación en exteriores en entornos estructurados
Este tipo de navegación requiere un camino para recorrer, este debe de ser tal que se puedan determinar las líneas que delimitan un camino del resto del entorno. Estos deben de contener puntos de desvanecimiento, anchos de camino y línea de seguimiento, aunque estos sistemas de navegación tienen que lidiar con problemas de sombras, cambios de iluminación, colores entre otros. Entre los sistemas de esta índole, uno de los mas prominentes es el Navlab (Thorpe, 1987), el cual se utiliza desde minivans hasta metro buses que se encargan de conducirlos hasta ciertos destinos. Este sistema usa la visión en color para poder seguir una ruta y una visión tridimensional para poder detectar los obstáculos en el entorno. Su algoritmo de seguimiento se basa en tres puntos que son, la clasificación de los pixeles, el voto de la mejor posición para el camino y la actualización de los colores.
Dentro del la clasificación de los pixeles hay dos procedimientos que son la clasificación del color y la clasificación de la textura; dentro del primer procedimiento
“Cada pixel es asignado a una clase dependiendo de las distribuciones del color. Los pixeles del camino están representados por cuatro clusters Gausianos separados para tomar en cuenta los cambios de iluminación, las propiedades del camino, etc. Similarmente, los pixeles que no pertenecen al camino también están representados por un vector de medias tridimensional (con medias de R, G y B), por una matriz de covarianza de tres por tres y por la fracción de pixeles esperados a priori con el vector de colores X perteneciente a la da distribución i, PCi, que es calculada usando la distancia Mahalanobis: (X-mi)T ∑-1(X-mi). La clasificación es llevada a cabo usando estándares de pruebas de probabilidad de radios máximos. ”(DeSouza, 2002)
Además este sistema de navegación basa su clasificación de las texturas en las regiones del camino siendo estas mas brillantes que las que no lo son; la igualdad es medida por un índice de gradiente normalizado que es calculado utilizando el operador de Robert; posteriormente la clasificación de la textura es determinada por la probabilidad PTi que depende de los microbordes. Para determinar la clasificación de un pixel se combina la clasificación de textura y de color; estas características se asocian mediante la formula:
Debido a que la clasificación del color es más segura que la clasificación de textura; este se ve reflejado en el valor de α.
por lo tanto la clasificación de los pixeles en el camino y el entorno diferente al camino; quedan determinados por:
Posteriormente de que se haya clasificado un pixel se aplica la transformada de Hough para obtener los parámetros de los puntos de desvanecimiento (P) y la orientación (θ); y donde cada pixel queda determinado por (P, θ) siendo el pixel que pertenece al camino el que tiene mayores votos. Después de ser clasificados los pixeles que pertenecen al camino y los que no, los pixeles que pertenecen al camino se vuelven a reclasificar para determinar los pixeles que pertenecen a los bordes del camino; esto permite al sistema de navegación adaptarse a las condiciones del camino que se sigue.
Aunado a la detección de los bordes y del camino, el sistema Navlab cuenta con un sistema de redes neuronales llamado ALVINN, el cual se encarga de determinar los ángulos en que se moverán las llantas del robot, este sistema es entrenado usando un algoritmo de propagación hacia atrás; también para poder determinar el centro de navegación del robot se utiliza una distribución Gausiana que dirige la orientación del robot en el camino. Aunque este sistema tiene problemas en el rendimiento del manejo y que la red neuronal olvide lo que aprendió en caminos curvos.
Otro sistema de navegación basado en el seguimiento de caminos es el sistema VITS; el cual consta de cámaras y sensores que permiten obtener la representación del entorno; el sistema de visión para la navegación produce un bosquejo del camino en un marco de coordenadas centradas para el vehículo; el cual se encarga de calcular la trayectoria que el robot seguirá. Donde el modulo de visión recibe del modulo de resonancia el cual consta de la información recibida por los sensores y una base de datos para poder determinar características del entorno como lo son forma, obstáculos, intersecciones, etc. La principal descripción del funcionamiento de este sistema se basa en la construcción de pixeles que pertenecen al camino y los que no, posteriormente se utilizan una técnica de sombreado dinámico para calcular en base al umbral y así poder determinar los límites del camino; y poder predecir el camino en base a estas observaciones.
Otros de los sistemas que se basan en el seguimiento de caminos son el sistema Prometheus el cual pertenece al proyecto EUREKA; el cual esta destinado a ser un sistema de navegación copiloto que avise cuando hay peligro de una colisión o accidente al conductor e incluso manejar autónomamente por periodos de tiempo.
Debido a que la velocidad en los robots móviles que navegan en exteriores es de suma importancia se han desarrollado sistemas que maximizan esta variable; uno de estos es el que utiliza una percepción adaptativa que se basa en tres parámetros que son el mirar hacia delante, barrer y escanear.
Referencias:
• C. Thorpe, T. Kanade, and S.A. Shafer, “Vision and Navigation for the Carnegie-Mellon Navlab,” Proc. Image Understand Workshop, pp. 143-152, 1987.
• Guilherme DeSouza and A. C. Kak, "Vision for Mobile Robot Navigation: A Survey," IEEE Transactions on Pattern Analysis and Machine Intelligence, pp. 237-267, February 2002.
Similarmente a la navegación en interiores; para que un robot móvil pueda navegar en el mundo exterior se necesita evitar obstáculos, detectar puntos de referencia, construcción de mapas y estimar su posición en el entorno para poder moverse dentro de este; aunque difícilmente es posible estimar un mapa de el entorno, dado que este es muy cambiante; además de que es muy difícil poder determinar su ubicación en el plano. Para poder determinar un sistema de navegación fiable se han dividido su estudio en dos vertientes que son la navegación en ambientes estructurados y la navegación en ambientes no estructurados.
Navegación en exteriores en entornos estructurados
Este tipo de navegación requiere un camino para recorrer, este debe de ser tal que se puedan determinar las líneas que delimitan un camino del resto del entorno. Estos deben de contener puntos de desvanecimiento, anchos de camino y línea de seguimiento, aunque estos sistemas de navegación tienen que lidiar con problemas de sombras, cambios de iluminación, colores entre otros. Entre los sistemas de esta índole, uno de los mas prominentes es el Navlab (Thorpe, 1987), el cual se utiliza desde minivans hasta metro buses que se encargan de conducirlos hasta ciertos destinos. Este sistema usa la visión en color para poder seguir una ruta y una visión tridimensional para poder detectar los obstáculos en el entorno. Su algoritmo de seguimiento se basa en tres puntos que son, la clasificación de los pixeles, el voto de la mejor posición para el camino y la actualización de los colores.
Dentro del la clasificación de los pixeles hay dos procedimientos que son la clasificación del color y la clasificación de la textura; dentro del primer procedimiento
“Cada pixel es asignado a una clase dependiendo de las distribuciones del color. Los pixeles del camino están representados por cuatro clusters Gausianos separados para tomar en cuenta los cambios de iluminación, las propiedades del camino, etc. Similarmente, los pixeles que no pertenecen al camino también están representados por un vector de medias tridimensional (con medias de R, G y B), por una matriz de covarianza de tres por tres y por la fracción de pixeles esperados a priori con el vector de colores X perteneciente a la da distribución i, PCi, que es calculada usando la distancia Mahalanobis: (X-mi)T ∑-1(X-mi). La clasificación es llevada a cabo usando estándares de pruebas de probabilidad de radios máximos. ”(DeSouza, 2002)
Además este sistema de navegación basa su clasificación de las texturas en las regiones del camino siendo estas mas brillantes que las que no lo son; la igualdad es medida por un índice de gradiente normalizado que es calculado utilizando el operador de Robert; posteriormente la clasificación de la textura es determinada por la probabilidad PTi que depende de los microbordes. Para determinar la clasificación de un pixel se combina la clasificación de textura y de color; estas características se asocian mediante la formula:
Pi = (1-α)PTi + αPCi
Debido a que la clasificación del color es más segura que la clasificación de textura; este se ve reflejado en el valor de α.
por lo tanto la clasificación de los pixeles en el camino y el entorno diferente al camino; quedan determinados por:
C = max{Pi, donde i es una clase de camino} - max{Pi, donde i es una clase diferente al camino}
Posteriormente de que se haya clasificado un pixel se aplica la transformada de Hough para obtener los parámetros de los puntos de desvanecimiento (P) y la orientación (θ); y donde cada pixel queda determinado por (P, θ) siendo el pixel que pertenece al camino el que tiene mayores votos. Después de ser clasificados los pixeles que pertenecen al camino y los que no, los pixeles que pertenecen al camino se vuelven a reclasificar para determinar los pixeles que pertenecen a los bordes del camino; esto permite al sistema de navegación adaptarse a las condiciones del camino que se sigue.
Aunado a la detección de los bordes y del camino, el sistema Navlab cuenta con un sistema de redes neuronales llamado ALVINN, el cual se encarga de determinar los ángulos en que se moverán las llantas del robot, este sistema es entrenado usando un algoritmo de propagación hacia atrás; también para poder determinar el centro de navegación del robot se utiliza una distribución Gausiana que dirige la orientación del robot en el camino. Aunque este sistema tiene problemas en el rendimiento del manejo y que la red neuronal olvide lo que aprendió en caminos curvos.
Otro sistema de navegación basado en el seguimiento de caminos es el sistema VITS; el cual consta de cámaras y sensores que permiten obtener la representación del entorno; el sistema de visión para la navegación produce un bosquejo del camino en un marco de coordenadas centradas para el vehículo; el cual se encarga de calcular la trayectoria que el robot seguirá. Donde el modulo de visión recibe del modulo de resonancia el cual consta de la información recibida por los sensores y una base de datos para poder determinar características del entorno como lo son forma, obstáculos, intersecciones, etc. La principal descripción del funcionamiento de este sistema se basa en la construcción de pixeles que pertenecen al camino y los que no, posteriormente se utilizan una técnica de sombreado dinámico para calcular en base al umbral y así poder determinar los límites del camino; y poder predecir el camino en base a estas observaciones.
Otros de los sistemas que se basan en el seguimiento de caminos son el sistema Prometheus el cual pertenece al proyecto EUREKA; el cual esta destinado a ser un sistema de navegación copiloto que avise cuando hay peligro de una colisión o accidente al conductor e incluso manejar autónomamente por periodos de tiempo.
Debido a que la velocidad en los robots móviles que navegan en exteriores es de suma importancia se han desarrollado sistemas que maximizan esta variable; uno de estos es el que utiliza una percepción adaptativa que se basa en tres parámetros que son el mirar hacia delante, barrer y escanear.
Referencias:
• C. Thorpe, T. Kanade, and S.A. Shafer, “Vision and Navigation for the Carnegie-Mellon Navlab,” Proc. Image Understand Workshop, pp. 143-152, 1987.
• Guilherme DeSouza and A. C. Kak, "Vision for Mobile Robot Navigation: A Survey," IEEE Transactions on Pattern Analysis and Machine Intelligence, pp. 237-267, February 2002.
No hay comentarios:
Publicar un comentario