Por favor, use este identificador para citar o enlazar este ítem:
https://hdl.handle.net/20.500.12104/90595
Título: | Navegación de Vehículos Aéreos No Tripulados con Retroalimentación Visual |
Autor: | Gómez Avila, Javier Enrique |
Director: | López Franco, Carlos Alberto |
Fecha de titulación: | 24-ene-2018 |
Editorial: | Biblioteca Digital wdg.biblio Universidad de Guadalajara |
Resumen: | El uso de robots aéreos no tripulados se ha incrementado en las últimas décadas. Su habilidad de moverse en un espacio en 3D representa una ventaja sobre vehículos terrestres, especialmente cuando el robot es sometido a viajar grandes distancias o ambientes peligrosos como en aplicaciones de búsqueda y rescate. Los nuevos sensores y actuadores, cada vez más ligeros, han permitido el desarrollo de vehículos de despegue y aterrizaje vertical como los multirrotores. Por otra parte, hay dos grandes desventajas presentes en este tipo de robots: altas no linealidades y desconocimiento de su ubicación, pues no está provisto de sensores a bordo capaces de medir su posición con respecto a un sistema de coordenadas externo. Para atacar estas desventajas, el siguiente trabajo de tesis presenta el desarrollo e implementación de un algoritmo que combina el uso de sensores de visión y redes neuronales artificiales para controlar la navegación de robots aéreos. Los sensores de visión entregan grandes cantidades de información acerca del ambiente, lo que permite conocer su posición relativa a los patrones recibidos en las imágenes y las técnicas de inteligencia artificial han demostrado efectividad controlando no linealidades, retardos e incertidumbres del sistema cuando se combinan con técnicas de control clásico. En este trabajo se propone un entrenamiento en línea de la red neuronal, de manera que pueda adaptarse a incertidumbres en el modelo y, a diferencia de otras estrategias de control visual, donde se debe conocer el tamaño del patrón a observar, para este trabajo se utiliza un sensor de profundidad que entrega la distancia entre el vehículo y el objeto observado y evitar así, aproximaciones en la construcción de la matriz de interacción. Los algoritmos de control y visión se probarán por separado en dos plataformas diferentes. Por último, se combinarán en una tercer plataforma para probar la efectividad del algoritmo. |
URI: | https://wdg.biblio.udg.mx https://hdl.handle.net/20.500.12104/90595 |
Programa educativo: | DOCTORADO EN CIENCIAS DE LA ELECTRONICA Y LA COMPUTACION CON ORIENTACIONES |
Aparece en las colecciones: | CUCEI |
Ficheros en este ítem:
Fichero | Tamaño | Formato | |
---|---|---|---|
DCUCEI10056FT.pdf | 4.37 MB | Adobe PDF | Visualizar/Abrir |
Los ítems de RIUdeG están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.