Por favor, use este identificador para citar o enlazar este ítem: https://hdl.handle.net/20.500.12104/80682
Registro completo de metadatos
Campo DCValorLengua/Idioma
dc.contributor.advisorAlanís García, Alma Yolanda
dc.contributor.advisorArana Daniel, Nancy Guadalupe
dc.contributor.authorValencia Murillo, Roberto
dc.date.accessioned2020-04-09T22:21:59Z-
dc.date.available2020-04-09T22:21:59Z-
dc.date.issued2017
dc.identifier.urihttps://hdl.handle.net/20.500.12104/80682-
dc.identifier.urihttp://wdg.biblio.udg.mx
dc.description.abstractRes um en En este trabajo de tesis se aborda el tema de aprendizaje de politicas de nave- gaci6n en ambientes no estructurados. Se estudia el uso de funciones de costos construidas de forma automatica utilizando un algoritmo basado en aprendizaje por imitaci6n, este algoritmo se implement6 utilizando una maquina de vector soporte y el algoritmo planeador de rutas D*. Se llev6 a cabo un estudio de este algoritmo para probar su capacidad de reutilizar conocimiento para aprender a navegar en nuevos ambientes y se simularon escenarios en los cuales se cuentan con observaciones ruidosas del ambiente. Los experimentos muestran una deficien- cia por parte de este enfoque para reutilizar conocimiento por lo que se propane integrar al entrenamiento una red neuronal con memoria de largo y corto plazo la cual permite almacenar informaci6n en una unidades especiales llamadas carrusel del error constante, con esta capacidad la red neuronal fue capaz de aprender a navegar en ambientes estructurados utilizando los costos que mapea una maquina de vector soporte como recompensas utilizando aprendizaje reforzado. Los expe- rimentos demostraron que la red neuronal con memoria fue capaz de reutilizar el conocimiento adquirido de una mejor forma que la maquina de vector soporte entrenada con el algoritmo de aprendizaje por imitaci6n. En las pruebas con ruido tambien demostr6 un mejor desempefio.
dc.description.tableofcontents""' Indice general Lista de tablas Lista de figuras Lista de simbolos 1. Introducci6n 1.1. Antecedentes 1.2. J ustificaci6n 1.3. Hip6tesis . 1.4. Objetivos 1.4.1. General 1.4.2. Particulares 1.5. Organizaci6n de la tesis 2. Aprendizaje por demostraci6n 2.1. Funci6n de costos construida a mano 2.2. Simulaci6n fisica . . . . 2.3. Clasificaci6n supervisada 2.4. Aprendizaje por experiencia autosupervisado . 2.5. Aprendizaje por demostraci6n experta .... VII IX XI 1 4 9 9 9 9 10 10 13 14 15 16 17 18 2.5.1. Planeaci6n de Margen Maximo con funciones de costo lineales 19 v 2.5.2. Planeaci6n de Margen Maximo con funciones de costo no lineales ....... . 2.6. Algoritmo aprender a buscar 3. Red neuronal con memoria a largo corto plazo 4. Aprendizaje reforzado y red neuronal con memoria a largo y corto plazo 5. Algoritmo aprender a buscar, aprendizaje reforzado y red ronal con memoria a largo y corto plazo 6. Resultados 6.1. Experimentos LEARCH 6.2. Experimentos LEARCH-RL-LSTM 6.2.1. Experimentos con ruido 7. Conclusiones y trabajo futuro 7.1. Conclusiones .. 7.2. Trabajo futuro A. Articulo Bibliografia VI neu- 23 26 29 33 39 43 43 47 50 55 55 57 59 61
dc.formatapplication/PDF
dc.language.isospa
dc.publisherBiblioteca Digital wdg.biblio
dc.publisherUniversidad de Guadalajara
dc.rights.urihttps://wdg.biblio.udg.mx/politicasdepublicacion.php
dc.titleAplicación de Redes Neuronales Artificiales para Navegación Robótica Autónoma usando Aprendizaje por Demostración
dc.typeTesis de Doctorado
dc.rights.holderUniversidad de Guadalajara
dc.rights.holderValencia Murillo, Roberto
dc.coverageGuadalajara, Jalisco, México
dc.type.conacytDoctoralThesis-
dc.degree.nameDOCTORADO EN CIENCIAS DE LA ELECTRÓNICA Y LA COMPUTACIÓN-
dc.degree.departmentCUCEI-
dc.degree.grantorUniversidad de Guadalajara-
dc.rights.accessopenAccess-
dc.degree.creatorDOCTOR EN CIENCIAS DE LA ELECTRÓNICA Y LA COMPUTACIÓN-
Aparece en las colecciones:CUCEI

Ficheros en este ítem:
Fichero TamañoFormato 
DCUCEI00091FT.pdf10.77 MBAdobe PDFVisualizar/Abrir


Los ítems de RIUdeG están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.