Por favor, use este identificador para citar o enlazar este ítem: https://hdl.handle.net/20.500.12104/83345
Registro completo de metadatos
Campo DCValorLengua/Idioma
dc.contributor.advisorAmaya Delgado, Lorena
dc.contributor.advisorMeda Campaña, María Elena
dc.contributor.advisorLópez Martín, Cuauhtémoc
dc.contributor.advisorCalixto Romo, María De Los Angeles
dc.contributor.authorBarbosa Santillán, Luis Francisco
dc.date.accessioned2021-10-02T20:27:09Z-
dc.date.available2021-10-02T20:27:09Z-
dc.date.issued2018-12-12
dc.identifier.urihttps://wdg.biblio.udg.mx
dc.identifier.urihttps://hdl.handle.net/20.500.12104/83345-
dc.description.tableofcontentsAbstract 7 Agradecimientos 9 I Planteamiento del problema de investigación 19 1. Introducción 21 1.1. Pregunta de investigación 22 1.2. Objetivos 22 1.2.1. Objetivo general 22 1.2.2. Objetivos específicos 22 1.3. Justificación 22 1.4. Hipótesis 22 2. Marco Teórico 23 2.1. Machine Learning 23 2.2. Redes neuronales artificiales 26 2.2.1. Métodos de evaluación tipo Validación cruzada de modelos neuronales 27 2.3. Visión por computadora 28 2.4. Opciones de procesamiento paralelo 35 2.4.1. Field programmable gate array (FPGAs) 35 2.4.2. Unidades paralelas de procesamiento gráfico (GPU) 38 2.5. Revisión de la Literatura 39 2.5.1. Introducción 39 2.5.2. Revisión de artículos 39 2.5.3. Revisión de patentes 41 3. Predicción de la actividad enzimática en tiempo real basado en aprendizaje supervisado 45 3.1. Introducción 45 3.2. Adquisición y limpieza de datos 46 3.2.1. Dataset de n periodos con m placas de elisa 47 3.2.2. Adquisición de enzimas digitalizadas 47 3.2.3. Calibración del offset 49 3.2.4. Compensación de la distribución irregular de la luz 49 3.2.5. Segmentación de la degradación cromática 50 3.2.6. Cálculo de cromaticidad 52 3.2.7. Base de conocimiento de cromaticidad 52 3.3. Construcción de descriptores de enzimas 53 3.3.1. Extracción de anomalías 53 3.3.2. Agrupación con el algoritmo de KMeans 53 CONTENIDO 3.4. Entrenamiento del modelo 54 3.5. Predicción de Actividad enzimática en tiempo real 62 4. Experimentos 77 4.1. Experimentos 77 4.1.1. Construcción de descriptores de Enzimas 77 4.1.2. Entrenamiento del modelo 83 4.1.3. Pruebas para evaluar el comportamiento funcional y temporal de la red neuronal implementada en FPGA 86 5. Resultados 95 5.1. Validación de los patrones cromáticos del modelo 98 5.2. Reporte de la eficiencia de clasificación de la red neuronal 102 5.3. Estadísticas del desempeño en GPU 104 5.4. Caso de estudio: Predicción de la actividad enzimática de microorganismos con presencia de halos 111 5.4.1. Adquisición y limpieza de datos 111 5.4.2. Construcción de descriptores de Enzimas 112 5.4.3. Entrenamiento del modelo 113 5.4.4. Predicción de la actividad enzimática en tiempo real 113 6. Conclusiones 117 6.1. Discusión 117 6.2. Conclusiones 119 6.3. Trabajo futuro 120 Bibliografía 128 Appendices 129 2.1. Proceso de aprendizaje automático [7] 25 2.2. Estructura general de una red neuronal artificial 26 2.3. Representación matemática de una imagen. a) Representación visual mo- nocromática b) Representación en función de su intensidad luminosa c) Ejemplo de la representación para una imagen monocromática d) Ejemplo de la representación para imagen a color 29 2.4. Componentes de un sistema de visión por computadora. 30 2.5. Proceso de generación de patrones con una DNN. 34 2.6. Arreglo de compuertas And, OR y Not, junto con sus canales de intercone- xión reconfigurable. 36 3.1. Diagrama de flujo que muestra las etapas de adquisición-limpieza de datos y construcción de descriptores de enzimas. 46 3.2. Prototipo Enzime-Vision. A: Cámara; B: Domo de aislamiento de luz exterior; C: Tranluminador; D: Fuente de luz circular; E: Charola porta placas; F: Ducto para conexión con el sistema de procesamiento de datos en tiempo real; G: Guías para fijar la posición de la placa. 48 3.3. Diagrama a bloques de los dos preprocesos que se ocupan para eliminar el ruido de la imagen. a) ruido proveniente del instrumento b) ruido asociado a la fuente de iluminación. 49 3.4. Diagrama que muestra los pasos realizados durante el proceso de segmen- tación. 50 3.5. Porcentajes típicos asignados en la distribución de los datos sobre cada uno de los grupos de entrenamiento, validación y prueba. 52 3.6. Proceso de entrenamiento y selección de la arquitectura neuronal optima. 55 3.7. Función de activación sigmoidea. La función se mantiene asintóticamente cercana a cero para valores inferiores a -6 y a uno para valores superiores a 6 57 3.8. Modelo neuronal tipo perceptron multicapa totalmente conectado. Tres neu- ronas en la capa de entrada, doce en la oculta y seis en la de salida. 60 3.9. Diagrama que muestra la descripción funcional de la arquitectura en hard- ware. 63 3.10. Diagrama RTL del producto escalar realizado en el primer elemento proce- sador del módulo 1 64 3.11. Diagrama RTL del producto vectorial realizado por seis elementos procesa- dores pertenecientes al módulo 1 64 3.12. Diagrama RTL de la etapa para la selección de la neurona ganadora 67 3.13. Estructura Mealy. Las señales de salida dependen tanto del estado en que se encuentra el sistema, como de la entrada que se aplica en determinado momento. 68 3.14. Control de la arquitectura coordinado con una máquina de estados. 682.1. Proceso de aprendizaje automático [7] 25 2.2. Estructura general de una red neuronal artificial 26 2.3. Representación matemática de una imagen. a) Representación visual mo- nocromática b) Representación en función de su intensidad luminosa c) Ejemplo de la representación para una imagen monocromática d) Ejemplo de la representación para imagen a color 29 2.4. Componentes de un sistema de visión por computadora. 30 2.5. Proceso de generación de patrones con una DNN. 34 2.6. Arreglo de compuertas And, OR y Not, junto con sus canales de intercone- xión reconfigurable. 36 3.1. Diagrama de flujo que muestra las etapas de adquisición-limpieza de datos y construcción de descriptores de enzimas. 46 3.2. Prototipo Enzime-Vision. A: Cámara; B: Domo de aislamiento de luz exterior; C: Tranluminador; D: Fuente de luz circular; E: Charola porta placas; F: Ducto para conexión con el sistema de procesamiento de datos en tiempo real; G: Guías para fijar la posición de la placa. 48 3.3. Diagrama a bloques de los dos preprocesos que se ocupan para eliminar el ruido de la imagen. a) ruido proveniente del instrumento b) ruido asociado a la fuente de iluminación. 49 3.4. Diagrama que muestra los pasos realizados durante el proceso de segmen- tación. 50 3.5. Porcentajes típicos asignados en la distribución de los datos sobre cada uno de los grupos de entrenamiento, validación y prueba. 52 3.6. Proceso de entrenamiento y selección de la arquitectura neuronal optima. 55 3.7. Función de activación sigmoidea. La función se mantiene asintóticamente cercana a cero para valores inferiores a -6 y a uno para valores superiores a 6 57 3.8. Modelo neuronal tipo perceptron multicapa totalmente conectado. Tres neu- ronas en la capa de entrada, doce en la oculta y seis en la de salida. 60 3.9. Diagrama que muestra la descripción funcional de la arquitectura en hard- ware. 63 3.10. Diagrama RTL del producto escalar realizado en el primer elemento proce- sador del módulo 1 64 3.11. Diagrama RTL del producto vectorial realizado por seis elementos procesa- dores pertenecientes al módulo 1 64 3.12. Diagrama RTL de la etapa para la selección de la neurona ganadora 67 3.13. Estructura Mealy. Las señales de salida dependen tanto del estado en que se encuentra el sistema, como de la entrada que se aplica en determinado momento. 68 3.14. Control de la arquitectura coordinado con una máquina de estados. 68 3.15. Diagrama del algoritmo secuencial que emula el funcionamiento de la red neuronal 3-12-6. 73 3.16. Diagrama paralelo que emula el funcionamiento de la red neuronal 3-12-6. 74 4.1. a) Histograma patrón 1, µ = 167,32; Σ = 11,84; b) Histograma patrón 2, µ = 12,41; Σ = 6,29; c) Histograma patrón 3, µ = 22,69; Σ = 9,35 77 4.2. Valores de la densidad probabilística de cada ejemplo (grupo 1). 79 4.3. Zonas de densidad probalilística del periodo 6. 79 4.4. Valores de la densidad probabilística para cada ejemplo de 4 grupos in- dicando su valor épsilon correspondiente a) c = 7,090153e − 04 b) c = 0,000721362127485656 c) c = 0,000367675927979642 d) c = 0,000875024921869681 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 4.5. Evolución de la agrupación del dataset. El eje vertical representa la croma- ticidad roja y el eje horizontal la cromaticidad azul, la cromaticidad verde no se muestra. a) división del dataset usando tres semillas. b) división del dataset usando cuatro semillas. 81 4.6. Evolución del dataset repartido en cinco (a) y seis (b) clusters. Los centroides se representan por cruces y su evolución se muestra con líneas. 81 4.7. Evolución del dataset repartido en siete (a) y ocho (b) clusters. Los centroides se representan por cruces y su evolución se muestra con líneas. 82 4.8. Método del codo para selección del número de clusters. La flecha verde indica el punto de inflexión de la curva, el cual se asocia al número de clusters óptimo. 83 4.9. Evolución del dataset sobre el centroide para una (a), dos (b) y tres (c) iteracciones. El trayecto que sigue cada centroide de grupo se indica con una línea continua. 83 4.10. Arquitectura con una capa oculta con el mejor desempeño (89.8 por ciento de exactitud). 85 4.11. Arquitectura con dos capas ocultas (accuracy alcanzado del 87 por ciento) 86 4.12. Arquitectura con tres capas ocultas (accuracy alcanzado del 83 por ciento). 86 4.13. Simulación funcional de los bloques que conforman una neurona en la capa oculta. a) Dependiendo del resultado del producto punto calculado en la neurona se genera una dirección de memoria (dir_oc1) en este caso la dirección es 12. b) Al extraer el contenido de ésta dirección (12) en la lut, se obtiene el valor de la función sigmoide aproximado (993). c) diagrama RTL de los bloques con sus respectivas señales, para cálculo de la activación de la neurona número 1 de la capa oculta. 89 4.14. Implementación sobre FPGA del producto escalar y ruta crítica marcada en azul, para el calculo del periodo. 91 4.15. Numero de ciclos de reloj necesarios para clasificar un patrón. 93 5.1. Gráfico de degradacion de tonalidades RC. 99 5.2. Relación entre el dato medido y el obtenido matemáticamente. 101 5.3. Residuos inusuales. 101 5.4. Utilización de la unidad de funcional. 104 5.5. Instrucciones ejecutadas por el kernel. 105 5.6. Porcentaje de operaciones de coma flotante ejecutadas por el kernel. 105 5.7. Ocupación de SM, warps, registros y memoria compartida. 106 5.8. Utilización del multiprocesador. 106 5.9. Fallas que impiden la ejecución de los warps. 107 5.10. Memorias del núcleo. 108 5.11. Utilizacion de memoria y computo sobre el Kernel. 108 5.12. Tiempos de procesamiento usando proceso paralelos en GPU vs un proce- sador serial. 109 5.13. Tiempos de procesamiento usando proceso paralelos en GPU vs un proce- sador paralelo diseñado a la medida de la aplicación con FPGA 110 5.14. Arquitectura FPGA propuesta. 114 5.15. Enzimas digitalizadas. La imagen se obtuvo bajo condiciones controladas en la reflexión de la luz, además se garantiza invarianza en la escala de la placa de elisa y en los parámetros de ajuste del sensor óptico de la cámara 115 5.16. Preproceso para quitar ruido de la imagen digital de la placa de Elisa y ob- tener la imagen sin ruido. (a) Imagen obtenida con el “enzyme vision equip- ment”; (b) Imagen de la cámara sin estímulos luminosos; (c) Variaciones en la intensidad luminosa sobre la placa; (d) Imagen verdadera 115 5.17. Proceso de segmentación de las regiones cromogénicas. (a) imagen de la placa sin ruido; (b) capa verde de la imagen de la placa; (c) resultado de aplicar el segmentado con el algoritmo Otsu, seguido por el operador de erosión; (d) selección de los 25 objetos según su área; (e) Etiquetado de objetos, representado con colores 115 5.18. Regiones de interés indicada con cuadros sobre cada pozo. 115 5.19. Descriptores de Enzimas. A: Gráfica donde se observa el traslape de datos. B: Gráfica que muestra seis regiones de actividad enzimática. 116 5.20. Asignación de clases de acuerdo a la cinética enzimática. (a) Representación de la cinética enzimática mediante el modelo (0, rojo;1 h, verde; 3 H, azul; 5 h cyan) de las clases de actividad enzimática; (b) lecturas de absorbancia a 510 nm para la cinética enzimática por espectrofotometría a diferentes tiempos (réplicas del A1 a A5) 116 5.21. Halo de hidrólisis con mayor actividad. a) selección de la region de interés; b) Niveles de actividad enzimática usando el modelo NNADEN; (amarillo):6 nivel; (verde claro):5o nivel; (verde oscuro):4o nivel; (cian):3er nivel; (azul):2o nivel; (rosa):1er nivel. 116 1. Plano de construcción del equipo de medición Enzime-Vision (Parte 1) 131 2. Plano de construcción del equipo de medición Enzime-Vision (Parte 2) 132 3. Plano de construcción del equipo de medición Enzime-Vision (Parte 3) 133 4. Ensamble en perspectiva isométrica del equipo de medición Enzime-Vision 134 5. Gráficas que muestran las posibles agrupaciones de hilos y sus registros, asociados con los warps que se activan. Abajo se muestra la linea de tiempo del kernel. 135 6. Gráficos de pastel y barras que muestran los niveles de eficiencia alcanzados por el kernel. 136 7. Cantidad de instrucciones por pulso de reloj - warp alcanzados por el kernel y porcentaje de actividad - warps lanzados por cada SM. 137 8. Graficos de la cantidad de warps que se ejecutan simultáneamente en un multiprocesador entre la cantidad máxima de warps que pueden ejecutarse simultáneamente en el sistema concurrente desarrollado 138 9. Diagrama RTL interno del modulo comparador 139 10. Diagrama RTL interno del modulo NNoc1 140 11. Diagrama RTL interno del modulo de control 141 12. Diagrama RTL de la memoria interna tipo RAM 142 13. Esquemático de interconexión del modulo que calcula seis productos esca- lares (NNout z) y el modulo que proporciona el nivel de activación sigmoidea correspondiente para cada uno (lut out1). 143 14. Esquemático de interconexión de un producto escalar (NNoutc1 z1) y un modulo que proporciona el nivel de activación sigmoidea correspondiente (lut s1). 144 15. Diagrama RTL de un solo producto escalar resuelto con componentes hard- ware. 145 16. Esquema RTL de la arquitectura FPGA tipo red neuronal 146 Lista de Tablas 2.1. Listado de características comunes de artículos relacionados 41 3.1. Coeficiente de velocidad α que marca la taza de aprendizaje de la red 59 3.2. Matriz de confusión con las posibles combinaciones entre la predicciones y la condición real. 59 3.3. Pesos asociados a la capa oculta. Las columnas representan las neuronas de entrada y los renglones representan a las neuronas ocultas. 61 3.4. Pesos asociados a la capa de salida. Las columnas representan las neuronas de la capa oculta y los renglones representan a las neuronas de la capa de salida. 61 3.5. LUT para calcular la función sigmoidea 65 3.6. Conjunto de banderas para controlar la evolución de la máquina de estados. Cada entrada representa a su vez un conjunto de entradas, por ejemplo, la entrada flag_oc_zs representa las 12 señales de fin de cálculo del producto vectorial previo a la activación de las neuronas ocultas. El valor 1 dentro de la tabla, representa que todas y cada una de estas señales fueron activadas. 69 3.7. Salidas generadas por la máquina de estados. Las columnas representadas en las salidas, son señales de habilitación, en donde por ejemplo la señal en_oc_s representa la señal para habilitar el módulo que calcula la función sigmoidea. 71 4.1. Vista parcial del Cross validation set pertenecientes al muestreo uno 78 4.2. Listado de umbrales evaluados para la distinción de ejemplos anómalos utilizando el CV set 78 4.3. Selección de arquitecturas neuronales con una capa oculta, variando pará- metros como el factor de regularización para evitar el sobre aprendizaje 84 4.4. Selección de arquitecturas neuronales con 2 capas, variando parámetros como el factor de regularización para evitar el sobre aprendizaje 85 4.5. Tabla de Análisis temporal del hardware implementado para un producto punto. 92 5.1. Comparación entre las absorbancias obtenidas por espectrofotometría, el modelo de regresión lineal (ColAbs) y un modelo reducido con solo la variable más esencial (obtenida mediante el procedimiento stepwise). 98 5.2. Valor y estadísticas de los coeficientes del modelo matemático. 100 5.3. La tabla de residuales inusuales enumera todas las observaciones que tie- nen residuales de más que 2 en valor absoluto. 101 5.4. Exactitud con el conjunto de entrenamiento para la NNEv. 102 5.5. Exactitud del conjunto de validación para la red neuronal NNEv. 102 5.6. Tabla de clasificación de la red neuronal NNEv (hecha con un subconjunto tomado aleatoreamente de los ejemplos disponibles para la prueba). 103 LISTA DE TABLAS 5.7. Pesos de la capa oculta de la NNEv. 103 5.8. Pesos de la capa de salida de la NNEv. 103 5.9. Tabla de comparación de tiempos de respuesta entre la versión secuencial, FPGA y GPU. 109 5.10. Vista parcial de la base de conocimientos de cromaticidad 112
dc.formatapplication/PDF
dc.language.isospa
dc.publisherBiblioteca Digital wdg.biblio
dc.publisherUniversidad de Guadalajara
dc.rights.urihttps://www.riudg.udg.mx/info/politicas.jsp
dc.subjectPrediccion De La Actividad Enzimatica
dc.titlePredicción de la Actividad Enzimática en Tiempo Real Usando Redes Neuronales.
dc.typeTesis de Doctorado
dc.rights.holderUniversidad de Guadalajara
dc.rights.holderBarbosa Santillán, Luis Francisco
dc.coverageZAPOPAN, JALISCO
dc.type.conacytdoctoralThesis
dc.degree.nameDOCTORADO EN TECNOLOGIAS DE INFORMACION
dc.degree.departmentCUCEA
dc.degree.grantorUniversidad de Guadalajara
dc.degree.creatorDOCTOR EN TECNOLOGIAS DE INFORMACION
dc.contributor.directorBarbosa Santillán, Liliana Ibeth
Aparece en las colecciones:CUCEA

Ficheros en este ítem:
Fichero TamañoFormato 
DCUCEA10064.pdf
Acceso Restringido
30.35 MBAdobe PDFVisualizar/Abrir    Request a copy


Los ítems de RIUdeG están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.