<?xml version="1.0" encoding="UTF-8"?>
<feed xmlns="http://www.w3.org/2005/Atom" xmlns:dc="http://purl.org/dc/elements/1.1/">
  <title>RIUdeG Colección:</title>
  <link rel="alternate" href="https://hdl.handle.net/20.500.12104/71436" />
  <subtitle />
  <id>https://hdl.handle.net/20.500.12104/71436</id>
  <updated>2026-04-17T20:59:28Z</updated>
  <dc:date>2026-04-17T20:59:28Z</dc:date>
  <entry>
    <title>Análisis de sistemas de control basados en el procesamiento digital de imágenes; un enfoque hacia la optimización con sistemas embebidos programables</title>
    <link rel="alternate" href="https://hdl.handle.net/20.500.12104/112755" />
    <author>
      <name>Beltrán Escobar, Alberto Miguel</name>
    </author>
    <id>https://hdl.handle.net/20.500.12104/112755</id>
    <updated>2026-04-13T20:04:01Z</updated>
    <published>2025-08-08T00:00:00Z</published>
    <summary type="text">Título: Análisis de sistemas de control basados en el procesamiento digital de imágenes; un enfoque hacia la optimización con sistemas embebidos programables
Autor: Beltrán Escobar, Alberto Miguel
Resumen: Las aplicaciones en la industria y en el ámbito de investigación en las que se imple-
menta el procesamiento digital para resolver tareas como el reconocimiento de patrones en
señales eléctricas o en imágenes, identificación y seguimiento de objetos, control dinámico
de sistemas, entre otras, están presentes en la mayorı́a de los procesos tecnológicos ac-
tuales. La resolución eficiente de estas tareas tiene como objetivo optimizar el desempeño
de dispositivos inteligentes que, al mismo tiempo, brindan mayor seguridad y confort a
la sociedad. Esto ha motivado la búsqueda de estrategias para la optimización de los al-
goritmos responsables de realizar el procesamiento de imágenes mediante computadoras
cumpliendo los requerimientos y exigencias que cada aplicación demanda. En los últimos
10 años han cobrado relevancia los desarrollos en programación orientados al diseño de
algoritmos óptimos y capaces de realizar el procesamiento de los datos provenientes de una
imagen, ejecutando sub-proceso de clasificación de patrones o caracterı́sticas de un objeto
en tiempo real, es decir, en video; ası́ mismo, delegando estas tareas a dispositivos embe-
bidos de dimensiones reducidas, que no dependen de la conexión fija a una computadora,
de bajo consumo energético y hardware optimizado con restricciones de recursos pero uso
eficiente de los mismos. En la primera mitad de los años 90 surgen arquitecturas de hard-
ware especializado, como las FPGA y tarjetas de procesamiento con unidades integradas
de procesamiento de imágenes dedicadas (GPUs). Sin embargo, el problema es que estos
sistemas, en la mayorı́a de los casos, no son de bajo costo y requieren de herramientas de
desarrollo de software de licenciamiento con un costo económico extra asociado a su adqui-
sición y soporte. En esta tesis se realiza una optimización e implementación de algoritmos
utilizados para el control de sistemas dinámicos basados en técnicas de procesamiento de
imágenes. La aportación principal es la implementación de los algoritmos optimizados en
sistemas embebidos de bajo costo y hardware restringido que resuelvan tareas de procesa-miento de imágenes en tiempo real y control del sistema manteniendo un equilibrio entre
el desempeño y el consumo energético. Utilizando herramientas de Inteligencia Artificial
como el Tiny Machine Learning (TinyML) se logra el reconocimiento de objetos en tiem-
po real, ası́ como la extracción de caracterı́sticas y variables de interés para el control de
los sistemas. Finalmente se implementan los algoritmos en la tarjeta Raspberry Pi 5. Se
realizan pruebas de funcionamiento y desempeño utilizando dos sistemas como escenarios
de prueba: Robot Seguidor y Sistema de equilibrio de esfera y plataforma. Se realiza un
análisis del desempeño en cada escenario de prueba operando con los algoritmos optimi-
zados que se programan en las tarjetas Raspberry pi 5 con el fin de mostrar robustez en
la detección de objetos ante diferentes condiciones de operación.</summary>
    <dc:date>2025-08-08T00:00:00Z</dc:date>
  </entry>
  <entry>
    <title>Construcción, Modelado y Adquisición de Señales de un Proceso de Adsorción por Oscilación de Presión para Producir Bio-etanol</title>
    <link rel="alternate" href="https://hdl.handle.net/20.500.12104/112754" />
    <author>
      <name>Rentería Vargas, Erasmo Misael</name>
    </author>
    <id>https://hdl.handle.net/20.500.12104/112754</id>
    <updated>2026-04-13T20:04:01Z</updated>
    <published>2024-03-20T00:00:00Z</published>
    <summary type="text">Título: Construcción, Modelado y Adquisición de Señales de un Proceso de Adsorción por Oscilación de Presión para Producir Bio-etanol
Autor: Rentería Vargas, Erasmo Misael
Resumen: El proceso de adsorción por cambio de presión (PSA) es un método novedoso para la
purificación y producción de bioetanol. En esta tesis se propone la implementación de un
modelo riguroso altamente no lineal para simular la dinámica cíclica del PSA, logrando una
pureza del 99 % wt (peso) de etanol, el cual cumple con los estándares internacionales para
ser utilizado como combustible, algunos de los estándares son: la norma europea CEN EN
15376:2014 del Comité de europeo de normalización, exige que el etanol contenga un máximo
de 0.24 % en volumen de agua. La norma estadounidense exige un contenido máximo de
agua del 1 % en volumen, mientras que la ANP (agencia nacional de petróleo) de Brazil una
resolución 36, 0.4 % en volumen. Por lo tanto, el contenido mínimo de etanol considerado
es: 99.76 % en volumen, 99.39 % en moles, 99.0 % en volumen, 97.47 % en moles, 99.6 % en
volumen, 98.98 % en moles. La contribución de este trabajo se centra en obtener un modelo
identificado capaz de capturar la importante dinámica del proceso PSA (con un ajuste superior
al 90 %) y que pueda ser utilizado para el diseño de controladores, ya que es muy complicado
diseñar el control en sistemas altamente no lineales ya que son difíciles de predecir y modelar
por no ser iguales en la suma de sus partes. Para este diseño, se asume un modelo que se
representan con Ecuaciones Diferenciales Parciales (EDP). Como prueba de concepto, una
comparación entre el modelo matemático Hammersetein-Wienner (HW) (sistemas dinámicos
que utilizan uno o dos bloques estáticos no lineales en serie con un bloque lineal) y la red
neuronal artificial (RNN-por sus siglas en inglés) mostró la relevancia del método propuesto,
utilizando las mismas señales de entrada y salida. Entre las metodologías para identificar un
sistema, en esta investigación se propone una RNN la cual ha sido comparada con un modelo
HW. La RNN ha mostrado el mejor desempeño entre los modelos computados (HW vs RNN),
usando varios procedimientos de prueba e índices de desempeño, por ejemplo, el FIT (ajuste)
donde la RNN tiene un 84.51 % mientras que el modelo HW tiene un 75.8425 %.</summary>
    <dc:date>2024-03-20T00:00:00Z</dc:date>
  </entry>
  <entry>
    <title>Estudio de las plumas de río para la detección automática de vertidos anómalos en zonas costeras usando técnicas de machine learning e imágenes de los satélites Sentinel 2 y 3</title>
    <link rel="alternate" href="https://hdl.handle.net/20.500.12104/112753" />
    <author>
      <name>Lomelí Huerta, José Roberto</name>
    </author>
    <id>https://hdl.handle.net/20.500.12104/112753</id>
    <updated>2026-04-13T20:04:00Z</updated>
    <published>2023-05-25T00:00:00Z</published>
    <summary type="text">Título: Estudio de las plumas de río para la detección automática de vertidos anómalos en zonas costeras usando técnicas de machine learning e imágenes de los satélites Sentinel 2 y 3
Autor: Lomelí Huerta, José Roberto
Resumen: Desde hace ya algunas décadas la percepción remota es un campo del conocimiento que ha
tenido gran relevancia en el estudio del clima, la tierra y los océanos, y que gracias a los
constantes desarrollos en los campos de la tecnología, las matemáticas, procesamiento de
señales, óptica, computación, etc., su implementación se a traspolado al estudio de nuevos
fenómenos de interés para la humanidad. Desde sus primeras aplicaciones, la percepción
remota tuvo un papel importante en el avance de la cartografía a través del uso de cámaras
fotográficas abordo de globos a mediados del sigo XIX. Y durante la primera parte del siglo
XX la percepción remota cobra un impulso importante para el levantamiento de los recursos
naturales, así mismo el desarrollo de las primeras cámaras sensibles a la radiación infrarroja
tuvieron un impacto significativo en el desarrollo de la guerra. A partir de la segunda mitad
del siglo XX, los avances en el campo de la percepción remota cobran un nuevo impulso por
el desarrollo de las cámaras multiespectrales y el desarrollo de los primeros vehículos espa-
ciales tripulados y no tripulados. Apartir de este hito, se desarrollan los primeros satélites
para el monitoreo de los recursos naturales y el clima. Con los primeros satélites Landast
la percepción remota cobra un nuevo impulso al contar con un archivo global de imágenes
satelitales. En los inicio del siglo XXI, los avances en el desarrollo de nuevos chips y el campo
de la inteligencia artificial crean una nueva sinergia al dotar a los investigadores de nuevas
herramientas para explorar la aplicación de la percepción remota en nuevos campos de es-
tudio como: estudio de cultivos, contaminación, zonas de riesgo, desarrollo urbano, cambio
climático, estudio del océanos, entre muchas otras aplicaciones.
En la presente investigación, se aborda una de las principales problemáticas que se pre-
sentan en la percepción remota “los datos faltantes”. Los datos faltantes es la información
atípica que se registra por parte de un sensor al momento de tomar una fotografía de una
zona de interés (ROI). Estos datos atípicos pueden ser ocasionados por obstrucciones de nu-
bes o, por cuestiones físicas, generadas por los aerosoles dispersos en la atmósfera, entre
otros factores. La investigación se centra en el desarrollo de una metodología para el proce-
samiento de imágenes de satélite de grandes extensiones geográficas combinando técnicas
de procesamiento de imágenes, fusión de datos, computación intensiva de datos y DINEOF.
La metodología comprende tres aspectos conceptuales principales: (1) Descarga automática
de datos satelitales, (2) Fusión de datos satelitales, y (3) Rellenar los datos satelitales que
faltan utilizando un enfoque en computación intensiva en datos</summary>
    <dc:date>2023-05-25T00:00:00Z</dc:date>
  </entry>
  <entry>
    <title>ANISOTROPÍA DE RAYOS CÓSMICOS A ENERGÍAS DE 10 TEV CON LOS DETECTORES ICECUBE Y HAWC</title>
    <link rel="alternate" href="https://hdl.handle.net/20.500.12104/112752" />
    <author>
      <name>Díaz Vélez Berghouse, Juan Carlos</name>
    </author>
    <id>https://hdl.handle.net/20.500.12104/112752</id>
    <updated>2026-04-13T20:04:00Z</updated>
    <published>2018-01-08T00:00:00Z</published>
    <summary type="text">Título: ANISOTROPÍA DE RAYOS CÓSMICOS A ENERGÍAS DE 10 TEV CON LOS DETECTORES ICECUBE Y HAWC
Autor: Díaz Vélez Berghouse, Juan Carlos
Resumen: Las observaciones sobre la anisotropı́a sideral en la distribución de la dirección
de arribo de los rayos cósmicos galácticos anteriormente publicadas por observatorios en
forma individual están restringidas por la cobertura limitada del cielo. Como resultado, el
espectro de potencia de la anisotropı́a obtenida a partir de dichas mediciones muestra una
correlación sistemática entre diferentes modos multipolares C . En esta tesis describimos
los métodos utilizados para combinar los datos de IceCube y HAWC, abordamos los errores
sistemáticos de cada detector en forma individual y estudiamos la región de campo de
visión superpuesto entre los dos observatorios. Presentamos también un nuevo método de
procesamiento de señales basado en la máxima verosimilitud que se ajusta simultánea-
mente a las anisotropı́as de los rayos cósmicos y la aceptación del detector. Este método
proporciona una reconstrucción de anisotropı́a óptima y la recuperación de la anisotropı́a
dipolo para observatorios de rayos cósmicos en tierra ubicados en las latitudes medias. Los
resultados del análisis de anisotropı́a conjunta incluyen un mapa celeste combinado y un
espectro de potencia angular para todo el cielo en el rango de energı́a superpuesto de los
dos experimentos a alrededor de 10 TeV en todas las escalas angulares utilizando datos de
rayos cósmicos recopilados durante 2 años de funcionamiento del Observatorio de rayos
gamma HAWC (ubicado a 19◦ N) y datos recolectados durante 5 años de operación del
Observatorio de neutrinos IceCube (ubicado a 90◦ S). Finalmente hacemos un resumen de
las teorı́as sobre éste fenómeno y la interpretación de los resultados de nuestro análisis.</summary>
    <dc:date>2018-01-08T00:00:00Z</dc:date>
  </entry>
</feed>

