-
Aplicación de redes neuronales convolucionales para la clasificación de galaxias (2024)
Natalia Artiles Martínez
En este trabajo, exploramos la clasificación de imágenes astronómicas, específicamente galaxias, utilizando redes neuronales convolucionales (CNN). Establecemos una base teórica discutiendo las características clave de los diferentes tipos de galaxias y profundizamos en el campo de la visión por ordenador y las CNN, destacando sus funciones, aplicaciones, conceptos y técnicas esenciales.
En el desarrollo del modelo, se utiliza el conjunto de datos del proyecto Galaxy Zoo, analizando el origen y la distribución de clases de las imágenes para comprender los factores que pueden afectar el rendimiento del modelo. Se entrenaron tres modelos diferentes: el primero usando ResNet50, el segundo usando DenseNet121, y el tercero combinando DenseNet121 con técnicas de submuestreo para equilibrar el conjunto de datos. Los resultados indican que, aunque ResNet50 proporciona una precisión aceptable, su rendimiento se ve obstaculizado por el desequilibrio de clases.
DenseNet121 mejora significativamente la precisión, pero también se ve afectado por este desequilibrio. El tercer modelo, que integra submuestreo con DenseNet121, logra un rendimiento más equilibrado y representativo.
Este trabajo subraya la eficacia de las arquitecturas avanzadas de CNN en la clasificación de imágenes astronómicas y enfatiza la necesidad de conjuntos de datos equilibrados y técnicas de aumento de datos. Las direcciones futuras de investigación incluyen la incorporación de imágenes en diferentes longitudes de onda y la aplicación de técnicas de segmentación para mejorar aún más el rendimiento del modelo.
-
Optimización de modelos de computer vision mediante contenido sintético y LLMs (2024)
David Jonatan Castro Miguel
Debido al auge exponencial de las tecnologías de Inteligencia Artificial (IA) en el mercado, que derivan en múltiples productos y servicios que nos hacen la vida más sencilla, mercados como el de “Contenidos de Visión Artificial” comienzan a erigirse como una necesidad exponencial, a una amplia gama de sectores, desde la banca y la atención médica hasta el transporte y el comercio minorista. La demanda de tecnología basada en visión artificial está creciendo rápidamente. Según ABI Research, se espera que los ingresos totales de la tecnología de visión artificial alcancen los 36 billones de dólares americanos para 2027, frente a los 21,4 billones de dólares en 2022.
-
Viabilidad de identificación, estimación y corrección del alineamiento de posturas de Yoga usando la IA (2024)
Beatriz Celdran Subiela
La finalidad de este trabajo es fusionar la sabiduría ancestral del Yoga junto con todos sus beneficios físicos y mentales que aporta con la tecnología de la Inteligencia Artificial con la finalidad de investigar sobre una posible aplicación accesible para todo el mundo. Esta aplicación, haciendo uso de la Inteligencia Artificial y mientras una persona se encuentra practicando una postura de yoga (conocido como Asana), debería ser capaz de identificar la postura de yoga que está realizando el practicante en tiempo real, realizar una clasificación de la postura, proveer información al practicante sobre el correcto alineamiento corporal de esa postura en particular y a través de la identificación visual de las articulaciones corporales y alineación del practicante, corregir al practicante respecto a la alineación anatómica y por lo tanto conseguir dos objetivos, entendimiento y conocimiento del practicante de la alineación correcta de la postura y evitar lesiones innecesarias debido a una mala alienación corporal.
-
Detección de tumores cerebrales mediante técnicas de visión por computador (2024)
Manuel Jesús Cerezo Mazón
Este proyecto de implementación se centra en el estudio y análisis de tres tipos de tumor cerebral: glioma, meningioma y pituitario. Estas enfermedades, para las cuales no se conoce una cura definitiva hasta la fecha, representan un desafío significativo en el campo de la medicina y la investigación biomédica. El objetivo principal de este proyecto es desarrollar un sistema que permita la detección temprana y precisa de estos tipos de cáncer cerebral, lo que podría llegar a repercutir en mejorar las tasas de supervivencia y la calidad de vida de los pacientes. El proyecto no solo se enfoca en la identificación de la presencia de estas enfermedades, sino que también busca determinar las áreas específicas del cerebro que están siendo afectadas. Este nivel de detalle puede proporcionar información valiosa para los médicos y otros profesionales de la salud, permitiéndoles desarrollar planes de tratamiento más personalizados y efectivos. Para lograr estos objetivos, se ha empleado una combinación de técnicas de aprendizaje automático y análisis de imágenes, con el fin de crear un sistema capaz de analizar imágenes médicas y detectar signos de glioma, meningioma y cáncer pituitario en todas sus diferentes etapas.
-
Modelo de previsión de demanda de productos en retail fast fashion (2024)
Emilio Conde Langa
La industria del comercio minorista (Retail) de la moda se caracteriza por su dinamismo y complejidad, donde las tendencias cambian constantemente y los ciclos de vida de los productos son muy cortos. En este contexto, la predicción precisa de la demanda de los productos se convierte en un desafío crucial para las empresas, permitiéndoles optimizar sus estrategias de inventario, compras y producción. En este ámbito, existe una amplia gama de modelos e investigaciones enfocadas en series temporales. Estos modelos se basan a menudo en el análisis de datos históricos para identificar patrones y tendencias que permitan realizar proyecciones futuras. Sin embargo, la aplicación de estos modelos en este sector presenta desafíos específicos que reducen su precisión, como la gran variedad de productos, la falta de datos históricos de los mismos o la influencia de factores externos, como tendencias, promociones o eventos climáticos que impactan significativamente la demanda, dificultando su predicción. Para enfrentar estos desafíos, se propone un modelo de predicción de demanda de producto a corto plazo mediante un ensamblado de 2 modelos de regresión que permitirá enfocar individualmente el aprendizaje de cada uno y dotar de mayor robustez al conjunto: el primer modelo, basado en series temporales, realizará solo la predicción de las variables macro que impactan de forma global a la demanda y cuyo nivel de agregación permita aprovechar las características de este tipo de modelos. El segundo modelo, utilizando los outputs del anterior, junto con otros inputs específicos, realizará una predicción de la demanda especifica de cada producto basada en probabilidades, para dotar al negocio de una herramienta que permita tomar decisiones acordes con la estrategia de servicio.
-
Chatbot/Asistente virtual para mejorar la productividad de las tiendas (2024)
Jorge Consuegra Pérez
Proyecto enfocado a una empresa de Retail del sector de moda. El objetivo es crear un “Bot” / “Asistente” para tiendas, que ayude a estas a mejorar la productividad de sus empleados (vendedores/jefes de tienda, mozos, etc.) Esta productividad se conseguiría reduciendo los tiempos de los empleados que dedican a buscar y recopilar diferente información, pudiendo dedicarlo a generar venta, y con ello mejorar la rentabilidad de la tienda. A través de este asistente, los vendedores podrán preguntar, en lenguaje natural, y de forma conversacional, información sobre procesos de trabajo, procedimientos de la tienda, onboarding de empleados, manuales de aplicaciones que se usen desde la tienda, formaciones, etc. Esta información se recibirá en texto generado por la IA basado en la documentación almacenada. Igualmente, de cada respuesta, se ofrecerá al usuario el poder ver el documento en concreto de donde se ha nutrido la respuesta. El alcance del asistente será un entorno internacional, y multi-cadena: - Internacional para poder asistir en diferentes idiomas locales de todas las tiendas. - Multi-Cadena para poder dar diferente contestación a una misma pregunta en función de la cadena (marca) que requiera la información. Las conversaciones podrán auditarse a posteriori para mejorar el servicio, recogiéndose feedback en cada respuesta para conocer el grado de satisfacción por parte del usuario. Igualmente se almacenarán las preguntas y respuestas de cada conversación. Estos se analizarán para determinar el grado de satisfacción del uso de la herramienta, así como muchos otros KPIs que nos ayudaran a mejorar el servicio (p.e. conocer si sobran o faltan documentos, si están actualizados, etc.).
-
Previsiones de Ventas Canal Principal de la ONCE-España
Marcelo Miguel Contreras Muñoz
El presente trabajo explora el desarrollo e implementación de diferentes modelos diseñados para prever las ventas de varios centros pertenecientes a la ONCE. Se han utilizado técnicas avanzadas de aprendizaje profundo, incluyendo Transformers, Redes Neuronales Recurrentes (LSTM), así como Regresión Lineal Múltiple, abordando el desafío de la predicción de series temporales con un enfoque en predicciones a múltiples pasos. Los modelos se entrenaron y validaron con datos históricos de ventas, que incluían variables como jornadas laborables y de absentismo, número de empleados, factores estacionales e indicadores económicos. El preprocesamiento de los datos incluyó la normalización, cálculos de tasas de crecimiento mensual y anual, y manejo de valores faltantes para garantizar la calidad y confiabilidad de los datos. Los resultados demostraron la efectividad de los modelos en la generación de previsiones de ventas confiables a múltiples pasos. El rendimiento de los modelos se evaluó en diferentes productos y las predicciones se agregaron para proporcionar una visión integral de las tendencias futuras de ventas. Este enfoque de modelado predictivo ofrece una herramienta robusta para apoyar los procesos de toma de decisiones en la gestión de ventas.
-
Previsiones de Ventas Canal Principal de la ONCE-España (2024)
Marcelo Miguel Contreras Muñoz
El presente trabajo explora el desarrollo e implementación de diferentes modelos diseñados para prever las ventas de varios centros pertenecientes a la ONCE. Se han utilizado técnicas avanzadas de aprendizaje profundo, incluyendo Transformers, Redes Neuronales Recurrentes (LSTM), así como Regresión Lineal Múltiple, abordando el desafío de la predicción de series temporales con un enfoque en predicciones a múltiples pasos. Los modelos se entrenaron y validaron con datos históricos de ventas, que incluían variables como jornadas laborables y de absentismo, número de empleados, factores estacionales e indicadores económicos. El preprocesamiento de los datos incluyó la normalización, cálculos de tasas de crecimiento mensual y anual, y manejo de valores faltantes para garantizar la calidad y confiabilidad de los datos. Los resultados demostraron la efectividad de los modelos en la generación de previsiones de ventas confiables a múltiples pasos. El rendimiento de los modelos se evaluó en diferentes productos y las predicciones se agregaron para proporcionar una visión integral de las tendencias futuras de ventas. Este enfoque de modelado predictivo ofrece una herramienta robusta para apoyar los procesos de toma de decisiones en la gestión de ventas.
-
Detección de ratones de laboratorio mediante técnicas de visión artificial clásica y aprendizaje profundo
Javiér Fernández De Gorostiza Luengo
El actual trabajo presenta diversas aproximaciones basadas en técnicas de visión artificial clásica y en algoritmos de aprendizaje profundo, para la detección y localización de ratones de laboratorio en un entorno controlado. Por un lado, se realiza un desarrollo utilizando herramientas y metodología de visión artificial clásica, y por otro utilizando herramientas y metodología basada en aprendizaje profundo y redes convolucionales. Los resultados obtenidos permiten comparar una metodología respecto a otra para el contexto utilizado. El presente trabajo se enmarca en uno más general relacionado con la investigación médica sobre enfermedades neurodegenerativas y su posible tratamiento mediante técnicas de fotobiomodulación controlada en zonas concretas del cuerpo del individuo.
-
Diseño, desarrollo e implementación de un chatbot de Inteligencia Artificial para la mejora de la experiencia del usuario en el Observatorio de la Sostenibilidad del Regadío (OSR) (2024)
Rosa Gadelly Rojas Carbajal
Este estudio se enfocó en diseñar, desarrollar e implementar el chatbot AyudaBot con inteligencia artificial en la nueva página web del Observatorio de la Sostenibilidad del Regadío (OSR), bajo la dirección del Ministerio de Agricultura, Pesca y Alimentación. El objetivo principal fue mejorar la experiencia del usuario integrando un chatbot que facilite la navegación, mejore la atención al cliente y resuelva dudas e incidencias eficazmente en la plataforma del OSR. Se evaluaron diversas plataformas de chatbot para seleccionar la más adecuada y se realizaron pruebas exhaustivas para garantizar su funcionalidad y eficiencia en el entorno real del OSR. Dialogflow fue la plataforma principal utilizada para desarrollar el chatbot, entrenándolo para reconocer intenciones de usuario y proporcionar respuestas claras y coherentes. Pruebas de demostración y producción fueron clave para evaluar su desempeño, recopilando feedback del equipo de desarrollo y compañeros para ajustes y mejoras continuas. AyudaBot demostró alta precisión en identificar las intenciones de los usuarios y ofrecer respuestas pertinentes y eficientes. Los usuarios expresaron satisfacción con la claridad y rapidez de las respuestas. Se identificaron áreas para mejorar la resolución completa de problemas técnicos y se recomendó la adopción de versiones avanzadas de Dialogflow para capacitar al chatbot en análisis de bases de datos y documentos estructurados. Se sugirió implementar un monitoreo continuo de interacciones y actualizar regularmente el entrenamiento del chatbot con información actualizada para mejorar la experiencia del usuario y consolidar la plataforma como un recurso confiable y accesible. En conclusión, la implementación exitosa de AyudaBot resalta su potencial para mejorar significativamente la accesibilidad y eficiencia del servicio al cliente en el OSR. Aunque hay áreas de mejora, los resultados positivos respaldan la utilidad y efectividad del chatbot como herramienta clave en la atención al cliente y navegación del sitio web del OSR.
-
Identificación automática de objetos en nubes de puntos aplicadas al diseño y la operación de infraestructuras (2024)
Conrado Gallardo García
Tradicionalmente, en el diseño, construcción y operación de edificaciones e infraestructuras la obtención y procesamiento de datos a gran escala de la cartografía existente y de los propios activos ha tenido y sigue teniendo una importante componente manual. En el caso de la obtención de la cartografía existente para utilizarla como base en el diseño de infraestructuras, ésta era obtenida por diversos métodos que han ido evolucionando a lo largo del tiempo (vuelos fotogramétricos, cartografía tradicional, escaneo láser 3D terrestre, etc.) y posteriormente requerían un procesado manual de la información obtenida para identificar accidentes del terreno, edificaciones, vías de transporte, etc. En el caso de la obtención de la geometría de activos existentes (como por ejemplo, carreteras y ferrocarriles) este proceso tenía incluso una componente más manual pues se realizaba (y en ocasiones se sigue realizando así) a base de inspecciones visuales recorriendo el activo, sistemas de gestión de activos en los que es costoso mantener la información actualizada, etc. Con este TFM se pretende indagar acerca de cómo se pueden hacer más eficientes los procesos anteriores utilizando técnicas de IA para el procesado de nubes de puntos con el objetivo de detectar automáticamente objetos en ellas. En el caso de la obtención de cartografía existente esto permitiría reducir en gran medida la componente manual relativa a la identificación de accidentes del terreno, etc. mientras que en el caso de la operación y mantenimiento de activos de infraestructuras esto permitiría reducir los costes asociados a estas actividades al reducir la componente manual de monitorización de los diferentes elementos de una infraestructura.
-
Análisis y Clasificación de Gammopatía Monoclonal de Significado Indeterminado y Mieloma Múltiple mediante Modelos de Aprendizaje Automático y Herramientas de Explicabilidad Basados en Biormarcadores en Suero y Orina (2024)
Miguel Herencia García del Castillo
Este trabajo de investigación se centra en el análisis de diferencias significativas entre los biomarcadores en suero y orina de los pacientes con Gammopatía Monoclonal de Significado Indeterminado (GMSI) y aquellos con Mieloma Múltiple (MM), utilizando datos del Hospital Universitario de Cabueñes. El objetivo es identificar patrones proporcionados por la combinación de varios biomarcadores que puedan diferenciar a estos grupos de pacientes con alta precisión. Se plantearon dos hipótesis principales: (H1) los marcadores bioquímicos en suero y orina pueden diferenciar significativamente entre pacientes con GMSI y aquellos con MM, y (H2) la combinación de todos los marcadores bioquímicos puede ofrecer una mejor precisión en la clasificación de los pacientes en comparación con el uso de únicamente aquellos considerados más explicativos/relevantes en la diferenciación de las enfermedades. Para validar estas hipótesis, se desarrollaron varias etapas clave. Inicialmente, se realizó una limpieza exhaustiva de los datos para asegurar su integridad y calidad. Luego, mediante la herramienta XaioGraphs, se evaluó la importancia de diferentes biomarcadores, identificando como más explicativos a IgG, PCR, Hemoglobina, Kappa Libre, Lambda Libre, Ratio Kappa/Lambda, Filtrado Glomerular y Proteínas Totales. Para la hipótesis H2, se construyeron y optimizaron varios modelos de clasificación, incluyendo XGBoost, Regresión Logística, K-Nearest Neighbors (KNN) y Redes Neuronales, utilizando tanto los biomarcadores más explicativos como todos los disponibles. Los resultados mostraron que los modelos entrenados con todos los biomarcadores ofrecieron una mejor precisión y F1 score, con la Red Neuronal alcanzando un rendimiento superior del 74.19% de precisión. Este estudio valida la utilidad de los biomarcadores en suero y orina para diferenciar entre GMSI y MM, y demuestra que una combinación de múltiples biomarcadores mejora considerablemente la precisión de los modelos de clasificación.
-
Asistente Virtual de Estudiantes AVE UDIT (2024)
Ángel Luis Marinas Díaz
El presente trabajo de fin de máster se enfoca en una aplicación de la Inteligencia Artificial (IA), concretamente en el procesamiento de documentos específicos de un área u organización para adquirir conocimientos que pueden ser posteriormente consultados de forma natural por parte de un usuario mediante intercambios como preguntas y respuestas. En este caso, lo aplicamos a la creación de un Asistente Virtual (chatbot) para los Estudiantes de la Universidad de Diseño, Innovación y Tecnología (UDIT), que les guíe en los procesos complejos de la institución académica, respondiendo sus preguntas y resolviendo dudas sobre trámites, documentaciones, plazos, responsables, entre otros, y en general todos los procedimientos que acompañan el flujo de vida del estudiante durante su paso por la universidad. El desarrollo de este chatbot involucra varias etapas, incluyendo la creación de una base de datos con información relevante para UDIT, el diseño de flujos de conversación para el asistente, la implementación de técnicas Procesamiento del Lenguaje Natural (NLP1) para que el chatbot pueda entender y responder correctamente a las preguntas del usuario, y finalmente, pruebas y optimizaciones para garantizar una buena experiencia de usuario. La implementación exitosa de este asistente virtual podría tener numerosos beneficios para los estudiantes, como una mejora en la percepción del estudiante acerca de la calidad del servicio ofrecido por la institución, una mayor accesibilidad, un incremento en la usabilidad de las interacciones entre estudiante y universidad, y en general mejor apoyo a lo largo de su trayectoria académica. Además, puede ayudar a la universidad a optimizar sus procesos internos, reducir errores y mejorar en general la experiencia del estudiante.
-
Análisis de un buen delegado de Ventas (2024)
María Mencía Medrano
El trabajo consiste en entender la aplicación de la analítica de datos y la inteligencia artificial dentro de los análisis del negocio. Para ello se va a realizar una recogida de datos de la actividad comercial de los delegados de venta de una compañía farmacéutica junto con los datos de venta de los productos promocionados. La empresa objeto de estudio de este trabajo es una farmacéutica la cual vende medicamentos de prescripción, lo que significa que el canal de venta es a través de las recetas de los médicos a sus pacientes. Por ello, la empresa tiene una amplia red de delegados promocionando varios productos que realizan distintos tipos de visitas a médicos de distintas especialidades para intentar demostrar que el producto es el mejor para sus pacientes y que así el médico los recete. Se va a usar diferentes técnicas de análisis de datos y aprendizaje automático para ver qué características y patrones de actividad comercial debe realizar un delegado para mejorar su venta. Se cuenta con una base de datos de CRM, donde la red de ventas reporta todas las visitas y eventos con los médicos, y también con la información de los médicos, tanto la especialidad y centro al que pertenecen, y también los datos de venta de cada hospital y centro de salud. Con estos datos se va a crear un modelo limpio del que se pueda obtener información sobre las características y actividades que más repercuten en las ventas. El resultado se trata de conocimiento útil que puede servir para el negocio, y permitirles conocer en qué puede mejorar la red de ventas para explotar el máximo potencial de la actividad de los delegados.
-
La sinfonía de los algoritmos: la Inteligencia Artificial en la música (2024)
Sandra Moreno Bau
Dentro del gran campo que comprende la música, la inteligencia artificial ha emergido como una musa moderna, inspirando a compositores y artistas a explorar nuevas fronteras sonoras en tareas que comprenden desde la creación de melodías hasta la producción de armonías. La inteligencia artificial en lugar de limitar la creatividad, está actuando como catalizador de innovación y proceso creativo. Los artistas deben navegar entre la inspiración y la lógica binaria, donde la música se convierte en un diálogo entre algoritmos y emociones. En el presente trabajo de fin de máster se estudia gran parte de los softwares musicales basados en IA existentes hasta la fecha, a través del análisis y categorización de los modelos de IA aplicados a la música. Para ello se presentarán una serie de conceptos de creación y producción musical, como las fases que se siguen durante la producción de una canción, y los elementos que se utilizan en los diferentes ámbitos de la industria musical. Por un lado, se explica qué campos de la IA se han empleado dentro de los modelos musicales y cómo funcionan. Y, por otro lado, se muestran los softwares de IA explicando su funcionamiento y en qué se basan, siempre y cuando se tenga acceso al código fuente o los creadores hayan publicado cómo trabajan sus modelos. Por último, se desarrolla una tabla comparativa que permite decidir de una forma rápida y sencilla, el software de creación musical en función de las necesidades y preferencias del usuario. Para ello se plantearán una serie de preguntas a las que se responderá de la forma más clara posible.
-
Estudio Comparativo del Entrenamiento de Modelos con Bases de Datos de Imágenes de Baja y Alta Calidad (2024)
Ángel Sotillos Algora
Este trabajo de fin de máster se refiere a la investigación, mediante visión artificial, de la efectividad del entrenamiento de modelos con bases de datos con imágenes de baja calidad y su efecto en el entrenamiento de modelos con bases de datos con imágenes de alta calidad. El trabajo está organizado, estableciendo los objetivos del mismo para desarrollar a continuación los diferentes apartados del entrenamiento, resultados y conclusiones. Previamente, se realiza una introducción sobre la inteligencia artificial, visión por ordenador y deep learning. Primeramente, se trata el apartado de la selección y preparación de las dos bases de datos a utilizar en los entrenamientos. A continuación, se explicará y analizará el modelo a utilizar para los entrenamientos, en este caso el YOLOv9c. Adicionalmente, se establecerán los hiperparámetros a utilizar para estos entrenamientos y se elegirá y explicará el algoritmo de optimización a usar. Para terminar, se expondrán los resultados, se explicará el algoritmo de tracking utilizado para finalmente evaluar y analizar los resultados y la implementación del tracking en un vídeo demostrativo.
Printing is not supported at the primary Gallery Thumbnail page. Please first navigate to a specific Image before printing.