vol. 27 núm. 60 (2024)

Browse

Recent Items

Now showing 1 - 9 of 9
  • Implementación de mapas cognitivos difusos con algoritmos genéticos para predecir diabetes mellitus tipo 2

    Institución: Instituto Tecnológico Metropolitano

    Revista: TecnoLógicas

    Autores: Hoyos, William; Ruíz, Rander; Hoyos, Kenia

    Fecha de publicación en la Revista: 2024-08-20

    La diabetes mellitus tipo 2 es una enfermedad crónica no transmisible, causada por un trastorno en el metabolismo de la glucosa, que provoca un aumento anormal de su concentración en la sangre. El diagnóstico tardío de esta enfermedad contribuye al aumento de las tasas de morbilidad y mortalidad a nivel mundial. El desarrollo de modelos basados en inteligencia artificial para la predicción de diabetes podría acelerar el diagnóstico. Por tanto, el objetivo del presente estudio fue implementar un modelo de predicción de diabetes mellitus tipo 2 basado en mapas cognitivos difusos entrenado con un algoritmo genético. La metodología empleada consistió en utilizar un conjunto de datos del Instituto Nacional de Diabetes y Enfermedades Digestivas y Renales de la población de indios PIMA, que contiene información demográfica y clínica de 768 pacientes. El 70 % de los datos se empleó para el entrenamiento y validación, y el 30 % restante se utilizó para las pruebas de rendimiento. El modelo de mapas cognitivos difusos puede predecir la enfermedad con un 99 % de exactitud, 98 % de precisión y recall de 100 %. Se concluye que el modelo presenta una buena capacidad para predecir y evaluar el comportamiento de las variables de interés en la diabetes mellitus tipo 2, mostrando su valor como herramienta de soporte en la identificación oportuna de la enfermedad y apoyo a la toma de decisiones por parte del profesional médico.
  • Síntesis de imagen médica postcontraste en estudios de DCE-MRI de mama usando aprendizaje profundo

    Institución: Instituto Tecnológico Metropolitano

    Revista: TecnoLógicas

    Autores: Cañaveral, Sara; Mera-Banguero, Carlos; Fonnegra, Rubén D.

    Fecha de publicación en la Revista: 2024-08-01

    El cáncer de mama es una de las principales causas de muerte en mujeres en el mundo, por lo que su detección de forma temprana se ha convertido en una prioridad para salvar vidas. Para el diagnóstico de este tipo de cáncer existen técnicas como la imagen de resonancia magnética dinámica con realce de contraste (DCE-MRI, por sus siglas en inglés), la cual usa un agente de contraste para realzar las anomalías en el tejido de la mama, lo que mejora la detección y caracterización de posibles tumores. Como limitación, los estudios de DCE-MRI suelen tener un costo alto, hay poca disponibilidad de equipos para realizarlos, y en algunos casos los medios de contraste pueden generar efectos adversos por reacciones alérgicas. Considerando lo anterior, este trabajo tuvo como objetivo el uso de modelos de aprendizaje profundo para la generación de imágenes sintéticas postcontraste en estudios de DCE-MRI. La metodología consistió en el desarrollo de una función de costo denominada pérdida en las regiones con realce de contraste que aprovecha el comportamiento de la captación del agente de contraste. Como resultado se entrenaron dos nuevas arquitecturas de aprendizaje profundo, las cuales hemos denominado G- RiedGAN y D-RiedGAN, para la generación de imágenes postcontraste en estudios de DCE-MRI, a partir de imágenes precontraste. Finalmente, se concluye que las métricas proporción máxima señal ruido, índice de similitud estructural y error absoluto medio muestran que las arquitecturas propuestas mejoran el proceso de síntesis de las imágenes postcontraste preservando mayor similitud entre las imágenes sintéticas y las imágenes reales, esto en comparación con los modelos base en el estado del arte.
  • Blockchain para asegurar la integridad y trazabilidad en la cadena de custodia de evidencia digital en informática forense: un estudio de mapeo sistemático

    Institución: Instituto Tecnológico Metropolitano

    Revista: TecnoLógicas

    Autores: Vaca, Pablo A.; Dulce Villarreal, Edgar R.

    Fecha de publicación en la Revista: 2024-08-01

    La incorporación de blockchain como estrategia para mejorar la seguridad de la información en diversos sectores de la sociedad se ha identificado como una potencial solución para reducir los riesgos asociados con el tratamiento de datos en Internet. Garantizar la cadena de custodia en investigaciones forenses es esencial para preservar el registro y procedencia de la evidencia digital. No obstante, la falta de investigación en el desarrollo e implementación de soluciones que integren blockchain para la cadena de custodia dificulta su aplicación y adopción. Por ello, esta investigación tuvo como objetivo clasificar las características de blockchain que permiten garantizar la integridad y trazabilidad de la evidencia digital en el proceso de cadena de custodia, mediante una revisión de literatura basada en un Estudio de Mapeo Sistemático. El estudio describió los conceptos y estado actual de blockchain en relación con la cadena de custodia. Los hallazgos revelaron diversos marcos, pruebas de concepto, prototipos y protocolos que propusieron aplicaciones de blockchain en el registro, intercambio y trazabilidad de evidencia digital en diferentes contextos, así como los beneficios, limitaciones y desafíos asociados con su implementación. Como conclusión final, se destaca la estrecha relación entre integridad y trazabilidad como propiedades fundamentales para la construcción de aplicaciones blockchain, además de proporcionar una base sólida de información que pueda servir de referencia para futuras investigaciones.
  • Modelo de optimización para la gestión colectiva de la demanda de energía en hogares inteligentes
    Los sistemas eléctricos están evolucionando hacia redes inteligentes para mejorar su eficiencia y confiabilidad mediante estrategias de gestión y respuesta a la demanda. Este estudio presenta el Modelo Multiusuario de Cargas Eléctricas Controlables (MMCEC), un modelo de optimización desarrollado para gestionar colectivamente la demanda residencial de múltiples usuarios mediante la Programación de Cargas Eléctricas Controlables (PCEC). El objetivo del modelo fue minimizar el costo de la energía y lograr una distribución más uniforme de la carga eléctrica, teniendo en cuenta tarifas dinámicas de precios y restricciones específicas. La metodología se basó en técnicas clásicas de optimización en dos etapas. La primera se enfocó a nivel de único usuario utilizando el método de búsqueda exhaustiva para seleccionar soluciones que minimicen el costo de la factura de cada usuario. La segunda etapa empleó el método de búsqueda local para la optimización multiusuario, para encontrar una curva de demanda más plana. Para ello, se diseñó un algoritmo en MATLAB® que simuló un escenario con 60 usuarios durante 24 horas, programando los periodos más adecuados de encendido/apagado de las cargas controlables. Se compararon dos escenarios: uno donde los usuarios administran sus cargas a su conveniencia y otro donde se aplicó el modelo propuesto. Los resultados indicaron una disminución de los picos de demanda, con un ahorro promedio del 4.94 % en la factura eléctrica para el conjunto de usuarios y hasta el 12.34 % individualmente. La simulación logró esta solución óptima en 25 minutos a pesar de la complejidad computacional que implica gestionar la demanda de 60 usuarios. Por tal motivo, el modelo planteado utilizó métodos simples para optimizar múltiples variables, proporcionando un mejor rendimiento en comparación con el procesamiento requerido por algoritmos más complejos.
  • Enfoque colaborativo para modelos de características en líneas de productos de software

    Institución: Instituto Tecnológico Metropolitano

    Revista: TecnoLógicas

    Autores: Gómez, Jazmín; H. Ruiz, Pablo; Agredo Delgado, Vanessa; Camacho, Marta Cecilia

    Fecha de publicación en la Revista: 2024-08-16

    Una de las estrategias de ayuda a la reutilización de software son las Líneas de Productos de Software (LPS), las cuales son un conjunto de productos desarrollados a partir de características comunes y variables que satisfacen necesidades específicas de un dominio. En este sentido, los modelos de características son una herramienta clave para gestionar características comunes, variabilidad y personalización de los productos de la línea; sin embargo, su definición es una tarea compleja que requiere la participación de un equipo multidisciplinario. Por lo tanto, para lograr su definición, es crucial establecer directrices claras de comunicación y colaboración entre actores involucrados. La falta de colaboración efectiva puede resultar en una definición deficiente del modelo, debido a que es un componente fundamental para la construcción de una LPS. Este artículo tuvo como objetivo presentar CINDERELLA, un enfoque colaborativo para definir modelos de características en LPS, y mostrar su evaluación inicial. La evaluación se hizo mediante la definición de un experimento en un entorno académico. El experimento reveló que los estudiantes tuvieron una percepción positiva de CINDERELLA, destacando su utilidad e integridad, aunque se necesita mejorar la claridad de sus instrucciones. CINDERELLA es percibido como un enfoque fácil de usar, útil y completo para definir modelos de características, gracias a su coherencia y organización. Sin embargo, se requiere mejorar su descripción y realizar experimentos adicionales en contextos reales para confirmar su aplicabilidad y efectividad
  • Aprendizaje por refuerzo como soporte a la predicción de la precipitación mensual. Caso de estudio: Departamento de Boyacá - Colombia
    La emisión de gases de efecto invernadero, atribuida directa o indirectamente a la actividad humana, es la principal causa del cambio climático a nivel mundial. Entre los gases emitidos, el dióxido de carbono (CO2) es el que más contribuye a la variación espacio temporal de magnitudes físicas como la humedad relativa, la presión atmosférica, la temperatura ambiente y, de manera más significativa, la precipitación. El objetivo de la investigación fue presentar un análisis de la predicción de la precipitación mensual en el departamento de Boyacá mediante el uso de modelos basados en aprendizaje reforzado (RL, por sus siglas en inglés). La metodología empleada consistió en extraer datos desde CHIRPS 2,0 (Climate Hazards Group InfraRed Precipitation with Station data, versión 2,0) con una resolución espacial de 0,05° que posteriormente fueron preprocesados para la implementación de enfoques basados en una simulación Montecarlo y aprendizaje reforzado profundo (DRL, por sus siglas en inglés) para proporcionar predicciones de la precipitación mensual. Los resultados obtenidos demostraron que la simulación Montecarlo como el DRL generan predicciones significativas de la precipitación mensual. Es esencial reconocer que los modelos convencionales basados en Aprendizaje profundo, como Memoria a Corto Plazo (LSTM) o Redes Convolucionales a Corto Plazo (ConvLSTM), pueden superar a los enfoques de simulación Montecarlo y DRL en términos de precisión de predicción. Se concluye que la implementación de técnicas de aprendizaje por refuerzo en modelos de predicción de la precipitación mensual detecta patrones de información que pueden ser usados como soporte a estrategias dirigidas a mitigar los riesgos económicos y sociales derivados de fenómenos climáticos.
  • Fabricación y control de un sistema de desinfección con UV-C LED para ajo (Allium sativum L.) utilizado en siembra
    El proceso de desinfección es esencial para prevenir proliferación de bacterias que pueden contaminar los alimentos causando pérdida dentro de la cadena de suministro. Por lo tanto, el objetivo de la propuesta tuvo como finalidad la fabricación y control de un sistema de desinfección integrando una banda transportadora multinivel y luz UV-C LED. La metodología consistió en adaptar la automatización al mecanismo, mediante la programación con base en GEMMA y GRAFCET. Se integró un Controlador Lógico Programable (PLC, por sus siglas en inglés) e Interfaz Hombre Máquina (HMI, por sus siglas en inglés) como elementos de control. Adicionalmente, se configuraron diferentes rutinas como la velocidad de la banda, altura de las lámparas, el tiempo de exposición, paro de emergencia y emisión de la luz UV-C LED en cada zona de radiación. Se realizó un conteo microbiológico para evaluar el proceso de desinfección de la semilla de ajo (Allium sativum L.), utilizando dosis reportadas en la literatura. Los resultados demostraron que la propuesta es un producto científico tecnológico semi-industrial. Los niveles de la banda transportadora permiten que la semilla de ajo rote durante el proceso de desinfección. Con un efecto germicida del 92.30 % en mesófilos aerobios, se atiende adecuadamente el funcionamiento de los mecanismos de transporte y emisión de luz UV-C LED. Se puede concluir que el sistema puede adaptarse a cualquier producto del sector agroindustrial, además la automatización se puede extender con la inclusión de mayores parámetros. Para trabajo futuro queda determinar la mejor dosis, manejo de otros productos y combinaciones de radiación UV LED, así como un conteo microbiológico más exhaustivo. 
  • Optimización de costos en un escenario de mercado entre pares multimicrorred con dinámicas de replicadores

    Institución: Instituto Tecnológico Metropolitano

    Revista: TecnoLógicas

    Autores: Chacón, Sofia; Benavides, Edinson; Pantoja, Andrés; Obando, Germán

    Fecha de publicación en la Revista: 2024-07-02

    La optimización desempeña un papel crucial en la planificación y operación de los sistemas de gestión de energía, reduciendo costos y evitando pérdidas en su generación, disminuyendo, además, las emisiones de carbono. Lo anterior se da teniendo en cuenta el equilibrio entre oferta y demanda y el aprovechamiento de los recursos energéticos distribuidos (DER, por sus siglas en inglés). Este trabajo tuvo como objetivo proponer un esquema generalizado de comunidad energética, donde los generadores que componen una microrred suplen la demanda de esta o de las microrredes vecinas. Es de considerar que cada generador de energía tiene una función de costos asociada a esta, y existe una penalización, o costo de transmisión, cuando un DER, ubicado en una microrred definida, envía energía a la microrred vecina. Con el fin de abordar las restricciones, se propuso, como metodología de solución, un enfoque basado en juegos poblacionales, en conjunto con la técnica de relajación lagrangiana. Los resultados obtenidos fueron la aplicación del modelo y método de solución en tres diferentes escenarios. Además, se comparó el desempeño de la solución propuesta con la respuesta de un método de optimización convencional, logrando despachos similares y errores mínimos en comparación con la técnica tradicional. La investigación demostró que la combinación de conceptos de juegos poblacionales y técnicas de relajación lagrangiana permiten asumir restricciones que son de difícil manejo para la dinámica de replicadores. Finalmente, se concluye que el modelo es una buena herramienta para abordar problemas de gestión de energía que implican cumplir con la demanda por región en un escenario peer to peer.
  • Estudio de un caso exploratorio sobre influencias cruzadas entre Interacción Humano-Computadora y Artes Interactivas

    Institución: Instituto Tecnológico Metropolitano

    Revista: TecnoLógicas

    Autores: Rodríguez, Andrés; Fernández, Alejandro

    Fecha de publicación en la Revista: 2024-05-27

    La Interacción Humano-Computadora (HCI por sus siglas en inglés) y las Artes Interactivas (AI) tienen tradiciones, objetivos, enfoques y herramientas diferentes, aunque mantienen desde hace mucho tiempo una relación de diálogo, intercambio de ideas e incluso polinización cruzada. La presente investigación buscó explorar parte de estas influencias mutuas: identificar temas de HCI que puedan enriquecer la práctica artística y reconocer ideas de AI que puedan incorporarse a la agenda de HCI. La metodología empleada consistió en un estudio de caso exploratorio organizado como una experiencia pedagógica de conceptos de HCI para profesionales de AI que involucró a más de 100 artistas que desarrollaron proyectos de interacciones enactivas. Para la recolección de datos se utilizó el método de Observación Participante. Los principales resultados del análisis de los datos mostraron un entrelazamiento de aportes entre ambas disciplinas en al menos tres aspectos: a) la importancia del trabajo en primera persona, b) las relaciones entre el engagement del usuario y el tiempo de uso, y c) la necesidad de contar con definiciones de Experiencia de Usuario con mayor consenso para facilitar las prácticas de evaluación. En conclusión, este trabajo exploratorio proporciona evidencia de la apropiación por parte de las AI del contenido de la HCI y la existencia los tres aspectos mencionados de entrelazamiento entre las agendas de HCI y las AI.