vol. 13 núm. 2 (2017): (julio - diciembre)

Browse

Recent Items

Now showing 1 - 12 of 12
  • Análisis comparativo de ensayos de Fito-remediación en lodos de lixiviado aplicando Análisis Envolvente de Datos

    Institución: Universidad de la Costa

    Revista: Inge CuC

    Autores: Chávez Porras, Álvaro; Pinzón Uribe, Luis Felipe; Velasquez Castiblanco, Yessica Liceth

    Fecha de publicación en la Revista: 2017-07-01

    Introducción: El avance de las ciudades ha generado progresiva producción de residuos sólidos que requieren técnicas de manipulación y disposición que atiendan sus volúmenes, forjando la alternativa de manejo en rellenos sanitarios. En ellos, el líquido resultante de la degradación del material orgánico, el lixiviado, es procesado bajo tratamiento de lodos activados, formando el lodo de lixiviado, el cual debe someterse a mecanismos de degradación en el control de sus compuestos contaminantes.Objetivo: En el presente estudio se tuvo como objetivo principal un análisis comparativo de ensayos de fito-remediación en los sustratos de lodos de lixiviados provenientes del Relleno Sanitario Doña Juana, RSDJ, Bogotá D.C, con tres especies vegetales y con datos analizados bajo la alternativa de análisis envolvente de datos.Metodología: Se preparó el método de siembra de tres especies (rábano, acelga y rúcula), midiendo la reducción de metales pesados (MP) en un tiempo de cosecha de 62 días. Se empleó la herramienta de análisis envolvente de datos, teniendo en cuenta características fisicoquímicas y el porcentaje de reducción, que permiten mostrar la eficiencia del sistema fito-remediador.Resultados: Se realiza una prueba de verificación del funcionamiento, comprobando los resultados con el software GAMS. Se pone en evidencia que es funcional, ya que permite establecer un sistema de análisis de los escenarios con el supuesto de 6 entradas y 4 salidas enfocadas a la remoción de MP.Conclusiones: Se logró establecer que, a nivel de eficiencia de uso de recursos y generación de resultados, los escenarios de rábano y acelga se encuentran en la frontera Pareto eficiente; por su parte la rúcula, se consideró ineficiente. Se recomienda una redistribución de recursos, en un 33% como el escenario de rábano y un 50% como el escenario de acelga. Asimismo, se debe establecer un mayor número de entradas y considerar salidas indeseadas, y, así, realizar una comparación más acertada.
  • Estimación de la Biomasa y Carbono almacenado en la cobertura arbórea de la región del Carare - Opón (Santander)

    Institución: Universidad de la Costa

    Revista: Inge CuC

    Autores: Barón Parra, Mónica Lorena; Triana Gómez, Max Alejandro

    Fecha de publicación en la Revista: 2017-07-01

    Introducción: La causa principal del calentamiento global se debe al aumento de los gases de efecto invernadero que se han producido desde la revolución industrial. Se conoce que el dióxido de carbono (CO2) es el segundo gas que más aporta a esta problemática y que los bosques actúan como depósitos de carbono. De esta forma, los programas de reducción de emisiones por deforestación y degradación (REDD+) son un mecanismo de mitigación y adaptación al cambio climático; uno de sus propósitos es estimar la captura del carbono forestal.Objetivo: Estimar el contenido de biomasa aérea y de carbono almacenado en el ecosistema y, así mismo, en las diez especies con mayor índice de valor de importancia (IVI), conocer cuál es la especie con mayor reserva de carbono y conocer si existen diferencias significativas en las variables estructurales de las especies.Metodología: Las estimaciones de biomasa se realizaron mediante el método indirecto utilizando nueve ecuaciones alométricas que realizan esta estimación en función del diámetro a la altura del pecho (≥10 cm a 1.30 m) y la altura total. El carbono almacenado se calculó tomando el 50% de la biomasa estimada.Resultados:  Para el ecosistema se estimaron 465,41 t/0.05 ha de biomasa aérea y 232,70 t/0.05 ha de carbono almacenado. La especie con el valor más alto de biomasa y carbono fue Anacardium excelsum.Conclusiones: Las diez especies con mayor IVI representan el 93,72% de la biomasa total del ecosistema; la más importante representa el 18,23% estando relacionado con las variables estructurales de la vegetación como el área basal y la altura total. 
  • Determinación del coeficiente de resistencia del camino mediante un método de remolque
    Introducción: El transporte automotor terrestre es un importante contribuyente del consumo de combustible a nivel mundial. Existen muchos factores relacionados con este consumo y también varias maneras de estudiarlo. Los ciclos de viaje basados en la modelación matemática son herramientas probadas para comprender, estimar y pronosticar el consumo de combustible.Objetivo: Los modelos matemáticos que se solucionan con los perfiles reales de coeficiente de resistencia al camino por las vías por las cuales circulan los vehículos brindan los resultados más exactos. Es por eso que la determinación experimental del coeficiente de resistencia del camino es el objetivo de la investigación.Metodología: Se diseña y construye un remolque, asimismo, se conducen experimentos de calibración estática y dinámica para conocer las cualidades de los sistemas que intervienen en la medición. Posteriormente, se realizan ensayos en un sector de vía para la verificación y, a continuación, se efectúan experimentos en carreteras de recubrimientos y pendientes variables.Resultados: Se establece el uso del instrumento para mediciones del coeficiente de resistencia al rodamiento en condiciones viales con valores del coeficiente de resistencia a la rodadura de 0,008-0,02 (recubrimientos viales con base de cemento o asfalto) y pendientes de 0-12o.Conclusiones: Los resultados demuestran que bajo este método se puede medir de manera precisa y exacta el coeficiente de resistencia del camino.
  • Modelo de Programación Lineal Entera Mixta para la Programación de Sistemas tipo Job-Shop Flexible en Entornos Make to Order

    Institución: Universidad de la Costa

    Revista: Inge CuC

    Autores: Ortiz Gaitán, Sebastián Enrique; Ruiz, Carlos Rodrigo

    Fecha de publicación en la Revista: 2017-06-30

    Introducción: Los sistemas de producción Job Shop (JS) se caracterizan porque los trabajos a ser procesados tienen diferentes rutas de producción. Una generalización de este tipo de sistemas es el Job Shop Flexible (FJS), en el cual se cuenta con más de una máquina por estación para realizar alguna de las operaciones.Objetivo: El objetivo de este proyecto fue proponer un modelo de programación lineal entera mixta para programar sistemas FJS con el objetivo de minimizar el número de trabajos tardíos.Metodología: El modelo se desarrolló utilizando un enfoque basado en variables de secuencia-posición. Este enfoque utiliza variables binarias para decidir si una operación determinada es asignada a una posición en la secuencia de procesamiento de la máquina asignada. Para validar el desempeño del modelo se utilizaron datos de una pequeña empresa con un sistema productivo tipo FJS que desarrolla sus operaciones en un entorno bajo pedido (Make to Order, MTO). Por esta razón los indicadores de desempeño más importantes para la empresa son los asociados al nivel de servicio.Resultados: Los resultados muestran un desempeño razonable en términos del objetivo que se persigue. Se encontró el programa óptimo de producción en menos de 3600 segundos en instancias de menos de 14 órdenes de producción. En instancias más grandes su obtuvieron soluciones factibles en el tiempo límite definido.Conclusiones:  El modelo permite definir programas de producción en sistemas en los cuales el cumplimiento de fechas de entrega es de vital importancia. Los resultados han permitido que la empresa mejore su desempeño y disminuya los costos asociados a los incumplimientos. Futuras investigaciones se pueden desarrollar para encontrar métodos de solución más eficientes con relación a los tiempos computacionales para obtener soluciones de instancias de mayor tamaño.
  • Utilización de curvas de aprendizaje e intervalos de confianza en un estudio de tiempos para el cálculo de tiempos estándar
    Introducción:  El presente artículo explora el uso de curvas de aprendizaje e intervalos de confianza en un estudio de tiempos llevado a cabo en una línea de ensamble a escala durante una práctica de laboratorio en la Universidad de La Salle.Objetivo: Esta investigación tiene por objetivo mostrar la utilización de intervalos de confianza y curvas de aprendizaje para la identificación de procesos estables y posterior estandarización de los tiempos de los mismos.Metodología: La metodología empleada consta de dos fases, así, en la primera fase para el análisis del estudio de tiempos, se hace el cálculo del número de ciclos, la depuración de datos atípicos y el uso de las curvas para determinar los procesos aptos para la estandarización; y en la segunda fase, es decir, el establecimiento de tiempos estándar, se realiza el cálculo de los tiempos estándar.Resultados: El análisis permitió determinar que solo es posible estandarizar dos de los cinco procesos del sistema objeto del estudio debido a la variabilidad que estos presentaban.Conclusiones: Es posible concluir, gracias a la presente investigación, que un proceso debería ser estandarizado solamente si presenta un comportamiento estable en cuanto al ritmo normal de trabajo, el cual se pone en evidencia con la curva de aprendizaje; de no ser así, se obtendrán tiempos estándar parciales.
  • Determinación experimental de nuevas correlaciones estadísticas para el cálculo del coeficiente de transferencia de calor por convección para placa plana, cilindros y bancos de tubos

    Institución: Universidad de la Costa

    Revista: Inge CuC

    Autores: Meza Castro, Ismael Fernando; Herrera Acuña, Andrea Esther; Obregón Quiñones, Luis Guillermo

    Fecha de publicación en la Revista: 2017-06-01

    Introducción: En este proyecto se llevó a cabo una investigación experimental con el diseño, montaje y puesta en marcha de un banco de pruebas de transferencia de calor por convección.Objetivo: Determinar nuevas correlaciones estadísticas que permitan conocer los coeficientes de transferencia de calor por convección del aire, con mayor exactitud, en aplicaciones con diferentes configuraciones geometrías calefactoras.Metodología: Se estudiaron tres configuraciones geométricas, como lo son placa plana, cilindros y bancos de tubos en función de sus propiedades físicas a través de los números de Reynolds y Prandtl utilizando una interfaz de transmisión de datos mediante controladores Arduino® con los que se midió la temperatura del aire a través del ducto para obtener datos en tiempo real y relacionar el calor cedido del elemento calefactor al fluido y poder realizar el modelamiento matemático en un software estadístico especializado. El estudio se hizo para las tres geometrías mencionadas, una potencia por elemento calefactor y dos velocidades de salida de aire con 10 repeticiones.Resultados: Se obtuvieron tres correlaciones matemáticas con coeficientes de regresión mayores a 0.972, una para cada elemento calefactor, obteniéndose errores de predicción en los coeficientes convectivos de transferencia de calor de 7,50% para la placa plana, 2,85% para la placa cilíndrica y 1,57% para el banco de tubos.Conclusiones: Se observó que en geometrías constituidas por varios elementos individuales se logra un ajuste estadístico mucho más exacto para predecir el comportamiento de los coeficientes de calor por convección debido a que cada unidad alcanza una estabilidad en el perfil de temperatura de la superficie con mayor rapidez, otorgándole a la geometría en general una medición más precisa en los parámetros que rigen la transferencia de calor, como es en el caso de la geometría del banco de tubos.
  • Predicción del comportamiento de puentes peatonales debido a la actividad humana usando modelos de computador

    Institución: Universidad de la Costa

    Revista: Inge CuC

    Autores: Cala Monroy, Jonathan José; Villar Galindo, Katherine Alejandra

    Fecha de publicación en la Revista: 2017-07-01

    Introducción: En el artículo se da una breve introducción al problema de las vibraciones de baja frecuencia, describiendo como éstas son generadas por el caminar humano y a su vez afectan la estructura del puente peatonal; y porque al final se ven traducidas en una molestia para los usuarios.Objetivo:  El documento explica el método comúnmente usado por los ingenieros para la evaluación del efecto de las vibraciones y sus limitaciones, optando por desarrollar una técnica de modelado por computador que represente de manera más aproximada a la realidad el fenómeno de vibraciones de piso en puentes peatonales.Metodología: El estudio está compuesto por dos fases principales: 1) una revisión bibliográfica conceptual al tema de vibraciones de piso enfatizando en la Guía de Diseño No. 11 del Instituto Americano de Construcciones de Acero y 2) se desarrolla el modelo por computador que a su vez comprende: definición de variables, elaboración del modelo dinámico de la estructura, calibración del modelo, evaluación de los parámetros objeto de estudio, análisis de resultados y conclusiones.Resultados: Consecuentemente y conforme con las etapas preliminares se obtienen los resultados de la aceleración para diferentes frecuencias y para diferentes grados de amortiguamiento, observando que el puente de estudio es potencialmente susceptible entre los rangos de 4 a 8 HZ; y que, al entrar resonancia, la estructura presenta una aceleración pico muy superior al umbral para la comodidad humana recomendada en puentes peatonales. Conclusiones: Al respecto se aprecia cómo con el uso de buenas técnicas de modelación y de elementos finitos pueden llegar a obtenerse resultados confiables y que acompañen de manera directa el proceso de diseño de estructuras en este caso puentes peatonales.
  • Aplicación de modelos econométricos para estimar la aceptabilidad de una tasa por congestión vehicular

    Institución: Universidad de la Costa

    Revista: Inge CuC

    Autores: Jiménez Serpa, José Carlos; Salas Rondón, Miller Humberto

    Fecha de publicación en la Revista: 2017-07-01

    Introducción: Por medio del estudio de la problemática que genera la congestión del tráfico vehicular en los períodos de máxima demanda, se tasa la externalidad negativa de la congestión mediante modelos econométricos de tipo Logit multinomial, mixto y disposición a pagar mediante una tasa pigouviana.Objetivo: En este artículo se propone implementar una tasa por congestión para gestionar la demanda vehicular mediante la aplicación de encuestas de preferencia declaradas y modelos econométricos.Metodología: El estudio se ejecuta en seis pasos o etapas: antecedentes de la problemática, contexto del estudio, fundamentos metodológicos, especificación y estimación del modelo, estimación de la función costo medio-usuario y costo marginal-social, y finalmente, resultados obtenidos con su discusión e informe.Resultados: Analizando los modelos obtenidos de las 2053 observaciones realizadas mediante las encuestas de preferencia declaradas, se observó que para desestimular el uso del auto particular se debería cobrar una tasa de $7.000 COP por vehículo que entre en la zona o área de congestión, lo cual disminuiría el uso del auto particular en un 68,7%. Con referencia a este comportamiento, se puede decir que las políticas del gobierno que fijan el cobro de la tasa de congestión es una política que no se ajusta a la percepción de los usuarios.Conclusiones: Con esta investigación se identificó la tarifa que refleja lo más fielmente posible el costo social marginal y los costos generalizados de cada viaje en términos de los impactos en los demás. Ahora, si se considera el costo marginal debido a la congestión, se tiene que la demanda actual es excesiva; los usuarios disfrutan del beneficio a un costo de $3.100 COP, pero imponen a los demás un costo de $22.152 COP. Finalmente, se debe fortalecer el fundamento jurídico con la reglamentación y creación de un Sistema Nacional de Identificación Electrónica Vehicular, que permitirá, en principio, los cobros por congestión.
  • Diseño óptimo de armaduras empleando optimización con ondas del agua

    Institución: Universidad de la Costa

    Revista: Inge CuC

    Autores: Millán Páramo, Carlos

    Fecha de publicación en la Revista: 2017-07-01

    Introducción: En los últimos años, la importancia de los aspectos económicos en el campo de las estructuras ha motivado a muchos investigadores a emplear nuevos métodos para minimizar el peso de las estructuras. El objetivo principal de la optimización estructural (diseño óptimo) es minimizar el peso de las estructuras al tiempo que se satisfacen todos los requerimientos impuestos por los códigos de diseño.Objetivo: En este estudio, el algoritmo Optimización con Ondas del Agua (Water Wave Optimization - WWO), es implementado para resolver el problema de optimización estructural de armaduras en 2D y 3D.Metodología: El estudio está compuesto por tres fases principales: 1) formulación del problema de optimización estructural; 2) estudio de los fundamentos y parámetros que controlan al algoritmo WWO y 3) evaluar el desempeño del WWO en problemas optimización de armaduras reportadas en la literatura especializada.Resultados: Los valores de peso, peso promedio, desviación estándar y número total de análisis ejecutados para converger al diseño óptimo conseguidos con WWO indican que el algoritmo es una buena herramienta para minimizar el peso de armaduras sujetas a restricciones de esfuerzo y desplazamientos.Conclusiones: Se observó que el algoritmo WWO es eficaz, eficiente y robusto, para resolver diversos tipos de problemas, con diferentes números de elementos. Además, WWO requiere menor número de análisis para converger al diseño óptimo en comparación con otros algoritmos
  • Registro de neuroseñales con una Interfaz Cerebro-Computador para estimar el nivel estrés en un estudiante durante una clase
    Introducción: El presente trabajo muestra un estudio de carácter individual que captura, registra y analiza el nivel de estrés de un estudiante universitario durante una clase que involucra una evaluación. La información del estrés se estimó por medio de una interfaz cerebro-computador comercial y de bajo costo. Esto permite solucionar el problema de obtener fácilmente medidas cuantitativas y no solo cualitativas.Objetivo: Analizar el comportamiento de las neuroseñales para estimar el nivel de estrés en un estudiante ante algunos eventos verbales y no verbales generados por un docente.Metodología: Se desarrolló un diseño experimental de carácter individual tomando como perturbaciones al nivel de estrés eventos tales como preguntas, limitaciones de tiempo y gestos.Resultados: Se logró poner en evidencia algunos eventos que causan estrés en los estudiantes producidos por el lenguaje verbal y no verbal del docente al impartir la clase.Conclusiones: Se recomienda a los docentes moderar su lenguaje corporal durante las evaluaciones evitando acciones que emulen afanes o presiones en tiempos innecesarios.
  • Acondicionador Unificado de Calidad de la Potencia en Topología Dual iUPQC para Compensación Activa de Sobretensiones Transitorias

    Institución: Universidad de la Costa

    Revista: Inge CuC

    Autores: Garcés Gómez, Yeison Alberto; Toro García, Nicolás; Hoyos Velasco, Fredy Edimer

    Fecha de publicación en la Revista: 2017-07-01

    Introducción: Los acondicionadores unificados de calidad de la potencia UPQC permiten corregir, en los sistemas eléctricos, distorsiones de la forma de onda en estado estable, como los armónicos o el parpadeo, así como el factor de potencia.Objetivo: Este artículo presenta un nuevo concepto de compensación activa de sobretensiones transitorias por medio de un UPQC en topología dual.Metodología: El estudio se presenta en cinco etapas: en la sección I, se realiza la introducción y el estado del arte; en la sección II, se presenta el acondicionador unificado de calidad de la potencia UPQC; en la sección III, se describe la teoría de la potencia reactiva generalizada aplicada al iUPQC (topología dual); en la sección IV, se muestran las simulaciones y resultados; y en la sección V, se presentan las conclusiones.Resultados: Se demuestra la aplicabilidad del iUPQC a la compensación de sobretensiones transitorias y se comparan los resultados con la teoría más representativa en compensación de armónicos y factor de potencia.Conclusiones: El algoritmo de control propuesto para el acondicionador unificado de calidad de la potencia en topología dual permite compensar las sobretensiones transitorias en sistemas eléctricos trifásicos al tiempo que permite corregir armónicos en tensión y corriente, así como el factor de potencia.
  • Control on-off de temperatura y potencia para el mejoramiento de las condiciones de procesos asistidos con microondas

    Institución: Universidad de la Costa

    Revista: Inge CuC

    Autores: Hernández Velásquez, Viviana Marcela; Alvarado Bawab, María Bernarda

    Fecha de publicación en la Revista: 2017-07-01

    Introducción: El uso de microondas en el proceso de deshidratación de frutas y verduras se presenta como un proceso alternativo a los convencionales debido a que ofrece beneficios en cuanto a la reducción de costos de transporte, menor tiempo de procesamiento y volumen del producto final y mayor tiempo de conservación y almacenamiento.Objetivo: Este estudio busca modificar la forma de suministro de la radiación de microondas, implementando un control on-off de potencia y temperatura a fin de evaluar estos parámetros tanto en el rendimiento del proceso de la deshidratación de la papaya como en su rendimiento energético.Metodología: Para el desarrollo del proyecto se realizó un diseño factorial de experimentos teniendo en cuenta el tiempo de encendido y apagado de la radiación y la geometría de la muestra (torreja y cubo). Se realizaron las corridas por duplicado y de forma aleatorizada en el horno microondas de 2,45 GHz y 1 kW de potencia modificado.Resultados: Se analizó la cantidad de humedad removida, el rendimiento energético del proceso y las propiedades organolépticas iniciales. En las pruebas realizadas se logró un máximo rendimiento que se puso en evidencia en el proceso de secado de papaya, el cual fue de 0,014kg/kJ con una reducción del 86% de peso de la muestra procesada en la razón de radiación de 6 x 12 para una rodaja de 0,01 m de espesor.Conclusiones: Se logró la modificación del control en el horno microondas y de las corridas realizadas y se pudo concluir que los parámetros evaluados si son influyentes en el proceso y se pueden alcanzar remociones de humedad hasta del 86% sin deteriorar la papaya cuando se aplica la razón de radiación adecuada.