Tesis de Postgrado Ingeniería

Permanent URI for this collection

Browse

Recent Submissions

Now showing 1 - 20 of 463
  • Item
    Propuesta de un modelo de seguimiento de cumplimiento regulatorio en la industria salmonicultora chilena
    (Universidad del Desarrollo. Facultad de Ingeniería, 2025) Delgado Muñoz, Mauricio Alejandro; Valdés González, Héctor
    Este proyecto se desarrolla en el contexto de la creciente relevancia del riesgo regulatorio y de la gobernanza para la sostenibilidad en la industria salmonicultora chilena, altamente expuesta a exigencias ambientales, sanitarias y territoriales. El objetivo de esta investigación aplicada es proponer una metodología para diseñar un modelo de seguimiento de cumplimiento regulatorio que permita gestionar preventivamente los riesgos normativos en pisciculturas, centros de engorda y plantas de proceso. Metodológicamente, se adopta un enfoque de Design Science Research articulado en cinco fases: caracterización del sector y de la empresa, construcción y validación de una matriz de riesgo regulatorio, diseño del modelo de seguimiento con indicadores y un Índice Compuesto de Cumplimiento, definición de la gobernanza basada en el Modelo de Tres Líneas y lineamientos para su implementación y verificación independiente. Los resultados evidencian un modelo integrado, trazable y auditable que conecta riesgos regulatorios, desempeño operativo e información para inversionistas y grupos de interés. Se concluye que este modelo constituye un “mínimo higiénico” de gobernanza para la sostenibilidad, fortaleciendo la resiliencia regulatoria, la transparencia y la legitimidad de la industria salmonicultora chilena.
  • Item
    Análisis Temático y de Sentimiento del Discurso Parlamentario Chileno: un enfoque de procesamiento del lenguaje natural aplicado a sesiones del Senado (2010-2025)
    (Universidad del Desarrollo. Facultad de Ingeniería, 2025) Gallardo Henríquez, Vicente; Raveau Morales, María Paz
    Este proyecto analiza el discurso parlamentario chileno desde una doble dimensión temática y emocional, aplicando técnicas de procesamiento de lenguaje natural a un corpus de 1.674 sesiones del Senado chileno entre 2010 y 2025, con más de 41 millones de palabras. Para la clasificación temática se construyó un diccionario maestro en cinco ejes de política pública (economía, educación, salud, medioambiente y seguridad), iniciado desde términos semilla extraídos de literatura especializada y expandido semánticamente mediante embeddings (Word2Vec entrenado sobre el corpus y FastText preentrenados), seguido por un proceso iterativo de depuración y validación manual para reducir activaciones falsas y mejorar especificidad temática. En resultados, la clasificación aplicada al corpus completo muestra una agenda temática relativamente equilibrada con mayor presencia de economía (22,52%) y seguridad (21,33%), seguidas por salud (19,18%), educación (17,44%) y medioambiente (9,02%), mientras que “Otros” representa 10,51% de sesiones sin predominancia temática según los criterios definidos. Aplicando a las sesiones con tópico asignado (excluyendo “Otros”), el análisis de sentimiento sobre 1.498 sesiones segmentadas en 140.977 bloques muestra predominio de neutralidad (~61%), con una proporción relevante de negatividad (~32%) y un componente positivo minoritario (~7%), patrón coherente con un registro legislativo técnico y argumentativo. Finalmente, la evolución temporal indica variaciones sistemáticas del tono emocional, destacando un mínimo en 2020 y una moderación posterior, sugiriendo sensibilidad del discurso a coyunturas político-institucionales. En conjunto, el estudio confirma que el discurso parlamentario chileno presenta estructuración temática identificable mediante enfoques léxicos validados y variación emocional sistemática medible con modelos de lenguaje adecuados al dominio, aportando una metodología reproducible para caracterizar prioridades temáticas y clima discursivo a gran escala.
  • Item
    Modelamiento de Tópicos para Discursos Parlamentarios: Comparación entre LDA y BERTopic en la Clasificación de Intervenciones Parlamentarias del Senado de Chile
    (Universidad del Desarrollo. Facultad de Ingeniería, 2026) Ubilla Flores, Paula; Raveau Morales, María Paz
    Este proyecto se centra en la modelación automática de tópicos aplicada a intervenciones parlamentarias, utilizando métodos avanzados de Procesamiento de Lenguaje Natural (PLN) para caracterizar la estructura semántica del discurso legislativo. El estudio emplea enfoques probabilísticos y basados en representaciones distribucionales —principalmente Latent Dirichlet Allocation (LDA) y BERTopic— con el objetivo de identificar patrones latentes, agrupar contenidos temáticamente y analizar la organización conceptual de un corpus parlamentario de alta complejidad lingüística. La finalidad del trabajo es establecer un marco metodológico robusto para la extracción, análisis y comparación de tópicos, contribuyendo a una comprensión sistemática y basada en datos de las dinámicas discursivas presentes en el ámbito legislativo.
  • Item
    Predicción de la Inflamabilidad de Productos Químicos del Dataset Cramer-UDD mediante Machine Learning
    (Universidad del Desarrollo. Facultad de Ingeniería, 2025) Vits Contreras, Sofía; Gómez Vargas, Germán; Elizalde, Juan
    Los productos químicos son clasificados en categorías de riesgo de acuerdo a su reactividad, inflamabilidad, perjuicios a la salud, y otros riesgos especiales relacionados con la naturaleza fisicoquímica de una fórmula. En este trabajo se analizará específicamente el punto de inflamación de una fórmula química. Esta característica es uno de los parámetros utilizados para evaluar la inflamabilidad de una sustancia química. La determinación de esta propiedad requiere la aplicación de mediciones experimentales específicas, las cuales pueden resultar ser muy costosas para una empresa desde los puntos de vista económico y temporal. Por este motivo, la empresa Cramer compartió sus datos para poder crear modelos de clasificación multiclase, con el propósito de clasificar la inflamabilidad de sus fórmulas líquidas. Las fórmulas fueron clasificadas en fórmulas que contienen compuestos líquidos con comportamiento gaseoso (más específicamente compuestos azufrados), fórmulas etanólicas, fórmulas acuosas, y fórmulas que contienen otros solventes orgánicos. Los modelos aplicados fueron regresión logística multiclase, Random Forest, LightGBM, y CatBoost. Todos estos modelos fueron calibrados mediante predicción conformal utilizando margin nonconformity score para dicho propósito. Posteriormente se realizó un análisis SHAP de los modelos LightGBM y CatBoost, comparando la importancia asignadas a cada variable por estos modelos, así como el estudio de los gráficos de dependencia de dichas variables.
  • Item
    Diseño e Implementación de una Arquitectura de Seguridad Multicapa para la Protección de la Propiedad Intelectual en Modelos Predictivos Industriales: Implementación de una Arquitectura de Defensa en Profundidad utilizando Oracle 19c Enterprise TDE y Privacidad Diferencial.
    (Universidad del Desarrollo. Facultad de Ingeniería, 2025) Saldivia Vera, Víctor; Tobar Morales, Cristian; Gómez Vargas, Germán; Elizalde, Juan
    La industria química se encuentra ante un desafío complejo en la era digital: por un lado, necesita aprovechar las capacidades de la de estos tiempos la Inteligencia Artificial para acelerar el desarrollo de nuevos productos y reducir tiempo y costos operacionales; por otro lado, debe proteger rigurosamente su propiedad intelectual, especialmente las fórmulas secretas que constituyen su ventaja competitiva en el mercado. Este proyecto busca resolver esta tensión en el contexto de la empresa, proponiendo una arquitectura de seguridad multicapa con la finalidad de utilizar los datos para predecir el punto de inflamación (Flash Point) de mezclas químicas complejas. Para alcanzar este objetivo, se diseña e implementar un sistema de Machine Learning seguro sobre Oracle Database 19c Enterprise Edition. La protección de los datos se abordó en múltiples niveles: cuando los datos están almacenados, se utiliza Transparent Data Encryption (TDE) con cifrado AES-256, mientras que durante su transmisión se emplea Oracle Native Network Encryption (NNE). A nivel de aplicación, se adopta una estrategia de privacidad diferencial durante el entrenamiento del modelo. Los resultados experimentales determinaron que es posible encontrar un equilibrio razonable entre la utilidad del modelo y la protección de información sensible. Mientras que el modelo básico (Baseline) alcanzó una precisión del 89.2% trabajando con datos sin protección, el modelo con privacidad diferencial implementado ruido de ϵ=1.5 logrando mantener una precisión del 80.1%. Si bien esto representa una reducción del 9% en la capacidad predictiva, la arquitectura propuesta ofrece garantías matemáticas contra ataques de inferencia y reconstrucción de datos. Estos resultados respaldan su aplicación práctica como herramienta segura para priorizar experimentos de laboratorio y minimizar riesgos operacionales, sin comprometer la confidencialidad de las fórmulas propietarias
  • Item
    Cálculo de población flotante y vías de evacuación para el Volcán Villarica. Análisis de la criticidad de evacuación peatonal en escenarios volcánicos mediante modelación de grafos y simulación espacial: Caso Pucón–Villarrica, Chile
    (Universidad del Desarrollo. Facultad de Ingeniería, 2026) Valderrama Labarca, Rosario; Ferres, Leonardo
    Las comunas de Pucón y Villarrica se emplazan en un territorio de alta amenaza volcánica asociada al volcán Villarrica, caracterizado por un crecimiento urbano acelerado, una marcada dispersión predial vinculada a segundas viviendas y parcelaciones, y una alta estacionalidad turística que incrementa significativamente la población presente en determinados periodos del año. Este estudio aborda la evacuación peatonal como un escenario crítico para evaluar la capacidad territorial de respuesta ante una emergencia volcánica. No obstante, el objetivo no se limita a este modo de desplazamiento específico, sino que se orienta a la construcción de una metodología de análisis de la capacidad de evacuación, extrapolable a otros medios de transporte. Dicha capacidad se define a partir de la relación entre la estructura vial, la localización y cobertura de los Puntos de Encuentro Transitorios (PET), y la distribución espacial de las viviendas y de la población presente en el territorio. Para ello, se integran diversas fuentes demográficas y territoriales, entre ellas el Censo 2024, la cartografía predial 2023 del Servicio de Impuestos Internos (SII), la red vial, las zonas de peligro del volcán Villarrica y la localización de los PET. Estas fuentes se articulan mediante un enfoque basado en Sistemas de Información Geográfica (SIG) y técnicas de análisis geoespacial y modelación basada en grafos, con el objetivo de estimar los tiempos de evacuación de la población hacia el punto seguro más cercano. Los resultados permiten identificar patrones espaciales de accesibilidad, brechas territoriales significativas y sectores donde los tiempos de evacuación se extienden considerablemente, volviéndose de baja viabilidad operativa bajo determinados escenarios. Asimismo, se evidencia que la distribución de los predios y su relación con la estructura vial —en particular la elevada concentración de segundas viviendas en las laderas del volcán Villarrica— constituyen factores clave en el desempeño del proceso de evacuación en territorios caracterizados por una alta variabilidad estacional y una significativa presencia de población flotante
  • Item
    Sistema de Detección Automática de Nudos Quirúrgicos en Realidad Virtual Mediante Aprendizaje Profundo: Desarrollo e integración de un modelo de visión por computadora en el simulador SECMA
    (Universidad del Desarrollo. Facultad de Ingeniería, 2025) Madariaga Orellana, Pablo; Guzmán Montoto, José Ignacio; Herrera Marín, Mauricio
    El entrenamiento en sutura y anudado quirúrgico constituye una habilidad esencial en la formación médico-quirúrgica, pero los métodos tradicionales presentan limitaciones importantes en repetibilidad, estandarización y retroalimentación objetiva. La realidad virtual (RV) ha emergido como una alternativa eficaz para superar estas restricciones, permitiendo la práctica en entornos inmersivos, controlados y libres de riesgo. Dentro de este contexto, el simulador SECMA, desarrollado por la Universidad del Desarrollo, incluye un módulo de sutura que, hasta ahora, carecía de un mecanismo autónomo capaz de evaluar en tiempo real la formación del nudo quirúrgico. El presente proyecto desarrolla e implementa un sistema de clasificación automática de los estados del nudo (NO_NUDO, UN_NUDO, DOS_NUDO) a partir de imágenes generadas durante la interacción del usuario en RV. Para ello se construyó un pipeline integral que abarca la captura de datos en SECMA, la depuración exhaustiva de las imágenes, la eliminación de duplicados perceptuales, la conversión homogénea de formatos, el balanceo de clases y la selección de un conjunto final robusto (Dataset 4). Este dataset consolidado permitió entrenar modelos de visión por computador mediante aprendizaje profundo, empleando arquitecturas preentrenadas y técnicas de fine-tuning progresivo. El modelo final, basado en EfficientNet-B0, alcanzó un desempeño sobresaliente (F1-macro = 0.9822), con estabilidad entre los conjuntos de validación y prueba, y una separación precisa entre las clases incluso en escenarios visualmente similares. Posteriormente, el modelo fue exportado a formato ONNX y su equivalencia con PyTorch fue verificada, garantizando compatibilidad con Barracuda, motor de inferencia de Unity, para su ejecución en tiempo real dentro del simulador. Las pruebas operacionales en Meta Quest 3 confirmaron un funcionamiento fluido, con inferencias continuas sin afectar la tasa de refresco (>50 FPS). Se demuestra que es posible integrar un sistema de visión por computadora en un entorno de RV inmersiva para el reconocimiento de los estados de anudado y brindar una retroalimentación automática y objetiva durante el proceso. Este trabajo constituye un avance relevante hacia simuladores quirúrgicos inteligentes capaces de apoyar la enseñanza autónoma, estandarizar la evaluación del desempeño y escalar hacia aplicaciones en simulación física y escenarios del mundo real.
  • Item
    Generación automática de resúmenes de relatos delictuales con modelos Transformers
    (Universidad del Desarrollo. Facultad de Ingeniería, 2025) Cabrera Valenzuela, Oscar; Raveau Morales, María Paz
    El presente trabajo explora la viabilidad de generar resúmenes automáticos de relatos delictuales a partir de los registros del Ministerio Público de Chile, con el fin de apoyar la revisión rápida de causas y el análisis criminal. Para ello se construyó un dataset a partir de RUC con relato del hecho y su correspondiente resumen operativo (“detalle”), aplicando un proceso de limpieza que elimina glosas sin contenido real, normaliza textos y exige longitudes mínimas. Sobre este corpus, del orden de decenas de miles de registros, se definió un esquema reproducible de partición en conjuntos de entrenamiento y validación y se generaron, además, sub-datasets para los cuatro códigos de delito más frecuentes. A nivel de modelado, se entrenó un modelo T5-base general para transformar el relato completo en su resumen operativo, y luego se especializó este modelo mediante adaptadores LoRA por tipo de delito. La evaluación se realizó con métricas ROUGE (ROUGE 1, ROUGE-2 y ROUGE-L) sobre los conjuntos de validación, complementada con un análisis cualitativo de ejemplos de resúmenes generados. El modelo T5 general alcanza aproximadamente ROUGE-1 ≈ 0,30, ROUGE-2 ≈ 0,13 y ROUGE-L ≈ 0,25, lo que indica una capacidad razonable para recuperar el contenido esencial de los resúmenes humanos. Los modelos LoRA igualan o mejoran sistemáticamente estos resultados. Se concluye que es técnicamente factible entrenar modelos de resumen basados en Transformers sobre los datos actualmente disponibles en la Fiscalía y que la especialización por tipo de delito mediante LoRA aporta mejoras medibles y observables en algunos casos. El trabajo deja instalado un pipeline de datos y modelado reproducible, identifica limitaciones y propone líneas de trabajo futuro.
  • Item
    Exploración del Comportamiento Alimenticio en Centros de Cultivo de Salmón: Análisis de patrones de consumo desde datos históricos con un enfoque hacia la predicción a corto plazo
    (Universidad del Desarrollo. Facultad de Ingeniería, 2025) Solís Muñoz, Cristhian; Gómez Vargas, Germán
    El presente proyecto se enmarca en una de las industrias más importante del sur de Chile, la industria salmonera, la cual constituye un pilar relevante del desarrollo económico en las regiones de Los Lagos, Aysén y Magallanes. En este contexto, el estudio aborda el análisis del consumo de alimento en centros de cultivo, utilizando información histórica a nivel jaula-día, complementada con variables geográficas, biológicas y temporales relevantes para el desempeño productivo. El marco de trabajo del proyecto es explorar y analizar patrones de consumo de alimento en centros de cultivo de salmón, a partir de un análisis exploratorio exhaustivo. A partir de este análisis, se desarrolla un modelo de predicción de corto plazo que permite anticipar el consumo de alimento, generando una banda de proyección del consumo diario. Los resultados permiten identificar patrones clave en el comportamiento alimenticio y destacan el valor de los modelos predictivos como herramienta de apoyo a la planificación de recursos. Además, el proyecto sienta las bases para futuros desarrollos de sistemas de pronóstico más robustos y adaptativos en la industria acuícola.
  • Item
    Pronóstico Híbrido Espacio-Temporal de Precipitaciones en Chile: Integrando Redes Neuronales y Métodos Estadísticos Avanzados
    (Universidad del Desarrollo. Facultad de Ingeniería, 2026) Saquel Depaoli, Carlos; Herrera Marín, Mauricio
    Este trabajo desarrolla un sistema de pronóstico espacio–temporal de precipitaciones en Chile basado en un modelo híbrido que combina un Autoencoder convolucional 3D (AE) con Descomposición Modal Dinámica (DMD). El desarrollo se centra en las regiones del Maule y Ñuble, utilizando precipitación diaria CR2MET (1980–2021) en alta resolución para capturar la variabilidad regional relevante. El AE reduce la dimensionalidad de cubos espacio–temporal y genera un espacio latente compacto, sobre el cual la DMD ajusta un operador lineal encargado de propagar la dinámica y producir pronósticos a horizontes de 1 a 5 días. El desempeño del modelo AE+DMD se evalúa para horizontes de 1 a 5 días y se compara con un baseline de referencia basado en DeepAR aplicado a múltiples series univariadas, mediante métricas como MAE y RMSE. Los resultados muestran que el enfoque híbrido captura adecuadamente los patrones espacio–temporal dominantes y ofrece pronósticos competitivos, en particular para 1–3 días, con un costo computacional moderado y modos DMD que facilitan la interpretación física de la dinámica de precipitación regional.
  • Item
    Validación Concurrente de SECMA para Habilidades Laparoscópicas: Diseño experimental, cinemática instrumentada, inferencia causal y aprendizaje de máquina
    (Universidad del Desarrollo. Facultad de Ingeniería, 2025) Leiva Correa, Joaquín; Guzmán Montoto, José Ignacio; Herrera Marín, Mauricio
    La formación en cirugía laparoscópica impone desafíos significativos debido a la complejidad de las habilidades psicomotoras requeridas, tales como la percepción de profundidad en entornos bidimensionales y la manipulación instrumental bajo restricciones de movimiento. Tradicionalmente, estas destrezas se adquieren mediante simuladores físicos tipo caja (“Box-Trainers”), considerados el estándar de entrenamiento inicial. Sin embargo, este enfoque presenta limitaciones relevantes para la educación médica moderna, ya que la evaluación del desempeño es predominantemente subjetiva y dependiente de la observación del instructor, lo que dificulta la estandarización del aprendizaje y restringe la retroalimentación objetiva al estudiante. En este contexto, los simuladores de realidad virtual (VR) han permitido incorporar entornos digitales con captura automática de datos cinemáticos, facilitando evaluaciones más objetivas del desempeño quirúrgico. No obstante, muchos de estos sistemas presentan desventajas prácticas, como altos costos de implementación y la necesidad de salas de entrenamiento dedicadas. Frente a estas limitaciones, el simulador SECMA (Simulador de Entrenamiento de Cirugía de Mínimo Acceso) se plantea como un simulador de realidad virtual diseñado para un entrenamiento portátil y de mayor accesibilidad, cuya adopción formativa requiere ser validada empíricamente. El presente Proyecto de Grado aborda esta necesidad mediante la validación concurrente del simulador de realidad virtual SECMA frente al entrenamiento tradicional en maqueta física. Se implementó un diseño experimental controlado con una muestra de estudiantes universitarios sin experiencia quirúrgica previa (N = 19), asignados a un grupo de control (entrenamiento en maqueta) y a un grupo experimental (entrenamiento con SECMA). Ambos grupos ejecutaron una tarea estandarizada de Pick-and-Place orientada a evaluar coordinación bimanual y economía de movimiento. La adquisición de datos se realizó mediante sensores de alta frecuencia que registraron series temporales de posición espacial (x, y, z) y orientación instrumental, representada mediante cuaterniones, evitando problemas de singularidad asociados a representaciones angulares tradicionales. A partir de estas señales se construyeron métricas cinemáticas interpretables, tales como longitud de trayectoria, tortuosidad, suavidad del movimiento (Jerk RMS) y tiempo de ejecución. Para evaluar la efectividad del entrenamiento, se emplearon modelos de estadística inferencial, destacando el Análisis de Covarianza (ANCOVA), que permitió comparar el desempeño post-entrenamiento ajustando por el nivel inicial de los participantes. De manera complementaria, se utilizaron modelos de inferencia causal basados en aprendizaje automático como análisis de robustez. Los resultados muestran que el entrenamiento con SECMA se asocia a mejoras en métricas vinculadas a la eficiencia espacial y al control motor, en comparación con el entrenamiento tradicional, una vez controlado el desempeño basal. En conjunto, los hallazgos aportan evidencia cuantitativa de que un simulador de realidad virtual portátil y basado en datos constituye una alternativa pedagógicamente válida para el entrenamiento laparoscópico inicial, reforzando la importancia de la validación concurrente y del uso de métricas objetivas en la evaluación del aprendizaje quirúrgico.
  • Item
    Optimización de Rutas Bajo Incertidumbre Mediante Aprendizaje por Refuerzo y Metaheurísticas Sensibles al Riesgo: Un enfoque híbrido ALNS–PPO para el ruteo de vehículos con ventanas de tiempo y evaluación mediante CVaR
    (Universidad del Desarrollo. Facultad de Ingeniería, 2026) Álvarez Martínez-Conde, Gabriel; Herrera Marín, Mauricio
    Este trabajo aborda la resolución de un problema de ruteo de vehículos con ventanas de tiempo bajo incertidumbre, incorporando explícitamente métricas de riesgo mediante simulación Monte Carlo. El objetivo principal es comparar distintos enfoques de optimización, evaluando no solo la calidad promedio de las soluciones, sino también su comportamiento en escenarios adversos, utilizando el Conditional Value at Risk al 95% (CVaR95) como métrica central de desempeño. Se analizan tres métodos: un enfoque determinista basado en OR-Tools, un esquema metaheurístico de Adaptive Large Neighborhood Search (ALNS) y una extensión híbrida que integra ALNS con aprendizaje por refuerzo profundo mediante Proximal Policy Optimization (PPO). Las soluciones obtenidas se evalúan bajo múltiples escenarios de severidad creciente, considerando métricas de tardanza promedio, CVaR95, nivel de servicio y esfuerzo computacional, medido a través del tiempo de cómputo y la cantidad de ticks ejecutados. Los resultados muestran que el enfoque determinista presenta limitaciones estructurales bajo incertidumbre, con altos niveles de riesgo extremo y bajo cumplimiento de ventanas de tiempo, a pesar de su bajo costo computacional. El ALNS clásico logra mejoras sustanciales en calidad y robustez, pero a costa de un esfuerzo computacional elevado. En contraste, el método PPO-ALNS alcanza sistemáticamente los menores valores de CVaR95 y mayores niveles de servicio, especialmente en escenarios severos, utilizando una fracción del esfuerzo computacional requerido por ALNS. El análisis del comportamiento de operadores evidencia que el agente de aprendizaje por refuerzo aprende políticas especializadas y adaptativas, concentrando el uso de operadores de alto impacto y evitando exploraciones poco eficientes. En conjunto, los resultados demuestran que la integración de aprendizaje por refuerzo en un marco ALNS permite mejorar simultáneamente la robustez de las soluciones y la eficiencia computacional, posicionando al enfoque PPO-ALNS como una alternativa particularmente adecuada para aplicaciones operacionales de ruteo bajo incertidumbre.
  • Item
    Relación Estadística del Síndrome Metabólico en la Mortalidad Intrahospitalaria en Pacientes Con Diagnóstico Cardio Vascular
    (Universidad del Desarrollo. Facultad de Ingeniería, 2025) Solís González, Ingrid; Gómez Vargas, Germán; Delgado, Iris
    Las enfermedades cardiovasculares (ECV) siguen siendo la principal causa de muerte y una de las mayores cargas asistenciales, tanto a nivel mundial como en Chile. En este contexto, el síndrome metabólico (SM) es ampliamente reconocido como un factor de riesgo relevante, asociado a la progresión y al peor pronóstico de las ECV en el largo plazo. Sin embargo, su impacto específico sobre la mortalidad intrahospitalaria, particularmente en pacientes con enfermedad cardiovascular ya establecida, no ha sido completamente aclarado. Con este objetivo, el presente estudio buscó evaluar la asociación entre el síndrome metabólico y la mortalidad intrahospitalaria en una cohorte nacional de pacientes cardiovasculares en Chile. Para ello, se realizó un análisis retrospectivo de 1.418.306 pacientes únicos con diagnóstico cardiovascular, utilizando la base de datos de Grupos Relacionados por el Diagnóstico (GRD) del sistema FONASA, correspondiente al período 2019–2024. Dado el alto riesgo de sesgo de selección y la presencia de comorbilidades relevantes, en particular la hipertensión arterial, se aplicó un método de Propensity Score Matching (PSM) con emparejamiento 1:1, ajustando por once covariables demográficas y clínicas. Este procedimiento permitió construir una cohorte balanceada de 209.664 pares de pacientes, logrando un adecuado equilibrio entre los grupos con valores de Standardized Mean Difference inferiores a 0,02 en todas las covariables En esta cohorte balanceada, el análisis de regresión logística mostró un resultado contrario a lo esperado: la odds de mortalidad intrahospitalaria fue menor en el grupo de pacientes con síndrome metabólico en comparación con el grupo sin SM (OR = 0,882; IC 95%: 0,863–0,901; p < 0,001). Este resultado, contrario a la hipótesis inicial, no sugiere que el síndrome metabólico actúe como un factor protector per se, sino que refleja una diferencia relativa de riesgo entre ambos grupos en el contexto intrahospitalario agudo, posiblemente influenciada por un mayor contacto previo con el sistema de salud, diagnósticos establecidos y un manejo clínico más estructurado en pacientes con SM. En conjunto, los resultados subrayan la importancia de distinguir entre el riesgo asociado al síndrome metabólico en el corto plazo (hospitalario) y su impacto bien documentado en el riesgo cardiovascular a largo plazo (post-alta).
  • Item
    Relación Estadística del Síndrome Metabólico en la Mortalidad Intrahospitalaria en Pacientes con Cáncer: Análisis con Propensity Score Matching (PSM)
    (Universidad del Desarrollo. Facultad de Ingeniería, 2025) Munster Cofré, Hans; Gómez Vargas, Germán; Delgado Becerra, Iris
    El síndrome metabólico (SM) corresponde a un constructo clínico que agrupa múltiples factores de riesgo cardiometabólico, y cuya presencia ha sido asociada a peores desenlaces en diversas poblaciones clínicas. En el sistema público chileno, el creciente peso de las enfermedades crónicas y del cáncer genera presión sobre la red hospitalaria, cuyo financiamiento utiliza en parte los Grupos Relacionados por Diagnóstico (GRD) para estimar complejidad y costos de las hospitalizaciones. En este trabajo analizamos bases de datos GRD de hospitales públicos para estudiar la relación entre síndrome metabólico, cáncer y desenlaces intrahospitalarios. El estudio se centra en pacientes oncológicos y evalúa si existe asociación entre la presencia de síndrome metabólico y la mortalidad intrahospitalaria, aplicando emparejamiento por puntaje de propensión (Propensity Score Matching, PSM) para balancear edad, sexo, tipo de cáncer y previsión. Tras el emparejamiento, los grupos de pacientes con y sin síndrome metabólico presentaron un adecuado balance en las covariables predefinidas (SMD < 0,1). El modelo final no mostró una asociación estadísticamente significativa entre síndrome metabólico y mortalidad intrahospitalaria. Los resultados podrían retratar la magnitud del síndrome metabólico como problema transversal en el sistema público y ofrecen una primera aproximación, desde datos GRD nacionales, al análisis conjunto de cáncer y SM mediante métodos de PSM.
  • Item
    Histology Tissue Classification for Colorectal Cancer: Deep Learning Approaches for Medical Image Analysis. Which deep learning architecture provides the best balance between accuracy and computational efficiency for histological tissue classification in colorectal cancer?
    (Universidad del Desarrollo. Facultad de Ingeniería, 2025) Castro Ortega, Kurt; Gómez Vargas, Germán; Michelucci, Umberto
    This report presents a comprehensive comparative analysis of deep learning architectures for the classification of histological images of colorectal cancer, a fundamental task in the emerging field of digital pathology. Automating this process through the use of deep learning models not only promises to accelerate diagnosis, but also to improve its accuracy and consistency, representing a strategic opportunity to optimize clinical workflows and advance toward precision medicine. The project addressed the classification of eight types of colorectal cancer tissue through a systematic comparative evaluation of five deep learning architectures: a baseline Convolutional Neural Network (CNN) trained from scratch and four advanced models (VGG19, ResNet50, EfficientNetB0, and Vision Transformer ViT-B16) implemented with the Transfer Learning strategy. The results showed that the ResNet50 architecture achieved the highest performance, with an accuracy of 95.07% on the test set. The analysis validated the project's central hypothesis: pre-trained architectures significantly outperformed the model trained from scratch, underscoring the effectiveness of transfer learning in domains with limited data. Furthermore, the study revealed a complex balance between performance and computational efficiency, where theoretically more efficient models such as EfficientNetB0 do not always translate into the lowest inference latency on specific hardware. This report provides a detailed analysis of these findings, offering empirical guidance for architecture selection in computational pathology applications.
  • Item
    XAI in CNNS for medical use: classification of colorectal cancer histological textures through fine-tuning of kimianet and comparative analysis coof explainability
    (Universidad del Desarrollo. Facultad de Ingeniería, 2025) Lavarello Osorio, Giuseppe; Gómez Vargas, Germán; Michelucci, Umberto
    Colorectal cancer (CRC) is characterized by significant tissue heterogeneity, making histopathological analysis a critical but complex task for diagnosis and prognosis. This project addresses the need for an automated classification system that is not only accurate but also interpretable, the most crucial factor for building trust and facilitating adoption in clinical settings. The proposed solution is twofold. First, it involves the fine-tuning of a domain-specific DenseNet-121 model, pre-trained with the vast KimiaNet histopathology image repository, on the public Kather et al. (2016) dataset of CRC textures. Second, to address the "black box" nature of Deep Learning models that limits their clinical utility, this study conducts a rigorous comparative analysis of advanced Explainable AI (XAI) techniques, including Grad-CAM, XGrad-CAM, and SmoothGrad. This analysis validates the model's reliability through both qualitative visual inspection and quantitative fidelity metrics. The central argument of this project is that a clinically useful classifier must be both accurate and trustworthy; this work presents a complete workflow to build and verify that trust.
  • Item
    RPA para tratar apartados de facturación SAESA: Aplicación de modelos de ML para el manejo de Clientes Apartados de Facturación
    (Universidad del Desarrollo. Facultad de Ingeniería, 2025) Assmann Segura, Julio; Candia Vallejos, Cristian
    El presente proyecto aborda la optimización del ciclo de facturación en Grupo SAESA, específicamente en la gestión de 'documentos apartados de cálculo'. Actualmente, cerca de 15.000 documentos mensuales (1,7% del total de los documentos generados) son apartados del proceso de cálculo debido a inconsistencias, ocasionando sobrecarga operativa y afectando la experiencia del cliente. Para mitigar esta problemática, se propone el diseño de un sistema de automatización inteligente híbrido. La metodología integra la implementación de reglas de negocio predefinidas con modelos de Machine Learning basados en XGBoost, con el objetivo de clasificar las excepciones de manera predictiva. Esta arquitectura faculta a un sistema RPA (Robotic Process Automation) para ejecutar acciones correctivas autónomas, logrando una reducción significativa en la intervención manual y una mejora sustancial en los tiempos de procesamiento. Este proyecto logró automatizar el 82.3% de los documentos retenidos y redujo la carga manual al 17.7%, manteniendo un AUC de 0.94. Dicha eficiencia se traduce en la liberación de 10 horas semanales de capacidad operativa, permitiendo transformar el rol del equipo desde la ejecución manual hacia la gestión estratégica. Asimismo, el proyecto establece un marco de trabajo escalable y replicable, sentando las bases para la expansión de la automatización inteligente a diversas actividades de la empresa, como lo son tratado de inverosímiles y apartados de facturación.
  • Item
    Desarrollo y Evaluación de una Herramienta Computacional para la Vectorización de Datos de Microbioma Mediante Modelos de Lenguaje de ADN
    (Universidad del Desarrollo. Facultad de Ingeniería, 2026) Ugalde Casanova, Juan Antonio; Raveau Morales, María Paz; Oróstica Tapia, Karen
    El microbioma humano es un sistema biológico de gran diversidad y complejidad, cuyo análisis computacional representa un desafío metodológico relevante. En este proyecto se desarrolló una herramienta computacional denominada vaultfinder-microbiome, para la vectorización de datos de microbioma a través de métodos composicionales y modelos de lenguaje para secuencias de ADN (DNABERT-2, DNABERT-S y GenomeOcean-500M). La metodología incluyó la evaluación de las cuatro estrategias de vectorización sobre dos conjuntos de datos: 42,321 secuencias del gen que codifica para el 16S rRNA provenientes de la base de datos Genome Taxonomy Database (GTDB) para análisis taxonómico y 3,110 muestras de microbioma intestinal provenientes del South American MicroBiome Archive (saMBA) para clasificación geográfica. En la evaluación se consideraron métricas de clustering no supervisado, análisis de varianza, y clasificación supervisada. Los resultados demostraron que los modelos de lenguaje tienen un mejor desempeño comparado a enfoques clásicos como los métodos composicionales. La combinación de DNABERT-S y XGBoost alcanzó el mejor rendimiento en tareas de clasificación geográfica (57,7% precisión y 43,9% macro F1). Aunque la señal geográfica detectada es más débil que en estudios ambientales, los resultados respaldan el uso de modelos de lenguaje de ADN como alternativa para el análisis de comunidades microbianas.
  • Item
    Leyes de Escala y Normas Dinámicas de Moralización en Texto
    (Universidad del Desarrollo. Facultad de Ingeniería, 2025) León González, Diego; Candia Vallejos, Cristian
    El presente trabajo aborda el estudio de leyes de escala para comprender cómo depende la longitud del texto de una publicación en redes sociales en función de una medida de carga moral o Moral Loading. Lo anteriormente descrito corresponde a tendencias y efectos no lineales que se pueden reducir a un ajuste lineal en escala logarítmica. Esto es de utilidad para comprender si los textos más largos son más o menos moralizados que los cortos y permite extraer desviaciones o residuos a partir de dicho ajuste, lo cual se puede utilizar como un predictor adicional para inferir qué textos tienen más o menos interacción o replies. Los residuos no son una mera herramienta estadística, sino que reflejan un proceso psicológico complejo de aumento del desarrollo de contenido explicativo cuando se desarrolla un discurso moral. Los residuos tienden a ser nulos cuando el desarrollo de texto está dentro de una tendencia general (norma dinámica), positivos cuando el desarrollo de texto es excesivo debido a la introducción de lenguaje moral y negativos cuando está por debajo de la tendencia general. La metodología de este trabajo busca utilizar estos residuos en modelos regresivos con los replies como variable objetivo y estudiar la suficiencia y significancia estadística de los coeficientes asociados a cada predictor. Adicionalmente, los datasets utilizados corresponden a publicaciones en Twitter y Reddit los cuales se utilizan para entrenar los modelos descritos. Los resultados muestran que las publicaciones en redes sociales con los textos más largos tienen una moralización más alta, mientras que los textos más cortos tienden a tener menor moralización en general y con una varianza mayor. Este comportamiento se observa para dos medidas diferentes de moralización, una con un conteo de palabras morales y otra con medición de similitud de texto mediante Word Embeddings. Las principales conclusiones luego del estudio de leyes de escala, son que los residuos obtenidos a partir de estas leyes definen una norma dinámica que es comparable o similar en comportamiento a una densidad moral o moral ratio. Mediante modelos regresivos de coeficientes con los replies como variable objetivo, se obtuvo que en la mayoría de los casos los coeficientes asociados a la moralización o Moral Loading son estadísticamente significativos y positivos (va en la misma dirección que los replies). En contraste, los coeficientes asociados a los residuos son estadísticamente significativos y negativos (va en la dirección opuesta que los replies).
  • Item
    Pronóstico Híbrido Espacio-Temporal de Precipitaciones en Chile: Integrando Aprendizaje Profundo, Geoestadística y Teledetección
    (Universidad del Desarrollo. Facultad de Ingeniería, 2025) Godoy Delaigue, César; Herrera Marín, Mauricio
    La alta variabilidad espaciotemporal de las precipitaciones en Chile representa un desafío significativo para los modelos de pronóstico tradicionales, limitando su eficacia en la gestión hídrica y la mitigación de riesgos climáticos. Este trabajo de tesis aborda dicho problema mediante el desarrollo y la validación de un modelo híbrido que integra tres pilares metodológicos. En primer lugar, se utiliza el aprendizaje profundo, combinando Autoencoders (AE) para la extracción de patrones espaciales y la Descomposición Modal Dinámica (DMD) para su evolución temporal. En segundo lugar, se incorpora el operador de Koopman a través de un Autoencoder Variacional (KoVAE), permitiendo modelar dinámicas no lineales de forma linealizada y generar pronósticos probabilísticos con cuantificación de incertidumbre. Finalmente, se emplean técnicas de geoestadística, como el análisis variográfico y el kriging, junto con datos de teledetección de alta resolución (CHIRPS), para mejorar la coherencia espacial del modelo. La pregunta de investigación central es si esta integración puede mejorar la precisión y coherencia espacial del pronóstico respecto a un enfoque AE+DMD tradicional. La hipótesis postula que la combinación de estas técnicas permitirá modelar de manera más efectiva las correlaciones espacio-temporales, reduciendo el error de predicción y ofreciendo un marco robusto para la toma de decisiones en un contexto de incertidumbre climática.