Fenvidoris

Aprende aprendizaje automático interpretable aplicado a finanzas reales

Un programa diseñado para profesionales que quieren entender cómo funcionan realmente los modelos de ML en decisiones financieras. Nada de teoría abstracta, solo técnicas que puedes aplicar desde el día uno.

Sesión de trabajo en aprendizaje automático interpretable para finanzas

¿Qué hace diferente este programa?

No vamos a prometerte que dominarás todo en dos semanas. Este programa es para quienes prefieren aprender a pensar sobre los modelos en lugar de solo ejecutarlos.

Interpretabilidad práctica

Aprenderás SHAP, LIME, y otros métodos para explicar predicciones de modelos complejos. Útil cuando necesitas justificar decisiones financieras ante reguladores o equipos de riesgo.

Casos financieros reales

Trabajamos con datasets de scoring crediticio, detección de fraude, y optimización de portfolios. Escenarios que realmente aparecen en bancos, aseguradoras, y fondos de inversión.

Sesiones en vivo

Clases interactivas donde puedes preguntar sobre tus proyectos específicos. No es un curso grabado que ves a las 3 de la mañana, es formación con feedback directo.

Python aplicado

Implementaciones prácticas con librerías como scikit-learn, XGBoost, y herramientas de explicabilidad. Código que funciona, no tutoriales decorativos.

Estructura del programa

01

Fundamentos de ML en finanzas

Empezamos revisando regresión logística, árboles de decisión, y random forests aplicados a problemas financieros. Sin suposiciones de conocimiento avanzado previo.

02

Modelos de caja negra

Gradient boosting, redes neuronales, y otros modelos potentes pero difíciles de explicar. Veremos cuándo usarlos y cuándo evitarlos en contextos regulados.

03

Técnicas de interpretabilidad

SHAP values, importancia de características, gráficos de dependencia parcial, y counterfactual explanations. Herramientas para abrir la caja negra.

04

Proyectos aplicados

Desarrollas un caso completo: desde el análisis de datos hasta la documentación de un modelo interpretable para scoring crediticio o detección de anomalías.

Estudiantes anteriores

Mateo Aguirre

Mateo Aguirre

Analista Cuantitativo

Llevaba meses lidiando con modelos que funcionaban bien pero nadie entendía por qué. Después del programa, pude explicar las predicciones de XGBoost al equipo de riesgo de manera clara. Ahora trabajo en una aseguradora implementando modelos interpretables para detección de fraude.

Inés Larrauri

Inés Larrauri

Data Scientist

La parte más valiosa fueron las sesiones en vivo donde podías preguntar sobre problemas reales. Aprendí SHAP no solo como herramienta, sino cómo presentar resultados a stakeholders no técnicos. Mi equipo ahora usa estas técnicas en todos nuestros modelos de scoring.

Nil Batista

Nil Batista

Risk Manager

Venía del mundo de riesgos tradicional y necesitaba entender ML sin volverme un ingeniero de software completo. El enfoque en interpretabilidad fue exactamente lo que buscaba. Ahora puedo colaborar mejor con el equipo técnico y sé qué preguntas hacer cuando reviso modelos.

¿Listo para empezar?

El siguiente grupo comienza pronto. Las plazas son limitadas porque preferimos grupos pequeños donde podemos dar feedback personalizado a cada proyecto.

Configuración de Cookies

Utilizamos cookies para mejorar tu experiencia en nuestra plataforma. Puedes aceptar todas o gestionar tus preferencias.

(Siempre activas)