FUNDAMENTOS DE ARQUITECTURA DE DATOS PARA IA GENERATIVA

  • $180 + IVA (miembros)

    $200 + IVA (no miembros)

  • Moodle / ZOOM

    Online

  • 40 Horas

    Duración

  • 18 feb - 12 mar

    Fechas

  • 19h00 a 21h00

    Lunes, miércoles y jueves

  • Moodle / ZOOM

    Online

  • 50 Horas

    Duración

  • Cualquier información puede contactarse a nuestro correo electrónicos en el siguiente link

Instructor: Felipe Mendieta, Diego Quisi
 

Horario: Lunesmiércoles y jueves de 19:00 a 21:00

 
Resumen:
Este curso democratiza la arquitectura de datos utilizando la Inteligencia Artificial como motor principal de construcción. A través de una metodología «Concepto, Prompting, Resultado», los participantes aprenderán a diseñar pipelines robustos, limpiar datos caóticos y automatizar reportes de negocio. Es una inmersión práctica donde el pensamiento estratégico y la orquestación de herramientas de IA reemplazan a la codificación manual, permitiendo a los estudiantes resolver problemas reales de la industria y generar valor tangible desde la primera sesión. 
 

Audiencia:

Profesionales y estudiantes con nociones básicas de lógica o datos que deseen estructurar información y automatizar procesos sin depender puramente de la programación manual.
Personas que buscan cerrar la brecha entre datos crudos y decisiones de negocio, eliminando tareas repetitivas mediante IA.
Aplicable en entornos laborales corporativos, emprendimientos personales o investigación académica donde se requiera transformar datos en activos.

Pilar
Competencia específica
Nivel
Tecnológico
Diseñar e implementar flujos de trabajo de datos (ETL) utilizando programación asistida por Inteligencia Artificial y entornos en la nube.
Integrador

Felipe Mendieta Ingeniero de Sistemas y actual líder técnico de arquitectura de datos en CEDIA. Su trayectoria incluye la dirección técnica de arquitecturas de datos, destacando su participación en proyectos financiados por la Unión Europea. Con un perfil orientado a la industria, diseña sistemas escalables integrando asistentes de Inteligencia Artificial para optimizar la eficiencia operativa. Como Co-Lead de Google Developer Groups, complementa su labor técnica con el liderazgo de comunidades y la gestión de redes de networking, destacando por su capacidad para resolver desafíos de ingeniería con un enfoque práctico y actualizado. 

Diego Quisi Ingeniero en Sistemas. Con más de 10 años de experiencia en docencia e investigación universitaria y más de 30 publicaciones indexadas en SCOPUS, ha liderado proyectos de inteligencia artificial, ciencia de datos y transformación digital en colaboración con universidades y empresas. Es especialista en el desarrollo de aplicaciones móviles multiplataforma, integrando metodologías ágiles y soluciones innovadoras que vinculan la academia con el sector productivo. Actualmente es Gerente de Inteligencia Artificial de CEDIA aplicando la transformación digital a traves de Modelos Largos de Lenguaje. 

Estrategias de Aprendizaje:
Metodología «AI-First»: Se prioriza el entendimiento lógico del flujo de datos sobre la sintaxis. El alumno define el «qué» (arquitectura) y la IA asiste en el «cómo» (código).
Aprendizaje Basado en Proyectos (ABP): Desarrollo transversal del caso «Data-Driven Retail», simulando un entorno empresarial con datos reales y «sucios» que deben ser procesados.

 

Evidencias de Desempeño:
Portafolio de Scripts: Colección de notebooks (Google Colab, Jupyter) funcionales generados durante las sesiones, demostrando la evolución del código.
Proyecto Final: Presentación del pipeline completo funcionando, desde la ingesta del dato crudo hasta el reporte final, incluyendo la explicación de la lógica de negocio utilizada.

Características:

Modalidad: Online Síncrona (Clases en vivo vía videoconferencia con práctica simultánea).
Interacción y Seguimiento: Comunicación directa durante las sesiones para resolución de bloqueos técnicos. Uso de herramientas colaborativas para compartir prompts efectivos y soluciones entre compañeros. Consultas a través de grupo de whatsapp.

Plataformas y Herramientas:
Google Colab / Jupyter Notebooks: Entorno de ejecución de código en la nube (evita problemas de instalación local).
Asistentes de IA (ChatGPT/Claude/Gemini): Motores para la generación de código y explicación de conceptos.
Mermaid.js: Herramienta para diagramación de arquitectura mediante texto.

 

Requisitos Previos:
Conocimientos: Lógica básica con Python, manejo de archivos de hojas de cálculo (Excel/CSV) y SQL Basico.
Habilidades: Capacidad para navegar en internet y uso básico de computadoras.
Recursos: Computador con conexión estable a internet, cuenta de Google y acceso a un asistente de IA generativa (ChatGPT, Claude, Gemini o similar).

 

Evaluación:

Integradora: Evaluación del Proyecto Final presentada en la semana 4, valorando la funcionalidad de la arquitectura, la calidad de los datos resultantes y la claridad en la exposición.
Formativa: Seguimiento continuo durante las sesiones prácticas y resolución de dudas en vivo.

 
Información extra: Se entrega certificado de aprobación por 40 Horas una vez finalizado el curso.

Canjeables por cupos:
SI
TEMA
SUBTEMA
El rol del arquitecto de datos en la era de la Inteligencia Artificial
Conceptos clave: Data Lake vs Data Warehouse vs Lakehouse
Configuración del asistente de IA: definición de roles y contexto (Senior Data Architect)
Prompting inicial: solicitud de estructura de carpetas y entornos virtuales
Modelado conceptual de datos
Diseño de entidades y relaciones: pensar antes de pedir código
Generación de diagramas ER asistidos por IA (Mermaid.js)
Creación de datos sintéticos “sucios” (CSV / JSON) como insumo del proyecto
Ingesta de datos (Extract)
Tipos de datos: estructurados vs semi-estructurados
Prompting técnico: generación iterativa de scripts de lectura (Python / Pandas)
Manejo de edge cases: archivos corruptos y codificación (UTF-8 vs Latin-1)
Arquitectura de capas
Definición de capas: Bronze (Raw), Silver (Clean), Gold (Aggregated)
Implementación de la capa Bronze: almacenamiento de datos en crudo
Automatización: scripts tipo watchdog generados por IA para detección de nuevos archivos
Limpieza y transformación de datos
Calidad de datos: detección y tratamiento de nulos y duplicados mediante prompting
Normalización de datos asistida por IA
Edge case: manejo de schema drift (aparición inesperada de nuevas columnas)
Transformación avanzada
Lógica compleja: joins y agregaciones explicadas y generadas con IA
Validación: generación de pruebas unitarias simples (ej. assert ventas > 0)
Optimización: revisión de eficiencia del código mediante IA
Modelado analítico (Load)
Modelado dimensional: hechos y dimensiones (Star Schema)
Construcción de la capa Gold lista para consumo analítico
Generación de vistas y tablas agregadas orientadas a KPIs
Orquestación de pipelines
Concepto de pipeline ETL (Extract + Transform + Load)
Script maestro: ejecución secuencial del flujo completo asistido por IA
Manejo de fallos: errores de red y generación de logs
Reportes y análisis automatizados
Visualización: generación de gráficos estáticos (Matplotlib / Seaborn)
Automatización de entregables: exportación a Excel o reportes HTML
Análisis asistido: interpretación de tendencias de negocio mediante IA