Guía operativa para impartir el curso con consistencia técnica y pedagógica.
- Sesión 1-2: Ecosistema y NumPy (01-08).
- Sesión 3-6: Pandas moderno (09-27).
- Sesión 7-8: Visualización (28-33).
- Sesión 9: PyArrow y Polars (34-37).
- Sesión 10: Dask (38).
- Sesión 11-12: Streamlit y proyecto integrador (39 +
streamlit-project/).
- Fundamentos: modelar datos numéricos y aplicar álgebra lineal básica.
- Pandas: limpiar, transformar, agregar y analizar series temporales.
- Visualización: seleccionar y construir gráficos con criterio.
- Herramientas modernas: usar Arrow/Polars para rendimiento e interoperabilidad.
- Escalado: entender el paso a computación paralela con Dask.
- Data Apps: publicar un dashboard funcional en Streamlit.
- 40% ejercicios guiados por notebook.
- 20% quiz técnico (conceptos y lectura de código).
- 40% proyecto final en Streamlit.
- 25 pts: Corrección funcional (app ejecuta sin errores).
- 20 pts: Calidad de datos (carga, limpieza, validaciones).
- 20 pts: Análisis y visualización (claridad de métricas y gráficos).
- 15 pts: UX básica (navegación, filtros, feedback al usuario).
- 10 pts: Calidad de código (modularidad, nombres, legibilidad).
- 10 pts: Evidencia de pruebas y/o lint.
- Entorno de Codespaces listo y dependencias instaladas.
- Notebooks de la sesión abren y ejecutan celdas clave.
- Dataset de ejemplo disponible (
data/). streamlit-project/ejecuta localmente:streamlit run app.py.- Pruebas del proyecto en verde:
ruff check .ypytest.
- Se cubrieron objetivos de aprendizaje definidos.
- Alumnos entregaron evidencia de ejecución (captura o commit).
- Se registraron dudas frecuentes para retroalimentar notebooks.
- Se asignaron actividades puente para la siguiente sesión.
- Diferencias de entorno: usar Codespaces por defecto.
- Versiones de librerías: mantener dependencias alineadas.
- Tiempo insuficiente: priorizar notebooks troncales y dejar extras como tarea.