La materia Inferencia Bayesiana Causal 1 se imparte como electiva en las licenciaturas y doctorados de la Escuela de Ciencia y Tecnología de la Universidad Nacional de San Martín.
Además, se ofrece como curso para la comunidad Bayes Plurinacional.
Todas las ciencias con datos desarrollan argumentos causales para explicar y predecir el mundo. La evaluación de hipótesis causales atrae cada vez más el interés de las industrias, que necesitan medir el impacto real de sus acciones. La ventaja de los modelos causales radica en su capacidad predictiva, que se adapta naturalmente a los cambios del contexto como son las intervenciones humanas. Además sabemos que si los argumentos causales se corresponden con la realidad causal subyacente ningún modelo de inteligencia artificial, por más complejo que sea, puede mejorar su desempeño.
En este curso revisaremos los fundamentos de la evaluación de modelos causales alternativos
Ante el vértigo de una IA plagada de herramientas efímeras, este curso prioriza los fundamentos inmutables. A pesar de todos los avances, desde el siglo 18 hasta ahora no se ha propuesto un nuevo sistema para razonar bajo incertidumbre. Si algún día las máquinas superan a los humanos, deberán hacer ciencia aplicando estrictamente las reglas de probabilidad para evaluar teorías causales. Para alcanzar verdades (intersubjetivas) en contextos de incertidumbre, simplemente hay que saber aplicar y preservar el principio universal de no mentir: no afirmar más de lo que se sabe, sin ocultar lo que sí se sabe. Así se obtienen las distribuciones de creencia óptima dada la información disponible, inmejorables en términos prácticos.
Al final siempre es bueno recordar que la verdadera inteligencia no es ni artificial ni humana, sino que está en todas las formas de vida que son capaces de sobrevivir en el tiempo. Especialmente las plantas que son 83% de la biomasa, no molestan a nadie y dan vida. El problema real detrás de los problemas de conocimiento es responder preguntas ¿qué acciones nos generan bienestar?.
Los contenidos completos del programa se encuentran en su carpeta específica.
Materiales:
Materiales:
Materiales:
Calendario:
- 16 semanas totales, dos por unidad.
Días y horarios:
- Lunes de 15h30 a 17h30 GMT-3
- Viernes de 15h30 a 17h30 GMT-3
Lugar:
Comunicación
- Discord de la materia: pedir acceso.
- Discord de la comunidad Bayes Plurinacional
Para las evaluaciones es necesario que tengas un repositorio privado (agregando al equipo docente como colaboradores) donde puedas subir la solución a los ejercicios prácticos y teóricos. Te proponemos, además, que incluyas este repositorio público como submódulo, lo que te permitirá tener actualizados los materiales de la materia haciendo pull.
Habrá evaluaciones prácticas y teóricas.
- Prácticas. Cada unidad tiene una práctica obligatoria que será evaluada comparando el resultado real oculto conocido por la materia. Cuando se trate de calcular distribuciones de probabilidad sobre hipótesis ocultas, se va a implementar proper scoring rules, como la entropía cruzada. En caso de que se trate de estimaciones puntuales, se utilizarán otro tipo de funciones de costo clásicas.
- Teórica. Cada unidad tienen un multiple choise sobre el que deberán distribuir creencias y justificar de forma escrita. También se evaluará usando proper scoring rules, como le entropía cruzada, que los obliga a ser honestos respecto de su propia incertidumbre.
Pasos:
- Crear tu repositorio privado en github o gitlab y agregar el .gitignore de este repositorio público en tu reposoitorio privado.
- Agregar a los docentes como colaboradores para que podamos ver tu trabajo y corregirlo. En la misma página de
Settings, ve a la secciónCollaboratorsen el menú de la izquierda. Haz clic en el botón verdeAdd people. Agrega a los siguientes usuarios (debes hacerlo uno por uno):glandfried,gerardo1909,lucasbarreiroe. Ellos recibirán una invitación por correo que deberán aceptar para tener acceso. - Organización interna de los archivos. Crea una carpeta en la raíz llamada
entregas, idealmente ordenado con la misma estructura que el repositorio público, una carpeta por semana. Agregar en la raíz este repositorio público como un submódulogit submodule add -f git@github.com:MetodosBayesianos/IBC1.2026.1.git materiales_del_curso
¡Listo! Al terminar, la estructura de tu repositorio en tu computadora y en GitHub se verá así:
tu_repositorio/
|
|-- entregas/
| |-- 1.1-argumentos_causales/
| `-- ...
|
|-- materiales_del_curso/ <-- (Submódulo de éste repositorio público)
|
|-- .gitignore <-- (Copiarlo de éste repositorio público)
`-- .gitmodules <-- (Se genera automáticamente al agregar el submómudo)
- Bishop, C. M. (2006). Pattern Recognition and Machine Learning. PDF
- Bishop, C. M. (2024). Deep Learning. PDF
- Jaynes, E. T. (2003). Probability Theory: The Logic of Science. PDF
- Koller, D (2009). Probabilistic Graphical Models. PDF
- MacKay, D. J. C. (2003). Information Theory, Inference, and Learning Algorithms. PDF
- Pearl, J. (2009). Causality: Models, Reasoning, and Inference. PDF
- Pearl, J. (2018). The Book of Why. PDF
- Hernán, M. A., & Robins, J. M. (2020). Causal Inference: What If. PDF
- Facure, M. (2023). Causal Inference for the Brave and True. PDF
- McElreath, R. (2020). Statistical Rethinking. PDF
- Molak, V. (2023). Causal Inference in Python. PDF
- Neal, B. (2020). Introduction to Causal Inference. PDF
- Pyro: https://pyro.ai/
- Turing: https://turinglang.org/
- PyMC: https://www.pymc.io/welcome.html
- Stan: https://mc-stan.org/