Descripción del Curso
Profesores
Fabio A. González
Profesor Titular
Depto. de Ingeniería de Sistemas e Industrial
Universidad Nacional de Colombia
Objetivo del curso
Los sistemas inteligentes estudian el desarrollo de agentes inteligentes o racionales. Un agente racional debe ser capaz de actuar para maximizar el mejor resultado esperado. El objetivo del curso es estudiar la teoría y los métodos que permiten construir agentes racionales bajo diferentes condiciones.
Temas
1 Introducción
1.1 Historia de la IA
1.2 Qué es IA
1.3 Agentes inteligentes
2 Solución de problemas
2.1 Agentes y Búsquedas
2.2 Búsqueda no informada
2.3 Búsqueda informada
3 Aprendizaje de máquina
3.1 Qué es aprendizaje de máquina
3.2 Aprendizaje supervisado
3.2.1 Clasificación lineal
3.2.2 Modelos probabilísticos (regresión logística, Naïve Bayes)
3.2.3 Clasificación no lineal (k-nn, árboles de decisión)
3.2.4 Support Vector Machines
3.2.5 Random Forest
3.2.6 Redes Neuronales
3.2.7 Deep learning
3.3 Aprendizaje no supervisado
3.3.1 Reducción de la dimensionalidad
3.3.2 Clustering
3.4 Aprendizaje por refuerzo
Evaluación
- Quices 15%
- Participación 10%
- Examen 30%
- Talleres 10%
- Curso DL: 20%
- Cada entrega: 4%
- Evaluación final 4%
- Proyecto 15%
Recursos del Curso
Bibliografía
- [Russell21] Russell, S and Norvig, P. 2021 Artificial Intelligence: a Modern Approach, 4th Ed, Prentice-Hall
- [Alp10] Alpaydin, E. 2010 Introduction to Machine Learning, 2Ed. The MIT Press.
- [IAI-Udac] Intro to Artificial Intelligence, Udacity
- [CS188-Berkeley] CS 188 Introduction to Artificial Intelligence, UC Berkley, Summer 2021
- [aima-python] Python code for the book Artificial Intelligence: A Modern Approach, GitHub repository
- [FundDL] Raúl Ramos, Fundamentos de Deep Learning, Universidad de Antioquia, 2021
Calendario del curso
| Semana | Tema | Material | Actividades |
|---|---|---|---|
| Ago 9-16 | 1. Introducción | Clase asíncrona: Inteligencia Artificial (video) Lectura: [Russell21] Chap 1 (slides) Recursos adicionales: [CS188-Berkeley] Introduction to AI (slides) (video) The Wonderful and Terrifying Implications of Computers That Can Learn, Jeremy Howard, TED | Práctica 1 |
| Ago 23 | 1.3 Agentes inteligentes 2.1 Agentes y Búsquedas | Clase asíncrona: Agentes inteligentes (slides)(video) Agentes y búsquedas (slides)(video ) Lectura: [Russell21] Chap 2, Sect 3.1-3.2 Recursos adicionales: [CS188-Berkeley] Planning agents (video) | Práctica 2 |
| Ago 30 | 2.1 Agentes y Búsquedas 2.2 Búsqueda no informada | Clase asíncrona: Depth first search (slides) (video) Breadth first search (slides) (video) Iterative deepening search, uniform cost search (slides) (video) Lectura: [Russell21] Sect 3.3-3.4 Recursos adicionales: [CS188-Berkeley] Uninformed search (video) | Práctica 3 Taller 1 |
| Sep 6-13 | 2.5 Búsqueda informada | Clase asíncrona: A* (slides) (video) Heurísticas (slides) (video) Lectura: [Russell21] Sect 3.5-3.6 (slides) Recursos adicionales: [CS188-Berkeley] A* Search and Heuristics (video) Search algorithms notebook from AIMA | |
| Sep 27 | 3.1 Qué es aprendizaje de máquina 3.2 Aprendizaje supervisado | Clase asíncrona: Introducción al ML (slides)(video ) Clasificación binaria usando un modelo lineal (notebook)(video ) Recursos adicionales: [Russell21] Sect 19.1, 19.2, 19.6 (slides) | Práctica 4 |
| Oct 4 | 3.2.1 Clasificación lineal 3.2.2 Modelos probabilísticos (regresión logística, Naïve Bayes) | Clase asíncrona: Clasificador Naïve Bayes (slides 49-60)(notebook)(video 1)(video 2) Recursos adicionales: [CS188-Berkeley] Naïve Bayes 1 (slides) (video) [CS188-Berkeley] Naïve Bayes 2 (slides) (video) [Russell21] Chapter 12 Notebook: Clasificación Lineal y Evaluación del Desempeño | Práctica 5 |
| Oct 18 | 3.2.3 Clasificación no lineal (k-nn, árboles de decisión) | Clase asíncrona: Árboles de Decisión, K-nn (slides)(notebook)(video 1)(video 2) Recursos adicionales: [Russell10] Sect 19.3 (slides) Notebook: Clasificación no lineal, complejidad y sobreajuste | Práctica 6 |
| Oct 25 | 3.2.4 Support-vector machines 3.2.5 Random Forest | Clase asíncrona: Support-vector machines, random forest (notebook 1)(notebook 2)(video 1)(video 2) Recursos adicionales: [Russell10] Sects 19.7.5, 19.8.1-2 (slides) Notebook: Máquinas de vectores de soporte y selección de modelos Notebook: Random Forests y exploración aleatorizada | Práctica 6.5 |
| Nov 1 | 3.2.6 Redes neuronales | Clase asíncrona: [FundDL] Secc 2.1-2.4 Recursos adicionales: [Russell10] Sect 18.6 (slides) [Alp10] Chap 11 (slides) Neural Network Playground Notebook: Redes Neuronales Notebook: Neural Networks in Keras | Práctica 7 |
| Nov 8 | 3.2.7 Deep learning | Clase asíncrona: [FundDL] Secc 2.5-2.8 Recursos adicionales: Introduction to Deep Learning and Applications (slides) Representation Learning and Deep Learning Tutorial Notebook: CNN for image classification in Keras | Práctica 8 |
| Nov 15 | 3.2.7 Deep learning | Clase asíncrona: [FundDL] Secc 3 Recursos adicionales: Deep learning frameworks (slides) Introduction to TensorFlow (Jupyter notebook) Neural Networks in Keras (Jupyter notebook) | Proyecto Final |
| Nov 22 | 3.2.7 Deep learning | Clase asíncrona: [FundDL] Secc 4.1-4.5 Recursos adicionales: Deep learning frameworks (slides) Introduction to TensorFlow (Jupyter notebook) Neural Networks in Keras (Jupyter notebook) | Presentación quiz faltante |
| Nov 27 | Evaluación curso Deep Learning | ||
| Nov 29 | 3.3 Aprendizaje no supervisado 3.3.2 Clustering (agrupamiento) | Clase asíncrona: Agrupamiento (video) K-means(slides) Notebook: Agrupamiento | Práctica 9 Quiz clustering | Nov 29 | 3.3.1 Reducción de la dimensionalidad | Clase asíncrona: Reducción de la dimensionalidad con PCA (video) Intro to PCA (slides) A tutorial on principal component analysis (slides) Reducción de la dimensionalidad con PCA (notebook) | </tr> |
| Dic 4 | Examen Final |
Actividades Curso Fundamentos de Deep Learning
El objetivo es cursar y aprobar algunas de las actividades del curso Fundamentos de Deep Learning. Se debe revisar el material y completar los laboratorios en las fechas especificadas:
- Entrega 1 (Nov 6):
- LAB 01.01 - WARM UP
- LAB 2.1 - Customized loss function
- Entrega 2 (Nov 13):
- LAB 2.2 - Sparse Autoencoders
- LAB 2.4 - Model instrumentation
- Entrega 3 (Nov 19):
- LAB 3.1 - TF model subclassing
- LAB 3.2 - Low level Tensorflow
- Entrega 4 (Nov 26):
- LAB 4.1 - Convolutions
- LAB 4.2 - Transfer learning