IFT 615

Intelligence artificielle

Département d'informatique

Université de Sherbrooke

Hiver 2019

Professeur: Froduald Kabanza

Courriel: kabanza@usherbrooke.ca
Local: D4-1022-2
Téléphone: +1 819 821-8000 (62865)
Site: planiart.usherbrooke.ca/cours/ift615
Disponibilité: Mardi 11h00 à 12h00 ou sur rendez-vous.

Auxiliaire: Antoine Théberge

Horaire

Jeudi 13h30 à 14h20 Salle D3-2040
Vendredi 8h30 à 10h20 Salle D3-2040

Travaux Pratiques

(Suivre le lien dans la colonne TP pour télécharger l'énnoncé)
TP Date de l'énoncé Date limite de remise Pondération Sujet
TP 1 Vendredi 11 Janvier Mercredi 23 Janvier à minuit 10%  Recherche heuristique
TP 2 Vendredi 25 Janvier Mercredi 13 Février à minuit 10%  Recherche multiagent
TP 3 Vendredi 15 Février Mercredi 13 Mars à minuit 10% Inférences probabilistes dans Pac-Man
TP 4
TP 5

Liens

Contenu (N'est plus à jour, consulter Moodle pour l'édition H2019)

Les dates dans le calendrier suivant pourraient varier en fonction du rythme dans le cours. Les sections font référence au livre Artificial Intelligence : A Modern Approach (AIMA) de Stuart Russel & Peter Norvig. Third Edition publié par Prentice Hall en 2009.

Date Cours Magistraux Sections dans le livre AIMA
MA 1/5 Introduction 1

Plan de cours [PDF]

Agents intelligents [PPT] [PDF]

  • Définition
  • Types d'environnements
2, 7.1
ME 2/5

Recherche heuristique globale: Comment utiliser la recherche heuristique pour trouver un chemin optimal? [PPT] [PDF]

  • Recherche dans un graphe
  • Algorithme A*
  • Heuristiques admissibles et monotonnes
3
Preuves des propriétés de A*  
[Exercices] [Solutions]  

Recherche heuristique locale: Comment utiliser une recherche heuristique locale pour trouver rapidement un bon chemin? [PPT] [PDF]

  • Algorithme hill-climbing
  • Algorithme recuit-simulé
  • Algorithmes génétiques.
4.1
MA 8/5

Satisfaction des contraintes: Comment modéliser et solutionner des problèmes par une approche de satisfaction de contraintes? [PPT] [PDF]

  • backtracking search
  • AC-3
6.1 à 6.4
[Exercices] [Solutions]  
ME 9/5

Recherche heuristique pour les jeux compétitifs: Comment utiliser la recherche heuristique pour décider les bonnes actions qu’un système doit prendre face à un joueur (adversaire)?  [PPT] [PDF]

  • Algorithme Minimax
  • Alpha-beta pruning
  • Expectiminimax
5.1 à 5.5
[Exercices] [Solutions]
MA 15/5

Logique du premier ordre : Comment modéliser le raisonnement déductif avec la logique du premier ordre ? [PPT] [PDF]

  • Syntaxe et sémantique
  • Modus ponens
  • Algorithme d’unification (pattern matching)
7, 8
ME 16/5

Exemples d'inférences avec de la logique du premier ordre

  • Preuve par résolution comme illustration du raisonnement déductif
9.1 à 9.2,
9.5
[Exercices] [Solutions]  
Planification avec des modèles d'actions logiques [PPT] [PDF] 10
MA 22/5

Raisonnement probabiliste : Comment modéliser le raisonnement probabiliste avec des réseaux bayésiens?

  • Rappel de la théorie des probabilités [PPT] [PDF]
  • Réseaux Bayésiens [PPT] [PDF]
  • Inférences dans un réseau bayésien
13
14.1 à 14.5
ME 23/5

Raisonnement probabiliste (suite)

  • Indépendannce et D-séparation
  • Apprentissage dans un réseau bayésien
 
[Exercices] [Solutions]  
MA 29/5 Révision et exercices
ME 30/5 Examen périodique
MA 5/6 Correction de l'intra  

Raisonnement probabiliste temporel [PPT] [PDF]

  • Modèles de Markov cachés
15.1 à 15.3
ME 6/6

Raisonnement probabiliste temporel (suite)

  • Inférence par programmation dynamique
 
  • Filtres particulaires (si le temps le permet, sinon couvert à travers TP)
15.5
[Exercices] [Solutions]
MA 12/6

Processus de décision Markoviens: Comment planifer des décisions séquentielles à l’aide des processus de décision Markoviens? [PPT] [PDF]

  • Algorithme value-iteration.
  • Algorithme policy-iteration.
17.1 à 17.4
[Exercices] [Solutions]  
ME 13/6

Apprentissage par renforcement [PPT] [PDF]

  • Apprentissage passif
18.1, 21.1 à 21.3
MA 19/6

Apprentissage par renforcement (suite)

  • Apprentissage actif
  • Dilemme exploration vs exploitation
 
[Execices] [Solutions]
ME 20/6

Apprentissage supervisé [PPT] [PDF]

  • K plus proches voisins
  • Perceptron
18.7
[Exercices] [Solutions]
MA 26/6

Apprentissage supervisé avec les réseaux de neurones

  • Optimisation de la perte avec la descente du gradient
  • Régression logistique
ME 27/6

Apprentissage supervisé avec les réseaux de neurones (suite)

  • Réseau de neurones artificiels
 
MA 3/7 Révision et exercices
ME 4/7 Pas de cours : consultation au bureau du prof; temps-libre pour préparer l’examen
MA 10/7 Examen final  

Fin du cours