IFT 615

Intelligence artificielle

Département d'informatique

Université de Sherbrooke

Été 2018

Professeur: Froduald Kabanza

Courriel: kabanza@usherbrooke.ca
Local: D4-1022-2
Téléphone: +1 819 821-8000 (62865)
Site: planiart.usherbrooke.ca/cours/ift615
Disponibilité: Mardi 11h00 à 12h00 ou sur rendez-vous.

Auxiliaire: Mariane Maynard

Horaire

Mardi 8h30 à 10h20 Salle D3-2038
Mercredi 8h30 à 10h20 Salle D3-2038

Travaux Pratiques

(Suivre le lien dans la colonne TP pour télécharger l'énnoncé)
TP Date de l'énoncé Date limite de remise Pondération Sujet
TP 1 Mercredi 2 mai Mardi 15 mai à minuit 10% [notes] Recherche heuristique
TP 2 Mercredi 16 mai Vendredi 1er juin à minuit 10% [notes] Algorithmes multiagents
TP 3 Mercredi 6 juin Mardi 19 juin à minuit 10% [notes] Inférences probabilistes
TP 4 Mercredi 20 juin Mardi 3 juillet à minuit 10% [notes] Apprentissage par renforcement
TP 5 Mardi 3 juillet Mercredi 18 juillet à minuit 10%  Classification

Liens

Contenu (Suivre les liens pour télécharger les présentations)

Les dates dans le calendrier suivant pourraient varier en fonction du rythme dans le cours. Les sections font référence au livre Artificial Intelligence : A Modern Approach (AIMA) de Stuart Russel & Peter Norvig. Third Edition publié par Prentice Hall en 2009.

Date Cours Magistraux Sections dans le livre AIMA
MA 1/5 Introduction 1

Plan de cours [PDF]

Agents intelligents [PPT] [PDF]

  • Définition
  • Types d'environnements
2, 7.1
ME 2/5

Recherche heuristique globale: Comment utiliser la recherche heuristique pour trouver un chemin optimal? [PPT] [PDF]

  • Recherche dans un graphe
  • Algorithme A*
  • Heuristiques admissibles et monotonnes
3
Preuves des propriétés de A*  
[Exercices] [Solutions]  

Recherche heuristique locale: Comment utiliser une recherche heuristique locale pour trouver rapidement un bon chemin? [PPT] [PDF]

  • Algorithme hill-climbing
  • Algorithme recuit-simulé
  • Algorithmes génétiques.
4.1
MA 8/5

Satisfaction des contraintes: Comment modéliser et solutionner des problèmes par une approche de satisfaction de contraintes? [PPT] [PDF]

  • backtracking search
  • AC-3
6.1 à 6.4
[Exercices] [Solutions]  
ME 9/5

Recherche heuristique pour les jeux compétitifs: Comment utiliser la recherche heuristique pour décider les bonnes actions qu’un système doit prendre face à un joueur (adversaire)?  [PPT] [PDF]

  • Algorithme Minimax
  • Alpha-beta pruning
  • Expectiminimax
5.1 à 5.5
[Exercices] [Solutions]
MA 15/5

Logique du premier ordre : Comment modéliser le raisonnement déductif avec la logique du premier ordre ? [PPT] [PDF]

  • Syntaxe et sémantique
  • Modus ponens
  • Algorithme d’unification (pattern matching)
7, 8
ME 16/5

Exemples d'inférences avec de la logique du premier ordre

  • Preuve par résolution comme illustration du raisonnement déductif
9.1 à 9.2,
9.5
[Exercices] [Solutions]  
Planification avec des modèles d'actions logiques [PPT] [PDF] 10
MA 22/5

Raisonnement probabiliste : Comment modéliser le raisonnement probabiliste avec des réseaux bayésiens?

  • Rappel de la théorie des probabilités [PPT] [PDF]
  • Réseaux Bayésiens [PPT] [PDF]
  • Inférences dans un réseau bayésien
13
14.1 à 14.5
ME 23/5

Raisonnement probabiliste (suite)

  • Indépendannce et D-séparation
  • Apprentissage dans un réseau bayésien
 
[Exercices] [Solutions]  
MA 29/5 Révision et exercices
ME 30/5 Examen périodique
MA 5/6 Correction de l'intra  

Raisonnement probabiliste temporel [PPT] [PDF]

  • Modèles de Markov cachés
15.1 à 15.3
ME 6/6

Raisonnement probabiliste temporel (suite)

  • Inférence par programmation dynamique
 
  • Filtres particulaires (si le temps le permet, sinon couvert à travers TP)
15.5
[Exercices] [Solutions]
MA 12/6

Processus de décision Markoviens: Comment planifer des décisions séquentielles à l’aide des processus de décision Markoviens? [PPT] [PDF]

  • Algorithme value-iteration.
  • Algorithme policy-iteration.
17.1 à 17.4
[Exercices] [Solutions]  
ME 13/6

Apprentissage par renforcement [PPT] [PDF]

  • Apprentissage passif
18.1, 21.1 à 21.3
MA 19/6

Apprentissage par renforcement (suite)

  • Apprentissage actif
  • Dilemme exploration vs exploitation
 
[Execices] [Solutions]
ME 20/6

Apprentissage supervisé [PPT] [PDF]

  • K plus proches voisins
  • Perceptron
18.7
[Exercices] [Solutions]
MA 26/6

Apprentissage supervisé avec les réseaux de neurones

  • Optimisation de la perte avec la descente du gradient
  • Régression logistique
ME 27/6

Apprentissage supervisé avec les réseaux de neurones (suite)

  • Réseau de neurones artificiels
 
MA 3/7 Révision et exercices
ME 4/7 Pas de cours : consultation au bureau du prof; temps-libre pour préparer l’examen
MA 10/7 Examen final  

Fin du cours