Organisateur : Stéphane Canu

Les méthodes d'apprentissages se sont récemment  révélées très efficaces pour traiter une grande variété de problèmes de traitement d'image telles que la réduction du bruit, le défloutage, l’inpainting, l'étiquetage et la segmentation. Mais l'utilisation des  méthodes d'apprentissage statistiques pose aussi de nombreuses questions sur la nature et la quantité de données nécessaires,   sur le choix des modèles et des objectifs à utiliser et sur la manière de mettre efficacement en œuvre ces solutions.

Le but de cette session spéciale est de rassembler des chercheurs de la communauté de traitement d'image et de l'apprentissage de la machine pour discuter de toutes les questions liées aux modèles d'apprentissage statistique pour les applications de traitement d'image. En particulier, on s'intéressera aux sujets suivants (liste non exhaustive) :

  • la modélisation statistique des tâches de traitement d'image et de vision,
  • l'efficacité d'exécution et la complexité en échantillons,
  • l'apprentissage  profond (deep learning) pour le traitement d'image et la vision,
  • l'apprentissage de représentations et de dictionnaires,
  • l'apprentissage pour le traitement de séquences d'images,
  • l'apprentissage par transfert et le multi-tâche,
  • la reconnaissance de gestes,
  • la traitement de données affectives,
  • l’apprentissage et la vision embarquée.

Les modalités de soumission (sur papier long uniquement) sont les mêmes que pour la conférence RFP.