Catégorie
Le Séminaire Palaisien
Date de tri

« Le Séminaire Palaisien » | Austin Stromme & Cherief Abdellatif Badr-Eddine

Bandeau image
Séminaire Le Palaisien

« Le Séminaire Palaisien » | Austin Stromme & Cherief Abdellatif Badr-Eddine

Partager

twlkfbml
Lieu de l'événement
Inria Saclay, salle Gilles Kahn
Date de l'événement (intitulé)
5 mars 2024 - 12h
Chapo
Le séminaire Palaisien réunit, chaque premier mardi du mois, la vaste communauté de recherche de Saclay autour de la statistique et de l'apprentissage machine.
Contenu
Corps de texte

Chaque session du séminaire est divisée en deux présentations scientifiques de 40 minutes chacune : 30 minutes d’exposé et 10 minutes de questions.

Austin Stromme et Cherief Abdellatif Badr-Eddine animeront la session de mars 2024 !


Inscriptions gratuites mais obligatoires, dans la limite des places disponibles. Un buffet sera servi à l'issue du séminaire.

En savoir plus
Nom de l'accordéon
Austin Stromme | "Minimum intrinsic dimension scaling for entropic optimal transport"
Texte dans l'accordéon

Résumé

Le transport optimal entropique (OT entropique) est une variante régularisée du problème du transport optimal, largement utilisée dans la pratique pour ses avantages en termes de calcul. Une question statistique clé pour le transport optimal entropique et non régularisé est de savoir dans quelle mesure la structure de basse dimension, du type de celle conjecturée par l'hypothèse bien connue du collecteur, affecte les taux statistiques de convergence. Dans cet exposé, nous présenterons des résultats statistiques pour l'OT entropique qui clarifient le rôle statistique de la dimension intrinsèque, et en fait de la régularisation entropique elle-même, sous la forme d'un nouveau type de dépendance de la dimension intrinsèque que nous appelons échelonnement de la dimension intrinsèque minimale (échelonnement MID).

Nom de l'accordéon
Cherief Abdellatif Badr-Eddine | "A PAC-Bayes perspective on learning and generalization"
Texte dans l'accordéon

Résumé

Née à la fin du 20e siècle, la méthode PAC-Bayes a récemment refait surface en tant que cadre puissant pour l'apprentissage avec garanties. Ses bornes offrent un moyen fondé sur des principes de comprendre la capacité de généralisation des algorithmes d'apprentissage aléatoire, voire de guider la conception de nouveaux algorithmes. Cette introduction se penche sur les fondements de PAC-Bayes, explore ses avancées récentes et tente de donner un aperçu des futures directions de recherche prometteuses.