En naviguant sur notre site vous acceptez l'installation et l'utilisation des cookies sur votre ordinateur. En savoir +

Menu Logo Principal logo partenaires

StatMathAppli 2015

 

StatMathAppli 2017

Statistique Mathématique et Applications

Du 4 au 8 septembre 2017
 La Villa Clythia, Fréjus - Var (France)  

Objectifs :

Le séminaire "Statistique Mathématique et Applications" est organisé tous les deux ans. Les précédentes éditions se sont tenues à Fréjus (2015, 2013, 2011, 2010, 2008) et à Luminy (2006, 2004, ...).
L'objectif du séminaire est d'offrir une opportunité aux jeunes statisticiens de divers pays de se rencontrer et de présenter leurs travaux lors d'un meeting international. Son programme s'articule autour de deux cours dispensés par des chercheurs de renommée mondiale, présentant des méthodes de statistiques mathématiques ou plus généralement de mathématiques appliquées, en relation avec des applications.

Conférenciers invités :

Cette année les cours seront dispensés par :

Francis Bach

Large-scale machine learning and convex optimization.
Many statistics, machine learning and signal processing problems are traditionally cast as convex optimization problems. A common difficulty in solving these problems is the size of the data, where there are many observations ("large n") and each of these is large ("large p"). In this setting, online algorithms such as stochastic gradient descent which pass over the data only once, are usually preferred over batch algorithms, which require multiple passes over the data. Given n observations/iterations, the optimal convergence rates of these algorithms are O(1/\sqrt{n}) for general convex functions and reaches O(1/n) for strongly-convex functions. 
In this tutorial, I will first present the classical results in stochastic approximation and relate them to classical optimization and statistics results. I will then show how the smoothness of loss functions may be used to design novel algorithms with improved behavior, both in theory and practice: in the ideal infinite-data setting, an efficient novel Newton-based stochastic approximation algorithm leads to a convergence rate of O(1/n) without strong convexity assumptions, while in the practical finite-data setting, an appropriate combination of batch and online algorithms leads to unexpected behaviors, such as a linear convergence rate for strongly convex problems, with an iteration cost similar to stochastic gradient descent. 

montanar

Actualités

Toutes les actualités
EDITION 2015

RETOUR SUR L'EDITION 2015

EDITION 2015
Lire la suite
SIte en construction

SITE EN COURS DE REALISATION : OUVERTURE PROCHAINE

SITE EN COURS DE RÉALISATION : OUVERTURE PROCHAINE
Lire la suite
MIA-Jouy

MIA-Jouy a fusionné avec MIG pour créer l'Unité MaIAGE le 1er Janvier 2015

Nouvelle Unité au sein de l'INRA
Lire la suite

Voir toutes les actualités