November 22, 2013, 14:00–15:15
Toulouse
Room MF 323
MAD-Stat. Seminar
Abstract
L'algorithme des k plus proches voisins est une des plus anciennes méthodes d'apprentissage statistique et reste encore très populaires dans de nombreuses applications de classification supervisée ou de régression. Les premières études statistiques remontent à Györfi [1], Devroye & Wagner [2], Covert & Hart [3], ou Stone [4]. Nous étudions la consistance de ces méthodes dans un contexte de classification supervisée et sous des conditions de marge introduites par Audibert & Tsybakov [5], nous établissons un résultat nouveau d'optimalité asymptotique de classification par plus proches voisins en dimension finie d. Nous montrons que la vitesse est fortement influencée par la dimension ambiante et la taille de n, effectif de l'échantillon, et de k le nombre de voisins utilisés par l'algorithme. Nous étudions ensuite le cas fonctionnel où les entrées sont perturbées par un Modèle de bruit blanc, puis un cas particulier où un opérateur aléatoire vient perturber les observations. Nous conclurons par quelques illustrations numériques et des perspectives statistiques, numériques et de modélisation.