Il a été prouvé que combiner des classifieurs faibles (c’est-à-dire dont la performance est un peu meilleure que le tirage au hasard d’une pièce parfaite) peut produire un classifieur fort, de précision arbitraire. De nombreuses méthodes numériques ont été décrites pour effectuer cette constuction, ce qui s’appelle le ‘boosting’, et depuis son invention en 1995 par Freund et Shapire. Cela a permis que les algorithmes d’apprentissage aient un vrai succès, mais avec très peu de preuves.
Cet exposé présente une méthode originale pour combiner de manière efficace des classifieurs faibles élémentaires pour construire un meilleur classifieur. Nous avons introduit les tables de vérité associées à l’ensemble d’entrainement S de taille n et aux classifieurs élémentaires G_1, …, G_m, et cette structuration (partition) de S a conduit à une analyse plus riche que prévue. Des conditions suffisantes, et, dans le cas de m=3, des conditions nécessaires et suffisantes d’existence et d’unicité du point de minimum du risque convexifié sont obtenues. Le classifieur résultant peut être calculé analytiquement, la stabilité de la classification (retirer ou ajouter un exemple), et des contre-exemples de calcul de ce classifieur résultant pour certaines versions présentées dans la littérature peuvent être obtenus.