Support Vector Machines

A la découverte des Support Vector Machines

Les machines à vecteurs de support ou séparateurs à vaste marge (en anglais Support Vector Machine, SVM) sont un ensemble de techniques d'apprentissage supervisé destinées à résoudre des problèmes de discriminationn et de régression. Les SVM sont une généralisation des classifieurs linéaires.

Les SVM ont été développés dans les années 1990 à partir des considérations théoriques de Vladimir Vapnik sur le développement d'une théorie statistique de l'apprentissage : la théorie de Vapnik-Chervonenkis. Les SVM ont rapidement été adoptés pour leur capacité à travailler avec des données de grandes dimensions, le faible nombre d'hyper paramètres, leurs garanties théoriques, et leurs bons résultats en pratique.

Les SVM ont été appliqués à de très nombreux domaines (bio-informatique, recherche d'information, vision par ordinateur, finance1…). Selon les données, la performance des machines à vecteurs de support est de même ordre, ou même supérieure, à celle d'un réseau de neurones ou d'un modèle de mélanges gaussiens

Les SVM sont souvent plus faciles à bien utiliser que les réseaux de neurones. 
Given training data (class labels known)
Predict test data (class labels unknown)


Quelques cas d'utilisation:
- classifications diverses et varies
- détection de la fatigue d'un conducteur en fonction de son expression du visage
- classification des mouvements : je danse, je me bats, 
- reconnaissance de visage
- classification en astro physique









Comments