Un SVM, abréviation de support vector machine, est un classificateur qui choisit une frontière entre des classes avec la plus grande marge possible. Si vous cherchez ce qu’est un SVM, l’idée centrale est celle-ci : il ne s’agit pas seulement de séparer les groupes, mais de laisser entre eux l’écart fiable le plus large possible.
Les points les plus proches de cette frontière sont appelés vecteurs de support. Ce sont eux qui comptent le plus, car ils déterminent où le séparateur peut se placer.
Pourquoi la marge est importante
Imaginez deux groupes de points, l’un de la classe A et l’autre de la classe B. De nombreuses droites peuvent les séparer. Un SVM préfère la droite qui laisse la plus grande zone de sécurité des deux côtés.
Cette marge plus large rend souvent le classificateur moins sensible aux petites variations dans les données d’entraînement. Ce n’est pas une garantie de meilleures performances en pratique, mais c’est l’intuition principale derrière les SVM.
À quoi ressemble la frontière de décision d’un SVM
Dans un SVM linéaire, la frontière de décision est un hyperplan :
Le classificateur prédit une classe lorsque et l’autre lorsque .
Dans la mise à l’échelle standard à marge maximale pour des données séparables, le SVM choisit et de sorte que
pour chaque point d’entraînement, tout en rendant la marge aussi grande que possible. Dans cette mise à l’échelle, la largeur totale de la marge vaut
L’idée pratique importante est plus simple que la formule : dans cette configuration normalisée, un plus petit signifie une marge plus large.
Exemple détaillé : un SVM en une dimension
Un exemple en une dimension permet de voir facilement l’idée de marge.
Supposons que la classe négative ait des points en et , et que la classe positive ait des points en et .
N’importe quel seuil entre et sépare les classes. Par exemple, fonctionne et fonctionne aussi, mais ces choix ne laissent pas la même zone de sécurité de chaque côté.
Dans cette configuration séparable en une dimension, le SVM choisit le milieu entre les points les plus proches de classes opposées, donc le seuil de décision est
Le point négatif le plus proche est , et le point positif le plus proche est . Ce sont les vecteurs de support. Chacun se trouve à unité de la frontière, donc la marge est équilibrée et aussi large que possible.
On peut écrire ici le classificateur ainsi : « prédire positif quand et négatif quand ». Ce cas simple montre bien l’idée réelle : la frontière est déterminée par les cas proches les plus difficiles, et non par les points lointains déjà faciles à classer.
SVM à marge dure vs SVM à marge souple
Un SVM à marge dure ne fonctionne que lorsque les données d’entraînement sont parfaitement séparables linéairement. Si un seul point viole cette condition, la formulation à marge dure ne convient pas aux données.
C’est pourquoi beaucoup de SVM utilisés en pratique emploient une marge souple. Un SVM à marge souple préfère toujours une marge large, mais il autorise certains points à tomber dans la marge, voire du mauvais côté de la frontière, avec une pénalité.
Le paramètre contrôle ce compromis. Une valeur plus grande de pénalise plus fortement les violations. Une valeur plus petite de laisse davantage de flexibilité. Aucun des deux choix n’est automatiquement meilleur ; cela dépend des données et doit être vérifié sur des performances de validation.
Quand les SVM à noyau sont utiles
Parfois, une frontière droite ne suffit pas dans l’espace de caractéristiques d’origine. Un SVM à noyau gère cela en comparant les points via une fonction noyau, ce qui peut rendre possible une frontière courbe sans écrire explicitement un énorme vecteur de caractéristiques transformé.
L’idée essentielle est que cette flexibilité supplémentaire n’aide que si la structure des données en a réellement besoin. Les noyaux peuvent améliorer un modèle, mais ils peuvent aussi rendre le réglage plus difficile ; il faut donc les valider plutôt que les choisir par défaut.
Erreurs fréquentes avec les SVM
Penser que tous les points comptent autant
Dans un SVM, les points les plus proches comptent le plus. Les points éloignés de la frontière ont souvent peu d’effet sur le séparateur final.
Oublier la condition nécessaire à la marge dure
La séparabilité linéaire parfaite est une vraie condition, pas une hypothèse par défaut. Si les classes se chevauchent, il faut une marge souple ou un autre modèle.
Négliger la mise à l’échelle des variables
Les SVM dépendent des distances et des produits scalaires. Si une variable est mesurée sur une échelle bien plus grande qu’une autre, elle peut dominer la frontière à moins de mettre d’abord les entrées à l’échelle.
Supposer qu’un noyau est automatiquement meilleur
Une frontière plus flexible peut mieux s’ajuster aux données d’entraînement, mais cela ne signifie pas automatiquement qu’elle généralisera mieux.
Où les SVM sont utilisés
Les SVM sont utilisés pour des problèmes de classification où la frontière entre les classes peut être assez nette et où le raisonnement fondé sur la marge est utile. Ils sont particulièrement courants pour des problèmes tabulaires de petite à moyenne taille et en classification de texte, où les espaces de caractéristiques de grande dimension sont fréquents.
Ils sont aussi utilisés pour la régression dans une méthode apparentée appelée support vector regression, mais il s’agit d’une configuration différente du cadre de classification binaire expliqué ici.
Essayez un problème de SVM similaire
Prenez les points en une dimension de l’exemple et ajoutez un nouveau point négatif en . Maintenant, le bel écart net a disparu. Demandez-vous ce qui change si vous imposez une marge dure, et ce qui change si vous autorisez une marge souple. Cette comparaison est souvent la façon la plus rapide de vraiment comprendre les SVM.
Besoin d'aide pour un problème ?
Envoyez votre question et obtenez une solution vérifiée, étape par étape, en quelques secondes.
Ouvrir GPAI Solver →