Una SVM, abreviatura de support vector machine, es un clasificador que elige una frontera entre clases con el mayor margen posible. Si estás buscando qué es una SVM, esa es la idea central: no solo separar los grupos, sino dejar entre ellos la mayor distancia fiable posible.

Los puntos más cercanos a esa frontera se llaman vectores de soporte. Son los más importantes porque determinan dónde puede situarse el separador.

Por qué importa el margen

Imagina dos grupos de puntos, uno de la clase A y otro de la clase B. Muchas rectas podrían separarlos. Una SVM prefiere la recta que deja el mayor colchón de seguridad a ambos lados.

Ese margen más amplio suele hacer que el clasificador sea menos sensible a pequeños cambios en los datos de entrenamiento. No garantiza un mejor rendimiento en el mundo real, pero es la intuición principal detrás de las SVM.

Cómo es la frontera de decisión de una SVM

En una SVM lineal, la frontera de decisión es un hiperplano:

wx+b=0w \cdot x + b = 0

El clasificador predice una clase cuando wx+b>0w \cdot x + b > 0 y la otra cuando wx+b<0w \cdot x + b < 0.

En el escalado estándar de máximo margen para datos separables, la SVM elige ww y bb de modo que

yi(wxi+b)1y_i(w \cdot x_i + b) \ge 1

para cada punto de entrenamiento, mientras hace el margen lo más grande posible. En ese escalado, el ancho total del margen es

2w.\frac{2}{\|w\|}.

La idea práctica importante es más simple que la fórmula: un w\|w\| más pequeño significa un margen más ancho en esta configuración normalizada.

Ejemplo resuelto: una SVM unidimensional

Un ejemplo unidimensional hace que la idea del margen sea fácil de ver.

Supón que la clase negativa tiene puntos en x=0x=0 y x=1x=1, y la clase positiva tiene puntos en x=4x=4 y x=5x=5.

Cualquier umbral entre 11 y 44 separa las clases. Por ejemplo, x=2x=2 funciona y x=3x=3 también, pero esas elecciones no dejan el mismo colchón a cada lado.

En esta configuración unidimensional separable, la SVM elige el punto medio entre los puntos más cercanos de clases opuestas, así que el umbral de decisión es

x=2.5.x = 2.5.

El punto negativo más cercano es x=1x=1, y el punto positivo más cercano es x=4x=4. Esos son los vectores de soporte. Cada uno está a 1.51.5 unidades de la frontera, así que el margen queda equilibrado y tan ancho como sea posible.

Aquí puedes escribir el clasificador como "predice positivo cuando x>2.5x > 2.5 y negativo cuando x<2.5x < 2.5". Este caso sencillo capta la idea real: la frontera la determinan los casos cercanos más difíciles, no los puntos lejanos que ya son fáciles de clasificar.

SVM de margen duro vs margen suave

Una SVM de margen duro solo funciona cuando los datos de entrenamiento son perfectamente separables de forma lineal. Si aunque sea un punto rompe esa condición, la formulación de margen duro no se ajusta a los datos.

Por eso muchas SVM prácticas usan un margen suave. Una SVM de margen suave sigue prefiriendo un margen amplio, pero permite que algunos puntos caigan dentro del margen o incluso en el lado incorrecto de la frontera, con una penalización.

El parámetro CC controla ese equilibrio. Un CC más grande penaliza más las violaciones. Un CC más pequeño permite más flexibilidad. Ninguna elección es automáticamente mejor; depende de los datos y debe comprobarse con el rendimiento de validación.

Cuándo ayudan las SVM con kernel

A veces una frontera recta no basta en el espacio original de características. Una SVM con kernel maneja esto comparando puntos mediante una función kernel, lo que puede hacer posible una frontera curva sin escribir explícitamente un enorme vector de características transformadas.

La condición clave es que esa flexibilidad extra solo ayuda si el patrón de los datos realmente la necesita. Los kernels pueden mejorar un modelo, pero también pueden hacer más difícil el ajuste, así que deben validarse en lugar de elegirse por defecto.

Errores comunes con SVM

Pensar que todos los puntos importan por igual

En una SVM, los puntos más cercanos son los que más importan. Los puntos alejados de la frontera suelen tener poco efecto sobre el separador final.

Olvidar la condición detrás del margen duro

La separabilidad lineal perfecta es una condición real, no una suposición por defecto. Si las clases se solapan, necesitas un margen suave o un modelo diferente.

Ignorar el escalado de características

Las SVM dependen de distancias y productos escalares. Si una característica se mide en una escala mucho mayor que otra, puede dominar la frontera a menos que escales primero las entradas.

Suponer que un kernel es automáticamente mejor

Una frontera más flexible puede ajustarse mejor a los datos de entrenamiento, pero eso no significa automáticamente que vaya a generalizar mejor.

Dónde se usan las SVM

Las SVM se usan en problemas de clasificación donde la frontera entre clases puede ser bastante nítida y donde el razonamiento basado en márgenes resulta útil. Son especialmente comunes en problemas tabulares de tamaño pequeño a mediano y en clasificación de texto, donde son habituales los espacios de características de alta dimensión.

También se usan para regresión en un método relacionado llamado support vector regression, pero esa es una formulación distinta de la clasificación binaria explicada aquí.

Prueba un problema similar de SVM

Toma los puntos unidimensionales del ejemplo y añade un nuevo punto negativo en x=2.2x=2.2. Ahora la separación amplia y limpia ha desaparecido. Pregúntate qué cambia si insistes en un margen duro y qué cambia si permites un margen suave. Esa comparación suele ser la forma más rápida de entender de verdad las SVM.

¿Necesitas ayuda con un problema?

Sube tu pregunta y obtén una solución verificada, paso a paso, en segundos.

Abrir GPAI Solver →