Perceptrón Simple: Definición matemática y propiedades

El perceptrón simple: definición matemática y propiedades

Introducción

Uno de los problemas más comunes en el mundo de la ciencia de datos es el de la predicción del valor de ciertas variables a partir de otras variables. Por ejemplo, debemos saber si es conveniente conceder un préstamo a un cliente dependiendo de variables como su edad, sus ingresos mensuales, etc. Para ello, simplemente debemos clasificar cada caso en dos categorías (concedemos el préstamo o no lo concedemos), por lo que este es un problema de clasificación.

Otro ejemplo sería estimar el precio de una casa a partir de sus características, tales como su antigüedad, su superficie, el número de habitaciones, su ubicación, si tiene piscina o jardín, etc. En este caso, queremos predecir una cantidad (el precio de la casa); a esto lo llamamos un problema de regresión

Los problemas de clasificación y el de regresión constituyen las dos principales clases de lo que se llama aprendizaje automático supervisado. En este paradigma, un modelo matemático es entrenado para aprender a predecir una o más variables, llamadas variables dependientes u objetivo, a partir de otras variables, llamadas variables independientes.

Para entender cómo están relacionadas entre sí las distintas variables y poder emitir una predicción, necesitamos partir de un conjunto de observaciones. Por ejemplo, en el caso de estimación de precios de una casa, deberíamos tener muchos ejemplos de viviendas de las que conozcamos tanto las variables independientes (su antigüedad, su superficie y las demás características) como la variable dependiente (su precio). En el proceso de entrenamiento, el modelo debe entender cómo afectan las distintas características de la casa a su precio, y así, posteriormente, ser capaz de predecir el precio de una casa conociendo solamente las demás variables.

Existen modelos de aprendizaje supervisado muy diversos que sirven para abordar problemas tanto de clasificación como de regresión. Entre los algoritmos más populares encontramos el de K-Nearest Neighbors (usado sobre todo para clasificación), la regresión logística (usada para clasificación y regresión) o la regresión lineal (para regresión).

Sin embargo, la mayoría de estos algoritmos tienen limitaciones para resolver problemas donde la estructura de los datos es relativamente compleja. Así, por ejemplo, la regresión logística falla para problemas de clasificación en los que los datos no son linealmente separables.

Para resolver problemas complejos, en las últimas décadas se han desarrollado y popularizado un conjunto de modelos con una estructura común: las redes neuronales artificiales.

Las redes neuronales artificiales

Empecemos por lo básico: ¿qué son las neuronas? Como todos sabemos, estas son las células encargadas de la propagación del impulso nervioso a través del sistema nervioso de los animales.

Estas células constan de dos partes principales: el cuerpo celular o soma, del que sobresalen unas prolongaciones cortas llamadas dendritas, y una prolongación larga, llamada axón, conectado con otras neuronas. Las dendritas son las encargadas de transmitir los impulsos que reciben de otras células hacia el soma y, desde aquí, se propaga a través del axón, hasta que finalmente se transmite a otra neurona mediante la sinapsis neuronal (o bien a una célula motora).

Así pues, las redes neuronales están formadas por billones de neuronas conectadas entre ellas, y es esta arquitectura la que permite el aprendizaje de los animales. 

Pues bien, las redes neuronales artificiales pretenden imitar el funcionamiento de las redes neuronales biológicas. De la misma manera que estas están formadas por neuronas, la principal unidad constituyente de las redes neuronales artificiales es el perceptrón simple, también llamado simplemente perceptrón. Este no es más que la representación matemática de una neurona, y de hecho imita su estructura y las funciones de cada una de sus partes. No en vano, se le suele llamar también una neurona artificial. Veámoslo.

El perceptrón simple

Un perceptrón se puede definir como una función matemática f que permite relacionar un vector de variables independientes x⃗ = (x1,… ,xN) , con una variable dependiente y , de manera que se estima la variable independiente como ŷ = f(x⃗) . Esta función está parametrizada por un vector de pesos, ω⃗= (ω1,…,ωN)T , que ponderan la influencia de cada una de las variables independientes en el valor de la variable dependiente, y por una función φ, llamada la función de activación , de manera que

De hecho, la combinación lineal se puede expresar como un producto escalar entre el vector de variables independientes y  el vector de pesos. De esta manera, la ecuación anterior puede expresarse como

Hasta aquí, tal vez no se vea el parecido del perceptrón con una neurona. Pero ¿qué tal si lo pintamos así?

Figura 1. Comparación entre una neurona biológica y una neurona artificial

Estudiemos a partir de la Figura 1 la analogía entre una neurona biológica y una neurona artificial. Cada una de las variables de entrada (aquí los x1,… ,xN) representa la señal recibida por la neurona a través de la sinapsis con una neurona vecina. Todos estos inputs se combinan entre ellos a través de una sencilla operación: cada valor xi de entrada se multiplica por un peso ωi que pondera la contribución de dicha variable en el cálculo de la variable dependiente, y a continuación se suman todas estas contribuciones. Esta operación simula la transmisión y la combinación de todas las señales de entrada a través de las dendritas hacia el centro de la neurona. Finalmente, el efecto de la función de activación φ sobre la suma ponderada representa cómo se propaga la información a través del axón.

La función de activación transforma el resultado de la combinación lineal entre las variables independientes y sus pesos asociados y, como su nombre indica, su objetivo es determinar el nivel de activación de la neurona. La más sencilla función de activación es la llamada función escalón}, definida como

donde t es un parámetro del modelo. Con este ejemplo, el resultado de la neurona será 1 (decimos que la neurona se activará, o que su información se propagará a través del axón) sólo si la combinación lineal supera el valor umbral t, mientras que en caso contrario su resultado será 0. Esta función, si bien es muy intuitiva, tiene un gran inconveniente: no es derivable. Como veremos, en el proceso de aprendizaje necesitaremos que la funciones involucradas sean derivables, y por eso se opta por otras funciones de activación. Una de las más usadas es la función logística, definida por la fórmula

Esta función sí es derivable, y de hecho su derivada cumple la sencilla ecuación

lo que facilita mucho el proceso de aprendizaje. La forma de la función logística puede verse en la Figura 2: para valores arbitrariamente positivos de x, tiende a uno, y para valores arbitrariamente negativos, tiende a 0, cumpliéndose que σ(0) = 0.5 . Así, la neurona se activará (ŷ = 1) si la combinación lineal es muy positiva, y se apagará (ŷ = 0) si es muy negativa.

Figura 2. La función logística (Ecuación 4)

Ahora bien, ¿en qué consiste el proceso de aprendizaje del perceptrón? Pues bien, se trata de encontrar los pesos ωi que mejor se ajustan a los datos de los que disponemos.

Estos datos consisten en un conjunto (preferiblemente grande) de observaciones en las que conocemos tanto las variables independientes como la variable que se quiere aprender a predecir. La idea es que, para cada ejemplo de entrada, el modelo trate de predecir la variable objetivo a partir de las variables independientes. Al principio se equivocará mucho, pero como conocemos el valor real de la variable a predecir, podremos irlo corrigiendo tras cada predicción para que cada vez dé mejores resultados.

El primer paso en cualquier algoritmo de aprendizaje supervisado es dividir el dataset en dos conjuntos, llamados el conjunto de entrenamiento y el conjunto de test. El primer conjunto, como su nombre indica, es el que usaremos para entrenar el modelo, mientras que el segundo se usará para validar el modelo una vez terminado el proceso de entrenamiento. 

Para evaluar cuán buena es una predicción y así poder dar feedback al modelo durante el proceso de entrenamiento, debemos definir una función de pérdidas. Esta función J(ŷ, y) debe cuantificar el error cometido en la estimación del valor de y en cada predicción ŷ.

En los problemas de regresión, donde la variable dependiente es continua, la elección más simple sería tomar el valor absoluto de la diferencia entre el valor real y el predicho, esto es, J(ŷ, y) = |ŷy|. Sin embargo, de nuevo, nos encontramos con que esta función no cumple con la deseada propiedad de la derivabilidad, por lo que se prefieren usar otras funciones de pérdidas.

Una de las más simples (y también de las más usadas) es la diferencia cuadrática, definida por la ecuación

Esta ecuación tiene la ventaja de que sí es derivable. De hecho, su derivada puede expresarse como 

que no es más que el error (con signo) cometido en la predicción.

El descenso del gradiente

¿Por qué tanto énfasis en que las funciones sean derivables? Pues bien, el motivo es el siguiente: para encontrar el valor de los pesos que resuelven el problema, la red neuronal se basa en un método iterativo conocido como el descenso del gradiente. Dicho método, en general, tiene como objetivo encontrar el mínimo de cierta función F a partir del cálculo de su gradiente, es decir, de la derivada respecto a sus parámetros de entrada x⃗. El método funciona de la siguiente manera:

  1. Se realiza una primera estimación de los parámetros de entrada, x(1), o bien se inicializan aleatoriamente.
  2. Para cada iteración k =1, 2, …
    • Se calcula el gradiente de la función respecto de los parámetros actuales fxk
    • Puesto que el gradiente apunta en la dirección de máximo crecimiento de la función, y el objetivo es minimizar dicha función, se actualizan los parámetros introduciendo una pequeña variación en el sentido opuesto al del gradiente. Se aplica la regla F (x(k))
      donde 𝛄 es un número real que determina cuánto se modifican los parámetros en cada iteración. Para 𝛄 suficientemente pequeño, se cumple que F < F . Es decir, para cada iteración se irá reduciendo el valor de la función.
  3. Criterio de parada: podemos fijar un número máximo de iteraciones, o bien un umbral mínimo en la variación de los parámetros. La idea detrás del segundo método es parar cuando se obtienen gradientes cercanos a cero: en el caso en que F sea una función convexa, esto nos indica que estamos cerca del mínimo absoluto.

En el caso del perceptrón, nuestro objetivo es encontrar el vector de pesos ω⃗ que minimiza la función de pérdidas. Para ello, necesitamos ser capaces de calcular el gradiente de la función de pérdidas respecto de los pesos a partir del resultado del entrenamiento, y es por eso que necesitamos que todas las funciones involucradas en el proceso sean derivables. Así, sea ω⃗(k) el vector de pesos en la iteración k, la regla de actualización (Ecuación 8) es

donde el learning rate (ratio de aprendizaje) 𝛄 puede fijarse como hiperparámetro del modelo o ajustarse según avanza el entrenamiento. Una técnica habitual, sobre todo en caso de funciones de pérdidas convexas respecto a los pesos, es usar un ratio de aprendizaje decreciente a lo largo del entrenamiento: de esta manera, a medida que nos acercamos al mínimo, las variaciones en los pesos son más pequeñas, evitando así salir de la cuenca de atracción del mínimo u oscilar indefinidamente alrededor de él (ver Figura 3).

Figura 3. Un ratio de aprendizaje suficientemente pequeño garantiza la convergencia al mínimo local (panel izquierdo), pero puede resultar en demasiadas iteraciones para llegar al valor óptimo. Sin embargo, un valor demasiado elevado (panel derecho) puede hacer que el algoritmo no converja al mínimo

En general, el método del descenso del gradiente en las redes neuronales consiste en recorrer todo el conjunto de entrenamiento (normalmente varias veces), donde a cada bucle sobre todos los ejemplos se le llama un epoch. Los pesos se van actualizando a lo largo del entrenamiento, y dependiendo de cuándo y cómo se aplica esta actualización, tenemos distintas variantes del descenso del gradiente. Las resumimos a continuación:

  • Descenso del gradiente en batch. En esta modalidad del descenso del gradiente se actualizan los pesos tras completar cada epoch, es decir, cada vez que se ha recorrido todo el conjunto de entrenamiento. De esta manera, se toma la contribución de todos los ejemplos de entrenamiento sobre el gradiente de la función de pérdidas y se actualizan los pesos de manera que se minimice el error sobre todo el dataset. Esta técnica da resultados muy buenos cuando las funciones de pérdidas son convexas o relativamente suaves, puesto que converge directamente hacia el mínimo (local o absoluto). Sin embargo, tiene una gran desventaja, y es que para conjuntos de datos relativamente grandes (como suele ser el caso) es computacionalmente muy costoso. 
  • Descenso del gradiente estocástico. En esta variante, se van actualizando los pesos con cada ejemplo de entrenamiento. Una vez que se ha completado una epoch, es habitual reordenar aleatoriamente el conjunto de entrenamiento antes de volver a empezar el bucle, evitando así que un orden fijado pueda afectar al resultado. Esta técnica tiene la ventaja de que es computacionalmente muchísimo más ágil que la anterior. Sin embargo, como su nombre indica, la evolución de la función de costes se vuelve estocástica: en cada iteración se reduce el valor de la función de costes sobre el ejemplo en cuestión, pero es posible que la función de costes global empeore. Esta propiedad puede ser deseable cuando la función de pérdidas no es convexa, ya que nos permite salir de la cuenca de atracción de un mínimo local hacia otro mínimo local mejor, pero no asegura la convergencia hacia el mínimo ya que debido a su naturaleza estocástica tiende a oscilar.
  • Descenso del gradiente en minibatch. Esta variante combina lo mejor de las dos anteriores. En lugar de usar un solo ejemplo de entrenamiento o todos ellos, se usa un subconjunto de ejemplos de entrenamiento, llamado minibatch, para actualizar los pesos en cada iteración, hasta haber recorrido todo el dataset tras n=M/k iteraciones, donde M es el número de ejemplos de entrenamiento y k es el tamaño del minibatch. Al igual que en el ejemplo anterior, una vez que se han recorrido todos los ejemplos, se suelen reordenar para asegurar la aleatoriedad.  De esta manera, al tener una muestra más representativa del total que un solo ejemplo, la contribución promedio del minibatch suele hacer que la función de costes total tienda a reducirse en cada iteración, aunque la aleatoriedad deja hueco para una posible salida de un mínimo local sub-óptimo hacia un mínimo mejor. El tamaño del minibatch k es un hiperparámetro del modelo, y el balance ideal es que sea suficientemente pequeño para escapar de los mínimos sub-óptimos, pero suficientemente grande para converger en caso de encontrarse cerca del mínimo global, los cuales suelen tener cuencas de atracción más amplias y profundas.

Una vez escogida la modalidad del descenso del gradiente según las características de nuestro problema, solo nos falta saber calcular el gradiente de la función de pérdidas respecto de los pesos que aparece en la Ecuación 9.

Supongamos de momento que usamos el descenso del gradiente estocástico, y veremos más adelante cómo se generaliza a las demás variantes. Sea (x⃗, y) el ejemplo de entrenamiento en cuestión, y sea ŷ la predicción obtenida usando el vector de pesos actual ω⃗. Sabemos que la función de costes J(ŷ, y) depende del valor predicho ŷ, que a su vez depende de ω⃗, por lo que para calcular su gradiente respecto de los pesos, usamos la regla de la cadena:

El gradiente del valor predicho respecto de los pesos lo encontramos usando de nuevo la regla de la cadena sobre la Ecuación 2, de manera que

El gradiente del producto escalar respecto del vector de pesos es x⃗, por lo que, juntando las Ecuaciones 9, 10 y 11, la actualización de los pesos se convierte finalmente en la regla

Por ejemplo, en caso de usar la función de activación logística definida en la Ecuación 4 ecuación y la función de pérdidas cuadrática definida en la Ecuación 6, sus derivadas vienen dadas, respectivamente, por las Ecuaciones 5 y 7, por lo que la regla de actualización se convierte en

En el caso del descenso del gradiente en batch o minibatch, suele considerarse la función de pérdidas como la suma de los errores cometidos en las predicciones y(i) de todos los ejemplos de entrenamiento x(i)y(i) considerados en cada iteración (siendo, en el caso del descenso del gradiente en batch, el número total de ejemplos M, y en el caso del descenso del gradiente en minibatch, el tamaño del minibatch k):

La imagen tiene un atributo ALT vacío; su nombre de archivo es 14-4.png

La derivada del sumatorio es igual al sumatorio de las derivadas, por lo que la regla de actualización de los pesos se convierte en

para cada epoch k. En el caso de usar la función de pérdidas cuadrática y la función de activación logística como en el ejemplo anterior, tenemos finalmente la actualización de los pesos

Número de epochs y overfitting

Para terminar, vamos a hablar de cómo determinar otro hiperparámetro de toda red neuronal, que es el número de epochs que se deben realizar. De hecho, habitualmente no se fija este número, sino que se fija una regla de parada.

La idea es que el modelo debe ser capaz de aprender la estructura general de los datos de entrenamiento para poder realizar buenas predicciones, pero se debe evitar el overfitting (sobreajuste), es decir, aprender las características particulares de estos datos (tales como el ruido). De esta manera, se busca que el modelo sea generalizable a conjuntos de datos que no conoce.

Típicamente, un número de epochs demasiado bajo no será suficiente para que el modelo se ajuste a los datos de entrenamiento, mientras que un número muy grande se traducirá en un tiempo de entrenamiento inasumible y probablemente sobreajustará los datos.

Para determinar cuándo debemos parar el entrenamiento, es común usar el siguiente procedimiento. Cuando dividimos el conjunto de datos en entrenamiento y test, subdividimos a su vez el conjunto de entrenamiento y reservamos una parte como conjunto de validación. De esta manera, el modelo se entrena solamente con el resto del conjunto de entrenamiento, y se estudia cómo evoluciona la función de pérdidas (u otras métricas) tanto sobre este como sobre el conjunto de validación a lo largo del proceso de entrenamiento, habitualmente tras cada actualización de los pesos.

Como el modelo es entrenado con el objetivo de minimizar la función de costes sobre el conjunto de entrenamiento, observaremos en general que el resultado del modelo sobre este conjunto siempre mejora. Sin embargo, es habitual que a partir de cierto número de epochs el resultado empiece a empeorar sobre el conjunto de validación: en este momento sabremos que se está produciendo overfitting, y terminaremos el proceso de entrenamiento (a esto se le llama early stopping). Mientras no se produzca overfitting, podemos seguir con el entrenamiento hasta alcanzar una precisión determinada o un número máximo de epochs predeterminado.

De hecho, en el caso del perceptrón simple, el fenómeno del overfitting es raro, puesto que el modelo es muy simple y no es capaz de aprender características muy específicas de los datos, siendo más habitual en redes neuronales más complejas, como veremos en siguientes posts. Un caso canónico es el de la regresión polinómica: si elegimos un grado demasiado bajo, el modelo no será suficientemente complejo como para entender la distribución de los datos (a esto también se le llama underfitting), mientras que si el grado es demasiado alto, el modelo aprenderá las características específicas del conjunto de entrenamiento, incluyendo el ruido, y no será generalizable.
La Figura 4 muestra un ejemplo de underfitting y de overfitting en el caso de la regresión polinómica.

Figura 4. Diferentes resultados de regresión polinómica sobre un conjunto de datos. En el panel de la izquierda, vemos que cuando el grado es 1 el modelo es demasiado simple y no ajusta los datos. En el panel de la derecha, vemos que si el grado es 15 el modelo sobreajusta los datos, lo que hará que no se ajuste a nuevos datos que sigan la misma distribución. En el panel central, vemos que un polinomio de grado 4 ajusta bien los datos y además es generalizable

En términos de la complejidad del modelo, la Figura 5 muestra el balance entre tener un modelo demasiado simple o demasiado complejo. En el caso de redes neuronales, una vez fijados los hiperparámetros del modelo (y por tanto su complejidad), existe el mismo balance en el número de epochs que se realizan.

Si no se realizan suficientes epochs, el modelo no será capaz de aprender la estructura de los datos. En este caso, el error cometido, tanto sobre el conjunto de entrenamiento como sobre el de validación o test, es relativamente alto (todavía tiene margen de mejora).

Si, por el contrario, se sobreentrena el modelo (demasiadas epochs), el modelo cometerá cada vez un error menor sobre el conjunto de entrenamiento, pero perderá capacidad de generalización y dará peores resultados para conjuntos de datos con los que no se haya entrenado, como el de validación o el de test.

Figura 5. Balance entre la complejidad del modelo y la bondad de ajuste sobre el conjunto de validación/test. Lo mismo ocurre si colocamos en el eje X el número de epochs: en este caso, deberíamos parar el proceso de entrenamiento en el punto de “Best fit”

Conclusión

Como hemos visto, para un modelo tan sencillo como el perceptrón simple, existen muchas variantes, tales como la elección de la función de pérdidas y de la función de activación, o el criterio de parada. Por supuesto, como en todo proyecto de ciencia de datos, también es importante un buen preprocesado de los datos de entrada, incluyendo su limpieza y normalización. 

Te invitamos a seguir con nuestro siguiente post El Perceptrón Simple: Implementación en Python un ejemplo de implementación en Python de este algoritmo, donde estudiamos cómo pueden combinarse distintos perceptrones simples formando redes neuronales artificiales, con un proceso de aprendizaje similar al que hemos descrito aquí, pero más complejo.

Si te ha parecido útil este post, te animamos a ver más artículos como este en la categoría Algoritmos del Blog de Damavis y a compartirlo con tus contactos para que ellos también puedan leerlo y opinar. ¡Nos vemos en redes!
Gabriel Garau
Gabriel Garau
Artículos: 12