4.2.2. Clasificación.

Clasificación de redes neuronales según la topología de red

Red neuronal Monocapa – Perceptrón simple

La red neuronal monocapa se corresponde con la red neuronal más simple, está compuesta por una capa de neuronas que proyectan las entradas a una capa de neuronas de salida donde se realizan los diferentes cálculos.

perceptron monocapa

Red neuronal Multicapa – Perceptrón multicapa

La red neuronal multicapa es una generalización de la red neuronal monocapa, la diferencia reside en que mientras la red neuronal monocapa está compuesta por una capa de neuronas de entrada y una capa de neuronas de salida, esta dispone de un conjunto de capas intermedias (capas ocultas) entre la capa de entrada y la de salida.

Dependiendo del número de conexiones que presente la red esta puede estar total o parcialmente conectada.

Perceptron multicapa

Perceptrón multicapa

Red neuronal Convolucional (CNN)

La principal diferencia de la red neuronal convolucional con el perceptrón multicapa viene en que cada neurona no se une con todas y cada una de las capas siguientes sino que solo con un subgrupo de ellas (se especializa), con esto se consigue reducir el número de neuronas necesarias y la complejidad computacional necesaria para su ejecución.

Red neuronal convolucional

Red neuronal convolucional

 

Red neuronal recurrente (RNN)

Las redes neuronales recurrentes no tienen una estructura de capas, sino que permiten conexiones arbitrarias entre las neuronas, incluso pudiendo crear ciclos, con esto se consigue crear la temporalidad, permitiendo que la red tenga memoria.

Los datos introducidos en el momento t en la entrada, son transformados y van circulando por la red incluso en los instantes de tiempo siguientes t + 1, t + 2, …

Red Neuronal Recurrente

Red Neuronal Recurrente

 

Redes de base radial (RBF)

Las redes de base radial calculan la salida de la función en función de la distancia a un punto denominado centro. La salida es una combinación lineal de las funciones de activación radiales utilizadas por las neuronas individuales.

Las redes de base radial tienen la ventaja de que no presentan mínimos locales donde la retro propagación pueda quedarse bloqueada.

Redes de base radial

Redes de base radial

 

 

Clasificación de redes según el método de aprendizaje

Aprendizaje supervisado

Se caracteriza porque el proceso de aprendizaje se realiza mediante un entrenamiento controlado por un supervisor que determina la respuesta que que se debe generar para cada entrada.
El supervisor controla la salida y si esta no es correcta, modifica los pesos de las conexiones, con el fin de que la salida obtenida se aproxime a la deseada.
A su vez el aprendizaje supervisado se puede subdividir en:

Aprendizaje por corrección de error.

Ajusta los pesos de las conexiones de la red en función del error cometido, es decir la diferencia entre los valores esperados y los obtenidos.
Ejemplos de algoritmos:
  • Perceptrón
  • Delta o Mínimo error cuadrado (LMS Error: Least Mean Squared)
  • Backpropagation o Programación hacia atrás (LMS multicapa)

Aprendizaje estocástico

Realiza cambios aleatorios sobre los pesos va calculando se la predicción va mejorando o empeorando con cada uno de los cambios, quedándose evidentemente con los cambios que mejoren los resultados.

Aprendizaje no supervisado o auto supervisado

Se caracteriza porque no requieren influencia externa para ajustar los pesos.

Este tipo de aprendizaje busca encontrar las características, regularidades, correlaciones o categorías que se puedan establecer entre los datos que se presenten como entrada.
La interpretación de sus datos depende de su estructura y del algoritmo de aprendizaje empleado.
La salida podía representar el grado de similitud entre los datos, un clustering o establecimiento de categorías.
A su vez el aprendizaje no supervisado se puede subdividir en:

Aprendizaje hebbiano

Permite medir la familiaridad o extraer las características de los datos de entrada.

Aprendizaje competitivo y comparativo

Permite realizar clasificaciones de los datos de entrada.
La forma de actuación consiste en ir añadiendo elementos a una clase, si este nuevo elemento se determina que es de esta clase matiza los pesos, en caso contrario se puede crear una nueva clase con el elemento asociando a una serie de pesos propios.

Aprendizaje por refuerzo

Se considera un aprendizaje más lento que el aprendizaje por corrección de errores, en este caso no se dispone de un conjunto completo de los datos exactos de salida sino que se le indica solamente si el dato es aceptable o no, con esto el algoritmo ajusta los pesos basándose en un mecanismo de probabilidades.

Video:

                     

Comentarios