Del curso: C++: Construye redes neuronales

El perceptrón multicapa

Anota bien esto: un perceptrón representa la forma más simple de una red neuronal artificial y consta de una sola neurona; en cambio, el perceptrón multicapa constituye una red neuronal más compleja, con capacidad de abordar situaciones más entretenidas. Y para ponernos en contexto, vamos a repasar rápidamente el camino que hemos transitado en las últimas lecciones. En primer lugar, hemos hablado de las redes neuronales, un método, podríamos decir, que permite, en el campo de la inteligencia artificial, enseñar a las computadoras a procesar datos. Uno de los tipos de redes neuronales más extendido es la red neuronal de avance o red neuronal densa, donde la información siempre viaja en una sola dirección, y dentro de este tipo de redes encontramos el perceptrón multicapa, la red neuronal de avance más conocida. En un perceptrón multicapa, al tratarse de una red neuronal densa, la información viajará en el sentido que ya conocemos, de izquierda a derecha, y su arquitectura se conforma de tres partes claramente diferenciadas. Para empezar, la información accede a la red neuronal a través de la primera capa, la capa de entrada. Esta capa carece de neuronas y marca los patrones de entrada en la red. Se centra en recibir información y transmitirla a la siguiente capa o conjunto de capas. La capa de entrada es la única que no contiene neuronas. A continuación, encontramos una o varias capas ocultas. En este punto de la red, las neuronas que se encuentran en estas capas ocultas extraen patrones y características de los datos de entrada y realizan la mayor parte del procesamiento computacional necesario para el aprendizaje. Fíjate cómo todas las neuronas de la primera capa oculta recogen todos los datos provenientes de la capa de entrada. Asimismo, las neuronas de la segunda capa oculta también toman todas las salidas de la primera capa oculta, y así sucesivamente. Por otro lado, como su propio nombre indica, estas capas ocultas no están expuestas al mundo exterior y el único modo de modificar el comportamiento de la red es a través de la capa de entrada. Ahora probablemente entiendas mejor por qué, en ocasiones, las redes neuronales pueden ser consideradas como cajas negras. Estas capas ocultas son superinteresantes y consiguen capturar relaciones complejas en los datos, ya que cada capa intenta aprender en base a las salidas de la capa anterior. Por último, la información pasa a la capa de salida, a través de la cual se produce el resultado final del modelo; esta capa se conforma de tantas neuronas como salidas tiene la red.

Contenido