viernes, 17 de diciembre de 2010

Neuromodelado

Las redes neuronales tienen su origen en la emulación de un sistema biológico: el sistema nervioso, cuyo elemento fundamental es la neurona. De hecho, el desarrollo de las redes neuronales avanza a la par con la neurobiología. Cada célula nerviosa o neurona consta de una porción central o cuerpo celular, que contiene el núcleo y una o más estructuras denominadas axones y dendritas. Las neuronas tienen la capacidad de comunicarse, el proceso que se lleva a cabo es el siguiente: la señal nerviosa se recibe en las dendritas de las neuronas y recorre el axón. El axón mantiene un equilibrio químico caracterizado por el aumento de la concentración de iones de potasio en su interior y sodio en el exterior. Cuando se transmite una señal, la vaina de mielina que envuelve el axón permite el paso de los distintos iones. Los iones sodio y potasio cambian de sitio y generan así una señal eléctrica que se desplaza a lo largo de la membrana. El espacio entre dos neuronas se llama sinapsis. Cuando el impulso llega a una sinapsis, unas vesículas descargan unos neurotransmisores químicos que llevan impulsos nerviosos hasta la neurona siguiente y así sucesivamente, conformando una amplia red de comunicaciones.

Una neurored artificial es un sistema compuesto de muchos elementos procesadores simples conectados en paralelo, cuya función es determinada por la estructura de la red, la fuerza en las conexiones y el procesamiento realizado por los elementos en los nodos. De esta manera, constituye un potente instrumento para el análisis de comportamientos no lineales. Cada neurona realiza una función matemática. Las neuronas se agrupan en capas constituyendo la red neuronal. Una determinada neurored está confeccionada y entrenada para llevar a cabo una labor específica. Finalmente, una o varias redes, más la interface con el entorno, integran el sistema neuronal artificial. Las neuronas envían señales de entradas a manera de pesos sinápticos en las conexiones de la neurona. Cada peso sináptico multiplica a su entrada correspondiente y así define la importancia relativa de cada entrada. Todas las entradas se suman y así, los pesos definen la intensidad de la conexión. En la práctica, los pesos se determinan a partir de una descripción completa de la problemática a tratar y pueden ser fijos o variables. Las que tienen pesos variables emplean leyes de aprendizaje para ajustar el valor de la fuerza de interconexión con otras neuronas. En cambio, en las que utilizan pesos fijos, éstos deben estar previamente definidos. Entre las neuronas que componen la red existe un conjunto de conexiones que las vinculan, de manera que cada neurona transmite señales a aquellas que están conectadas con su salida. Asociada a cada unidad existe una función de salida que transforma el estado actual de activación en una señal de salida de manera matemática.

Pero una neurona no es simplemente un transmisor de información. Esta célula recibe dicha información, mediante neurotransmisores – señal química, de otras neuronas, la procesa internamente y envía el resultado a las siguientes neuronas a las que está conectada. El procesamiento que realiza la neurona consiste básicamente en medir la cantidad de información que ha recibido y responder de acuerdo con esto. Puede entonces establecerse una analogía entre la actividad sináptica y las redes neuronales artificiales: las señales que llegan a la sinapsis son las entradas a la neurona; éstas son ponderadas, atenuadas o simplificadas, a través de un parámetro, denominado peso asociado a la sinapsis correspondiente. Estas señales de entrada pueden activar a la neurona, sinapsis con peso positivo, o inhibirla, con peso negativo. El efecto total corresponde a la suma de las entradas ponderadas. Las neuronas tienen un umbral de activación que es la cantidad de “entrada” necesario para activar la neurona, así, si la suma es igual o mayor que el umbral de la neurona, entonces ésta se activa, de lo contrario, no se activa. Esta es una situación de todo o nada; cada neurona se activa o no se activa, pero no hay una respuesta intermedia. La facilidad de transmisión de señales se altera mediante la actividad del sistema nervioso. Las sinapsis son susceptibles a la fatiga, deficiencia de oxígeno y la presencia de anestésicos. Esta habilidad de ajustar señales es un mecanismo de aprendizaje.

Un aspecto importante respecto al aprendizaje de las neuroredes artificiales es conocer cómo se modifican estos valores; es decir, cuáles son los criterios seguidos para cambiar los valores asignados a las conexiones cuando se pretende que una red asimile una nueva información. Estos criterios determinan lo que se conoce como regla de aprendizaje. El aprendizaje puede dividirse en dos tipos: (1) Supervisado. Se asigna a la red una entrada y una salida esperada y la misma debe ajustar sus pesos para disminuir los residuos. (2) No supervisado. A la red se le proporcionan únicamente los estímulos y ella ajusta los pesos de sus interconexiones utilizando solamente los estímulos y la salida calculada. Dependiendo de la estructura de la neurored existen diferentes topologías de conexión: Perceptrón, Backpropagation, Hopfield, Kohonen, etc. El usuario debe seleccionar la más apropiada en función del problema a resolver.

La utilización de modelos conexionistas o neurosistemas artificiales, se encuentra justificado en problemas donde se pueda aprovechar su potencial para el análisis no lineal de la información. Su función como memoria asociativa distribuida como forma de evitar las dificultades en la adquisición de conocimiento experto y tolerancia al ruido. Se vincula a la arquitectura inherentemente paralela, y a la adaptabilidad para acomodarse a nuevas manifestaciones de carácter aleatorio.

Las principales características que motivan la utilización de neurosistemas artificiales se sustentan en los siguientes considerandos: (1) Facilidad para el tratamiento no lineal de la información, proporcionado por la interconexión de elementos simples de proceso no lineal. Una neurona es un elemento no lineal, por lo que una interconexión de ellas necesariamente será un dispositivo no lineal. (2) Capacidad de establecer relaciones entrada-salida, a través de procesos de aprendizaje. (3) Aprendizaje adaptativo, que permite llevar a cabo ciertas tareas mediante un entrenamiento con ejemplos ilustrativos. (4) No es necesario especificar funciones de distribución de probabilidad. (5) Robustez y tolerancia a fallas, dado que el almacenamiento de la información aprendida se realiza de manera distribuida en las conexiones. Una neurored, al ser un sistema distribuido, permite el fallo de algunos elementos individuales sin alterar significativamente la respuesta total del sistema. Este hecho, las hace especialmente atractivas frente a los métodos de computación secuencial. (6) Uniformidad de análisis y diseño, proporcionado por teorías conjuntas que describen los diferentes algoritmos y aplicaciones. Como ventaja adicional, los neurosistemas artificiales ocupan un lugar intermedio entre las técnicas estadísticas paramétricas y no paramétricas, es decir que actúan como técnicas semiparamétricas. En consecuencia a lo mencionado, las redes neuronales son capaces de captar los matices que se escapan a los métodos estadísticos más simples. En efecto, hay evidencias de los buenos resultados proporcionados en tareas bien definidas donde las interacciones entre las covariables del problema son significativas.

Para el cierre se presenta el neuromodelado de una red neuronal artificial que cuenta con los siguientes pasos: (1) Selección de la arquitectura de la red. Se refiere al número más conveniente de capas ocultas, número de neuronas y la conectividad entre ellas. Según Kolgomorov, una única capa oculta con un mínimo número de neuronas permite identificar cualquier función continua. Sin embargo otros autores, tales como Hertz recomiendan la utilización de dos capas ocultas, como mínimo, para alcanzar determinado nivel de precisión. (2) Funciones de activación Si bien la función de activación más utilizada es la sigmoidal, en algunos casos es más conveniente la tangente hiperbólica o la función lineal. Se ha comprobado la conveniencia de utilizar una u otras, o aún una combinación de ellas, según sea el grado de no linealidad de la función representada. (3) Definición de pesos iniciales Tradicionalmente, se asignan valores aleatorios a los pesos de una red para iniciar el proceso de entrenamiento, aunque son numerosos los autores que han demostrado su inconveniencia. En efecto, iniciar el proceso de entrenamiento con valores aleatorios en los pesos puede conducir a una situación en la que numerosas neuronas contribuyan muy poco al desempeño de la red, y su actualización durante el proceso de entrenamiento sea inútil. Más aún, esta asignación no permite asegurar que se dispondrá de un número suficiente de unidades para representar una función en todo su dominio de utilización.(4) Proceso de entrenamiento Es indudable que el método de Backpropagation presentado por Rumelhart se convirtió en un clásico, al estimular una verdadera revolución en el campo de las redes neuronales. Sin embargo, es necesario destacar que este algoritmo presenta puntos débiles muy importantes, como son una muy lenta convergencia y la posibilidad de quedar atrapado en los mínimos locales de la función error. Para superar estas dificultades se han propuesto diversas variantes, como son el método Rprop, BPVS y ABP o el denominado Quasi-Newton, que conduce a procesos de entrenamiento más rápidos y seguros.
Guillermo Choque Aspiazu
http://www.eldiario.net/
Diciembre 6 de 2010

No hay comentarios: