Desde una óptica conductista aprendizaje significa “cambios adaptativos en el sistema para que realice la misma tarea u otra de la misma clase, con mayor eficacia en la siguiente ocasión”; Se dice que un programa aprende de la experiencia E con respecto a una clase de tareas T y medida de rendimiento P si su rendimiento sobre tareas de T, medido por P, mejora con la experiencia E”. En términos aceptados, al interior del dominio de las redes neuronales artificiales, se considera que las características generales del aprendizaje son las siguientes: (1) Se dice que las células no son individualmente “inteligentes”. (2) La “inteligencia” reside en la estructura de la red neuronal. (3) El aprendizaje tiene lugar mediante la modificación de los pesos asociados a las neuronas. (4) La regla de aprendizaje señala la importancia del algoritmo de cambio de pesos con base en ejemplos. (5) Se dice que un ejemplo consiste en una entrada y su salida correcta.
El aprendizaje implica que el elemento de proceso cambia su comportamiento de entrada/salida en respuesta a un entorno. La salida se calcula como el resultado de una función de transferencia de la entrada ponderada. En el caso más simple se multiplica el elemento de cada entrada particular por su peso y se suma, o, lo que es lo mismo, se haya el producto escalar. El elemento de proceso toma este valor y aplica la función de transferencia para calcular la salida. Normalmente la función de transferencia se fija al construir el elemento y para cambiar la salida en un momento, hay que cambiar los pesos. Así las redes aprenden cambiando los pesos de las entradas. La ley de aprendizaje define precisamente cómo cambiar los pesos como respuesta a una entrada y salida dada. El aprendizaje puede ser supervisado o no. El aprendizaje supervisado significa que la red tiene alguna entrada aparte presente durante el aprendizaje para decirle cuál debería haber sido la respuesta correcta. Las redes entonces tienen un medio para determinar si su salida fue correcta o no, y saben como aplicar su ley de aprendizaje para ajustar sus pesos. El aprendizaje no supervisado significa que la red no tiene conocimiento de la respuesta correcta, y así no puede saber con exactitud la respuesta correcta.
El aprendizaje asociativo, como parte del aprendizaje no supervisado, fue inicialmente estudiado por escuelas de psicología, las cuales se dedicaron al análisis de las relaciones entre el comportamiento humano y el comportamiento animal. Una de las primeras influencias en este campo fue el experimento clásico de Pavlov, en el cual se entrenó a un perro para salivar al escuchar el sonido de una campana si le era presentado un plato de comida, este es un ejemplo del llamado “condicionamiento clásico”. Otro de los principales exponentes de esta escuela fue B.F. Skinner, su experimento involucró el entrenamiento de ratas, las cuales debían presionar un botón para obtener comida, a este tipo de entrenamiento se denomino “condicionamiento instrumental.” Basado en este tipo de comportamiento, Donald Hebb postuló el siguiente principio conocido como la regla de Hebb: “Cuando un axón de una celda A está lo suficientemente cerca de otra celda B como para excitarla y repetidamente ocasiona su activación, un cambio metabólico se presenta en una o ambas celdas, tal que la eficiencia de A, como celda excitadora de B, se incrementa”. Con el término celda, Hebb se refería a un conjunto de neuronas fuertemente conectadas a través de una estructura compleja, la eficiencia podría identificarse con la intensidad o magnitud de la conexión, es decir el peso. Según la regla de aprendizaje de Hebb, la actividad coincidente en las neuronas présináptica y postsináptica es crítica para fortalecer la conexión entre ellas, a esto se denomina mecanismo asociativo pre-post.
Las primeras aportaciones destacables, al estudio de las redes neuronales artificiales, provienen de la neurofisiología: Luria, Lashley y Hebb se enfrentaron a las doctrinas dominantes a finales del siglo XIX, doctrinas que defendían el carácter localista del almacenamiento y de las funciones del cerebro; frente a estas doctrinas defendieron una concepción distribuida de los sistemas de procesamiento y memoria del cerebro. De los tres autores citados es sin duda Donald Hebb el más importante en relación con el desarrollo del conexionismo, particularmente a partir de su libro titulado “La organización de la conducta”, publicado en 1949. Hebb defendió la conexión entre psicología y fisiología, propuso la tesis del carácter distribuido de la información en unidades informativas y formuló uno de los primeros procedimientos de aprendizaje: si un conjunto de neuronas conectadas entre sí se activan repetidamente, sus sinapsis aumentan su conductividad, o de otro modo: conjuntos de neuronas sincrónicamente activadas tienden a organizarse en conjuntos conectados.
Donald Olding Hebb (1904-1985) fue durante el curso de su vida, una figura extraordinariamente influyente para la psicología. Su oposición de principios al conductismo radical y el énfasis por entender qué ocurre entre el estímulo y la respuesta ayudaron a despejar el paso a la revolución cognitiva. Su perspectiva de la psicología como una ciencia biológica y su propuesta neuropsicológica de ensamblados celulares rejuvenecieron el interés por la psicología fisiológica. Desde su muerte, las ideas seminales de Hebb ejercen una influencia en continuo aumento en aquellos que están interesados en la ciencia cognitiva, neurociencia y cómo el cerebro pone en marcha a la mente. Para Hebb “el problema para comprender el comportamiento es el problema de comprender la acción total del sistema nervioso, y viceversa”, la defensa de un esfuerzo interdisciplinario para solucionar este problema neuropsicológico fue su asunto más general. Cuándo el libro de Hebb fue publicado, la psicología fisiológica estaba en declinación y había un movimiento creciente dentro de la psicología para rechazar los conceptos fisiológicos. Los estudios de Hebb marcaron un cambio de dirección de esta tendencia.
La alternativa atractivamente simple de Hebb fue explicar tanto el comportamiento humano y animal como el pensamiento en términos del dispositivo actual que los produce; en el libro mencionado, Hebb presentó justamente algo semejante a una teoría neuropsicológica, con tres postulados esenciales: (1) Las conexiones entre neuronas aumentan en eficacia, en proporción al grado de correlación entre la actividad pre y post sináptica. En palabras de Hebb: “Cuando un axón de la neurona A está lo suficientemente cerca de excitar a B y repetida o persistentemente toma parte en su activación, se produce algún proceso de crecimiento o de cambio metabólico en una o en ambas células tanto que el rendimiento de A como el de las células activadas B, son aumentadas”. En neurociencia, las sinapsis que se comportan según esta propuesta son conocidas como las “sinapsis de Hebb ", mientras que en ciencia cognitiva este postulado, a menudo llamado la “regla de Hebb”, la cual proporciona algoritmo de aprendizaje básico para ajustar las cargas de conexión en los modelos de redes neuronales artificiales. (2) La actividad de los grupos de neuronas que tienden a excitar en forma conjunta a células ensambladas puede persistir después del acontecimiento que desencadena y sirve a bosquejar. Esta propuesta, ilustrada por Hebb en forma esquemática, es considerada por algunos como la contribución conceptual más importante de Hebb. (3) El pensamiento es la activación secuencial de conjuntos de células ensambladas, que constituye el tercer postulados esencial de Hebb.
Hebb redujo los tipos de evidencia fisiológica en 2 categorías principales: (1) La existencia y propiedades de la actividad cerebral continua; (2) La naturaleza de la transmisión sináptica en el sistema nervioso central. Hebb combinó estos dos principios para desarrollar una teoría de cómo ocurre el aprendizaje dentro de un organismo. Propuso que estimulación repetida de receptores específicos lleva lentamente a la formación de “células ensambladas” lo cual puede actuar como un sistema cerrado después que la estimulación ha cesado. Esta actividad cerebral continua sirve solo como prolongación del tiempo para cambios estructurales que ocurren en el aprendizaje, sino también como la más simple instancia de un proceso representativo. El concepto más importante del trabajo de Hebb fue su declaración formal de cómo puede ocurrir el aprendizaje. El aprendizaje estaba basado en la modificación de las conexiones sinápticas entre neuronas. Específicamente: cuando un axón de la célula A está lo suficientemente cerca para excitar una célula B y repetida o persistentemente toma parte en activarla, algún proceso o cambio metabólico toma lugar en una o ambas células tal que la eficiencia de A, como una de las células que activa B, es incrementada. Los principios subyacentes a esta declaración han llegado a ser conocidos como aprendizaje Hebbiano y puede ser descrito como un mecanismo interactivo local, altamente interactivo, con un tiempo dependiente que incrementa la eficacia sináptica como una función de la actividad pre y post sináptica.
El aprendizaje implica que el elemento de proceso cambia su comportamiento de entrada/salida en respuesta a un entorno. La salida se calcula como el resultado de una función de transferencia de la entrada ponderada. En el caso más simple se multiplica el elemento de cada entrada particular por su peso y se suma, o, lo que es lo mismo, se haya el producto escalar. El elemento de proceso toma este valor y aplica la función de transferencia para calcular la salida. Normalmente la función de transferencia se fija al construir el elemento y para cambiar la salida en un momento, hay que cambiar los pesos. Así las redes aprenden cambiando los pesos de las entradas. La ley de aprendizaje define precisamente cómo cambiar los pesos como respuesta a una entrada y salida dada. El aprendizaje puede ser supervisado o no. El aprendizaje supervisado significa que la red tiene alguna entrada aparte presente durante el aprendizaje para decirle cuál debería haber sido la respuesta correcta. Las redes entonces tienen un medio para determinar si su salida fue correcta o no, y saben como aplicar su ley de aprendizaje para ajustar sus pesos. El aprendizaje no supervisado significa que la red no tiene conocimiento de la respuesta correcta, y así no puede saber con exactitud la respuesta correcta.
El aprendizaje asociativo, como parte del aprendizaje no supervisado, fue inicialmente estudiado por escuelas de psicología, las cuales se dedicaron al análisis de las relaciones entre el comportamiento humano y el comportamiento animal. Una de las primeras influencias en este campo fue el experimento clásico de Pavlov, en el cual se entrenó a un perro para salivar al escuchar el sonido de una campana si le era presentado un plato de comida, este es un ejemplo del llamado “condicionamiento clásico”. Otro de los principales exponentes de esta escuela fue B.F. Skinner, su experimento involucró el entrenamiento de ratas, las cuales debían presionar un botón para obtener comida, a este tipo de entrenamiento se denomino “condicionamiento instrumental.” Basado en este tipo de comportamiento, Donald Hebb postuló el siguiente principio conocido como la regla de Hebb: “Cuando un axón de una celda A está lo suficientemente cerca de otra celda B como para excitarla y repetidamente ocasiona su activación, un cambio metabólico se presenta en una o ambas celdas, tal que la eficiencia de A, como celda excitadora de B, se incrementa”. Con el término celda, Hebb se refería a un conjunto de neuronas fuertemente conectadas a través de una estructura compleja, la eficiencia podría identificarse con la intensidad o magnitud de la conexión, es decir el peso. Según la regla de aprendizaje de Hebb, la actividad coincidente en las neuronas présináptica y postsináptica es crítica para fortalecer la conexión entre ellas, a esto se denomina mecanismo asociativo pre-post.
Las primeras aportaciones destacables, al estudio de las redes neuronales artificiales, provienen de la neurofisiología: Luria, Lashley y Hebb se enfrentaron a las doctrinas dominantes a finales del siglo XIX, doctrinas que defendían el carácter localista del almacenamiento y de las funciones del cerebro; frente a estas doctrinas defendieron una concepción distribuida de los sistemas de procesamiento y memoria del cerebro. De los tres autores citados es sin duda Donald Hebb el más importante en relación con el desarrollo del conexionismo, particularmente a partir de su libro titulado “La organización de la conducta”, publicado en 1949. Hebb defendió la conexión entre psicología y fisiología, propuso la tesis del carácter distribuido de la información en unidades informativas y formuló uno de los primeros procedimientos de aprendizaje: si un conjunto de neuronas conectadas entre sí se activan repetidamente, sus sinapsis aumentan su conductividad, o de otro modo: conjuntos de neuronas sincrónicamente activadas tienden a organizarse en conjuntos conectados.
Donald Olding Hebb (1904-1985) fue durante el curso de su vida, una figura extraordinariamente influyente para la psicología. Su oposición de principios al conductismo radical y el énfasis por entender qué ocurre entre el estímulo y la respuesta ayudaron a despejar el paso a la revolución cognitiva. Su perspectiva de la psicología como una ciencia biológica y su propuesta neuropsicológica de ensamblados celulares rejuvenecieron el interés por la psicología fisiológica. Desde su muerte, las ideas seminales de Hebb ejercen una influencia en continuo aumento en aquellos que están interesados en la ciencia cognitiva, neurociencia y cómo el cerebro pone en marcha a la mente. Para Hebb “el problema para comprender el comportamiento es el problema de comprender la acción total del sistema nervioso, y viceversa”, la defensa de un esfuerzo interdisciplinario para solucionar este problema neuropsicológico fue su asunto más general. Cuándo el libro de Hebb fue publicado, la psicología fisiológica estaba en declinación y había un movimiento creciente dentro de la psicología para rechazar los conceptos fisiológicos. Los estudios de Hebb marcaron un cambio de dirección de esta tendencia.
La alternativa atractivamente simple de Hebb fue explicar tanto el comportamiento humano y animal como el pensamiento en términos del dispositivo actual que los produce; en el libro mencionado, Hebb presentó justamente algo semejante a una teoría neuropsicológica, con tres postulados esenciales: (1) Las conexiones entre neuronas aumentan en eficacia, en proporción al grado de correlación entre la actividad pre y post sináptica. En palabras de Hebb: “Cuando un axón de la neurona A está lo suficientemente cerca de excitar a B y repetida o persistentemente toma parte en su activación, se produce algún proceso de crecimiento o de cambio metabólico en una o en ambas células tanto que el rendimiento de A como el de las células activadas B, son aumentadas”. En neurociencia, las sinapsis que se comportan según esta propuesta son conocidas como las “sinapsis de Hebb ", mientras que en ciencia cognitiva este postulado, a menudo llamado la “regla de Hebb”, la cual proporciona algoritmo de aprendizaje básico para ajustar las cargas de conexión en los modelos de redes neuronales artificiales. (2) La actividad de los grupos de neuronas que tienden a excitar en forma conjunta a células ensambladas puede persistir después del acontecimiento que desencadena y sirve a bosquejar. Esta propuesta, ilustrada por Hebb en forma esquemática, es considerada por algunos como la contribución conceptual más importante de Hebb. (3) El pensamiento es la activación secuencial de conjuntos de células ensambladas, que constituye el tercer postulados esencial de Hebb.
Hebb redujo los tipos de evidencia fisiológica en 2 categorías principales: (1) La existencia y propiedades de la actividad cerebral continua; (2) La naturaleza de la transmisión sináptica en el sistema nervioso central. Hebb combinó estos dos principios para desarrollar una teoría de cómo ocurre el aprendizaje dentro de un organismo. Propuso que estimulación repetida de receptores específicos lleva lentamente a la formación de “células ensambladas” lo cual puede actuar como un sistema cerrado después que la estimulación ha cesado. Esta actividad cerebral continua sirve solo como prolongación del tiempo para cambios estructurales que ocurren en el aprendizaje, sino también como la más simple instancia de un proceso representativo. El concepto más importante del trabajo de Hebb fue su declaración formal de cómo puede ocurrir el aprendizaje. El aprendizaje estaba basado en la modificación de las conexiones sinápticas entre neuronas. Específicamente: cuando un axón de la célula A está lo suficientemente cerca para excitar una célula B y repetida o persistentemente toma parte en activarla, algún proceso o cambio metabólico toma lugar en una o ambas células tal que la eficiencia de A, como una de las células que activa B, es incrementada. Los principios subyacentes a esta declaración han llegado a ser conocidos como aprendizaje Hebbiano y puede ser descrito como un mecanismo interactivo local, altamente interactivo, con un tiempo dependiente que incrementa la eficacia sináptica como una función de la actividad pre y post sináptica.
No hay comentarios:
Publicar un comentario