viernes, 25 de septiembre de 2009

Algoritmo genético paralelo

Los algoritmos genéticos son métodos adaptativos que pueden usarse para resolver problemas de búsqueda y optimización, basados en el proceso genético de los organismos vivos. A lo largo de las generaciones, las poblaciones evolucionan en la naturaleza de acorde con los principios de la selección natural y la supervivencia de los más aptos, postulados por Charles Darwin. Por imitación de este proceso, los algoritmos genéticos son capaces de ir creando soluciones para problemas del mundo real. La evolución de dichas soluciones hacia valores óptimos del problema depende en buena medida de una adecuada codificación de las mismas. Un algoritmo genético consiste en una función matemática que toma como entradas a los ejemplares y retorna como salidas cuáles de ellos deben generar descendencia para la nueva generación. Son tres operadores básicos los que dirigen la búsqueda en estos algoritmos. La función de selección predispone la búsqueda hacia soluciones prometedoras. La calidad de cada individuo viene dada por la función de adaptabilidad, que será específica al problema a resolver. Las funciones de apareamiento y mutación introducen variaciones al realizar combinaciones en el conjunto actual de soluciones prometedoras.

Un algoritmo genético desarrolla una población de soluciones potenciales con vistas a resolver un problema dado. La primera población de soluciones se genera aleatoriamente. Se usa una medida de la calidad de las soluciones, expresada de forma usual en forma de una o varias funciones, para seleccionar las mejores soluciones de la población actual. Las soluciones seleccionadas pasan por los operadores de apareamiento y mutación para crear una población de nuevas soluciones. El proceso se repite hasta que se cumplan los criterios de finalización especificados por el usuario. Los algoritmos prosiguen discriminando de forma repetida la búsqueda de regiones de una mayor calidad, y combinando trozos prometedores de soluciones para formar combinaciones nuevas. De esta forma, los problemas que son descomponibles en problemas de dificultad definida se resuelven de manera eficiente, en tiempos cuadráticos o sub-cuadráticos. Muchos problemas difíciles pueden afrontarse en tiempo sub-cuadrático con respecto al número de variables. Sin embargo, para problemas muy grandes, incluso un tiempo sub-cuadrático puede llevar a enormes requisitos computacionales. Para resolver estos problemas de manera eficiente, se ha realizado un gran esfuerzo de investigación que ha llevado al estudio de la paralelización de algoritmos genéticos.

Estudios recientes han demostrado que la paralelización puede mejorar significativamente el rendimiento de los algoritmos genéticos. Muchos operadores de búsqueda pueden ser distribuidos fácilmente, y obtenerse así grandes incrementos de velocidad en problemas difíciles. Los algoritmos genéticos paralelos pueden clasificarse en dos grandes clases. La primera clase es denominada algoritmos genéticos en paralelo maestro-esclavo, estos se encargan de distribuir las funciones de adaptabilidad entre los procesadores esclavos. La información la recolecta el procesador maestro, que procesa la población de soluciones candidatas, aplicando operadores de selección, apareamiento y mutación. Posteriormente envía las nuevas soluciones a sus esclavos para que sean evaluadas. La segunda clase son los algoritmos genéticos en paralelo de grano fino y de grano grueso, donde la población se distribuye entre un número dado de procesadores. Cada procesador procesa su sub-población. Se permite que las sub-poblaciones se comuniquen entre sí e intercambien soluciones en algunos intervalos. Pueden usarse varias topologías de conexión y patrones de comunicación. Los algoritmos genéticos de grano fino dividen la población en pequeñas sub-poblaciones que contienen sólo una o dos soluciones que están conectadas en topología de rejillas bidimensionales. Los individuos se comunican únicamente con su vecindario. El propósito original de los algoritmos genéticos de grano fino era usar un gran número de pequeños procesadores, donde cada procesador procesaría una única solución. En cambio en los algoritmos genéticos de grano grueso, las sub-poblaciones son más grandes y la comunicación se reduce al intercambio de soluciones sólo de vez en cuando o después de que los algoritmos hayan convergido. Varias topologías comunes para la comunicación incluyen anillos, rejillas, hipercubos, grafos fuertemente conexos y grafos aleatorios con un número fijo de enlaces para cada elemento de proceso.

Cada una de las paralelizaciones puede representar una mejora significativa para algunos problemas. Si la función de adaptabilidad se lleva la mayoría de recursos computacionales, los algoritmos genéticos en paralelo maestro-esclavo suelen dar buenos resultados. Sin embargo, cuando la función de evaluación no requiere un tiempo significativamente mayor que los otros operadores, los algoritmos genéticos de grano fino o grueso pueden mejorar aún más el rendimiento. Como se ha mencionado antes, los algoritmos genéticos de grano fino fueron diseñados originalmente para ejecutarse en máquinas con un gran número de pequeños procesadores conectados en topología de rejilla. Mientras la optimización se realiza, uno podría esperar que soluciones parciales de gran calidad se propaguen de un sitio a otro de la rejilla en un proceso parecido a la difusión. Este comportamiento es interesante en si mismo, y puede eliminar problemas de convergencia prematura, y puede también mejorar la ejecución del algoritmo en máquinas monoprocesador.

Un programa es paralelo si en cualquier momento de su ejecución puede realizar más de un proceso. Para crear programas paralelos eficientes se debe crear, destruir y especificar procesos así como la interacción entre ellos. Básicamente existen tres formas de paralelizar un programa: (1) Paralelización de grano fino. La paralelización del programa se realiza a nivel de instrucción. Cada procesador hace una parte de cada paso del algoritmo, selección, apareamiento y mutación, sobre la población común. (2) Paralelización de grano medio. Los programas se paralelizan a nivel de bucle. Esta paralelización se realiza habitualmente de un modo automático en los compiladores. (3) Paralelización de grano grueso. Se basa en la descomposición del dominio de datos entre los procesadores, siendo cada uno de ellos el responsable de realizar los cálculos sobre sus datos locales. La computación paralela se ha convertido en una parte fundamental en todas las áreas de cálculo científico, ya que permite la mejora del rendimiento simplemente con la utilización de un mayor número de procesadores, memorias y la inclusión de elementos de comunicación que permitan a los procesadores trabajar conjuntamente para resolver un determinado problema.

Se puede decir que los algoritmos genéticos tienen una estructura que se adapta perfectamente a la paralelización. De hecho la evolución natural es en sí un proceso paralelo ya que evoluciona utilizando varios individuos. Los principales métodos de paralelización de los algoritmos genéticos consisten en la división de la población en varias sub-poblaciones. El tamaño y distribución de la población entre los distintos procesadores constituye uno de los factores fundamentales a la hora de paralelizar el algoritmo. Existen varias formas de paralelizar un algoritmo genético. La primera y más intuitiva es la global, que consiste básicamente en paralelizar la evaluación de los individuos manteniendo una población. Otra forma de paralelización global consiste en realizar una ejecución de distintos algoritmos genéticos secuenciales simultáneamente, siendo que estas dos formas de paralelización no cambian la estructura del algoritmo utilizado. El resto de aproximaciones sí cambian la estructura del algoritmo y dividen la población en sub-poblaciones que evolucionan por separado e intercambian individuos cada cierto número de generaciones. Si las poblaciones son pocas y grandes, se tiene la paralelización de grano grueso. Si el número de poblaciones es grande y con pocos individuos en cada población se tiene la paralelización de grano fino. Por último, existen algoritmos que mezclan propiedades de estos dos últimos y que se denominan mixtos.

Además de conseguir tiempos de ejecución bastante pequeños, al paralelizar un algoritmo genético se está modificando el comportamiento algorítmico, y esto hace que se pueda obtener otras soluciones y experimentar con las distintas posibilidades de implementación y los distintos factores que influyen en ella. Estas poblaciones van evolucionando por separado para detenerse en un momento determinado e intercambiar los mejores individuos entre ellas. Técnicamente existen tres características importantes que influyen en la eficiencia de un algoritmo genético paralelo: (1) La topología que define la comunicación entre sub-poblaciones. (2) La proporción de intercambio, referida al número de individuos a intercambiar. (3) Los intervalos de migración, que se refiera a la periodicidad con que se intercambian los individuos.

Guillermo Choque Aspiazu
http://www.eldiario.net/
Junio 29 de 2009

viernes, 18 de septiembre de 2009

Identidad con biometría neuronal

La identidad de una persona se puede determinar utilizando tres métodos, según las características que se solicite a la persona: (1) Información, por ejemplo, una clave, una frase de salvoconducto, etc. (2) Posesión, por ejemplo, una llave, un certificado digital, una tarjeta inteligente, etc. (3) Identidad, por ejemplo, la voz, una huella dactilar, la firma manuscrita, el iris, etc. Estos métodos pueden combinarse según las necesidades de seguridad de los servicios que requieran la verificación de identidad de una persona. La biometría es la ciencia que se dedica a la identificación de individuos a partir de una característica anatómica o un rasgo de su comportamiento. Desde hace muchos años, y dada la importancia que tiene en la sociedad la tecnología, se están desarrollando multitud de aplicaciones informáticas para la biometría, con lo que se puede hablar de "biometría informática". La "biometría informática" es la aplicación de técnicas biométricas para la autentificación e identificación automática de personas en sistemas de seguridad informática. Las técnicas biométricas se basan en medir al usuario directa o indirectamente para reconocerlo automáticamente aplicando técnicas estadísticas y de inteligencia artificial. Entre las técnicas de inteligencia artificial resaltan: las redes neuronales artificiales, la lógica difusa, los algoritmos genéticos, etc.

Una red neuronal artificial es un procesador distribuido en paralelo de forma masiva que tiene una tendencia natural para almacenar conocimiento de forma experimental y lo hace disponible para su uso. Una red neuronal artificial simula una red neuronal biológica, en la que cada nodo o unidad de procesamiento, se corresponde con una neurona y tiene como función recibir varios impulsos, procesarlos y transmitir un resultado a otro u otros nodos. La implementación de las redes neuronales artificiales como modelo matemático para las redes neuronales biológicas fue desarrollada por McCulloch y Pitts en el año 1943. Sin embargo, como entidad matemática, ellas tienen un interés intrínseco y su importancia y aplicación se ha extendido más allá de lo originalmente imaginado. Para la tarea de reconocimiento de patrones, tal como la identidad de una persona, existe un número fijo de categorías en las cuales las muestras de entrada deben clasificarse. Para ello primero se requiere una fase de entrenamiento en la que se presenta a la red los patrones que debe aprender y la categoría en cual clasificarlo. Entonces se le presenta a la red un patrón nuevo y desconocido pero que pertenece a alguna de las categorías aprendidas y esta debe decidir a qué categoría se parece más. La ventaja de usar redes neuronales está en el hecho que se pueden separar regiones no lineales de decisión tan complicadas como se desee dependiendo del número de neuronas y capas. Por lo tanto, las redes neuronales artificiales sirven para resolver problemas de reconocimiento y clasificación de alta complejidad.

La biometría consiste en la aplicación de técnicas matemáticas y estadísticas para el estudio de las ciencias biológicas, como la medicina, la biología, etc. Recientemente, el término biometría se ha asociado a un área tecnológica que emplea muestras biológicas, tales como la imagen del iris, la huella dactilar o la imagen del rostro, para la identificación de las personas. Se utiliza el término biometría para describir la aplicación de las técnicas utilizadas para el reconocimiento e identificación automática de las personas. La biometría consiste en la medición directa o indirecta de características de un usuario para identificarlo de manera automática, mediante el empleo de técnicas estadísticas, tales como el reconocimiento de patrones de señal, comparación, etc., o de técnicas de inteligencia artificial, tales como las redes neuronales, la lógica difusa, los algoritmos genéticos y otros. Los datos biométricos del usuario son capturados durante la fase de registro, procesados para extraer información característica, normalmente un patrón biométrico, y guardados en un dispositivo de almacenamiento como una tarjeta inteligente o una base de datos. Durante la explotación y uso del sistema, el usuario presentará de nuevo su rasgo biométrico al sistema que lo comparará con el que se obtuvo en la fase de registro.

Es necesario indicar que la identificación biométrica no se basa en la comparación exacta de dos imágenes, sino que consiste en la comparación de elementos característicos propios de las muestras, y codificados digitalmente, que se denomina “patrón biométrico”: cuando se dispone de dos muestras, la originalmente registrada y la presentada en el momento de la identificación, y las características coinciden superando un umbral establecido por cada técnica, entonces se puede afirmar con determinada certeza que las muestras coinciden. La eficiencia y la fiabilidad de los sensores y técnicas biométricas se reflejan en dos parámetros característicos. (1) Tasa de autorización errónea., es decir, la probabilidad de que un usuario no autorizado sea aceptado. Este parámetro deberá ajustarse para evitar el fraude en los sistemas biométricos. (2) Tasa de rechazo erróneo, es decir, la probabilidad de que un usuario que está autorizado sea rechazado a la hora de intentar acceder al sistema. Este parámetro debe ajustarse para mejorar la experiencia de uso de los sistemas. Si los usuarios son rechazados erróneamente con gran frecuencia, parecerá que el sistema no funciona correctamente.

Un sistema biométrico en particular es aquel que utiliza la huella dactilar. Esta huella representa un patrón único de identificación entre las personas, aún entre gemelos. Este patrón conserva la misma forma desde la formación del feto hasta la muerte de la persona. Estas características representan un medio bastante robusto y confiable para un sistema de seguridad. Con el incremento de cálculo de las computadoras se han ido desarrollando sistemas automatizados para realizar la clasificación e identificación de huellas dactilares. Básicamente los sistemas biométricos basados en huellas dactilares son de dos tipos: (1) Sistema de Autentificación Automático de Huellas Dactilares y (2) Sistema de Identificación Automático de Huellas Dactilares. En un sistema de autentificación la entrada es la identidad y la imagen de la huella dactilar de una persona; la salida es una respuesta positiva o negativa acerca de si la imagen de entrada pertenece a la persona cuya identidad es indagada. En un sistema de identificación la entrada es solo la imagen de la huella dactilar y la salida es una lista de identidades de personas que pueden tener la huella dada, además de una puntuación de cada identidad indicando el grado de similitud entre ésta y la huella dada. Una vez procesados estos datos, la huella no se almacena sino que sólo queda el patrón dactilar con la información necesaria. El patrón dactilar garantiza también que la huella en sí no puede ser reconstruida a partir del mismo. Este es el método biométrico actualmente más conocido, extendido y aceptado. Su despliegue requiere un costo bajo, y sus sensores logran buenos valores de autorización y rechazo erróneo, a pesar de que también es el que sufre una mayor ingeniería del fraude.

Son múltiples los servicios que se pueden derivar de la utilización e integración de las técnicas biométricas en las redes de comunicaciones y, más en concreto, en el proceso de identificación de usuarios. Se pueden distinguir entre los servicios de acceso físico, donde se requiere la presencia física del usuario a la hora de realizar el proceso de verificación o identificación biométrica, o los servicios de acceso lógico, donde este proceso se realiza de forma remota, generalmente a través de una computadora personal o un dispositivo móvil. Además, se puede establecer otra categoría en función de si los procesos son atendidos o desatendidos, es decir, si existe la presencia de personal de control a la hora de verificar las acciones del usuario o si, por el contrario, todo el proceso se automatiza y se confía plenamente en la infraestructura informática y de control dispuesta a tal efecto. Entre los accesos físicos se pueden encontrar los siguientes servicios: (1) Acceso a infraestructuras y edificios. Se basa en un servicio de seguridad, ya conocido, de proteger las zonas sensibles de edificios con sensores biométricos que únicamente permiten el paso a las personas que se identifiquen ante él. Integrado en un sistema informático, con una red local de empresa, se puede controlar fácilmente el acceso proporcionando un alto nivel de seguridad. Los ejemplos típicos son las cámaras de vídeo que requieren la cara del visitante o pomos con sensor para introducir la huella del mismo. (2) Control aeroportuario y de fronteras. Con el fin de agilizar procesos de embarque y de elevar el nivel de seguridad a la hora de verificar las identidades de los viajeros, es posible incorporar elementos biométricos en los pasaportes para su rápida lectura con máquinas especiales que puedan conectarse a bases de datos de viajeros o de la Policía en el caso de fronteras y registros aduaneros.

Guillermo Choque Aspiazu
www.eldiario.net
Junio 22 de 2009

viernes, 11 de septiembre de 2009

Lógica intuicionista

Las matemáticas difieren de las demás ciencias en que todas sus proposiciones deben ser demostradas. Cuál deba ser el contenido o la extensión de estas demostraciones es discutible, pero todos los matemáticos estarán de acuerdo en decir que el objetivo de la matemática es la demostración. Las únicas vías para cuestionar una demostración son: (1) discutir las presunciones sobre las que se basa o (2) discutir la validez de las inferencias que contiene. Si, después de reflexionar sobre ello, se aceptan las presunciones y las inferencias, se debe aceptar la demostración y afirmar que su conclusión es una verdad matemática: un teorema. La mayoría de las demostraciones matemáticas tienen como presunciones otros teoremas ya demostrados con anterioridad; pero si se insiste en discutir las presunciones, se llegará hasta determinados conceptos que simplemente se aceptan como verdaderos sin otra demostración.

Ello significa que, las matemáticas precisan de unos fundamentos: unas presunciones últimas sobre los que se edifican todas las demostraciones y conceptos matemáticos. El problema es, pues, si puede encontrarse un número reducido de conceptos básicos claros y de principios verdaderos, sobre los que desarrollar de forma sistemática todas las matemáticas. Las matemáticas, históricamente, se encontraban basadas en unas cuantas intuiciones geométricas y numéricas que podían ser imaginadas, pero no podían ser rigurosamente definidas, tales como el proceso de conteo o los postulados de Euclides. Durante el siglo diecinueve, los matemáticos, no sólo fueron exigiendo un mayor rigor en las definiciones, sino que, además, empezaron a desarrollar nuevos sistemas basados en principios que podían llegar a ser muy distintos a las intuiciones aceptadas desde los griegos: geometrías no euclídeas, teoría sobre los números reales, conceptos de cuerpo, anillo, grupo, etc. Paradójicamente, al separarse de estas intuiciones primitivas, los matemáticos se dieron cuenta de que sus nuevas teorías, más abstractas, podían ser aplicadas a un mayor número de campos.

En filosofía de las matemáticas, intuicionismo o neointuicionismo, es una aproximación a las matemáticas a partir de una vista mental constructiva humana. Todo objeto matemático es considerado producto de la mente humana, y, por ende, la existencia de un objeto es equivalente a la posibilidad de su construcción. Esto contrasta con el enfoque clásico, que formula que la existencia de un objeto puede ser demostrada comprobando su falsedad. Para los intuicionistas esto no es válido; la comprobación de la falsedad de un objeto matemático no significa que es posible hallar una prueba constructiva de su existencia. Por consiguiente, el intuicionismo es una variedad del constructivismo matemático, aunque no son el mismo concepto. Para el intuicionismo la validez de un enunciado matemático es equivalente a haber sido probado, pues, ¿qué otro criterio puede ser válido si los objetos son meras construcciones mentales?. Esto significa que un enunciado matemático no tiene el mismo significado para un intuicionista que para un matemático clásico. El intuicionismo también rechaza la abstracción del infinito; no considera asignar a algún conjunto dado entidades infinitas como el campo de los números naturales, o una secuencia arbitraria de números racionales. Esto requiere la reconstrucción de los fundamentos de la teoría de conjuntos y el cálculo como la teoría constructivista de conjuntos y el análisis constructivo respectivamente.

Es aceptado en los espacios científicos que en la lógica clásica las proposiciones pueden tomar solo dos valores de verdad: verdadero y falso. Según C. S. Peirce esta es “la hipótesis más simple”; mucho antes Aristóteles ya había formulado los principios fundamentales de la lógica clásica, el de no contradicción:”nada puede ser y no ser al mismo tiempo, o un enunciado no puede ser a la vez verdadero y falso” y el principio del tercio excluso: “algo es o no es, o todo enunciado es verdadero o es falso.” Sin demeritar en manera alguna los desarrollos portentosos de la lógica y la matemática clásicas, se logra observar que existen muchas situaciones para cuya discusión se requieren valores de verdad adicionales. Los fenómenos cotidianos afectados por la percepción y el comportamiento humanos, como los gustos, la riqueza, el significado de los adjetivos, solo pueden estudiarse con mayor aproximación, si se consideran gradaciones muy complejas. Aún en modelos matemáticos muy utilizados la lógica bivalente conduce a aparentes paradojas. Durante el siglo veinte se han propuesto diversas lógicas con más valores de verdad: la lógica tríadica de Peirce; la lógica intuicionista de Brouwer, capturada de manera parcial por el llamado cálculo proposicional intuicionista cuyos modelos algebraicos son las “algebras de Heyting”; las lógicas de m valores o m-valuadas de Post, que tienen una contraparte algebraica en las llamadas “algebras de Post”; las lógicas multivaluadas o polivalentes introducidas por la escuela polaca de lógica y en especial por Jan Lukasiewicz; y últimamente la lógica difusa de Zadeh consistente en sustituir el conjunto discreto de ceros y unos por el conjunto continuo ubicado en el segmento real.

El intuicionismo encuentra su origen en los trabajos del matemático holandés L. E. J. Brouwer quien ya desde su tesis doctoral, presentada en 1907, intervino en la entonces candente discusión sobre los fundamentos de la matemática. Entre los precursores de las ideas intuicionistas pueden mencionarse a Kronecker, Poincaré, Borel y Weyl; las grandes corrientes filosóficas antagonistas fueron el formalismo propugnado por Hilbert y el logicismo impulsado por Frege, Whitehead y Russell. El principio básico del intuicionismo es la constructibilidad: para el intuicionista los objetos de estudio de la matemática son ciertas intuiciones mentales y las construcciones que pueden hacerse con ellas. La consecuencia inmediata es que la matemática intuicionista solo maneja objetos construidos y solo reconoce las propiedades puestas en ellos por la construcción. En particular, la negación de la imposibilidad de un hecho no es una construcción del mismo luego el principio de doble negación y las demostraciones por reducción al absurdo son inaceptables para el intuicionista. De igual manera, es perfectamente factible que un hecho y su negación sean ambos imposibles de construir luego, en general, en el intuicionismo no vale el principio del tercio excluso. A finales de la década de los años veinte se propuso el problema de formalizar el intuicionismo. Aunque a primera vista eso parezca una tarea contradictoria, lo que se pretendía era construir, dentro de la matemática formalista que ya se estaba imponiendo, una lógica que de alguna manera reflejara los principios intuicionistas.

El intuicionismo asumió como suyas una serie de críticas que emergieron frente al carácter abstracto de las matemáticas. Con Brouwer se estructuró una visión sobre la naturaleza de las matemáticas que había estado presente también entre los matemáticos decimonónicos: Krönecker, Baire, etc. Los intuicionistas se colocaban en un terreno opuesto al axiomatismo y al logicismo. Para los intuicionistas, como en Kant, era necesario recurrir a una intuición, pero esta vez no podía ser espacio-temporal. Éstos decidieron reducirla a una exclusivamente temporal. Para estos es el movimiento que en la mente hace pasar del “uno a dos” lo que determina las matemáticas. Si existe una evidencia, esta se encuentra en la intuición, luego las proposiciones matemáticas se consideran sintéticas a priori. Éstos responden a las paradojas de una manera tajante: se trata de abusos y extralimitaciones de la lógica y el lenguaje. Cuando la lógica y el lenguaje dejan de corresponderse con la verdadera matemática es que se suceden las paradojas.

Mientras que para los logicistas la lógica es elevada a una categoría casi metafísica, para los intuicionistas se trata de un instrumento absolutamente accesorio. No se trata para el intuicionismo de probar la consistencia de la matemática sino de hacer matemática verdadera, apegada a esa intuición introspectiva. Esta matemática así determinada filosóficamente establece un programa práctico centrado en la noción de constructivismo. Es esto lo que en el fondo determina las reglas usadas, a saber: el lenguaje y la lógica. Dependerá de ella también el tratamiento de las nociones infinitas. La verdad y la existencia en matemáticas aparecen fundidas en la construcción. La lógica intuicionista, o lógica constructivista, es el sistema lógico desarrollado por Heyting para proveer una base formal para el proyecto intuicionista de Brouwer. El sistema enfatiza las pruebas, en vez de la verdad, a lo largo de las transformaciones de las proposiciones. La lógica intuicionista rechaza el principio del tercero excluido, pero conserva principio de explosión. Esto se debe a una observación de Brouwer de que si se enfatizan las pruebas en vez de la verdad, entonces en los conjuntos infinitos, el principio del tercero excluido parece fallar.

Guillermo Choque Aspiazu
www.eldiario.net
Junio 15 de 2009

viernes, 4 de septiembre de 2009

Aprendizaje colaborativo

En la historia de la humanidad el trabajar y aprender juntos es algo bastamente difundido, pese a que recién a fines del siglo veinte surge el concepto de aprendizaje colaborativo, transformándose en un tema de estudio en el que se ha teorizado bastante. El constructivismo sociocultural ha servido como marco teórico para este enfoque del aprendizaje, el que afirma que todo aprendizaje es social y mediado. Se observan tres elementos que posiblemente pueden explicar la razón para que el aprendizaje colaborativo tenga hoy tanta importancia, no sólo en la teoría sino también en los procesos de aprendizaje y producción.

La primera tiene que ver con la revolución tecnológica y establece relación con un entorno de aprendizaje digital de carácter global, representado en la red de redes, Internet, donde no existen barreras culturales ni idiomáticas y cuyas características de instantaneidad e interactividad la hacen muy atractiva. Se habla de un nuevo entorno electrónico de aprendizaje, que antes no existía, y que pone en red simultáneamente a millones de personas, sin considerar distancias, ni importar su lugar de residencia. En síntesis, esto implica que la red y las “tecnologías de la información y comunicación”, son un contexto concreto en el que puede articularse el carácter colaborativo del aprendizaje. La segunda perspectiva es que se considera que el entorno de aprendizaje electrónico reúne características que son especialmente poderosas para la colaboración, tales como la interactividad, la ubicuidad, y el sincronismo. La tercera respuesta es que las teorías del aprendizaje hasta mediados del siglo veinte acentuaron el conocimiento individual, por sobre el social. A fines del siglo pasado, el enfoque sociocultural valorizó lo social como complemento al proceso cognitivo personalizado de cada individuo. El aprendizaje colaborativo entonces, nace y responde a un nuevo contexto socio cultural donde se define el “cómo aprenden las personas” y “dónde aprenden”. Desde este punto de vista, se validan las interacciones sociales, como también la visión de que el aporte de dos o más individuos que trabajan en función de una meta común, puede tener como resultado un producto más enriquecido y acabado que la propuesta de uno sólo, esto motivado por las interacciones, negociaciones y diálogos que dan origen al nuevo conocimiento.

La denominada inteligencia artificial puede aplicarse a una gran cantidad de áreas o campos donde sea requerido el intelecto humano. El más reciente paradigma de esta disciplina es el denominado paradigma de agentes. Este paradigma aborda el desarrollo de entidades que puedan actuar de forma autónoma y razonada conocidas como agentes inteligentes. Los investigadores y desarrolladores del área han generado múltiples definiciones para estas entidades, cada uno de ellos teniendo en cuenta sus propias necesidades o experiencias. Una de las definiciones más aceptada es la que establecen los investigadores Stuart Russell y Peter Norvig el año 1995 como: “todo aquello que percibe su medio ambiente mediante sensores y actúa sobre el mismo a través de efectores”.

Actualmente existen en el tema tanto lagunas conceptuales como de desarrollo, por lo que no es extraño que todavía no existe acuerdo en la comunidad científica acerca de las propiedades que debe esgrimir un agente; sin embargo algunas de estas propiedades son: continuidad temporal, autonomía, sociabilidad, racionalidad, reactividad, pro-actividad, adaptatividad, movilidad, veracidad y benevolencia. No existe consenso sobre el grado de importancia de cada una de estas propiedades, si bien se coincide en la opinión de que sirven fundamentalmente para diferenciar a los agentes de meros programas software. También debido a que los autores no evalúan las mismas características de las que los agentes deben ser poseedores, es que se obtienen distintas taxonomías para ellos. Así, existen agentes autónomos, agentes colaborativos, agentes de interfaz, agentes reactivos, agentes híbridos, agentes astutos, y otros tipos, producto de la combinación de dos o más de estas categorías citadas. Cabe resaltar que las aplicaciones basadas en agentes son numerosas, tanto como la variedad de áreas en donde están siendo empleados: control de procesos, producción, operaciones comerciales, gestión de información, comercio electrónico, monitorización, mediación, aplicaciones médicas, entretenimiento, etc. Recientemente han comenzado a aplicarse como una alternativa real de apoyo a los procesos de enseñanza aprendizaje de estudiantes.

Numerosos estudios demuestran que la colaboración entre pares estimula el aprendizaje, acrecienta la motivación, fomenta los sentimientos de pertenencia a un equipo, incentiva la creatividad, facilita la comunicación, sobre todo entre quienes se encuentran dispersos geográficamente, y acrecienta la satisfacción personal por el proceso educativo realizado. Estas son sólo algunas de las razones que motivan el número creciente de aplicaciones colaborativas existentes en el ámbito de la educación, y en particular dentro de la educación a distancia. Desde hace unos pocos años las aplicaciones de aprendizaje colaborativo han comenzado a incluir tecnología de agentes. Existen numerosas aplicaciones que cuentan con agentes inteligentes en sus arquitecturas que les permiten enriquecer sus funcionalidades tradicionales. La personalización de las respuestas del sistema, a través de agentes que tienen en cuenta las necesidades y características de cada estudiante, permite generar productos que benefician el proceso de aprendizaje de los alumnos.

Brindar una única definición de aprendizaje colaborativo soportado por computadoras no es una tarea fácil, principalmente por la dificultad misma de definir “aprendizaje colaborativo”. Se sostiene que el aprendizaje colaborativo es una situación en la que dos o más personas aprenden algo juntas, o al menos lo intentan. Los elementos de esta definición pueden interpretarse de varias maneras. Por ejemplo, la expresión dos o más personas puede ser vista como: un par, pequeños grupos formados por tres a cinco individuos, una clase de treinta o más estudiantes, una comunidad, etc.; el mismo análisis podría efectuarse al tratar de dar significación a las palabras aprenden algo juntas. Sin embargo, luego de plantear estas dificultades, se logró proponer una definición más específica: el aprendizaje colaborativo describe una situación en la que se esperan ocurran ciertas formas de interacción entre personas, susceptibles de promover mecanismos de aprendizaje, sin ninguna garantía de que tales interacciones esperadas ocurran.

El aprendizaje colaborativo se refiere a un método instruccional en el que los estudiantes trabajan juntos en pequeños grupos hacia una meta común. En estos grupos los alumnos son responsables de su propio aprendizaje y también del de sus compañeros, los talentos de cada individuo sirven como recursos para cada uno de los otros miembros del equipo, y por esto, el éxito de uno ayuda al éxito de todos. Un aspecto muy importante en el aprendizaje colaborativo es que las interacciones son negociables. Un estudiante no puede imponer su punto de vista, debe argumentar, justificar y negociar para intentar convencer al resto de sus compañeros de equipo de que su postura es la correcta. La premisa subyacente en el aprendizaje colaborativo es la construcción de consenso a través de cooperación y colaboración entre los miembros del grupo. Indudablemente, la expresión aprendizaje colaborativo es una sombrilla bajo la que se colocan varias prácticas de clase diseñadas para alentar las responsabilidades compartidas por un curso de aprendizaje, y si tales prácticas implican el uso de computadoras entonces se habla de aprendizaje colaborativo soportado por computadoras.

En el caso particular de los sistemas de aprendizaje colaborativo soportado por computadoras, incorporar agentes en sus arquitecturas puede ser una manera válida de enriquecer sus funcionalidades tradicionales. A través del uso de agentes es posible adaptar las respuestas del sistema a las necesidades y características personales de cada estudiante. Esta personalización inteligente, sumada a las ventajas mencionadas para el aprendizaje colaborativo, genera productos que benefician al proceso de aprendizaje de los estudiantes, y que además influyen positivamente en los niveles de motivación y satisfacción alcanzados. En muchos sistemas de aprendizaje los agentes se valen de la información almacenada en modelos de estudiante y de grupo para facilitar y adaptar o personalizar la interacción o la situación de aprendizaje. Un modelo de estudiante almacena información vinculada con aspectos individuales de cada alumno. Un modelo de grupo captura aspectos que identifican como un todo al grupo de estudiantes que trabajan colaborativamente dentro de un espacio compartido.

Guillermo Choque Aspiazu
www.eldiario.net
Junio 8 de 2009