viernes, 26 de junio de 2009

Epigenética computacional

El ácido desoxirribonucléico, específicamente los aproximados veinticinco mil genes identificados por el Proyecto del Genoma Humano, es ampliamente reconocido como el libro de instrucciones para el cuerpo humano. Sin embargo, los genes mismos requieren instrucciones de qué hacer, en dónde y cómo hacerlo. Una célula de hígado humano contiene el mismo ácido desoxirribonucléico que una célula cerebral, y aún así, de alguna manera sabe codificar únicamente aquellas proteínas necesarias para el funcionamiento del hígado. Esas instrucciones son encontradas no en las letras del ácido desoxirribonucléico mismo, sino encima de él, en todo un abanico de marcadores e interruptores químicos conocidos colectivamente como el epigenoma que se encuentra a lo largo de la doble hélice. Estos interruptores y marcadores epigenéticos a su vez ayudan a conectar y desconectar la expresión de un gen particular. Considere a un epigenoma como un código complejo de programación computacional capaz de inducir al equipo computacional del ácido desoxirribonucléico a manufacturar una variedad impresionante de proteínas, tipos de células e individuos.

La epigenética hace referencia, en un sentido amplio, al estudio de todos aquellos factores no genéticos que intervienen en la determinación de la ontogenia. El término fue acuñado por C. H. Waddington el año 1953 para referirse al estudio de las interacciones entre genes y entorno que producen los organismos. Dependiendo de la disciplina biológica, el término epigenética tiene diversos significados: (1) En genética del desarrollo, la epigenética hace referencia a los mecanismos de regulación genética que no implican cambios en la secuencias del ácido desoxirribonucléico. (2) En biología del desarrollo, el término epigenética hace referencia a la dependencia contextual de los procesos embriológicos. El contexto incluye factores epigenéticos tanto internos: materiales maternos, propiedades genéricas físicas y autoorganizativas de las células y los tejidos, procesos de regulación genética, dinámica celular y tisular, como externos: temperatura, humedad, luz, radiación y otros. (3) En biología evolutiva, el término herencia epigenética engloba a los mecanismos de herencia no genéticos. (4) En genética de poblaciones se emplea la expresión variación epigenética para denominar a la variación fenotípica que resulta de diferentes condiciones ambientales. Los cambios epigenéticos son cambios reversibles de ácido desoxirribonucléico que hace que unos genes se expresen o no dependiendo de las condiciones exteriores, lo que se conoce como polifenismo.

Un comentario realizado acerca de la epigenética, por el investigador alemán Jörn Walter, menciona lo siguiente: “Recurriendo a un símil informático, se diría que el disco duro es como el ácido desoxirribonucléico, y el software computacional es como el epigenoma. Es posible acceder a cierta información del disco duro con la utilización de los programas computacionales. Pero existen ciertas áreas protegidas por contraseñas y otras no. Con esto se diría entonces que se intentado entender por qué existen contraseñas para ciertas regiones y por qué otras regiones están abiertas.” La gestión de la información dentro del núcleo se traduce en que parte de la información genética se encuentra apiñada dentro del genoma, mientras que, por otro lado, existe información que necesita estar disponible y activa de forma continua, como ocurre con los llamados genes de mantenimiento. Por tanto, la epigenética puede compararse a la gestión de los papeles en una casa: no es razonable almacenar en un lugar poco accesible aquello que se va a necesitar muy a menudo, pero los viejos documentos pueden quedarse guardados en cajas en el trastero.”

La diferencia entre genética y epigenética probablemente puede compararse con la diferencia que existe entre escribir y leer un libro. Una vez que el libro ha sido escrito, el texto, los genes o la información almacenada en el ácido desoxirribonucléico, será el mismo en todas las copias que se distribuyan entre los lectores. Sin embargo, cada lector podría interpretar la historia del libro de una forma ligeramente diferente, con sus diferentes emociones y proyecciones que pueden ir cambiando a medida que se desarrollan los capítulos. De una forma muy similar, la epigenética permitiría diferentes interpretaciones de un molde fijo y resultaría en diferentes lecturas, dependiendo de las condiciones variables en las que se interprete el molde.

La genética, como toda lengua, tiene abecedario, sintaxis, gramática y ortografía. Pocas son las letras que constituyen el abecedario genético: adenina (A), timina (T), citosina (C) y guanina (G). Pero las lenguas con poquísimas letras no son tan extrañas como puede parecer a primera vista. El código Morse, imprescindible para la comunicación radiofónica durante muchas décadas, únicamente tenía seis letras. Qué se haría en este momento sin una computadora personal y su sistema operativo, todas las alegrías y penas que proporciona la ciencia de la computación están escritas en un lenguaje de tan sólo dos letras: el cero y el uno. Estas cuatro letras que componen el abecedario genético son las bases nitrogenadas que se enlazan entre sí en largas cadenas de azúcares en forma de espiral o doble hélice.

Las palabras de esta lengua están formadas por tres letras. Es decir, que cada serie “ACT” o “GGC” tiene un significado y, si en inglés “dog” significa “un individuo perteneciente a una subespecie doméstica del lobo, mamífero de la familia Canidae del orden Carnivora”, en Genética “ACG” viene a decir “Treonina”, que no es otra cosa que un aminoácido. Uno de los veinte ladrillos de los cuales se compone las proteínas del cuerpo humano. Las proteínas, a su vez, forman la materia prima y las herramientas que componen dicho cuerpo. Ya se tiene las letras y las palabras. Ahora, la sintaxis que ordena las palabras para que la frase tenga sentido es la secuencia del gen, algo parecido a la siguiente secuencia: “AATGTCCCAGCTA…”. Cuando la sintaxis falla, se pierde el sentido de la frase y el gen no se expresa correctamente. En la fibrosis quística, la mayoría de los que la padecen nacieron con una “palabra” tres letras menos en el gen CFTR. Al faltarle ese elemento, la proteína que se produce, también llamada CFTR, queda deformada y no funciona correctamente. Todo esto acaba por provocar graves trastornos respiratorios, complicaciones en el crecimiento y una muerte temprana.

La ortografía del ácido desoxirribonucléico es del dominio de la epigenética. Las letras que forman los genes de los seres vivos pueden ser acentuadas y puntuadas, a veces con un gran signo de exclamación, a veces con un lóbrego paréntesis. Esta ortografía genética es la responsable de que una determinada célula “lea” o exprese más, menos o nada un gen en concreto, regulando el metabolismo celular. “Encender” o “apagar” un gen, es una manera económica que ha encontrado la evolución de producir un organismo tan complejo como un ser humano, con sus más de doscientos tipos de células diferentes, a partir de un solo juego de planos. La receta es brillante, para conseguir una persona se necesita: un juego de planos compuesto por 23 pares de cromosomas, mitad del padre, mitad de la madre, una célula denominada zigoto y un lugar donde cocinarlo, es decir el útero. La maravilla de la naturaleza reside en que, a medida que el zigoto va dividiéndose, las nuevas células se centran más en unos planos que en otros. Al final, aunque todas tengan el manual completo, solamente necesitan una pequeña parte del mismo para desempeñar su papel en el cuerpo.

Durante casi un siglo después que el término “epigenética” apareció por primera vez en la literatura, investigadores, médicos y otros hurgaron en las oscuras grietas del gen, tratando de desenredar los indicios que sugerían que la función del gen podía ser alterada por algo más que simples cambios en la secuencia. Actualmente, una amplia variedad de enfermedades, conductas y otros indicadores de salud ya tienen algún nivel de evidencia que los conecta con mecanismos epigenéticos, incluyendo cánceres de casi todos los tipos, disfunción cognitiva y enfermedades respiratorias, cardiovasculares, reproductivas, autoinmunes y neuroconductuales. Entre los causantes conocidos o sospechosos de estar detrás de los procesos epigenéticos se cuentan muchos agentes, incluyendo metales pesados, pesticidas, gases de escape diesel, humo de tabaco, hidrocarburos policíclicos aromáticos, hormonas, radioactividad, virus, bacterias y nutrientes básicos. En los últimos años, varios estudios innovadores han enfocado nueva atención en la epigenética. Ha aumentado el interés en la medida en que se ha hecho evidente que comprender la epigenética y la epigenómica será esencial en el trabajo relacionado con muchos otros tópicos que requieren una comprensión cabal de todos los aspectos de la genética, tales como células troncales, clonación, envejecimiento, biología sintética, conservación de las especies, evolución y agricultura.

Guillermo Choque Aspiazu
www.eldiario.net
Abril 6 de 2009

viernes, 19 de junio de 2009

Algoritmo genético simple

En los últimos años, la comunidad científica internacional ha mostrado un creciente interés en una nueva técnica de búsqueda basada en la teoría de la evolución y que se conoce como “algoritmo genético”. Esta técnica se basa en los mecanismos de selección que utiliza la naturaleza, de acuerdo a los cuales los individuos más aptos de una población son los que sobreviven, al adaptarse más fácilmente a los cambios que se producen en su entorno. Hoy en día se sabe que estos cambios se efectúan en los genes, que constituye la unidad básica de codificación de cada uno de los atributos de un ser vivo, y que los atributos más deseables del mismo se transmiten a sus descendientes, cuando éste se reproduce sexualmente.

John Holland desde pequeño, se preguntaba cómo logra la naturaleza, crear seres cada vez más perfectos, teniendo en cuenta además que todo se lleva a cabo a base de interacciones locales entre individuos, y entre estos y lo que les rodea. No sabía la respuesta, pero tenía una cierta idea de como hallarla: tratando de hacer pequeños modelos de la naturaleza, que tuvieran alguna de sus características, y ver cómo funcionaban, para luego extrapolar sus conclusiones a la totalidad. De hecho, ya de pequeño hacía simulaciones de batallas célebres con todos sus elementos: mapas que copiaba y que cubría luego de pequeños ejércitos que se enfrentaban entre sí. Hacia los años 1950 entró en contacto con las primeras computadoras, donde pudo llevar a cabo algunas de sus ideas, aunque no se encontró con un ambiente intelectual fértil para propagarlas. Fue a principios de los años 1960, en la Universidad de Michigan en Ann Arbor, donde, dentro del grupo “Lógica Computacional”, sus ideas comenzaron a desarrollarse y a dar frutos. Y fue, además, leyendo un libro escrito por un biólogo evolucionista, R. A. Fisher, titulado “Teoría Genética de la Selección Natural”, como comenzó a descubrir los medios para llevar a cabo sus propósitos de comprensión de la naturaleza. De ese libro aprendió que la evolución era una forma de adaptación más potente que el simple aprendizaje, y tomó la decisión de aplicar estas ideas para desarrollar programas bien adaptados para un fin determinado.

En la Universidad de Michigan, Holland impartía un curso titulado “Teoría de sistemas adaptativos”. Dentro de este curso, y con una participación activa por parte de sus estudiantes, fue donde se crearon las ideas que más tarde se convertirían en los algoritmos genéticos. Por tanto, cuando Holland se enfrentó a los algoritmos genéticos, los objetivos de su investigación fueron dos: (1) imitar los procesos adaptativos de los sistemas naturales, y (2) diseñar sistemas artificiales que retengan los mecanismos importantes de los sistemas naturales. David Goldberg, uno de los grandes expertos de los algoritmos genéticos, conoció a Holland, y se convirtió en su estudiante. Golberg era un ingeniero industrial trabajando en diseño de redes de tuberías, y fue uno de los primeros que trató de aplicar los algoritmos genéticos a problemas industriales. Aunque Holland trató de disuadirle, porque pensaba que el problema era excesivamente complicado como para aplicarle algoritmos genéticos, Goldberg consiguió lo que quería, escribiendo un algoritmo genético en una computadora personal Apple II. Estas y otras aplicaciones creadas por estudiantes de Holland convirtieron a los algoritmos genéticos en un campo suficientemente aceptado como para celebrar la primera “Conferencia Internacional sobre Algoritmos Genéticos” el año 1985.

Los algoritmos genéticos son programas computacionales cuyo fin es imitar el proceso de “selección natural” que, según la teoría de Darwin, rige el curso de la evolución. El proceso de selección natural descrito de una manera sencilla es: se tiene una población, esa población se multiplica por medio del intercambio de genes, de la nueva generación sólo sobreviven los más capaces de adaptarse a su medio ambiente para así formar una nueva población “mejor” que la anterior. Este ciclo se repite a través del tiempo. Sin embargo, hay ocasiones en que se producen mutaciones en los individuos, lo que origina cambios drásticos en las características del individuo, y con esto se evita que se llegue a un “estancamiento”, en la evolución.

Se dice que el proceso evolutivo es aleatorio en el sentido de que se generan poblaciones cuyas características se parecen a las de sus padres, pero varían de manera aleatoria. Luego, estas poblaciones son “probadas” en el ambiente para ver cuál se “adapta” mejor. Sobreviven los que se adaptan mejor al medio ambiente, pero no se sabe para qué se quiere adaptar al medio ambiente, es decir, con qué fin. Cuando la gente se enfrentó con problemas que no podían ser solucionados por métodos matemáticos o analíticos, y que la única forma de resolverlos era a través de prueba y error dirigido, es decir, probar dónde se creía que podía mejorarse el resultado, se dio cuenta de que este proceso era similar al proceso que seguía la naturaleza, así que se intentó copiar su manera de operar y se crearon los algoritmos genéticos, que en la actualidad sólo son una rama de una extensa materia conocida como computación evolutiva que, en resumen, es la ciencia computacional cuyos algoritmos imitan el proceso evolutivo de la naturaleza.

En un algoritmo genético simple, primero, se genera de manera aleatoria la población inicial, que está constituida por un conjunto de cromosomas, o cadenas de caracteres que representan las soluciones posibles del problema. A cada uno de los cromosomas de esta población se le aplica la función de adaptabilidad a fin de saber qué tan buena es la solución que se está codificando. Sabiendo la adaptabilidad de cada cromosoma, se procede a la selección de los que se aparean en la siguiente generación. Dos son los métodos de selección más comunes: (1) La ruleta. Este método es bastante simple, y consiste en crear una ruleta en la que cada cromosoma tiene asignada una fracción proporcional a su adaptabilidad. (2) El torneo. La idea de este método es muy simple. Se baraja la población y después se hace competir a los cromosomas que la integran en grupos de tamaño predefinido en un torneo del que resultarán ganadores aquellos que tengan valores de adaptabilidad más altos. Una vez realizada la selección, se procede al apareamiento o reproducción sexual de los individuos seleccionados. En esta etapa, los sobrevivientes intercambiarán material cromosómico y sus descendientes formarán la población de la siguiente generación. Las dos formas más comunes de reproducción sexual son: uso de un punto único de apareamiento y uso de dos puntos de apareamiento.

Normalmente el apareamiento se maneja dentro de la implementación del algoritmo genético simple como un porcentaje que indica con qué frecuencia se efectuará. Esto significa que no todas las parejas de cromosomas se aparearan, sino que habrán algunas que pasarán intactas a la siguiente generación. De hecho existe una técnica desarrollada hace algunos años en la que el individuo más apto a lo largo de las distintas generaciones no se aparea con nadie, y se mantiene intacto hasta que surge otro individuo mejor que él, que lo desplaza. Dicha técnica es llamada elitismo. Además de la selección y el apareamiento, existe otro operador llamado mutación, el cual realiza un cambio a uno de los genes de un cromosoma elegido de manera aleatoria. Cuando se usa una representación binaria, el gen seleccionado se sustituye por su complemento. Este operador permite la introducción de nuevo material cromosómico en la población, tal y como sucede con sus equivalentes biológicos. Al igual que el apareamiento, la mutación se maneja como un porcentaje que indica con qué frecuencia se efectuará, aunque se distingue de la primera por ocurrir mucho más esporádicamente.

La aplicación más común de los algoritmos genéticos ha sido la solución de problemas de optimización, en donde han mostrado ser muy eficientes y confiables. Sin embargo, no todos los problemas pueden ser apropiados para la técnica, y se recomienda en general tomar en cuenta las siguientes características del mismo antes de intentar usarla: (1) Su espacio de búsqueda, sus posibles soluciones, debe estar delimitado dentro de un cierto rango. (2) Debe definirse una función de adaptabilidad que indique qué tan buena o mala es una cierta respuesta. (3) Las soluciones deben codificarse de una forma que resulte relativamente fácil de implementar en la computadora. El primer punto es muy importante, y lo más recomendable es intentar resolver problemas que tengan espacios de búsqueda discretos aunque éstos sean muy grandes. Sin embargo, también podrá intentarse usar la técnica con espacios de búsqueda continuos, pero preferentemente cuando exista un rango de soluciones relativamente pequeño.

Guillermo Choque Aspiazu
www.eldiario.net
Marzo 30 de 2009

viernes, 12 de junio de 2009

Red neuronal de Hopfield

Las redes neuronales están basadas en el funcionamiento de la neurona biológica residente en el sistema nervioso central, sus orígenes se remontan a los primeros años de la informática, de manera contemporánea a la teoría de la computación de Turing. Una red neuronal artificial es un modelo computacional inspirado en redes neuronales biológicas que puede ser considerada como un sistema de procesamiento de información con características como aprendizaje a través de ejemplos, adaptabilidad, robustez, capacidad de generalización y tolerancia a fallos. La red neuronal artificial puede ser definida como una estructura distribuida, de procesamiento paralelo, formada de neuronas artificiales, llamadas también elementos de procesamiento, interconectados por un gran numero de conexiones, las cuales son usadas para almacenar conocimiento.

Jhon Hopfield, gracias al trabajo sobre neurofisiología en invertebrados, desarrolló un tipo de red neuronal autoasociativa. Estas redes son bastante parecidas al modelo del Perceptrón, pero presentan una característica adicional: las neuronas en la capa media, cuentan con conexiones de salida hacia otras neuronas de la capa media. Además, cada neurona de la capa de entradas está conectada con una neurona de la capa media, y cada neurona de la capa media emite una sola conexión hacia la capa de salidas. El hecho de que todas las neuronas de la capa media se encuentren interconectadas, hace que en esta capa se dé una retroalimentación entre sus neuronas, de forma que al activarse una neurona de esta capa hace que las otras neuronas cambien su estado de activación, que a la vez harán cambiar el suyo propio. Esta nueva característica de las redes de Hopfield hace que funcionen de manera diferente al Perceptrón. Así, en el Perceptrón todas las neuronas de una misma capa transmiten el patrón de activación hacia las neuronas de la siguiente capa. El patrón de activación es un vector formado por los valores de las neuronas de una capa. Mientras que en una red de Hopfield las neuronas de la capa de entradas transmiten inmediatamente su patrón de activación hacia las neuronas de la capa media, pero las neuronas de la capa media no transmitirán ningún patrón de activación hasta que hayan llegado a un estado de equilibrio, en el cual el patrón de activación de la capa media se mantiene estable.

La red de Hopfield es una de las redes neuronales artificiales más importantes y ha influido en el desarrollo de multitud de redes posteriores. Es una red autoasociativa no lineal que fue desarrollada por Hopfield el año 1982, basándose en los modelos de redes de McCulloch y Pitts y los símiles de los campos magnéticos con spin de Amit, Gutfreund y Sompolinsky. La red de Hopfield es una red monocapa, esto es, de una sola capa. Aunque también se puede mostrar como una red bicapa de dos capas, la primera capa es una capa de sensores y la segunda capa es la capa donde se realiza el procesamiento. En la versión bicapa la manera de interconectar ambas capas es unir la primera capa a la segunda linealmente, esto es cada neurona con su respectiva capa, y después unir todas las neuronas con todas en la misma capa. La red de Hopfield toma valores bipolares esto es: menos uno y uno, sin embargo se pueden usar también valores binarios como: cero y uno.

La red neuronal de Hopfield puede trabajar con varias neuronas y permite conexiones recurrentes pero siempre dentro de la misma capa. Es un modelo de red con el número suficiente de simplificaciones como para extraer analíticamente información sobre las características relevantes del sistema, conservando las ideas fundamentales de las redes construidas en el pasado y presentando una serie de funciones básicas de los sistemas neuronales biológicos. Las redes de Hopfield son auto-asociadores en las cuales los valores de los nodos son actualizados de manera iterativa basados en un principio de cómputo local, que consiste en que el nuevo estado de cada nodo depende únicamente de sus entradas ponderadas en un tiempo predeterminado.

Dentro de los paradigmas de aprendizaje, la red neuronal de Hopfield presenta un tipo de aprendizaje no supervisado, fuera de línea y de tipo Hebbiano, produciéndose como consecuencia las siguientes dos etapas: la etapa de aprendizaje y la etapa de funcionamiento de la red. Este tipo de aprendizaje asegura la estabilidad de la red, es decir la convergencia hacia una respuesta estable cuando se presenta una información de entrada adecuada. Se explora la estructura subyacente o las correlaciones entre los patrones de datos y se organizan estos patrones en categorías a partir de las correlaciones encontradas. Las investigaciones sobre la estabilidad de esta red se basan en el establecimiento de una función llamada función de energía de la red que representa los posibles estados de la red. El objetivo de utilizar memoria asociativa es conseguir que los patrones a ser almacenados se sitúen en los mínimos de la función de energía para representar dichos estados. El peso de una conexión entre una neurona i-ésima y otra j-ésima se obtiene mediante el producto de los componentes i-ésimo y j-ésimo del vector que representa la información o patrón que debe almacenar.

La arquitectura de una red neuronal de Hopfield, consiste en una red monocapa con varias neuronas cuyos valores de salida son binarios o bipolares. En la versión común ó discreta del modelo de red neuronal de Hopfield, las funciones de activación de las neuronas son del tipo escalón, se trata, por tanto, de una red con entradas y salidas binarias. En la versión analógica ó continua del modelo de red neuronal de Hopfield se utilizan neuronas con funciones de activación del tipo sigmoidal, se trata, por tanto, de una red con entradas y salidas analógicas.

La red de Hopfield es una red auto asociativa, así, varios patrones diferentes pueden ser almacenados en la red como si se tratase de una memoria, durante la etapa de aprendizaje. Posteriormente, si se presenta a la entrada alguna de la información almacenada sobre los patrones, la red evoluciona hasta estabilizarse, ofreciendo entonces en la salida la información almacenada que coincide con la presentada en la entrada. Si por el contrario, la información de entrada no coincide con ninguna de las almacenadas, por estar distorsionada o incompleta, la red evoluciona generando como salida la más parecida. La información que recibe la red debe haber sido previamente codificada y representada en forma de vector, como una configuración binaria o bipolar si la red es discreta, y como un conjunto de valores reales si la red es continua, con tantas componentes como neuronas tenga la red. Esa información es aplicada directamente a la única capa de que consta la red, siendo recibidas por las neuronas de dicha capa, cada neurona recibe una parte de la información, un elemento del vector que representa dicha información. Si se considera el caso de una neurona concreta de la red, esta neurona recibiría como entrada las salidas de cada una de las otras neuronas, valores que inicialmente coincidirán con los de entrada, multiplicadas por los pesos de las conexiones correspondientes. La suma de todos estos valores constituirá el valor de entrada neta de la neurona, al que le será aplicada la función de transferencia, obteniéndose el valor de salida correspondiente: un valor binario o bipolar si la red es discreta, y un número real en el rango bipolar o binario, si la red es continua. La descripción anterior corresponde a un primer paso en el procesamiento realizado por la red. Este proceso continúa hasta que las salidas de las neuronas se estabilizan, lo cual ocurre cuando las neuronas dejan de cambiar de valor. Entonces, el conjunto de los valores de salida de todas las neuronas constituye la información de salida que ha generado la red, que se corresponderá con alguno de los patrones que durante la etapa de aprendizaje fueron almacenados en la misma.

La red neuronal de Hopfield es una de las más utilizadas debido principalmente a la facilidad de implementación física utilizando tecnología de integración de gran escala. Las aplicaciones más conocidas son: (1) Reconocimiento de imágenes y voz, (2) Control de motores y (3) Resolución de problemas de optimización complejos. La red neuronal de Hopfield puede reconstruir versiones distorsionadas o parciales de imágenes almacenadas en la fase de aprendizaje. La limitación de la red es la imposibilidad de recuperar imágenes rotadas o trasladadas. La red neuronal de Hopfield resuelve también problemas de optimización complejos, en los cuales con algoritmos clásicos se observa que el tiempo de resolución es de crecimiento ilimitado. Para resolver problemas de este tipo con una red de Hopfield primero se debe representar el objetivo del problema mediante una expresión matemática que haga referencia a una función de costo. Luego se compara la función de costo con la función de energía de la red, determinándose los valores de los pesos y umbrales para que ambas funciones sean equivalentes.

Guillermo Choque Aspiazu
http://www.eldiario.net/
Marzo 23 de 2009

viernes, 5 de junio de 2009

Teoría de posibilidades

La lógica difusa es un campo relativamente nuevo en su desarrollo y aplicación. Fue inicialmente definida por el matemático azerbayano Lotfi Ali Asker Zadeh el año 1972, como una “extensión” de la lógica de conjuntos discretos. En suma, la lógica difusa es una herramienta que permite el control de sistemas muy complejos, de los que no puede extraerse un modelo matemático. Su estructura es muy cercana a la forma en la que un ser humano procesa la información, ya que permite crear distinciones en los sistemas, como “muy caliente” o “frío”, que son entendidos por el sistema y generan una respuesta en el controlador usado. Entiéndase el controlador como aquella estructura en la que se encuentra inscrito el sistema difuso. La lógica difusa, entonces, permite una aproximación de los sistemas al razonamiento humano, y permite el manejo de incertidumbre en las decisiones tomadas por el sistema. La teoría de conjuntos difusos provee un marco de referencia matemático para representar y tratar la incertidumbre en el sentido de vaguedad, imprecisión, falta de información y verdad parcial.

La estructura de un sistema difuso está constituida por tres bloques principales: el de transformación de los valores numéricos en valores de lógica difusa; la máquina de inferencia que emplea las reglas; y el bloque de conversión de los valores de la lógica difusa en valores numéricos. En un sistema basado en lógica difusa se transforman los datos o valores numéricos de la entrada al dominio de las reglas intuitivas y lingüísticas de la lógica difusa para realizar el tratamiento de los mismos y después convertir los resultados en valores numéricos para darles la representación tradicional. En resumen, puede decirse que un sistema basado en lógica difusa actúa como lo haría una persona que tuviera que reaccionar ante términos tan imprecisos como “caluroso” o “rápido”. Si al sistema se le incluye una regla que diga “Si la temperatura es calurosa se ha de acelerar el ventilador”, se estará aplicando el principio de “acción-reacción” y el sistema funciona sin regirse por conceptos matemáticos precisos.

Un conjunto difuso se define como una función dentro del universo de discurso que define todos los grados de pertenencia de un elemento a dicho conjunto difuso. “Un conjunto difuso en un universo del discurso está caracterizado por una función de pertenencia, que toma valores del intervalo cero y uno. Un conjunto difuso en el universo del discurso puede ser representado como un grupo de pares ordenados de un elemento genérico y su grado de pertenencia a dicha función.” Para entender mejor el concepto matemático de conjunto difuso, se debe entender primero el concepto de “Posibilidad” desde el punto de vista matemático.

Los conceptos de probabilidad, posibilidad, prospecto, propensión, fortuito, casual, aleatorio, estocástico y azar forman un grupo de nociones de azar semánticamente ligadas que es parte del marco conceptual contemporáneo y por medio del cual se captura intelectualmente y se trata de entender, ciertos comportamientos peculiares que exhiben algunos sistemas físicos que estudian teorías científicas, tales como la mecánica cuántica. El concepto de probabilidad es un miembro destacado en ese grupo de conceptos de azar porque cuenta con una teoría matemática de él, la cual permite expresar de manera numérica, dentro del marco de una teoría científica, el comportamiento azaroso de los sistemas físicos. El concepto cualitativo de posibilidad está relacionado con el concepto cuantitativo de probabilidad, el cual está caracterizado formalmente por la teoría matemática de la probabilidad, de tal manera que, al menos en algunos casos, se puede representar al primero en referencia al segundo, para justificar la aseveración de que una expresión como “la probabilidad del suceso singular e” significa “el grado de posibilidad del suceso singular e”, en el contexto de una teoría física con estructura probabilista.

La teoría de probabilidades, conocida especialmente por jugadores, tan solo describe objetivamente la frecuencia con la que se puede obtener un resultado. En 1978 Zadeh desarrolló a partir de la lógica difusa, una teoría de las posibilidades. Esta teoría, dicho rápidamente, en vez de utilizar un único número como la probabilidad para describir una incertidumbre con información precisa, utiliza dos números, la medida de la posibilidad y la medida de la necesidad, o certeza, para describir las posibilidades de que ocurra un evento del que se tiene información incompleta. Existen dos números entre cero y uno para describir los grados de posibilidad de que ocurra algo y la certeza de que no ocurra.

Didier Dubois, completa la teoría de las posibilidades, criticando la teoría de juegos o teoría de la decisión matemática, presentando la teoría de las posibilidades en una teoría alternativa para la toma de decisiones cualitativa. La teoría de las posibilidades, representa exactamente como los jugadores utilizan, algo objetivo como son las probabilidades de un juego, para tomar decisiones subjetivas, sobre la posibilidad de una ocurrencia, según la información que disponen para obtener una ventaja o utilidad. Contar cartas en el juego blackjack es una aplicación de la teoría de las posibilidades. Reconocer los casos imposibles y arriesgar sobre la probabilidad restante proporciona una expectativa de realización del suceso, según la serie de cartas observada.

En cualquier experimento aleatorio, como son los juegos de azar, siempre hay incertidumbre sobre si un suceso específico ocurrirá o no. Como medida de la oportunidad o probabilidad con la que se puede esperar que un suceso ocurra es conveniente asignar un número entre cero y uno. Si se está completamente seguro de que el suceso ocurrirá se dice que su probabilidad es del cien por ciento o uno, pero si no se está seguro de que el suceso no ocurrirá se dice que su probabilidad es de cero. La probabilidad permite el acercamiento a los sucesos y su correspondiente estudio, ponderando su ocurrencia, mediante métodos para tales ponderaciones. Algunos de esos métodos conducen a descubrir que algunos sucesos tienen una mayor o menor probabilidad de ocurrir que la ponderación que se asignaría de acuerdo al sentido común. Los sentidos de las personas, la información previa que se posee, las creencias o posturas, las inclinaciones, son algunos de los factores que intervienen para no hacer ponderaciones reales y sistemáticas. La teoría de la probabilidad por tanto, permite estudiar los eventos de una manera sistemática y más cercana a la realidad, proporcionando información precisa y fiable, y por consiguiente, más útil para la toma de decisiones.

Respecto a la interrogante relacionada con que si todos los sucesos posibles, posibilidades, son probables, la respuesta es que no todo lo posible es probable. De manera que, habiendo eliminado todo aquello que es imposible, se hace lo mismo con lo probable, quedando solamente las posibilidades improbables, que constituyen el campo de lo desconocido. La idea clave que adelantaba Zadeh, era la necesidad de una diferenciación entre la probabilidad y la posibilidad, suponiendo que esta última estaba basada en la lógica difusa. Así, la posibilidad puede verse como una medida de la facilidad de logro o grado de compatibilidad, mientras que la probabilidad tiene que ver con el azar y el comportamiento aleatorio. Desde la publicación del trabajo del profesor Zadeh, la teoría de la posibilidad se ha desarrollado en varias direcciones y se han encontrado muchas aplicaciones, especialmente en el campo de los sistemas basados en el conocimiento y con soporte para la toma de decisiones. Entre las muchas contribuciones al desarrollo de la teoría de la posibilidad, merece mención especial el trabajo de los investigadores D. Dubois y H. Prade en Francia. Las diversas contribuciones fundamentales para el avance de la lógica difusa y la teoría de la posibilidad realizadas por estos investigadores, han suscitado y siguen suscitando un impacto profundo y amplio.

Conviene hacer notar que había, y aún hay, alguna controversia relativa a la conexión entre la teoría de la probabilidad, por un lado, y la lógica difusa y la teoría de la posibilidad, por otro. Dentro de la comunidad probabilística, hay todavía investigadores que afirman que no hay nada que pueda hacerse con la lógica difusa y la teoría de la posibilidad, que no hubiera podido hacerse tan bien o incluso mejor usando métodos basados en la probabilidad. Tales afirmaciones reflejan una falta de familiaridad con la lógica difusa y un mal entendimiento de lo que ésta puede ofrecer. Quizá con el paso del tiempo, los escépticos de la comunidad probabilística se darán cuenta de que la teoría de la probabilidad y de la posibilidad son complementarias y no adversarias, y que la teoría de la probabilidad necesita infundirse de conceptos difusos para reforzar su eficacia en el tratamiento de los problemas del mundo real.

Guillermo Choque Aspiazu
www.eldiario.net
Marzo 16 de 2009