viernes, 24 de abril de 2009

Teoría cuántica de la información

La información puede definirse como la “comunicación o adquisición de conocimientos que permiten ampliar o precisar los que se poseen sobre una materia determinada”. En esta definición se recogen los tres aspectos esenciales de la información, a saber: transmisión, procesado, y almacenamiento. El aspecto de transmisión corresponde a la “comunicación”. También el término “adquisición” puede entenderse como proporcionado por la transmisión: para ello es necesario hacer la abstracción de que el emisor de la señal, de la información comunicada, no es necesariamente un ser consciente. Así, se puede recibir información de un proceso físico. Y, de hecho, desde el punto de vista de entrada de información, el que ésta haya sido transmitida desde una voluntad de proporcionar esa información o no es irrelevante. Por lo que se prescinde de la volición del emisor para conceptualizar el proceso de comunicación, de manera análoga para el receptor. En cuanto al procesado, naturalmente parece implicar una sucesión de estados, que serán anímicos o mentales en un ser vivo o consciente, o meramente estados de un sistema físico. Por lo que a almacenamiento se refiere, las implicaciones físicas de la palabra son evidentes, y más aún en la actual sociedad tecnológica.

La teoría de la información es una rama de la teoría matemática de la probabilidad y la estadística que estudia la información y todo lo relacionado con ella, es decir canales, compresión de datos, criptografía y otros temas. La teoría de la información fue iniciada por Claude E. Shannon a través de un artículo publicado el año 1948, titulado “Una teoría matemática de la comunicación”. En este, la información es tratada como magnitud física y para caracterizar la información de una secuencia de símbolos se utiliza el concepto de entropía. Se parte de la idea de que los canales no son ideales, aunque muchas veces se idealicen las no linealidades, para estudiar diversos métodos utilizados para enviar información o la cantidad de información útil que se puede enviar a través de un canal. La teoría de la información matemática y la teoría de la codificación son dos disciplinas relativas al problema de transmitir información, de manera eficiente y precisa, desde una fuente a un receptor. Su análisis comienza por tratar de manera cuantitativa la información y sus diferentes manejos. Proporciona las bases teóricas para la observación, medida, compresión de datos, almacenamiento de datos, comunicación y sistemas de transmisión, estimación y toma de decisiones.

Se habla de la “teoría de la información cuántica”, un campo de investigación relativamente joven, que propone emplear sistemas cuánticos para almacenar y procesar información de manera más eficiente que por medios clásicos. La idea básica es muy sencilla y utiliza el principio de superposición de la mecánica cuántica: un sistema físico puede encontrarse en una superposición de dos o más estados medibles. Por ejemplo, los electrones tienen un momento angular intrínseco, el espín, que dada una dirección puede estar “apuntando hacia arriba”, o “hacia abajo”. Pero un electrón también puede encontrarse en un estado intermedio con el 50% de probabilidad de cada sentido.

La teoría de la información cuántica ha descubierto que el entrelazamiento o coherencia es, como la energía, un recurso cuantificable que posibilita tareas de procesado de información: algunos sistemas tienen un poco de entrelazamiento, otros mucho. Cuanto mayor sea el entrelazamiento disponible, más valdrá un sistema para el procesado cuántico de la información. Esta ciencia es lo bastante nueva para que se esté aún intentando aprehender su auténtica naturaleza. Si se llega a conocer los principios generales o leyes del entrelazamiento o coherencia cuántica quizá se podrá interpretar la complejidad de los sistemas cuánticos. La transición entre lo cuántico y lo clásico, en los sistemas complejos con muchas partes constituyentes, ocurre porque los grandes sistemas cuánticos interaccionan fuertemente con su entorno y sufren un proceso de decoherencia o pérdida del entrelazamiento que destruye las propiedades cuánticas del sistema. La clave para que un sistema complejo presente un comportamiento verdaderamente cuántico consiste en aislar muy bien el sistema del resto del mundo, de forma que se evite la decoherencia y se preserven los frágiles estados cuánticos. Conforme sea más complejo el sistema más difícil será aislarlo de las interacciones del medio y de hecho los grandes sistemas, prácticamente todos los objetos que se encuentran alrededor de las personas, por pequeños que sean, han perdido su coherencia cuántica y presentan un comportamiento puramente clásico, siendo esta la mayor dificultad a la hora de construir una computadora cuántica.

El recurso fundamental en el tratamiento de la información cuántica es el qubit, objeto cuántico ideal que proviene de la mecánica cuántica. Sus propiedades son independientes del soporte físico sobre el que se trate, sea el espín de un núcleo atómico o de la polarización de un electrón. Cualquier objeto que tenga dos estados diferentes, necesariamente, poseerá además un conjunto de otros estados posibles conocidos como superposiciones, que incluyen ambos estados en grados distintos. El continuo cambio de estados entre el cero y el uno causa muchas de las extraordinarias propiedades de la información cuántica. Los qubits individuales son interesantes, pero cuando se combinan varios entrelazándose aparece un comportamiento aún más fascinante. Estos estados entrelazados poseen propiedades fundamentalmente distintas de las que caracterizan a cualquier ente de la física clásica. Para Schrödinger el entrelazamiento no era un rasgo característico, sino el rasgo característico de la mecánica cuántica, el que la aparta por completo de las líneas de pensamiento clásicas. Los objetos entrelazados se comportan como si estuvieran conectados entre sí, con independencia de lo alejados que se hallen el uno del otro, pues la distancia no atenúa lo más mínimo el entrelazamiento. Si se realiza una medición sobre un ente entrelazado con otros objetos, proporcionará a la vez información acerca de éstos. Sin embargo el entrelazamiento no vale para enviar señales más deprisa que la velocidad de la luz, pues la naturaleza probabilística de la mecánica cuántica desbarata tal posibilidad.

El año 2001, Benjamin Schumacher, del Kenyon College, planteó que los elementos esenciales de la ciencia de la información, tanto clásica como cuántica, se resumían en un procedimiento que abarca tres etapas: (1) Identificar un recurso físico. Una cadena de bits o qubits codificados mediante objetos físicos reales, en el presente caso los dos estados fundamentales de un átomo, o del spin de un electrón, por ejemplo, que pueden codificar un qubit. (2) Identificar una tarea de procesado de información que pueda realizarse gracias al recurso físico del paso. (3) Identificar un criterio que establezca cuándo ha tenido éxito la tarea del paso (2). La pregunta fundamental que la ciencia de la información menciona, en este entendido es:¿Cuál es la mínima cantidad de recurso físico (1) que se necesita para realizar la tarea de procesamiento de la información (2) cumpliendo el criterio de éxito (3)?.

El año 1948 Shannon resolvió el problema fundamental relacionado con la información clásica, determinando el mínimo número de bits necesarios para almacenar la información producida por una fuente. Sus trabajos fundaron la teoría de la información, y su expresión matemática del contenido de información recibe hoy el nombre de entropía de Shannon. La clave de la nueva ciencia la tiene la calibración del entrelazamiento de los qubits. Las medidas cuantitativas del entrelazamiento están demostrando una enorme utilidad como conceptos unificadores en la descripción de una amplia gama de fenómenos. Se puede analizar el flujo de entrelazamiento, de un subsistema a otro, que se requiere para ejecutar un determinado proceso de información, de forma parecida a como se estudia el flujo de energía entre distintas partes de un sistema, pues el entrelazamiento de un estado se puede transmitir a otro tal como fluye la energía.

Además de las generalizaciones cuánticas de nociones clásicas como las de fuentes, canales y códigos, esta nueva teoría de la información incluye dos tipos complementarios de información cuantificable: la información clásica y el entrelazamiento cuántico. La información clásica puede copiarse a voluntad, pero sólo puede transmitirse hacia adelante en el tiempo, hacia un receptor situado en el cono de luz futuro del emisor. Por el contrario, el entrelazamiento no puede copiarse, pero puede conectar dos puntos cualesquiera en el espacio-tiempo. Las operaciones convencionales de procesamiento de datos destruyen el entrelazamiento, pero las operaciones cuánticas pueden crearlo y usarlo para distintos propósitos, como acelerar determinadas computaciones clásicas o ayudar en la transmisión de información clásica o de estados cuánticos. Una parte de esta teoría consiste en el estudio cualitativo y cuantitativo del entrelazamiento y de sus interacciones con la información clásica.

Guillermo Choque Aspiazu
www.eldiario.net
Enero 26 de 2009

Nanobiotecnología

La palabra “nanotecnología” es usada extensivamente para definir las ciencias y técnicas que se aplican a un nivel de nanoescala, esto es unas medidas extremadamente pequeñas que permiten trabajar y manejar las estructuras moleculares y sus átomos. Estas medidas llevarían a la posibilidad de fabricar materiales y máquinas a partir del reordenamiento de átomos y moléculas. En este entendido, la nanotecnología es el estudio, diseño, creación, síntesis, manejo y aplicación de materiales, aparatos y sistemas funcionales a través del control de la materia a nanoescala, además de la explotación de fenómenos y propiedades de la materia a nanoescala. Cuando se manipula la materia a la escala tan minúscula de átomos y moléculas, demuestra fenómenos y propiedades totalmente nuevas. Por lo tanto, los científicos utilizan la nanotecnología para crear materiales, aparatos y sistemas novedosos y poco costosos con propiedades únicas.

“Nano” es una medida, no un objeto. A diferencia de “biotecnología”, donde la palabra misma explica que la vida es manipulada por el arte humano, la nanotecnología indica solamente el tamaño del arte. Un nanómetro mide una mil millonésima parte de un metro. Los ojos más jóvenes y sanos no pueden ver cosas más pequeñas que un milímetro, y un nanómetro es un millón de veces más pequeño que eso. Incluso la mayoría de los microscopios no pueden ver cosas en nanoescala. Se necesitan 10 átomos de hidrógeno alineados uno junto al otro para igualar el largo de un nanómetro. Una molécula de ácido desoxirribonucléico mide aproximadamente 2.5 nanómetros de ancho. Un glóbulo rojo es gigantesco en comparación: 2 mil veces más grande que el ácido desoxirribonucléico, 5 mil nanómetros de diámetro. Las “materias primas” de la nanotecnología no son madera, caucho o acero. Son los elementos de la tabla periódica a partir de los cuales se constituye todo incluyendo la madera, el caucho, el acero y el ácido desoxirribonucléico. Hacer manejos precisos en nanoescala abre un mundo de posibles aplicaciones y cruza todos los sectores de la economía: se pueden fabricar computadoras más pequeñas y veloces, los medicamentos pueden alcanzar los órganos del cuerpo de manera total y pueden dirigirse a células específicas; los catalizadores, usados para acelerar las reacciones químicas, pueden ser más reactivos; los sensores pueden monitorear cultivos, ganado, herramientas y armas químicas según lo pida el cliente, con mucha mayor precisión; y los materiales en general pueden ser más fuertes, ligeros e “inteligentes”.

El estudio de la “nanobiotecnología” redefine los ubicuos objetos de estudio de la biología y la química, a saber las moléculas, como máquinas diminutas. Así, por ejemplo, la molécula de trifosfato de adenosina, componente esencial del ciclo celular de todos los seres vivos, ha recibido la denominación de “nanomotor”, al igual que la actina, integrante del binomio molecular actina/micina, responsable del estímulo eléctrico que controla los latidos del corazón. La redefinición de la biología y la química como nanobiotecnología podría parecer simplemente un intento pusilánime de atraer la atención hacia la ciencia tradicional, pero ahí rige la misma distinción que antes: si estos diminutos motores y dispositivos biológicos se aprovechan y manejan para hacer cosas hasta ahora desconocidas, el componente esencial de la definición no es el mero estudio, sino el aprovechamiento de los motores moleculares, las moléculas y la maquinaria de la vida.

La nanobiotecnología o bionanotecnología es una rama de la nanotecnología basada en el uso de estructuras biológicas tales como las proteínas, trifosfato de adenosina, acido desoxirribonucléico, etc. La nanobiotecnología es frecuentemente llamada tecnología húmeda-seca, donde la parte relacionada con el término húmeda pertenece a los componentes biológicos y la parte seca corresponde a la ingeniería de nanopartículas inorgánicas. La nanobiotecnología es una rama de la nanotecnología con aplicaciones o usos biológicos y bioquímicos. A menudo la nanobiotecnología estudia elementos existentes en la naturaleza para fabricar nuevos dispositivos. El término bionanotecnología es usado a menudo como sinónimo de nanobiotecnología, si se hace la distinción entre ambas, la nanobiotecnología se refiere a usar la nanotecnología para alcanzar las metas de la biotecnología, mientras que la bionanotecnología puede referirse a cualquier superposición entre la biología y la nanotecnología, incluyendo el uso de biomoléculas como parte o inspiración de dispositivos nanotecnológicos.

La definición de nanobiotecnología abarca dos grandes áreas de actuación: (1) La aplicación de herramientas, componentes y procesos de la nanotecnología a los sistemas biológicos, lo que últimamente se está dominando nanomedicina, donde se desarrollan herramientas para prevenir y tratar enfermedades en el cuerpo humano cuando están todavía en estados poco avanzados, lo que conlleva grandes avances diagnósticos y terapéuticos. (2) Uso de sistemas biológicos como moldes para el desarrollo de nuevos productos de escala nanométrica, fundamentalmente nanodispositivos electrónicos. Las herramientas y técnicas a nanoescala están ayudando no sólo al diseño de materiales con dimensiones nanométricas que presentan características nuevas o mejoradas sino también a entender y manipular células vivas y componentes biológicos, por lo que está abriendo un camino potencial a la obtención de nuevos biosensores, nanoherramientas o sistemas de liberación de fármacos dirigidos. Estos avances sólo pueden tener lugar gracias a la integración multidisciplinar de la nanotecnología con la biología, la química, la informática y la medicina y por eso la característica esencial de la nanobiotecnología es la multidisciplinaridad.

Dos de los grandes retos del siglo veintiuno serán la capacidad de detectar de forma precoz la presencia de enfermedades y defectos genéticos, así como la capacidad de regenerar aquellos órganos y tejidos que estén dañados al interior del cuerpo humano. Encontrar una solución a estos retos podría tener una gran repercusión en la calidad de vida de los seres humanos. La nanobiotecnología, disciplina en la frontera entre la nanotecnología y la biotecnología, es una de las grandes áreas emergentes en ciencia y tecnología que promete obtener tales avances. A través de la convergencia con la biotecnología, la nanotecnología ofrece a las ciencias biológicas nuevos materiales y herramientas que poseen nuevas características o que mejoran significativamente su funcionamiento; en cambio la biología ofrece a la nanotecnología oportunidades sin precedentes para explorar, aprender y utilizar nanoestructuras funcionales que son inherentes a los seres vivos.

Es evidente que el aumento de graves enfermedades como el cáncer, la diabetes o las enfermedades cardiovasculares en el mundo occidental, así como el aumento de la esperanza de vida con el consiguiente envejecimiento de la sociedad y la mayor incidencia de enfermedades crónicas, motiva la búsqueda de nuevos métodos de diagnóstico y terapéuticos que sean más rápidos y eficaces que los actuales, que además puedan reducir al máximo el costo de los análisis y los servicios, y que al mismo tiempo sean cómodos para el usuario. Gracias a la nanobiotecnología en un futuro próximo será posible contar con tales progresos y se podrá llegar hasta los tratamientos individualizados a distancia, o bien en el propio hogar o lugar de trabajo del paciente.

Aunque uno de los principales motores en el desarrollo de la nanobiotecnología es mejorar la diagnosis de enfermedades y su tratamiento, las oportunidades de esta rama de la nanotecnología se extienden por igual a otros ámbitos, como al diseño de nuevos fármacos, el control medioambiental, la cosmética, las aplicaciones en energía, las aplicaciones electrónicas, etc. Por ejemplo, mejorar el entendimiento de los procesos naturales podría facilitar el desarrollo de fabricación a escala molecular bioinspirada de nuevos materiales que pudiera emplearse como chip electrónicos reemplazando a los actuales. Ya se está trabajando en la computación molecular basada en la capacidad del ácido desoxirribonucléico para almacenar y procesar información consiguiendo una codificación de los datos en cadenas y utilizando técnicas de biología molecular para llevar a cabo operaciones lógicas y aritméticas. Una computadora de ácido desoxirribonucléico podría ser miles de veces más rápida que las actuales pero con un menor consumo energético. La investigación en computación con ácido desoxirribonucléico in vitro que se está realizando proporciona información relevante acerca de las capacidades computacionales de los seres vivos.

Guillermo Choque Aspiazu
http://www.eldiario.net/
Enero 19 de 2009

Robótica de Enjambre

Un robot está definido como una entidad hecha por el hombre con una determinada anatomía y una conexión de retroalimentación inteligente entre el sentido y la acción directa que no esta bajo el control humano. Sin embargo, se ha avanzado mucho en el campo de los robots con inteligencia alámbrica. Las acciones de este tipo de robots son generalmente llevadas a cabo por máquinas que mueven extremidades o impulsan al robot. Así mismo, el término robot ha sido utilizado como un término general que define a una máquina mecánica o autómata, que imita a un animal, ya sea real o imaginario, pero se ha venido aplicado a muchas máquinas que reemplazan directamente a un humano o animal en el trabajo o en el juego. Esta definición podría implicar que un robot es una forma de biomimetismo.

Cuando se observa un enjambre, es posible darse cuenta que es una organización sofisticada y compleja. Además estas sociedades no cuentan con jefes, ni lideres. Las organizaciones de enjambres trabajan en grupos sociales para sacar adelante una tarea, está labor se conoce como inteligencia colectiva. De manera absolutamente natural, una colonia de hormigas puede resolver problemas que individualmente no podría resolver. Las hormigas de manera individual no pueden resolver inconvenientes pero en grupo si, respondiendo con rapidez y eficacia a su entorno, haciendo uso de la inteligencia colectiva. En la inteligencia de enjambres, se debe seguir reglas simples para que el comportamiento del grupo arroje resultados sorprendentes y altamente efectivos. Si la sociedad boliviana tomara algunas pautas de las colonias de enjambres, podría resolver problemas de manera simple, aquellos que por no trabajar en equipo se convierten en grandes y complejos problemas. Para que un enjambre sea exitoso se aplican tres aspectos importantes: (1) Flexibilidad para que la colonia puede adaptarse a un entorno cambiante. (2) Robustez cuando uno o más individuos fallan o mueren, el grupo puede seguir ejecutando la tarea. (3) Auto-organización, es decir las actividades no son controladas de manera centralizada ni se supervisan localmente.

La inteligencia colectiva es una forma de inteligencia universalmente distribuida, constantemente realzada, coordinada en tiempo real, y resultando en la movilización efectiva de habilidades. La base y meta de inteligencia colectiva es el reconocimiento mutuo y enriquecimiento de individuos en vez del culto de comunidades fetichistas. Una premisa inicial se basa en la noción de una inteligencia universalmente distribuida. Nadie sabe todo, todos saben algo, todo conocimiento reside en la humanidad. No hay una provisión trascendente de conocimiento y el conocimiento es simplemente la suma de lo que saben las personas. La luz de la mente brilla aún cuando se intente persuadir a otros que no existe ninguna inteligencia: “fracaso educativo”, “corrupción repetitiva”, “autoritarismo”, “subdesarrollo”. El juicio demasiado prominente de la ignorancia se vuelve en contra de los jueces. Si uno está tentado a juzgar a alguien de ignorante, busca el contexto en el cual su conocimiento se pueda transformar en oro. El ideal de la inteligencia colectiva implica el realzamiento técnico, económico, legal y humano de una inteligencia universalmente distribuida que desata una dinámica positiva de reconocimiento y movilización de destrezas. El estudio de la inteligencia colectiva puede ser considerado propiamente como un subcampo de la sociología, de las ciencias de la computación y del comportamiento de masas, un campo que estudia el comportamiento colectivo desde el nivel de quarks hasta el nivel de las bacterias, plantas, animales y sociedades humanas.

La inteligencia de enjambre es una rama de la inteligencia artificial que se basa en el comportamiento colectivo de sistemas descentralizados y auto-organizados. Los sistemas de inteligencia de enjambre están constituidos típicamente de agentes simples que interactúan entre ellos y con su ambiente. Los agentes siguen reglas simples y, aunque no existe una estructura de control que dictamine el comportamiento de cada uno de ellos, las interacciones locales entre los agentes conducen a la emergencia de un comportamiento global complejo. En la naturaleza se pueden observar varios ejemplos que incluyen colonias de hormigas, alineamiento de aves en vuelo, comportamiento de rebaños, crecimiento bacteriano y comportamiento de cardúmenes. Por su parte la robótica de enjambre es un nuevo enfoque de la coordinación de sistemas multi-robóticos que consiste de un gran número de robots físicos simples. Se supone que un comportamiento colectivo deseado emerge de las interacciones entre los robots y de las interacciones de los robots con el medio ambiente. Este enfoque emerge del campo de la inteligencia artificial colectiva, como también de los estudios biológicos de los insectos, hormigas y otros campos de la naturaleza donde ocurre el comportamiento colectivo.

La investigación en robótica de enjambre está centrada en el estudio del diseño de robots, su cuerpo físico y sus comportamientos para el control. Está inspirado pero no limitado al comportamiento emergente observado en los insectos sociales, denominado inteligencia colectiva. Reglas individuales relativamente simples pueden producir un gran conjunto de comportamiento colectivo complejo. Un componente clave es la comunicación entre los miembros del grupo que construyen un sistema con una constante retroalimentación. El comportamiento colectivo involucra cambios constantes de los individuos en cooperación con otros, como también con el comportamiento del grupo en su conjunto. De manera diferente a los sistemas robóticos en general, la robótica de enjambre hace énfasis en un gran número de robots y promociona la escalabilidad, como en el caso de utilizar solo comunicación local. Dicha comunicación local por ejemplo puede ser lograda mediante los sistemas de transmisión local tales como la frecuencia de radio o los infrarrojos.

El video móvil es una herramienta esencial para estudiar de manera sistemática el comportamiento colectivo, aun cuando otros métodos móviles se encuentren disponibles. De manera reciente el famoso laboratorio de robótica “Bristol” desarrollo un sistema de posicionamiento ultrasónico para la investigación de las sociedades colectivas, con solamente las características de los miembros individuales de los enjambres. Tanto la miniaturización y los costos son factores claves en la robótica de enjambre. Estos factores constituyen las restricciones en la construcción de grandes grupos de robots; por consiguiente debe ser enfatizada la simplicidad del conjunto de miembros individuales. Esto puede motivar un enfoque de inteligencia colectiva para lograr un comportamiento significativo en el grado colectivo, en lugar de fomentar solamente el grado individual.

En lo que actualmente trabajan los investigadores es en enjambres de hasta 10000 robots miniatura que puedan trabajar juntos como una sola forma de vida artificial. El enjambre robótico es un campo de estudio basado en la suposición de que robots simples e individuales pueden interactuar y colaborar para formar un único organismo artificial que cuente con una mayor y más avanzada inteligencia colectiva. Como parte de una colaboración internacional llamada proyecto “organismos robot evolucionados en simbiosis”, investigadores de la Universidad de York se encuentran desarrollando un sistema inmunológico artificial que pueda proteger tanto a los robots individuales que forman parte del enjambre, como al organismo más grande que los acoge. Los investigadores esperan que el sistema inmunológico artificial sea capaz de detectar problemas y hacer recomendaciones a un sistema de control de más alto nivel, para que este ejecute acciones correctivas parecidas al modo de funcionamiento del sistema inmunológico adaptativo de las personas cuando actúan protegiendo la salud del cuerpo.

En caso de que se detectase algún fallo, los robots individuales serían capaces de compartir la información unos con otros dentro del enjambre. Luego el enjambre, como un todo, sería capaz de evolucionar en presencia de nuevos problemas, justo como el sistema inmunológico natural, que es capaz de enfrentarse a patógenos poco familiares. Este enfoque multi-robótico de aproximación a la inteligencia artificial es relativamente nuevo, y se ha desarrollado a partir de estudios del comportamiento de enjambres de insectos tales como las hormigas. Los enjambres robóticos podrían aplicarse a tareas del mundo real tales como rescatar a víctimas de terremotos, se podría soltar a un enjambre de robots en un edificio colapsado por el efecto de un terremoto, y entonces se organizarían equipos para levantar escombros o para buscar a los supervivientes.

Guillermo Choque Aspiazu
http://www.eldiario.net/
Enero 12 de 2009

viernes, 17 de abril de 2009

Reprogramación Celular

Las células embrionarias que forman parte de las primeras etapas de formación del individuo tienen una capacidad enorme de multiplicación y se encuentran en un momento en el que no tienen rasgos característicos de ningún tejido u órgano concreto. Durante el proceso de crecimiento del embrión, las células que lo forman comienzan un proceso de diferenciación que convierte en diferentes a células que durante un momento del desarrollo fueron iguales. En estas células diferenciadas van surgiendo rasgos característicos en su forma y en sus funciones bioquímicas que las convierten en parte de un órgano o tejido de orden superior a ellas.

El embrión definitivamente formado, tiene una cantidad enorme de tipos celulares distintos derivados todos de aquellas primeras células que eran aparentemente iguales. Esas células diferenciadas son el producto final de la expresión sucesiva de genes en momentos concretos del proceso de desarrollo. Su aspecto final, sus funciones y sus características bioquímicas están condicionados por la expresión de un determinado número de genes que son expresados en ellas. Esas células están así “programadas” para ejercer eficazmente su función. La reprogramación se produce cuando el perfil de genes concretos que se expresan en un determinado tipo celular, se altera, y los genes que dejaron de expresarse en una determinada etapa del desarrollo, vuelven a expresarse, modificando la forma y la biología de la célula reprogramada que, adquieren un nuevo potencial de diferenciación y duplicación que parecía definitivamente perdido.

No son formalmente células madre embrionarias pero se parecen mucho. Tienen una morfología similar y lo más importante, lo que genera tanta expectación, la misma capacidad de diferenciarse en cualquier tipo de tejido. Las células de pluripontencialidad inducida se crearon por primera vez el año 2006 gracias a la reprogramación celular, estas células se obtienen a partir de una célula madre somática, que son aquellas que están en los tejidos, como la piel o el sistema nervioso. La técnica, llamada reprogramación, consiste en introducir en dicha célula una serie de factores que hacen que ésta sea capaz de diferenciarse en todo tipo de tejidos. Es, en pocas palabras, retroceder un escalón en la evolución celular.

El año 2006 se reprogramaron con éxito células de ratón y hace unos meses dos equipos de investigadores demostraron que la técnica funcionaba en humanos al transformar células de la piel en células madre como las embrionarias células de pluripontencialidad inducida. El logro del estudio publicado es haber simplificado esa técnica acercándola un poco más a su posible uso clínico. El procedimiento, tal y como lo describen sus autores, es bastante sencillo. En este caso, los científicos del Instituto Max Planck de Münster y del RWTH de Aquisgrán-Alemania, tomaron células madre neuronales, del sistema nervioso de ratón. La elección no fue azarosa. Dos de los factores empleados en los estudios anteriores para lograr la reprogramación se expresan en mayor cantidad en este tipo celular por lo que los investigadores pensaron que tal vez podrían prescindir de ellos. Y así fue. Primero probaron suerte, en distintas combinaciones, con el cóctel de cuatro factores de trascripción usados en trabajos previos: Oct4, Sox2, Klf4 y c-Myc (este último, cancerígeno). Luego lo hicieron con sólo tres factores y, por último, con parejas. Dos díadas tuvieron éxito y su hipótesis se confirmó. Gracias a la expresión endógena de Sox2, fue posible reprogramar las células añadiendo sólo Oct4 junto con Klf4 o con c-Myc.

Las células de pluripontencialidad inducida resultantes tenían una morfología idéntica y propiedades similares a las células madre embrionarias, según el estudio. Además, mostraron su pluripotencialidad “in Vitro”. La primera ventaja de esta técnica reside en la posibilidad de renunciar a c-Myc, un factor de trascripción con capacidad para generar tumores. Librarse de él “nos acerca a la generación de células de pluripontencialidad inducida válidas para ser trasplantadas en humanos”, apuntan los autores dirigidos por Schöler y Zenke. La introducción de dos en lugar de cuatro factores es también positiva porque se reduce el número de virus que penetran en el ácido desoxirribonucléico de la célula, donde cada factor lleva uno de estos microorganismos como vehículo de entrada. Así, disminuye mucho el riesgo de mutaciones que supone la “mezcla” del ácido ribonucléico viral con el ácido desoxirribonucléico celular. El último escollo a salvar son precisamente estos virus. “Una solución es reemplazar estos 'taxis virales' por pequeñas moléculas”, explica Schöler. Éstas actuarían reactivando los genes necesarios para el proceso, como Oct4, o haciendo que se volvieran más activos.

Como corolario de este breve comentario se recurre a la habitual publicación de fin de año de la prestigiosa revista “Science”, donde se observa su selección de los diez adelantos científicos más destacados del año 2008. Se trata de avances importantes en las más variadas disciplinas, desde la biología molecular a los nuevos materiales o las ciencias del espacio. En el primer grupo de cinco adelantos figuran: (1) Células “a la medida”. La reprogramación celular vuelve a la lista de los grandes avances por segundo año consecutivo. Y lo hace en el primer puesto de la lista. La técnica que permite que una célula de la piel o de un cabello se convierta en una neurona o en cualquiera de los 220 tipos celulares que componen el organismo, tal como se comenta en la primera parte de este articulo. (2) Exoplanetas. Después de más de diez años de intensa búsqueda, los astrónomos han conseguido ya una amplia colección de planetas extrasolares, mundos que orbitan alrededor de estrellas lejanas. Pero hasta ahora su localización se había basado en métodos indirectos. Nadie había conseguido ver uno. Sin embargo, hace apenas un mes se anunció la primera observación directa de un exoplaneta. Su nombre es HR 8799, tiene diez veces el tamaño de Júpiter y está a 128 años luz de la Tierra. (3) Mapas genéticos del cáncer. Dos de los tumores más letales, el cáncer de páncreas y el glioblastoma, cuentan ya con sus mapas genéticos. Los datos reunidos aportan el compendio más exhaustivo de análisis de mutaciones genéticas, lo que conduce de la salud al cáncer. Los mapas genéticos del cáncer permitirán dirigir tratamientos a la medida para cada paciente y tumor. (4) Nuevos superconductores. Los superconductores de altas temperaturas son una clase de materiales que son capaces de transportar electricidad sin resistencia y a temperaturas muy por encima del cero absoluto. Su uso ha revolucionado muchos campos de la ingeniería y de la ciencia. Pero este año, la comunidad científica se ha visto revolucionada por el hallazgo de toda una nueva familia de superconductores de altas temperaturas, basados esta vez en compuestos del hierro en lugar de los conocidos de cobre y oxígeno. (5) Proteínas en acción. Los bioquímicos se han encontrado con grandes sorpresas este año y han sido capaces, por primera vez, de ver proteínas en el momento de acoplarse a sus receptores, cambiar el estado de una célula y contribuir así a diferentes propiedades de un tejido.

En el segundo grupo de adelantos se encuentran: (6) Agua para quemar. Otro hallazgo destacado es una nueva herramienta que permite por primera vez almacenar el exceso de electricidad que generan fuentes como el viento o la energía solar. Lo que permite reutilizar ese excedente para producir, a su vez, más energía en un ciclo que no tiene fin. (7) Video del embrión. Un sofisticado microscopio ha permitido a investigadores alemanes captar un baile inédito, el de la vida en plena creación. Con sus lentes, han filmado el movimiento de las células de un óvulo fecundado en su primer día de desarrollo. La película traza la ruta de 16.000 células de un embrión del pez cebra convirtiéndose en un nuevo organismo. (8) Grasa “buena”, grasa “mala”. No toda la grasa es igual. El metabolismo cuenta con dos tipos de tejido graso: un tejido adiposo blanco que almacena calorías “extra” y el marrón, una grasa “buena” que quema energía para mantener la temperatura adecuada. Un equipo de investigadores ha descubierto que estos adipocitos marrones se pueden obtener de tejido muscular y dirigirlos para combatir la epidemia de obesidad. Los científicos creen que se podrían trasplantar adipocitos “buenos”, creados en laboratorio, en las personas con sobrepeso para acelerar la quema de calorías. (9) El peso del mundo. Los físicos han conseguido calcular con una precisión increíble, la masa de los protones y los neutrones, las partículas de las que está formado el universo visible. (10) El mamut lanudo. El año 2008 se han anunciado un buen número de genomas, desde el mamut lanudo o el hombre de Neandertal a un enfermo de cáncer, lo cual ha sido posible gracias al desarrollo de nuevas técnicas de secuenciación genética mucho más rápidas y baratas de las usadas para el genoma humano.

Guillermo Choque Aspiazu
http://www.eldiaro.net/
Enero 5 de 2009

viernes, 10 de abril de 2009

Algoritmos Culturales

La cultura es el conjunto de todas las formas y expresiones de una sociedad determinada. Como tal incluye costumbres, prácticas, códigos, normas y reglas de la manera de ser, vestimenta, religión, rituales, normas de comportamiento y sistemas de creencias. Desde otro punto de vista se puede decir que la cultura es toda la información y habilidades que posee el ser humano y algunos animales. El concepto de cultura es fundamental para las disciplinas que se encargan del estudio de la sociedad, en especial para la antropología y la sociología.

La evolución biológica, mediante la selección natural, apunta hacia el logro de mayores niveles de adaptación de los seres vivientes. En el caso del hombre, en una determinada época, aparece el cerebro, como un órgano apto para el proceso de información. A partir de ahí comienza el proceso de adaptación cultural al orden natural. Puede decirse que el principio de complejidad creciente es el que reúne tanto a la evolución biológica como a la evolución cultural. También ha sido denominado como Ley de complejidad-conciencia. Esta tendencia implica la existencia de un sentido de la evolución, de una finalidad objetiva e implícita del universo. También puede establecerse el sentido de la historia de la humanidad como una serie de intentos por lograr mayores niveles de adaptación al orden natural. Julian Huxley describe la situación del hombre “como si hubiese sido designado, de repente, director general de la más grande de todas las empresas, la empresa de la evolución”. Así como el medio presiona a la vida hacia una mayor adaptación, el propio orden natural presiona a la humanidad, a través del sufrimiento, a una mayor adaptación cultural al mismo.

La computación evolutiva está basada en las ideas de la selección natural, y su aplicación en un ambiente artificial. La selección natural es vista como un proceso de optimización, en el que paulatinamente los individuos de la población van mejorando para adaptarse a su medio. Para la computación evolutiva, un individuo es una solución potencial a un problema, codificada de acuerdo con el funcionamiento del algoritmo; y el medio donde se desenvuelve lo componen la función objetivo y las restricciones. La computación evolutiva involucra métodos que son poblacionales, lo que significa que trabajan con varias soluciones a la vez, y no con una, como lo hacen la mayoría de las heurísticas, con lo que evitan quedar atrapados en óptimos locales. Durante la ejecución de un algoritmo evolutivo, a la población se le aplican algunos operadores probabilísticos, con lo que se obtienen nuevas soluciones, las cuales se conservan o se descartan mediante un mecanismo de selección. Este proceso se repite por un número determinado de iteraciones, que en el contexto de la computación evolutiva se denominan generaciones. El número de generaciones puede ser dado por el usuario o definido por el propio algoritmo. Los operadores probabilísticos más comunes son el apareamiento y la mutación. En el apareamiento se hace una mezcla de dos o más individuos, llamados padres, para obtener uno o más individuos nuevos, llamados hijos. La mutación es una alteración aleatoria sobre un individuo.

Los algoritmos evolutivos fueron ideados, y son ampliamente aplicados en problemas con espacios de búsqueda muy grandes. Es común que los espacios de búsqueda sean demasiado grandes para los métodos de optimización tradicionales, debido a que no se tiene mayor conocimiento del problema, o el conocimiento es muy difícil de codificar dentro del método que se trata de aplicar. Cuando se diseña una heurística de búsqueda, se debe elegir entre flexibilidad y velocidad. Las técnicas que favorecen la velocidad son los sistemas basados en conocimiento, mientras que en el extremo de la flexibilidad se encuentra la búsqueda exhaustiva. La computación evolutiva ha prestado atención a la flexibilidad, resolviendo una gran variedad de problemas difíciles, pero añadiendo una pequeña cantidad de conocimiento del dominio: comúnmente el único conocimiento que se tiene es que se pueden comparar dos soluciones y decir cuál es mejor.

Entre los primeros intentos por añadir conocimiento del dominio, en computación evolutiva, está el algoritmo llamado “EnGENEous” de Powell y sus colegas, escrito el año 1989, en el que se acopla un sistema experto a un algoritmo genético. Powell y sus colegas continuaron con la integración de sistemas expertos y algoritmos genéticos en el método llamado “Interdigitación”, en el que también incorporaron técnicas de optimización numérica para aproximar mejor el óptimo. Los investigadores Louis y Rawlins, el año 1993, propusieron incorporar conocimiento del dominio en varios problemas de diseño, entre ellos el diseño de circuitos lógicos y el diseño de armaduras. Primero la adición del conocimiento fue solamente en los operadores de recombinación, y posteriormente el conocimiento se incorporó en la iniciación de la población, en la codificación de los individuos y en los operadores evolutivos. Robert Reynolds, el año 1994, propuso un tipo de algoritmos evolutivos, en los que el conocimiento del dominio no se integra a priori a la técnica, sino que se extrae durante el mismo proceso de búsqueda. Estos son los denominados algoritmos culturales.

Los algoritmos culturales fueron desarrollados como un complemento a la metáfora que usan los algoritmos de computación evolutiva, que se habían concentrado en conceptos genéticos, y de selección natural. Los algoritmos culturales están basados en las teorías de algunos sociólogos y arqueólogos, que han tratado de modelar la evolución cultural. Tales investigadores indican que la evolución cultural puede ser vista como un proceso de herencia en dos niveles: el nivel micro-evolutivo, que consiste en el material genético heredado por los padres a sus descendientes, y el nivel macro-evolutivo, que es el conocimiento adquirido por los individuos a través de las generaciones, y que una vez codificado y almacenado, sirve para guiar el comportamiento de los individuos que pertenecen a una población. La cultura puede verse como un conjunto de fenómenos ideológicos compartidos por una población, pero por medio de los cuales, un individuo puede interpretar sus experiencias y decidir su comportamiento. En estos modelos se aprecia muy claramente la parte del sistema que es compartida por la población: el conocimiento, recabado por miembros de la sociedad, pero codificado de tal forma que sea potencialmente accesible a todos. De igual manera se distingue la parte del sistema que es individual: la interpretación de ese conocimiento codificado en forma de un conjunto de símbolos, y los comportamientos que trae como consecuencia su asimilación; también la parte individual incluye las experiencias vividas, y la forma en que éstas pueden aportar algo al conocimiento compartido. Reynolds intenta captar ese fenómeno de herencia doble en los algoritmos culturales. El objetivo es incrementar las tasas de aprendizaje o convergencia, y de esta manera, que el sistema responda mejor a un gran número de problemas.

Los algoritmos culturales operan en dos espacios. Primero, el espacio de la población, como en todos los métodos de computación evolutiva, en el que se tiene un conjunto de individuos. Cada individuo tiene un conjunto de características independientes de los otros, con las que es posible determinar su adaptabilidad. A través del tiempo, tales individuos podrán ser reemplazados por algunos de sus descendientes, obtenidos a partir de un conjunto de operadores aplicados a la población. El segundo espacio es el de creencias, donde se almacenarán los conocimientos que han adquirido los individuos en generaciones anteriores. La información contenida en este espacio debe ser accesible a cualquier individuo, quien puede utilizarla para modificar su comportamiento. Para unir ambos espacios se establece un protocolo de comunicación que dicta las reglas del tipo de información que se debe intercambiar entre los espacios.

Los problemas aptos para el uso de algoritmos culturales son aquellos que contienen una cantidad significativa de conocimiento del dominio, por decir para una optimización con restricciones. Los sistemas complejos donde la adaptación pueda darse en distintos niveles y velocidades, tanto en el espacio de la población como en el espacio de creencias. El conocimiento en diferentes formas. Cuando la solución del problema requiere múltiples poblaciones y espacios de creencias que interactúen y finalmente los problemas estructurados de manera jerárquica.

Guillermo Choque Aspiazu
http://www.eldiario.net/
Diciembre 29 de 2008

viernes, 3 de abril de 2009

Redes Neuronales Predictivas

La predicción es una adivinación calculada del futuro. Desde el punto de vista metodológico, los métodos de predicción se pueden agrupar en dos grandes bloques: métodos cualitativos o tecnológicos y métodos cuantitativos. Básicamente los métodos cualitativos se utilizan en aquellos casos en los que el pasado no proporciona una información directa sobre el fenómeno considerado. En las predicciones de carácter cuantitativo, se parte del supuesto de que se tiene registrada información sobre el pasado relacionado con el fenómeno que se quiere estudiar. Generalmente la información sobre el pasado aparece en forma de series de tiempo. La predicción constituye un elemento clave para el desarrollo de la ciencia. En la actualidad, el enfoque predictivo ha dejado de ser una actividad esotérica para convertirse en un instrumento de gran potencialidad, en campos tan diversos como la economía, medicina, política, demografía o la ya clásica meteorología.

La pieza clave de un proceso predictivo es lo que se entiende por reconocimiento. Para que este reconocimiento tenga lugar, hace falta disponer de un conjunto de conocimientos a modo de base de datos o memoria. Este conocimiento se adquiere por aprendizaje, a lo largo de la existencia de una persona. Su contenido no es la suma de una serie de representaciones locales, esto es cada estructura tendría su representación perfectamente localizada, sino más bien una representación distribuida uniformemente por toda la base de datos o memoria. Esta distribución del conocimiento lleva consigo una suerte de solapamiento de los contenidos. Este solapamiento hace posible la existencia de un proceso de generalización que, no consiste más que en la posible extensión del conocimiento previamente adquirido a otras estructuras desconocidas hasta el momento. El reconocimiento de una estructura presupone una correspondencia entre los rasgos de esta estructura y los almacenados en la memoria. En el caso de tratarse de una nueva estructura y por tanto desconocida para el sistema - entra en juego el proceso de generalización, mediante el cual se extrapola el conocimiento adquirido a esa nueva estructura, siempre que ésta tenga algún punto en común con las estructuras previamente almacenadas en la memoria. Los investigadores Rumelhart y McClelland definen el funcionamiento de las redes neuronales artificiales como un procesamiento distribuido en paralelo. Esta es una de las facetas más importantes de las redes neuronales y a ella se debe precisamente su capacidad predictiva.

Las redes neuronales artificiales son sistemas de procesamiento de la información cuya estructura y funcionamiento están inspirados en las redes neuronales biológicas. Consisten en un gran número de elementos simples de procesamiento llamados nodos o neuronas que están organizados en capas. Cada neurona está conectada con otras neuronas mediante enlaces de comunicación, los cuales tienen asociado un determinado peso. En los pesos se encuentra el conocimiento que tiene la red neuronal acerca de un determinado problema. El uso de las redes neuronales puede orientarse en dos direcciones: (1) como modelos para el estudio del sistema nervioso y los fenómenos cognitivos, (2) como herramientas para la resolución de problemas prácticos como la clasificación de patrones y la aproximación de funciones. Desde esta segunda perspectiva, las redes neuronales han sido aplicadas de forma satisfactoria en la predicción de diversos problemas en diferentes áreas de conocimiento tales como la biología, medicina, economía, ingeniería, psicología, etc.; obteniendo excelentes resultados respecto a los modelos derivados de la estadística clásica. La virtud de las redes neuronales radica en su capacidad para aprender funciones complejas o no lineales entre variables sin necesidad de imponer supuestos o restricciones de partida en los datos.

Las redes neuronales, desde el mismo principio de su aplicación práctica, han demostrado ser una herramienta poderosa para la clasificación de los datos, el reconocimiento de patrones y la predicción, debido a sus capacidades de aprender y generalizar los datos observados. Hu el año 1964, fue el primero en demostrar, en un ejemplo práctico de predicciones meteorológicas, la capacidad predictiva de las redes neuronales. Werbos el año 1974, experimentó con las redes neuronales como herramientas para el pronóstico de series de tiempo, basado en datos de observaciones. El año 1986 se formuló el algoritmo de retropropagación, por Rumelhart, Hinton y Williams, basándose en los trabajos de Werbos el año 1974 y Parker el año 1982. Experimentando con la red neuronal de retropropagación, Werbos el año 1990, llegó a la conclusión de que las redes neuronales superan a los métodos estadísticos de predicción, como el análisis de regresión y el modelo de predicción de Box - Jenkins.

Las redes neuronales, al estar constituidas por un conjunto de algoritmos matemáticos, encuentran las relaciones no lineales entre conjuntos de datos. Se denominan neuronales porque están basadas en el funcionamiento de una neurona biológica cuando procesa información. En términos simples, son sistemas de procesamiento que tratan de reproducir la capacidad que tiene el cerebro humano para reconocer patrones, hacer predicciones o tomar una decisión con base en la experiencia pasada. Las redes neuronales son eficientes cuando de pronosticar se trata dado que actúan en de la siguiente forma: (1) Paralela. Cuentan con un gran número de procesadores elementales o neuronas que permite trabajar simultáneamente en la resolución de problemas. (2) Distribuida. Cada neurona trata una fracción del problema y (3) Adaptativa. Debido a que posee la capacidad de ajustarse a nuevos datos, con lo cual aprende modificando sus parámetros de cálculo hasta encontrar una solución aceptable.

La generalización es la capacidad de dar salidas satisfactorias a las entradas que el sistema no ha visto nunca en su fase de entrenamiento. La generalización implica reaccionar apropiadamente a nuevas situaciones, siendo una característica muy importante en todos los sistemas inteligentes. Esta red deberá estar en capacidad de proporcionar salidas próximas a los valores deseados cuando se le proporcionan nuevos ejemplos, es decir, entradas que no pertenecen al conjunto de entrenamiento, sino que forman parte de los patrones de prueba. Una red que produce un alto error de predicción sobre los nuevos datos, pero un bajo error sobre los datos de entrenamiento se dice que la red a sobre ajustado los datos de entrenamiento. El sobre ajuste ocurre cuando la red neuronal ha entrenado ciegamente a un mínimo en el error cuadrado total sobre el conjunto de entrenamiento. Una red neuronal que sobre ajusta los datos de entrenamiento tiene una mala habilidad de generalización. Para que ocurra una buena generalización deben cumplirse las siguientes condiciones: (1) Las entradas de la red deben contener suficiente información con relación al objetivo o salida deseada, de manera que exista una función matemática que relacione correctamente las salidas con las entradas. (2) La función que se trata de aprender debe ser, en cierto sentido, suave. Se debe tomar en cuenta que los cambios pequeños en las entradas, producen cambios pequeños en las salidas. (3) El número de patrones de entrenamiento debe ser suficientemente representativo del conjunto de los casos que se quiere generalizar.

Según los autores Palit y Popovic, en un estudio realizado el año 2005, la metodología para la predicción es generalmente entendida como un conjunto de enfoques, métodos y herramientas para la recopilación de datos a ser utilizados para la previsión o predicción de los futuros valores de estas series de datos, incluyendo las siguientes etapas: (1) Preparación de los datos para el pronóstico, es decir, la adquisición, estructuración, normalización y la división de los datos. (2) Determinación de la arquitectura de la red, es decir, la selección del tipo de red que se utilizará para la predicción, la determinación del número de nodos de entrada y salida de la red, número de capas, el número de neuronas dentro de las capas, determinación de las interconexiones entre las neuronas, la selección de la función de activación de las neuronas, entre otros. (3) Diseño de la estrategia de aprendizaje o entrenamiento de la red, es decir, la selección del algoritmo de aprendizaje, el índice de rendimiento, la capacitación y la supervisión. El entrenamiento de la red neuronal es un proceso en el que la red aprende a reconocer el modelo inherente a los datos de entrenamiento. El objetivo del entrenamiento es encontrar el conjunto conveniente para los valores de los pesos en la conexión de los nodos de la red neuronal a través de la afinación de los mismos durante el entrenamiento de la red, haciendo que la red pueda lograr el atributo de la generalización más alto. (4) Evaluación global de los resultados de la predicción mediante la utilización de nuevos conjuntos de datos de observación.

Guillermo Choque Aspiazu
http://www.eldiario.net/
Diciembre 22 de 2008