viernes, 20 de febrero de 2009

Códigos Cuánticos

La teoría de la información y codificación, además de la computación han experimentado un acelerón provocado por la aparición de una nueva rama y una renovación de sus conexiones históricas con la física básica, cuando se han extendido para abarcar el hasta entonces intacto territorio de la transmisión y el procesamiento de los estados cuánticos y la interacción de esta “información cuántica” con las formas tradicionales de información. Cabría preguntarse por qué esto no ha sucedido antes, puesto que hace mucho tiempo que los principios cuánticos se aceptaron como el fundamento de toda la física. Quizá los fundadores de la teoría de la información y la computación, como Shannon, Turing y von Neumann, estaban demasiado acostumbrados a pensar en el procesamiento de información en términos macroscópicos, al no tener todavía ante sí ejemplos tan convincentes como el código genético o la cada vez más pequeña microelectrónica. Sea como fuere, hasta hace poco se pensaba en la información en términos clásicos, y la mecánica cuántica jugaba sólo un papel secundario en el diseño de los equipos para procesarla y en el establecimiento de límites al ritmo con que se podía enviar por cierto tipo de canales.

La computación cuántica es un paradigma de computación distinto al de la computación clásica. Se basa en el uso de qubits en lugar de bits, y da lugar a nuevas puertas lógicas que hacen posibles nuevos algoritmos. Una misma tarea puede tener diferente complejidad en computación clásica y en computación cuántica, lo que ha dado lugar a una gran expectación, ya que algunos problemas intratables pasan a ser tratables. Mientras una computadora clásica equivale a una máquina de Turing, una computadora cuántica equivale a una máquina de Turing indeterminista. La empresa canadiense D-Wave System había supuestamente presentado el 13 de febrero de 2007 en Silicon Valley, una primera computadora cuántica comercial de 16-qubits de propósito general; luego la misma compañía admitió que tal máquina llamada Orion no es realmente una computadora cuántica, sino una clase de máquina de propósito general que usa algo de mecánica cuántica para resolver problemas.

Uno de los obstáculos principales para la computación cuántica es el problema de la decoherencia, que causa la pérdida del carácter unitario y la reversibilidad de los pasos del algoritmo cuántico. Los tiempos de de coherencia para los sistemas candidatos, en particular el tiempo de relajación transversal, en la terminología usada en la tecnología de resonancia magnética nuclear e imaginería por resonancia magnética, está típicamente entre nanosegundos y segundos, a temperaturas bajas. Las tasas de error son típicamente proporcionales a la razón entre tiempo de operación frente a tiempo de de coherencia, de forma que cualquier operación debe ser completada en un tiempo mucho más corto que el tiempo de de coherencia. Si la tasa de error es lo bastante baja, es posible usar eficazmente la corrección de errores cuánticos, con lo cual sí sería posible tiempos de cálculo más largos que el tiempo de de coherencia y, en principio, arbitrariamente largos.

En las computadoras actuales, todo está basado en ceros y unos, el mítico código binario, que no es tan moderno, se usó en los sesenta y cuatro hexagramas del I-Ching: el libro de las mutaciones, escrito hace varios miles de años en China. La ventaja del código binario es su sencillez, son dos estados, apagado/encendido, cero/uno, si/no, con la tecnología actual estos dos niveles de voltaje se pueden guardar durante mucho tiempo, de tal manera que luego se pueden recuperar, si se almacena la hilera 11000001 en el disco duro, dentro de seis meses será posible volver a leer 11000001, y eso aunque parezca extraño, es mágico. Ese guiño tecnológico es el que permite guardar este archivo y volverlo a leer. Ese flujo infinito de ceros y unos por doquier hacen posible Internet, la telefonía digital, la televisión digital, y muchas otras cosas más.

Es vox populi que un bit clásico, o bit de Shannon, corresponde a la mínima cantidad de información que es posible manejar con la tecnología actual, y que puede almacenar un cero o un uno que luego puede ser copiado. La información digital parece materia mundana. Los ceros y unos de un código binario pueden ser fácilmente medidos, copiados, y modificados. Pero se asigna una pieza de información a una partícula cuántica, y asume las características extrañas del mundo cuántico. Esta unidad fundamental de la información cuántica es llamada un bit cuántico, o qubit, y es un poco diferente de su clásica contraparte. Un qubit puede ser ambos un cero y un uno al mismo tiempo. Tomar el spin de un electrón, una propiedad que puede ser imaginada como el giro de un trompo con su eje apuntando o arriba o abajo. El giro arriba o abajo puede corresponder a un cero o uno. Pero el electrón puede también estar situado en una existencia dual como un espectro, conocido como una superposición de estados, en los cuales están en ambos arriba o abajo, un cero y un uno, al mismo tiempo. Lleva a cabo un calculo usando un electrón, y ejecutando simultáneamente en ambos el cero y el uno, dos cálculos por el precio de uno. Gracias al principio de superposición de la física cuántica, el qubit puede ser cero y uno a la vez, se puede estar vivo y muerto a la vez hasta que alguien pueda realizar una observación, como en la historia del sapo transformado en príncipe. Se diferencia del bit de Shannon porque no puede ser copiado a causa del teorema de no clonación.

La computación cuántica ofrece la posibilidad de realizar procesamiento paralelo a gran escala. A diferencia de los “interruptores” en las computadoras actuales, que están totalmente encendidas o totalmente apagadas, los bits cuánticos pueden estar apagados, encendidos, o apagados y encendidos al mismo tiempo. La disponibilidad de tales “superposiciones”, además de otras extrañas propiedades cuánticas, brindan los medios para que una computadora cuántica pueda resolver ciertos problemas en un tiempo exponencialmente más corto que una computadora convencional con el mismo número de bits. Y para ciertas clases específicas de problemas, una computadora cuántica con 300 qubits tiene potencialmente más poder de procesamiento que una computadora clásica con tantos bits como partículas existentes en el universo.

La estructura básica de los códigos cuánticos es la misma que la de los clásicos. Se codifica la información introduciendo redundancia con la finalidad de utilizar esta información adicional para detectar y corregir errores. Como se ha comentado, la teoría cuántica de códigos debe abordar algunos problemas nuevos respecto a la teoría clásica de códigos: errores continuos, imposibilidad de copiar estados, debido al teorema de no-clonado y el colapso de los estados durante su lectura. A pesar de estas dificultades las ideas propuestas por Shor y Steane han permitido establecer de forma consistente la teoría cuántica de códigos. En la teoría cuántica de códigos se considera un código cuántico de longitud asociada al par ordenado compuesto por dos variables ene y eme, es decir, un código que codifica un qubit de tamaño eme en un qubit de tamaño ene. Formalmente se trata de una aplicación lineal inyectiva que conserva el producto escalar entre dos espacios de Hilbert que describen el qubit de tamaño m y el qubit de tamaño n respectivamente.

Se conoce que una teoría cuántica de la información y del procesamiento de la información ofrece, entre otras ventajas, un tipo de criptografía cuya seguridad descansa sobre los principios fundamentales de la física, y la razonable esperanza de construir computadoras cuánticas que podrían acelerar de forma espectacular la resolución de ciertos problemas matemáticos. Estas ventajas dependen de propiedades inconfundiblemente cuánticas como la incertidumbre, la interferencia y el entrelazamiento. A un nivel más fundamental, ha quedado patente que una teoría de la información basada en los principios cuánticos amplía y completa la teoría clásica de la información, del mismo modo que los números complejos amplían y completan los reales. Además de las generalizaciones cuánticas de nociones clásicas como las de fuentes, canales y códigos, la nueva teoría incluye dos tipos complementarios de información cuantificable: la información clásica y el entrelazamiento cuántico. La información clásica puede copiarse a voluntad, pero sólo puede transmitirse hacia adelante en el tiempo, hacia un receptor situado en el cono de luz futuro del emisor. Por el contrario, el entrelazamiento no puede copiarse, pero puede conectar dos puntos cualesquiera en el espacio/tiempo. Las operaciones convencionales de procesamiento de datos destruyen el entrelazamiento, pero las operaciones cuánticas pueden crearlo y usarlo para distintos propósitos, como acelerar determinadas computaciones clásicas o ayudar en la transmisión de información clásica o de estados cuánticos.

Guillermo Choque Aspiazu
http://www.eldiario.net/
Octubre 27 de 2008

Nanocompuestos

La visión que hoy en día la ciencia y la tecnología tienen hacia lo pequeño está basado en la investigación científica que ya desde hace mucho tiempo se lleva acabo por científicos de todo el mundo, con la meta fijada en el mejoramiento del funcionamiento de cualquier sistema. Esta visión de tender hacia lo pequeño y todos los estudios realizados podrían englobarse en dos términos nanotecnología y nanociencia. La nanotecnologia podría decirse que es el estudio de materiales a una escala nano, es como trabajar con los instrumentos que hoy en día se tienen, pero en un tamaño diminuto, imperceptible para la vista. La nanotecnologia estudia todos los fenómenos de la materia a nano escala, es decir el comportamiento que tienen y todo lo que se puede hacer con los nanomateriales. Hablar de materia del tamaño de átomos es hablar de nanotecnología. Es trabajar con materiales de tamaños miles de veces menores a un grano de arena. El físico teórico Richard Feyman es considerado el padre de la nanociencia, al proponer el año 1959, la fabricación de productos con base en un reordenamiento de átomos y moléculas.

En los últimos años, los nanocompuestos han sido un tema muy estudiado en el campo de la nanotecnología. Ellos engloban una gran cantidad de sustancias con muchísimas aplicaciones y con un futuro muy prometedor. La aplicación de estos compuestos es diversa en los campos de la “electrónica molecular” o en la “biomedicina”. Los nanocompuestos pueden ser divididos principalmente en dos grupos principales: catenanos y rotaxanos. Los rotaxanos están formados por una especie de anillos que están entrelazados, y estos están atravesados por un “hilo” en línea recta. Los rotaxanos se pueden unir entre sí. Los anillos actúan como una funda que protege al “hilo” central del exterior. Los pasos para crear un rotaxano pueden ser reversibles por eso es posible obtener de nuevo los anillos con los que se formó el rotaxano. Esta es una propiedad que permite que los rotaxanos tengan “memoria” es decir, al unir un rotaxano con otro, el rotaxano recuerda la posición en que tiene que colocarse para hacer la unión. Los catenanos tienen una forma diferente a los rotaxanos. Los catenanos están formados por dos anillos que están unidos como los eslabones de una cadena, y así como las cadenas no pueden separarse a menos que uno sea roto. Esta es una propiedad que permite a los catenanos tener libertad para rotar. Otros nanocompuestos no tienen esta propiedad, distinguiendo a los catenanos de los demás y debido a esto son aplicados en sistemas utilizados para almacenar información.

La definición de materiales nanocompuestos se ha ampliado significativamente para abarcar una extensa variedad de sistemas tales como uni-dimensional. bi-dimensional, tri-dimensional y materiales amorfos, hechos a partir de distintos componentes y trabajados a escala nanométrica. El tipo general de materiales orgánicos o inorgánicos de nanocompuestos es un área de investigación de rápido crecimiento. Esfuerzos significativos se centran en la habilidad de obtener el control de las estructuras a nanoescala vía aproximaciones sintéticas innovadoras. Las propiedades de los materiales nanocompuestos dependen no solo de las propiedades de sus patrones individuales sino también de su morfología y de sus características interfaciales. La rápida expansión de este campo está generando muchos interesantes nuevos materiales con nuevas propiedades. Lo último puede derivarse de la combinación de propiedades a partir de las materias constituyentes en un solo material. Hay también la posibilidad de nuevas propiedades las cuales son desconocidas en los materiales constituyentes.

El gran interés de los nanomateriales reside en las propiedades únicas que exhiben: interfaciales, mecánicas, térmicas, electrónicas, eléctricas, magnéticas y ópticas; debido principalmente a su pequeño tamaño y a su alto grado de perfección. El reto se encuentra, por lo tanto, en trasladar estas propiedades desde la nanoescala a materiales y estructuras en la macroescala. Con la introducción de estos nuevos materiales en los elementos aeronáuticos de materiales compuestos se pretende mejorar su comportamiento estructural relacionado con la mayor resistencia al impacto y estabilidad térmica, la menor absorción de humedad, además de su funcionalidad relacionada con la conductividad eléctrica y térmica, la resistencia al fuego y la dureza superficial. Esto permitiría eliminar actuales restricciones de los materiales compuestos y con ello un importante ahorro de costo y peso.

Por nanocompuesto polimérico se entiende un material caracterizado por la dispersión homogénea de partículas de relleno de dimensiones nanométricas en el interior de una matriz polimérica. Como relleno se usan por lo general nanopartículas de silicato o nanopartículas metálicas. En los polímeros compuestos de tipo convencional, es decir a los cuales se ha agregado un componente inorgánico no nanoestructurado, por ejemplo los plásticos reforzados con fibra de vidrio, hay una separación neta a nivel macroscópico entre las fases orgánica e inorgánica, lo que representa una limitación al mejoramiento de los materiales poliméricos; la ventaja de los nanocompuestos polímero/filosilicato es que permiten superar dicho límite, mejorando las características mecánicas y térmicas y la permeabilidad del mismo polímero, con el agregado de cantidades mínimas de silicatos. Es importante subrayar que tales mejoras no van en detrimento del color, de la procesabilidad ni de la densidad aparente.

Este tipo de materiales están teniendo amplia aplicación sobre todo en el campo de los envases para alimentos, por su propiedad de barrera a la penetración de los gases, de hasta 5 a 15 veces mayor que la del polímero puro y de polímeros cargados que a menudo contienen hasta un 20 - 30% de material silíceo: mica, talco o carbonato de calcio. Por otra parte, los nanocompuestos de silicato/polímero presentan también un poder de retardo de llama mejorado; los ensayos muestran que el pico de velocidad de la emisión de calor, que es una medida de la inflamabilidad del material, en el caso de un nanocompuesto llega a ser del 60 al 80% más bajo que el de un polímero puro. Al mismo tiempo, las propiedades mecánicas exhiben mejoras significativas, como mayor tenacidad y resistencia a la abrasión.

La industria de las computadoras es uno de los sectores en donde el avance en su tecnología implica utilizar materiales cada vez más pequeños. Científicos de Hewlett-Packard han estado desarrollando durante los últimos años computadoras tan pequeñas que cabrían en un grano de arena. Estos científicos han utilizado un rotaxano para que cumpla la función de interruptor de las nuevas computadoras, para el encendido y apagado. La función del rotaxano consiste en lo siguiente: El rotaxano está colocado entre dos cables y permite el paso de la corriente eléctrica. Imagine a un aventurero en medio de la selva que necesita un puente para cruzar de un barranco a otro, el rotaxano cumple de manera análoga la función del puente, los barrancos serían los cables y la corriente eléctrica estaría representado por el aventurero. Cuando el rotaxano está presente, la corriente eléctrica puede pasar, pero al aplicar una reacción eléctrica alrededor del rotaxano, este desaparece, por lo tanto la corriente no puede pasar del otro lado. Las nuevas generaciones de computadoras serán cada día más pequeñas y llegarán a ser billones de veces más rápidas que las que se usan en la actualidad y más económicas. Estas nuevas computadoras tendrán el nombre de: “nanocomputadoras electrónicas químicamente ensambladas”. Este tipo de computadoras ayudarán a cumplir funciones que en la actualidad parecen imposibles por ejemplo, incorporarlas al flujo sanguíneo de las personas para identificar las bacterias y así conocer los medicamentos específicos para combatir las infecciones.

La demanda de nanocompuestos crecerá hasta cerca de un valor próximo a los 15 mil millones de dólares, para el 2020. Aunque la promoción exagerada que rodea a los nanocompuestos poliméricos ha sido extremadamente intensa durante casi diez años, el mercado de estos nuevos materiales no ha resultado tan bien como muchos esperaban. Sin embargo, a medida que el interés comercial ha ido más allá de los programas piloto y se ha acercado a aplicaciones como el empaquetado o las piezas de vehículos a motor, parece que finalmente los nanocompuestos están preparados para un avance importante en el mercado. Los avances se impulsarán disminuyendo los precios de nanomateriales y compuestos, a medida que aumentan los niveles de producción y se superan los problemas técnicos relativos a la dispersión de nanoaditivos en compuestos.


Guillermo Choque Aspiazu
http://www.eldiario.net/
Octubre 20 de 2008

domingo, 15 de febrero de 2009

Leyes de la Robótica

El desarrollo en la tecnología, donde se incluyen las poderosas computadoras electrónicas, los actuadores de control retroalimentados, la transmisión de potencia a través de engranes, y la tecnología en sensores, han contribuido a flexibilizar los mecanismos autómatas para desempeñar varias tareas dentro de la industria. Son varios los factores que intervienen para que se desarrollaran los primeros robots en la década de los años 1950. La investigación en inteligencia artificial desarrolló maneras de emular el procesamiento de información humana con computadoras electrónicas e inventó una variedad de mecanismos para probar sus teorías.

No obstante las limitaciones de las máquinas robóticas actuales, el concepto popular de un robot es que tiene una apariencia humana y que actúa como tal. Este concepto humanoide ha sido inspirado y estimulado por varias narraciones de ciencia ficción. Una obra checoslovaca publicada en 1917 por Karel Kapek, denominada “Rossum’s Universal Robots”, dio lugar al término robot. La palabra checa “Robota” significa servidumbre o trabajador forzado, y cuando se tradujo al idioma ingles se convirtió en el término robot. Dicha narración se refiere a un brillante científico llamado Rossum y a su hijo, quienes desarrollan una sustancia química que es similar al protoplasma. Utilizan ésta sustancia para fabricar robots, y sus planes consisten en que los robots sirvan a la clase humana de forma obediente para realizar todos los trabajos físicos. Rossum sigue realizando mejoras en el diseño de los robots, elimina órganos y otros elementos innecesarios, y finalmente desarrolla un “ser perfecto”. El argumento experimenta un giro desagradable cuando los robots perfectos se rebelan contra sus dueños, destruyendo toda la vida humana.

Entre los escritores de ciencia ficción, Isaac Asimov contribuyó con varias narraciones relativas a robots, comenzando el año 1939, a él se atribuye el acuñamiento del término Robótica. La imagen de robot que aparece en su obra es el de una máquina bien diseñada y con una seguridad garantizada que actúa de acuerdo con tres principios. Estos principios fueron denominados por Asimov las “tres leyes de la robótica”, y son: (1) Un robot no puede actuar contra un ser humano o, mediante la inacción, que un ser humano sufra daños. (2) Un robot debe obedecer las órdenes dadas por los seres humanos, salvo que estén en conflictos con la primera ley. (3) Un robot debe proteger su propia existencia, a no ser que esté en conflicto con las dos primeras leyes.

Las tres leyes de la robótica aparecen formuladas por primera vez en 1942 en el relato “el círculo vicioso” de Asimov. El autor busca situaciones contradictorias en las que la aplicación objetiva de las tres leyes se pone en tela de juicio planteando a la vez interesantes dilemas filosóficos y morales. En 1985, Asimov publicó un relato en la que uno de sus robots se ve obligado a herir a un ser humano por el bien del resto de la humanidad. Surge así una nueva ley, considerada la ley definitiva, la llamada Ley Cero, superior a todas las demás: “Un robot no puede lastimar a la humanidad o, por falta de acción, permitir que la humanidad sufra daños”. Quedando así modificada la primera ley: “Un robot no debe dañar a un ser humano, o permitir, por inacción, que un ser humano sufra daño, a menos que tal acción viole la Ley Cero”.

En ciencia ficción las tres leyes de la robótica son un conjunto de normas escritas por Asimov, que la mayoría de los robots de sus novelas y cuentos están diseñados para cumplir. En ese universo, las leyes son “formulaciones matemáticas impresas en los senderos positrónicos del cerebro” de los robots, lo que hoy en el mundo de las computadoras se denomina “memoria empotrada”. Esta redacción de las leyes es la forma convencional en la que los humanos de las historias las enuncian; su forma real sería la de una serie de instrucciones equivalentes y mucho más complejas en el cerebro del robot. Asimov atribuye las tres Leyes a John W. Campbell, que las habría redactado durante una conversación sostenida el 23 de diciembre de 1940. Sin embargo, Campbell sostiene que Asimov ya las tenía pensadas, y que simplemente las expresaron entre los dos de una manera más formal. Las tres leyes aparecen en un gran número de historias de Asimov, especialmente en toda su serie de los robots, así como en varias historias relacionadas.

Estas leyes surgen como medida de protección para los seres humanos. Según el propio Asimov, la concepción de las leyes de la robótica quería contrarrestar un supuesto “complejo de Frankenstein”, es decir, un temor que el ser humano desarrollaría frente a unas máquinas que hipotéticamente pudieran rebelarse y alzarse contra sus creadores. De intentar siquiera desobedecer una de las leyes, el cerebro positrónico del robot resultaría dañado irreversiblemente y de manera consiguiente el robot moriría. A un primer nivel no presenta ningún problema dotar a los robots con tales leyes, a fin de cuentas, son máquinas creadas por el hombre para su servicio. La complejidad reside en que el robot pueda distinguir cuáles son todas las situaciones que abarcan las tres leyes, o sea poder deducirlas en el momento oportuno. Las tres leyes de la robótica representan el código moral del robot. Un robot va a actuar siempre bajo los imperativos de sus tres leyes. Para todos los efectos, un robot se comportará como un ser moralmente correcto. Sin embargo, es lícito preguntar: ¿Es posible que un robot viole alguna de sus tres leyes? ¿Es posible que un robot “dañe” a un ser humano? La mayor parte de las historias de robots de Asimov se basan en situaciones en las que a pesar de las tres leyes, se podría responder a las anteriores preguntas con un “sí”. Asimov crea un universo en el que los robots son parte fundamental a lo largo de diez mil años de historia humana, y siguen teniendo un papel determinante por diez mil años más.

Los primeros robots construidos en la Tierra eran modelos poco avanzados. Era una época en donde la robopsicología no estaba aún desarrollada. Estos robots podían ser enfrentados a situaciones en las cuales se vieran en un conflicto con sus leyes. Una de las situaciones más sencillas se da cuando un robot debe dañar a un ser humano para evitar que dos o más sufran daño. Aquí los robots decidían en función de un criterio exclusivamente cuantitativo, quedando luego inutilizados, al verse forzados a violar la primera ley. Posteriores desarrollos en la robótica, permitieron la construcción de circuitos más complejos, con una mayor capacidad de autorreflexión. Una peculiaridad de los robots es que pueden llegar a redefinir su concepto de “daño” según sus experiencias, y determinar los grados de éste. Su valoración de los seres humanos también puede ser determinada por el ambiente. Es así que un robot puede llegar a dañar a un ser humano por proteger a otro que considere de más valía. También podría darse el caso de que un robot dañe físicamente a un ser humano para evitar que otro sea dañado psicológicamente, pues llega a ser una tendencia el considerar los daños psicológicos más graves que los físicos. Estas situaciones nunca se hubieran dado en robots más antiguos. Asimov plantea en sus historias de robots las más diversas situaciones, siempre considerando las posibilidades lógicas que podrían llevar a los robots a tales situaciones.

Los usos de los robots han ido extendiéndose con el paso del tiempo. Desde inmensas plantas industriales hasta la exploración del espacio profundo, la ciencia ha impuesto nuevos límites para el desarrollo de sus capacidades. El proletariado, por ejemplo, fue el motor de uno de los cambios sociales más importantes del siglo veinte, principalmente debido a la importancia de su fuerza colectiva y por ser el verdadero motor de los medios de producción burgueses. Entonces, cuando las máquinas dominen áreas que hasta ahora eran indómitas para el hombre, ¿tendrán derecho a reclamar?, mediante un imaginario denominado “movimientos sociales robóticos”. Si esto ocurriera, los robots adquirirían ciertas responsabilidades tales como el deber de votar, de pagar impuestos, etc.

Pero en caso de tener derechos, también deberían tener obligaciones; e incluso, ser penados por la Ley en caso de cometer delitos. Esto trae, para finalizar la historia de Kenji Urada, un operario japonés de 37 años que tuvo el triste honor de ser la primera persona en ser asesinada por un robot. El hecho ocurrió en 1981 en una planta de Kawasaki. En su defensa, en el futuro, los robots podrían decir que el hombre no cumplió con las normas de seguridad. Mas allá de lo fantasioso o no que suene, ojala para cuando los robots tengan derechos, los humanos puedan hacer valer sus derechos primero, esos largamente ignorados y violados por los constantes desequilibrios e injusticias del mundo.


Guillermo Choque Aspiazu
http://www.eldiario.net/
Octubre 13 de 2008

Embriología Electrónica

La embriología es la rama de la biología que se encarga de estudiar la morfogénesis, el desarrollo embrionario y nervioso desde la gametogénesis hasta la formación adulta de los seres vivos. La formación y el desarrollo de un embrión es conocido como embriogénesis. Se trata de una disciplina ligada a la anatomía e histología. El desarrollo de un embrión se inicia con la fecundación, que origina la formación del cigoto. Cuando finaliza este proceso, durante el cual se generan todas las principales estructuras y órganos de la criatura, el embrión pasa a llamarse feto.

En términos un tanto extendidos, la embriología es la ciencia biológica que estudia el desarrollo prenatal de los organismos y trata de comprender y dominar las leyes que lo regulan y rigen. El interés en el estudio del desarrollo prenatal es grande, ello se debe a una curiosidad natural, por el hecho de que muchos fenómenos de la vida postnatal tienen su origen y explicación en la etapa de desarrollo prenatal y es importante conocerlos con el fin de lograr una mejor calidad de vida en el ser humano. La anatomía del desarrollo es el campo de la embriología que se ocupa de los cambios morfológicos que ocurren en las células, tejidos, órganos y cuerpo en su conjunto desde la célula germinal de cada progenitor hasta el adulto resultante, la fisiología del desarrollo por otro lado explica el funcionamiento del organismo en estas etapas, sin embargo el desarrollo humano es un proceso continuo que se inicia con la fecundación y termina con la muerte, aunque la mayoría de los procesos tienen lugar en etapa prenatal otros se extienden más allá del nacimiento, ello ha llevado a que se conozca a la embriología con estos horizontes ampliados como la “biología del desarrollo”.

En el departamento de diseño más sofisticado denominado naturaleza, durante más de tres mil millones de años, trabajando día y noche, los 365 días del año, se ha logrado dotar a los seres vivos con la capacidad de sobrevivir durante cientos de siglos, gracias a miles de estrategias que la selección natural ha logrado desarrollar. El resultado de este sistema de producción son seres vivos, que tienen características que ningún sistema construido por el hombre, o ingeniero podría haber pensado: tolerancia a fallas, adaptabilidad y la capacidad de evolucionar. Los seres vivos son sistemas complejos que tienen un gran rango de características interesantes. Los ingenieros consideran interesante desarrollar tecnología con algunas características con las que han sido dotados los seres vivos, tales como la adaptación y tolerancia a fallas, es decir, sistemas biomiméticos que utilizan hasta el momento metodologías no tradicionales de la ingeniería como redes neuronales artificiales, computación evolutiva y electrónica embriológica. Se piensa que estas capacidades puedan constituir la base para el desarrollo de una nueva generación de máquinas computacionales bioinspiradas que darían origen a la vida artificial en el planeta tierra.

Los sistemas biológicos están dotados de una destreza consumada en la resolución de los problemas que se les presentan, gracias al proceso de adaptación en la evolución natural, entendida como el proceso a través del cual los seres vivos perpetúan su existencia mediante una descendencia exitosa. La computación evolutiva aplica esta poderosa filosofía de diseño para encontrar soluciones a problemas difíciles. La evolución natural se rige por dos mecanismos: selección y reproducción. La selección determina a los miembros de una población que sobrevivirán hasta reproducirse, mientras que la segunda garantiza la transmisión de información genética en la descendencia de un organismo.

Después de que la célula fertilizada empezó a dividirse, el número total de células se elevó vertiginosamente. Cuando su número ascendió a cientos de miles y luego a millones, algunos grupos empezaron a dividirse más rápidamente que los demás y comenzaron a desarrollar diferentes formas y características, formando los conjuntos cooperativos conocidos como tejidos. Estos, a su vez, y en una suerte de proceso escultórico, se combinaban para formar unidades funcionales mayores, los órganos. A través de un sistema de comunicación celular y reconocimiento mutuo, las células de todo el organismo actuaban juntas, al unísono, en una misma dirección y con un ritmo similar... Este relato que podría asimilarse al crecimiento de un nuevo ser vivo, en el futuro podría describir la "gestación" de un circuito electrónico. “La embriónica, conocida también como embriología electrónica, es un proyecto de investigación que apunta a la realización de un nuevo tipo de componentes electrónicos que emplean tres características fundamentales de los organismos vivos: organización, diferenciación y división celular”.

Al igual que en los seres vivos, donde el crecimiento y el funcionamiento de cada individuo se orquesta a través de la interpretación, en cada una de sus células, de un programa químico o código genético, la embriónica es el desarrollo casi biológico de unos nuevos dispositivos lógicos que contienen “células diferenciadas” con una “composición genética común”, pero capaces de ejecutar funciones diferentes. Como objetivo final, esta técnica trata de diseñar y construir complejos circuitos electrónicos de muy alta densidad, capaces de comportarse como grupos de células biológicas y con habilidades encontradas hasta ahora sólo en seres vivos como auto-replicación (reproducción), diferenciación, auto-reparación (curación) y evolución.

La naturaleza utiliza principios para la construcción y mantenimiento de los sistemas vivos que ahora se tienen para bio-inspirar al ser humano, tal como sucede con los procesos de crecimiento y desarrollo de los seres vivos dirigidos a través de la interpretación, en cada una de sus células, de un código o programa químico, el ácido desoxirribonucleico, mejor conocido como genoma, escrita con un alfabeto de cuatro caracteres: adenina, citosina, guanina y timina.

Inspirados en ciertas características de la organización celular y adaptándolas al mundo bidimensional de los circuitos integrados, la electrónica embriológica emula propiedades únicas del mundo de los seres vivos, tales como la auto-replicación y la auto-reparación en objetos circuitos integrados denominados organismos artificiales, o como es de agrado de algunos científicos denominarla, vida artificial como hardware, ya que generalmente el concepto de vida artificial se encuentra asociada a la vida artificial como software a partir de los trabajos realizados por el gurú de la misma: Christopher Langton.

La electrónica embriológica está orientada también al desarrollo de circuitos integrados de gran escala con capacidad de auto-reparación y auto-replicación. La auto-reparación permite la reconstrucción parcial en caso de una falla menor y la auto-replicación permite la duplicación completa del dispositivo original en caso de una falla mayor o característica de reproducción. Al contar la humanidad con tal maquinaria, permitirá una revolución tecnológica que incrementará la robótica, la automatización, la tolerancia a fallos, la exploración espacial, la construcción de fábricas auto-replicativas, etc.

Los seres vivos, excepto los organismos unicelulares como virus y bacterias, comparten tres características fundamentales: (1) Organización multicelular. Por medio de la cual un organismo se divide en un número finito de células en donde cada una de ellas realiza una función única: neurona, músculo, intestino, piel, etc. Un mismo organismo puede contener varias células del mismo tipo. (2) Diferenciación celular. En el que se define el papel de cada célula dentro del organismo. (3) División celular. Partiendo de una célula se generan dos células hijas. Durante esta división, todo el material genético de la célula madre, el genoma, se copia a las células hijas. La electrónica embriológica utiliza un modelo basado en autómatas celulares en donde la inspiración viene de los tres principios biológicos expuestos.

Los organismos artificiales cuentan entonces con organización multicelular, donde cada célula contiene un programa que describe completamente la funcionalidad de todo el organismo artificial, a través del genoma, y realiza una función específica en función de su posición dentro del organismo, denominada diferenciación celular, la cual se describe por medio de un subprograma conocido como el gen de la célula, además cuentan con la capacidad de auto-replicarse, mediante la división celular, para dar origen a nuevos organismos.

Guillermo Choque Aspiazu
http://www.eldiario.net/
Octubre 6 de 2008

martes, 10 de febrero de 2009

Genética Mendeliana

La genética estudia la forma como las características de los organismos vivos, sean éstas morfológicas, fisiológicas, bioquímicas o conductuales, se transmiten, se generan y se expresan, de una generación a otra, bajo diferentes condiciones ambientales. La genética intenta explicar cómo se heredan y se modifican las características de los seres vivos, que pueden ser: (1) De forma, la altura de una planta, el color de sus semillas, la forma de la flor; etc.; (2) fisiológicas, por ejemplo la constitución de determinada proteína que lleva a cabo una función específica dentro del cuerpo de un animal; (3) de comportamiento, en la forma de cortejos antes del apareamiento en ciertos grupos de aves, o la forma de aparearse de los mamíferos, etc. De esta forma, la genética trata de estudiar cómo estas características pasan de padres a hijos, a nietos, etc., y por qué varían generación tras generación.

La genética se ha desarrollado de manera vertiginosa durante el siglo veinte, aunque tiene sus raíces en el siglo diecinueve, época en la que los científicos intentaban contestar las cuestiones relativas a la variación y la herencia. Antes de que la genética existiera como ciencia, principalmente durante la segunda mitad del siglo diecinueve, la herencia se estudiaba a partir de lo que se llama la hibridización o apareamiento de organismos entre sí para analizar su descendencia. La hibridología, como se le llamaba a esta disciplina, había sido practicada a gran escala por científicos naturales como Kolreuter entre los años 1760 a 1766, Knight el año 1779, Gaertner entre los años 1792 y 1850, además de Naudin el año 1863. Estos investigadores empleaban el método del tanteo experimental: aparear dos individuos y analizar su descendencia para obtener datos experimentales acerca de la herencia de ciertas características de los organismos. Este método proporcionó datos importantes acerca de la fertilidad o esterilidad de los híbridos, y también datos acerca de la imposibilidad de obtener apareamientos fértiles entre organismos de diferentes especies. Sin embargo, no pudieron obtenerse generalizaciones o principios que explicaran la herencia; primero, porque estos experimentos trataban con características complejas, lo cual imposibilitaba el análisis detallado y simple, y segundo, hacían falta datos numéricos y pruebas rigurosamente controladas que pudieran facilitar su análisis. Además, estos estudios se hacían al margen de los avances de otras ramas de la biología como la citología y particularmente aquellos hallazgos que identificaban las partículas constitutivas de la célula que se multiplicaban y dividían durante las divisiones celulares, los llamados cromosomas.

Mendel fue el primer científico en aplicar de manera eficaz métodos cuantitativos para el estudio de la herencia. Tres de sus principales descubrimientos, ahora conocidos como los principios mendelianos de dominancia, segregación y distribución independiente se convirtieron en los cimientos de la “ciencia genética”. Los primeros genetistas ampliaron los principios de Mendel correlacionando la transmisión de información genética de generación en generación con el comportamiento de los cromosomas durante la meiosis. También afinaron sus métodos y, a través de estudios con una variedad de organismos, verificaron los datos de Mendel y reunieron una lista creciente de lo que llamaron excepciones a los principios de Mendel. Entre éstas se incluían fenómenos como ligamiento, herencia ligada al sexo y herencia poligénica, entre otros.

Gregor Mendel, monje agustino, nació el 22 de julio de 1822 en Hyncice, Moravia, en la actualidad ubicada en la República Checa. Aunque los análisis genéticos lo preceden, las leyes de Mendel conforman la base teórica del conocimiento acerca de la genética. Los experimentos que realizó Mendel se diferencian de los de sus antecesores por la elección adecuada del material de estudio y por un eficiente método experimental. El organismo de estudio elegido por Mendel fue la arveja común “pisum sativum”, fácil de obtener de los vendedores de semillas de su tiempo, en una amplia gama de formas y colores que a su vez eran fácilmente identificables y analizables. La flor de esta especie puede autofecundarse. El proceso de polinización, la transferencia de polen de la antera al estigma, ocurre en el caso de pisum sativum antes de la apertura de la flor. Para realizar sus apareamientos Mendel debió abrir el pimpollo antes de la maduración y retirar las anteras para evitar la autopolinización. Luego polinizó artificialmente depositando en los estigmas el polen recogido de las plantas elegidas como padres. Mendel probó 34 variedades de arvejas y estudió sus características durante ocho años. Eligió siete características que se presentaban en dos formas, tal como altura de planta alta o baja, o color de flor blanca o rosada. En sus experimentos Mendel utilizó alrededor de 28000 plantas de arvejas.

La genética mendeliana supone el comienzo de la genética moderna actual y la ruptura con la “teoría de la herencia por mezcla” que dominaba hasta entonces. La teoría de la herencia por mezclas suponía que los caracteres se transmiten de padres a hijos mediante fluidos corporales que, una vez mezclados, no se pueden separar, de modo que los descendientes tendrán unos caracteres que serán la mezcla de los caracteres de los padres. Esta teoría tenía sus bases en hechos tales como que el apareamiento de plantas de flores rojas con plantas de flores blancas producen plantas de flores rosas. Mendel realizó apareamientos dirigidos, aplicó cálculos estadísticos y anotó los resultados que obtenía de cada apareamiento, pero no elaboró las leyes que llevan su nombre. Las conclusiones a las que llegó Mendel fueron: (1) Los caracteres se transmiten en unidades elementales a las que llamó factores hereditarios. Para Mendel, un factor hereditario determina un carácter. Hoy día un carácter está determinado por un gen, por lo que el “gen” actual es el “carácter hereditario” de Mendel. (2) Los factores hereditarios no se mezclan, sino que se combinan entre sí según las leyes matemáticas de la probabilidad, por lo que se puede predecir la descendencia de un apareamiento. (3) Estos factores hereditarios se transmiten mediante los gametos. Aunque ya se conocían los gametos y la fecundación en el tiempo en que Mendel realizó sus investigaciones, aun no se habían descubierto la mitosis y la meiosis. Es en verdad muy notable el hecho de que Mendel pudiera formular su propuesta con fundamento en abstracciones matemáticas. En la actualidad, sus principios son mucho más fáciles de comprender porque se puede pensar en ellos usando términos concretos, relacionando la transmisión de los genes con el comportamiento de los cromosomas. Mendel informó sobre estos y otros descubrimientos el año 1865, pero la importancia de sus resultados y de sus interpretaciones no fue reconocida hasta 1900, en que Hugo DeVries en Holanda, Karl Correns en Alemania, y Erich von Tschermak en Austria, redescubrieron casi simultáneamente el trabajo de Mendel y vieron que daba explicaciones a sus propios descubrimientos, por lo que reconocieron el mérito de Mendel al bautizar con su nombre las leyes básicas de la herencia.

Las leyes de Mendel hacen referencia a la herencia dominante, donde uno de los genes domina sobre el otro y se manifiesta cuando están juntos en el individuo, mientras que el otro gen queda enmascarado, en el mismo supuesto. Las leyes son: (1) Ley de la Uniformidad de la primera generación filial. Los individuos resultantes del apareamiento entre dos razas puras u homocigotos, que difieren en un carácter, presentan el mismo fenotipo, independientemente de la dirección del apareamiento, de modo que este fenotipo es igual al manifestado por uno de los padres. Al carácter parental que se manifestaba en la descendencia lo denominó dominante, y al carácter parental que no se manifestaba en la descendencia lo llamo recesivo. La raza pura es aquella que da siempre individuos como él cuando se hacen autofecundaciones sucesivas. (2) Ley de segregación de la segunda generación filial. El carácter recesivo enmascarado en la primera generación filial, vuelve a aparecer en la segunda generación filial con una proporción de tres a uno, debido a que los miembros de la pareja alélica segregan o se separan al formar los gametos. (3) Ley de combinación independiente: Los miembros de parejas alélicas diferentes se distribuyen o combinan independientemente unos de otros cuando forman los gametos de un individuo híbrido para los caracteres correspondientes.

Las conclusiones a las que arribo Mendel luego de sus experimentos fueron: (1) Los determinantes hereditarios son de naturaleza particulada. Estos determinantes son denominados actualmente “genes”. (2) En los individuos diploides cada individuo posee un par de estos determinantes o genes en cada célula para cada característica estudiada. Todos los descendientes de un apareamiento de dos líneas puras tienen un alelo para el fenotipo dominante y uno para el fenotipo recesivo. Estos dos alelos forman el par de genes. (3) Un miembro del par de genes segrega en cada gameto, de manera que cada gameto lleva solamente un miembro del par de genes.

Guillermo Choque Aspiazu
http://www.eldiario.net/
Septiembre 29 de 2008

Redes Neuronales Celulares

Las redes neuronales son modelos que intentan reproducir el comportamiento del cerebro debido a que constan, de dispositivos elementales de proceso denominados neuronas artificiales. Una definición adecuada puede ser: “una red neuronal artificial es un procesador distribuido, masivamente paralelo, que tiene una predisposición natural a almacenar conocimiento experimental y hacerlo disponible para su utilización”. Los sistemas de redes neuronales artificiales están basados en las propiedades no lineales de la operación conjunta de unidades de proceso elementales, y presentan como característica distintiva el que su función quede directamente trasladada a una arquitectura modular tras un proceso de aprendizaje, no de programación. Esto constituye una alternativa a la computación basada en reglas de decisión prefijadas y algoritmos codificados en forma de programas de computadora, que se muestran altamente ineficaces, en el tiempo, en aplicaciones que involucren clasificación, asociación y generalización.

Con las redes neuronales artificiales se busca la solución de problemas complejos, no como una secuencia de pasos, sino como la evolución de unos sistemas de computación inspirados en el cerebro humano, y dotados por tanto de cierta “inteligencia”, los cuales no son sino la combinación de elementos simples de proceso interconectados, denominados neuronas, que operando de forma paralela en varios estilos, consiguen resolver problemas relacionados con el reconocimiento de formas o patrones, predicción, codificación, control y optimización entre otras aplicaciones. Las redes neuronales artificiales han destacado como un campo de investigación amplio e interesante dentro de la inteligencia artificial, contando con un innumerable conjunto de aplicaciones sobre diversas áreas, entre las que se destacan, en cuanto a su importancia y por el número de publicaciones anuales: el aprendizaje automático, el modelado de patrones, el reconocimiento del habla y el procesamiento digital de imágenes. Entre los modelos de redes neuronales dedicados al procesamiento digital de imágenes, el más usado es el modelo denominado “red neuronal celular”, se basa en los principios de la lógica celular y se ha dedicado de forma prioritaria al procesamiento analógico y digital de imágenes en distintas ramas, como procesamiento morfológico, filtrado espacial, filtrado en frecuencia y análisis temporal de imágenes.

Las redes neuronales celulares fueron concebidas en el Laboratorio de la Universidad de California en Berkeley; por Leon O. Chua en el año1987; pero es hasta el año 1988 cuando se publica su trabajo de manera conjunta con L. Yang con un par de artículos en los que presentan la teoría así como las primeras aplicaciones. Los fundamentos en los cuales se basa Leon O. Chua para generar su idea son: las redes neuronales artificiales, y los autómatas celulares; de las primeras extrae la capacidad para el procesamiento asíncrono en paralelo, la dinámica en tiempo continuo y la interacción global de los elementos de la red; mientras que de los autómatas celulares obtiene la estructura, o en otras palabras, la idea de distribuir sus elementos de procesamiento, también llamadas células, en rejillas regulares y permitir que la comunicación de cada célula con las otras se lleve a cabo a nivel local.

Las redes neuronales celulares se componen de un elevado número de células o elementos de cómputo no lineales, organizados especialmente en capas periódicas de dos dimensiones, típicamente denominadas redes rectangulares, las cuales pueden ser replicadas para obtener redes neuronales celulares multicapa. Estas redes exhiben conectividad local, a diferencia de otros tipos de redes neuronales: cada célula puede recibir señales externas a su capa y de células próximas de su misma capa dentro de un entorno o vecindad. Las redes neuronales celulares son sistemas dinámicos no lineales formados por la agrupación de procesadores elementales con una distribución espacial regular y donde las interacciones directas entre los distintos procesadores son de carácter local. A pesar de esto, las redes neuronales celulares pueden realizan tareas globales, debido a la propagación de las señales a través de toda la red. El comportamiento de la red neuronal celular está regido por un sistema de ecuaciones diferenciales no lineales en las que se describen las contribuciones entre celdas interconectadas y las influencias mutuas entre sus estados y salidas. Dichas contribuciones están afectadas por ciertos parámetros, denominados de realimentación, de control, y de umbral, los cuales van a particularizar el sistema para la realización de una tarea en concreto. En el caso de redes uniformes, estos parámetros serán independientes de la posición de la celda en la matriz de modo que se pueden definir unas plantillas matriciales de clonación que representan los pesos de realimentación y control respectivamente. Las redes neuronales celulares obtienen su arquitectura de los autómatas celulares, y por lo tanto sus células al igual que en los autómatas están distribuidas en rejillas regulares aunque esta restricción ha tendido a desaparecer sobretodo a partir del anuncio realizado por el Profesor Chua en el “Cuarto Congreso sobre Redes Neuronales Celulares”. Esta decisión se hizo con la finalidad de permitir una mayor libertad en cuanto a la generación de arreglos específicos de redes neuronales celulares para la solución de un problema; sin embargo, no se desarrolla este último concepto debido a que el número de aplicaciones que aprovechan esta ventaja aún es muy limitado y porque para el análisis de imágenes las redes neuronales celulares utilizadas son arreglos bidimensionales de células.

Existen tres modelos de redes neuronales celulares que son los más usados: la red neuronal celular de una sola capa, la red neuronal celular multicapa y la red neuronal celular en tiempo discreto. El primer modelo es el más común y corresponde al modelo continuo con una sola capa; este es el modelo original, y por tal razón además de que es la más empleada, normalmente se le llama simplemente red neuronal celular. El segundo es una extensión del primer modelo, el cual emplea arreglos de redes neuronales celulares en capas, dos o más de manera semejante a como se hace con los perceptrones, y es por esto que recibe su nombre. El último modelo, no opera en tiempo continuo, sino que utiliza valores discretos de éste y de ahí su nombre. La descripción sucinta de los modelos de redes neuronales celulares es la siguiente: (1) Red neuronal celular de una sola capa. Este modelo ha sido el predominante así como la base para las diversas variaciones y extensiones que se han realizado en la teoría. El éxito del modelo radica en la simplicidad de éste ya que no consta más que de un arreglo de células que están descritas por un conjunto simple de ecuaciones, sin embargo, cuentan con una gran riqueza de fenómenos que pueden ser descritos con ellas gracias a la alta cantidad de elementos que procesan los datos de manera paralela y continua. (2) Red neuronal celular multicapa. L. O. Chua desde un principio concibió dos modelos básicos, el de una sola capa y el multicapa. El modelo multicapa se hace necesario porque de no existir fácilmente se podría llegar al caso en que cayó el perceptrón. Así pues, gracias a este modelo, se cuenta con un conjunto de elementos arreglados en capas lo que hace posible que cada una de éstas trabaje persiguiendo un objetivo en particular y el resultado final consistirá entonces de la “suma” de los resultados así obtenido. Es obvio entonces que la variedad de fenómenos que pueden ser analizados claramente se verá incrementada. La generalización se consigue mediante el empleo de varias variables de estado en cada célula en lugar de una sola. De acuerdo con lo anterior es necesario modificar el modelo de red neuronal celular para incluir todas las capas. (3) Red neuronal celular en tiempo discreto. Las redes neuronales celulares en tiempo discreto fueron propuestas por Hubert Harrer, el año 1992, como una clase especial de red neuronal celular la cual puede ser descrita completamente por un algoritmo recursivo cuya dinámica está definida para actuar en períodos discretos de tiempo, de ahí el porque de su nombre.

La morfogénesis se refiere al estudio de los procesos que describen la formación de los patrones que se observan en la naturaleza. A través de la historia se han realizado diversos trabajos relacionados con el área; entre los más importantes se encuentra el llevado a cabo por Alan Turing en 1952, donde demostraba como un simple modelo de reacción-difusión permite generar algunos de éstos patrones. Finalmente se apunta que de la misma manera que con redes neuronales artificiales, los trabajos realizados con las redes neuronales celulares no se han concentrado en un área en particular, por esto mismo se observa aplicaciones en procesamiento de imágenes; simulación de modelos complejos, principalmente en biología; encriptación de datos, también se han generado, avances teóricos, como los que permiten la obtención de los parámetros que requiere la red neuronal celular, extensiones que permiten el uso de parámetros no lineales, etc.

Guillermo Choque Aspiazu
www.eldiario.net
Septiembre 22 de 2008