viernes, 24 de septiembre de 2010

Fullerenos

El carbono es un elemento curioso. Se presenta en formas y colores diversos. Quizá los más comunes son los sólidos negros como el grafito, pero también se puede presentar como el cristalino y duro diamante. Efectivamente, los diamantes están pura y simplemente formados por átomos de carbono. Claro está que en los diamantes esos átomos de carbono están ordenados de una forma muy especial, que sólo se consigue bajo presiones muy altas. Así que en este caso esas piedras tan preciosas son escasas y caras no debido a su composición sino a las extrañas condiciones bajo las que se forman. En cualquier caso el grafito es un material muy común y barato que se puede encontrar en las minas de los lápices. En el grafito los átomos de carbono forman capas en las que cada átomo está rodeado por otros tres átomos idénticos a él formando una estructura hexagonal. En el diamante cada átomo de carbono está enlazado a cuatro vecinos iguales dispuestos en forma de tetraedro.

La estructura de cada uno de estos dos materiales, es decir, el orden interno de sus átomos, es lo que determina sus propiedades. El enlace en tres dimensiones de los átomos de carbono en el diamante da lugar a una estructura más robusta y por tanto a cristales más duros que en el caso del grafito. En este último el enlace se limita a las dos dimensiones de las capas, que pueden deslizarse fácilmente entre sí lo cual da lugar a un material blando que se usa como lubricante sólido.

Todo esto se sabe desde hace ya muchos años. Pero hace poco el carbono irrumpió con fuerza de nuevo en el mundo de los materiales gracias a una aparición estelar con nuevas ropas. El año 1985 se descubrió una nueva forma del carbono, de hecho una familia entera de nuevas formas. El primer miembro de esta familia y el mejor conocido es una forma con estructura esférica, compuesta por sesenta átomos de carbono. Esta bola de fórmula C60 se conoce también como "buckminsterfullerene" o simplemente "fullereno" en honor del ingeniero americano R. Buckminster Fuller. El ingeniero Fuller había diseñado, ya el año 1967, para la exposición en Montreal, una cúpula geodésica en la que usaba elementos hexagonales junto con alguno pentagonal para curvar la superficie. La molécula de fullereno es verdaderamente un asombroso conjunto de sesenta átomos de carbono, todos ellos equivalentes, indistinguibles, cada uno enlazado a otros tres carbonos, como en el grafito, pero con una topología peculiar, formando parte de dos hexágonos y un pentágono que da lugar a una estructura cerrada.

Los fullerenos o fulerenos son la tercera forma más estable del carbono, tras el diamante y el grafito. Como se menciono anteriormente, el primer fullereno se descubrió el año 1985 y, desde entonces, se han vuelto populares entre los químicos, tanto por su belleza estructural como por su versatilidad para la síntesis de nuevos compuestos, ya que se presentan en forma de esferas, elipsoides o cilindros. Los fullerenos esféricos reciben a menudo el nombre de buckyesferas y los cilíndricos el de buckytubos o nanotubos. Pocas veces a lo largo de la historia actual de la química, una investigación ha dado lugar de forma inesperada al descubrimiento de una familia de moléculas tan excepcional como es la de los fullerenos, que constituye una nueva forma alotrópica del carbono, además de grafito y diamante, y posee unas propiedades excepcionales. Particularmente destaca la geometría tridimensional altamente simétrica de estas moléculas. En concreto, la más pequeña y representativa de ellas, el fullereno C60, posee una geometría idéntica a la de un balón de fútbol. Las aplicaciones potenciales de estas moléculas pueden suponer una auténtica revolución en el mundo de la ciencia.

Hasta el siglo veinte, el grafito y el diamante eran las únicas formas alotrópicas conocidas del carbono. En experimentos de espectroscopia molecular, se observaron picos que correspondían a moléculas con una masa molecular exacta de sesenta, setenta o más átomos de carbono. Harold Kroto, de la Universidad de Sussex, James Heath, Sean O'Brien, Robert Curl y Richard Smalley, de la Universidad de Rice, descubrieron el C60 y otros fulerenos, en un experimento que consistió en hacer incidir un rayo laser sobre un trozo de grafito. Ellos esperaban efectivamente descubrir nuevos alótropos del carbono, pero suponían que serían moléculas largas, en lugar de las formas esféricas y cilíndricas que encontraron. A Kroto, Curl y a Smalley se le concedió el premio Nobel de Química el año 1996, por su colaboración en el descubrimiento de esta clase de compuestos. El C60 y otros fulerenos fueron más adelante observados fuera del laboratorio. Hacia el año 1991, era relativamente fácil producir unos cuantos gramos de polvo de fulereno usando las técnicas de Donald Huffman y Wolfgang Krätschmer. La purificación del fulereno era un desafío para los químicos hasta hace poco cuando un equipo de investigadores españoles desarrolló un nuevo proceso de obtención. Los fulerenos endoédricos han incorporado, entre los átomos de la red, iones u otras moléculas más pequeñas. El fulereno es un reactivo habitual en muchas reacciones orgánicas como por ejemplo en la reacción de Bingel, descubierta el año 1993.

A comienzos del siglo veintiuno, las propiedades químicas y físicas de los fulerenos todavía están bajo intenso estudio, en laboratorios de investigación pura y aplicada. En abril del año 2003, se estaba estudiando el potencial uso medicinal de los fulerenos, fijando antibióticos específicos en su estructura para atacar bacterias resistentes y ciertas células cancerígenas, tales como el melanoma. Los fulerenos no son muy reactivos debido a la estabilidad de los enlaces tipo grafito, y es también muy poco soluble en la mayoría de disolventes. Entre los disolventes comunes para los fulerenos se incluyen el tolueno y de disulfuro de carbono. Las disoluciones de buckminsterfulereno puro tienen un color púrpura intenso. El fulereno es la única forma alotrópica del carbono que puede ser disuelta. Los investigadores han podido aumentar su reactividad uniendo grupos activos a las superficies de los fulerenos. El buckminsterfulereno no presenta “superaromaticidad”, es decir, los electrones de los anillos hexagonales no pueden deslocalizar en la molécula entera.

Aunque se piensa que las buckyesferas son en teoría relativamente inertes, una presentación dada a la Sociedad Química Estadounidense en marzo de 2004 y descrita en un artículo publicado en la revista New Scientist el 3 de abril de 2004, sugiere que la molécula es perjudicial para los organismos. Un experimento llevado a cabo por Eva Oberdörster en la Southern Methodist University, en el que introdujo fulerenos en agua en concentraciones de 0,5 partes por millón, mostró que un tipo de salmón, el micropterus salmoides, sufrió un daño celular en el tejido cerebral diecisiete veces superior, cuarenta y ocho horas después. El daño consistía en una peroxidación lipídica a nivel de la membrana celular, lo que deteriora el funcionamiento de ésta. Se produjeron también inflamaciones en el hígado y la activación de genes relacionados con la síntesis de enzimas reparadoras.

Una nueva y entera rama de la química se ha desarrollado para manipular la del fullereno, con consecuencias en diversas áreas como la astrofísica, la superconductividad y los materiales químicos y físicos. Además las propiedades del fullereno pueden ser estudiadas sistemáticamente. Es posible producir sales superconductoras de C60, nuevos polímeros tridimensionales, nuevos catalizadores, nuevos materiales y propiedades eléctricas y ópticas, sensores, etc. También se pueden formar delgados tubos con finales cerrados, nanotubos, ordenados de la misma manera que los fullerenos. Desde un punto de vista teórico el descubrimiento de los fullerenos ha influenciado bastante la concepción de dos problemas científicos tan separados como el ciclo del carbono galáctico y la aromaticidad clásica.

La ciencia de los materiales ha mostrado desde su descubrimiento un gran interés por las posibilidades de los fullerenos, dadas sus múltiples propiedades y la alta capacidad de proceso que presentan. Siguiendo estas líneas se han obtenido polímeros electro-activos, los cuales proporcionan reacciones de transferencia electrónica, y polímeros con propiedades de limitadores ópticos, trascendental en el campo de los láseres para evitar el deterioro de los materiales. Se espera así mismo obtener materiales muy adecuados para el recubrimiento de superficies, dispositivos fotoconductores y creación de nuevas redes moleculares. El campo de la biomedicina también se ha visto beneficiado por la aparición de los fullerenos. Destaca sin duda el estudio de las propiedades de ciertos derivados órgano-metálicos de los fullerenos solubles en agua, que han mostrado una actividad significativa contra los virus de inmunodeficiencia que provocan la enfermedad del SIDA, VIH-1 y VIH-2. También se baraja actualmente la posibilidad de incorporar fullereno en los procesos de fototerapia, que permitirían la destrucción de sistemas biológicos dañinos para los seres humanos. Dada la versatilidad química de los fullerenos, se espera que una profundización en el conocimiento de sus propiedades químicas y físicas conduzca pronto a la aparición de nuevas y prometedoras aplicaciones.

Guillermo Choque Aspiazu
http://www.eldiario.net/
Julio 12 de 2010

viernes, 17 de septiembre de 2010

Robots manipuladores

El estudio del movimiento del cuerpo humano se ha centrado fundamentalmente en el estudio de la marcha humana que por ser un movimiento repetitivo permite la definición de patrones de normalidad a partir de mediciones estadísticas. En contraposición el análisis del movimiento de los miembros superiores es mucho más complejo y la extensión de los métodos de la marcha humana resulta insuficiente por la gran versatilidad de acciones que se pueden realizar con los brazos. Así como las piernas dotan de movilidad de movilidad al individuo permitiéndole desplazarse, son los brazos los que le permiten interactuar con diversos objetos, realizando movimientos con características dinámicas variadas: gran precisión, mucha fuerza, gran velocidad, etc. Una posible aplicación a la evaluación del desempeño de los miembros superiores, es la aplicación de algunos criterios propios de la robótica al área de la biomecánica. Esta aproximación es curiosa pues los robots manipuladores surgieron como la imitación mecánica de los brazos humanos.

Un posible modelo para describir la estructura del brazo y su movilidad, asimilándolo a un robot manipulador es la siguiente: el brazo se considera como un mecanismo en cadena abierta de cuatro eslabones que representan el tórax o la base, el brazo, el antebrazo y la mano. Estos cuatro eslabones se suponen como cuerpos rígidos conectados por uniones mecánicas holonómicas, que representan las articulaciones de hombro, codo y muñeca. El manipulador tiene un total de siete grados de libertad asociados con siete movimientos del brazo. Aplicando a este modelo los métodos tradicionales de descripción cinemática de robots manipuladores, es posible determinar la posición y orientación de la mano. A partir de la formulación cinemática diferencial, es posible aplicar criterios propios de los robots manipuladores al brazo humano. En este entendido la manipulabilidad parece representar el criterio a optimizar en algunos movimientos del brazo humano. La manipulabilidad se puede interpretar como la eficacia con la cual el brazo transmite fuerza y velocidad a su órgano terminal. Considerando la conservación de energía, las direcciones preferentes de fuerza serán las menos aptas para desarrollar altas velocidades y viceversa. La manipulabilidad se representa como un elipsoide para cada configuración del brazo, donde la distancia del centro del elipsoide a la frontera es proporcional a la facilidad de transmisión de fuerza o velocidad en esa dirección.

Los robots manipuladores o robots industriales, conocidos así porque inicialmente fueron usados masivamente en la industria, fueron los encargados de inaugurar la era de los robots en los años 1960, con la herencia adquirida de los primeros teleoperadores. Por ello, es el área de la robótica donde la investigación está más avanzada. Es difícil encontrar investigaciones que trabajen en los aspectos básicos de los robots manipuladores tradicionales y, las pocas que hay, están centradas en la inclusión de modernos sensores o actuadores. Un ejemplo de esto es la adición de cámaras para reconocimiento avanzado de imágenes digitales que mejoren la efectividad de dichos robots. El área más interesante, y donde sí que se investiga de manera importante es en la búsqueda de novedosas aplicaciones para los robots manipuladores, como es el caso de los robots quirúrgicos, los cuales presentan un gran auge en estos momentos. En este caso, la investigación no está centrada en el robot sino en adaptar éste a las necesidades propias de la aplicación.

Se conoce también al robot manipulador como brazo robótico y esto se debe a que guarda cierta similitud con la anatomía del brazo humano. También por ello, para hacer referencia a los distintos elementos que componen el robot, se utilizan términos como cuerpo, brazo, codo o muñeca. Formalmente, se denomina base al punto de apoyo del robot, generalmente sujeto de forma fija al suelo. Los elementos o eslabones van unidos por medio de diferentes articulaciones, que permiten un movimiento relativo entre cada dos eslabones consecutivos. En la parte final, se sitúa el elemento terminal o efector final, que es el encargado de interaccionar directamente con el entorno del robot. El movimiento de cada articulación puede ser de desplazamiento, de giro o de una combinación de ambos. De este modo son posibles los cinco tipos diferentes de articulaciones, con sus diferentes grados de libertad, que se muestran a continuación: (1) Rotación. (2) Prismática. (3) Cilíndrica. (4) Planar. (5) Esférica. Los grados de libertad son el número de movimientos independientes que puede realizar cada articulación con respecto a la anterior. El número de grados de libertad de un robot viene dado por la suma de los grados de libertad de cada una de sus articulaciones. El empleo de diferentes combinaciones de articulaciones en un robot, da lugar a diferentes configuraciones con características a tener en cuenta tanto en el diseño y construcción del robot como en su aplicación.

Un robot manipulador es definido por el “Instituto de Robótica de América” de la siguiente manera: “Un manipulador reprogramable y multifuncional diseñado para mover material, partes y herramientas, o dispositivos especializados, mediante movimientos variables programados para la realización de una variedad de tareas” Esta definición proporciona una idea acerca de lo que puede ser considerado un robot manipulador, aún a pesar de que existan otras clases de robots, son los manipuladores los que han encontrado el campo de aplicación con mayor impacto para la robótica. Básicamente se puede entender por robot manipulador como un brazo mecánico operando bajo el mando de una computadora. Un robot manipulador se compone de eslabones y articulaciones que los unen. Existen dos uniones posibles: la prismática y la revoluta. A su vez un manipulador puede ser de cadena abierta, si está formado por una sucesión lineal de eslabones, o en el caso contrario de cadena cerrada. El análisis de un robot manipulador incluye la descripción del movimiento y de las fuerzas que intervienen en este, así mismo se busca predecir y controlar el comportamiento del sistema. El estudio del movimiento puede dividirse en cinemática y dinámica. Por un lado, la cinemática atiende únicamente al movimiento, es decir al desplazamiento, velocidad y aceleración, entre los eslabones y en las articulaciones; a su vez, la dinámica toma en cuenta las fuerzas que intervienen en el movimiento.

Un robot manipulador cuenta con una base que en la mayoría de las aplicaciones se encuentra anclada, teniendo en cuenta esto, se puede asumir que se encuentra fija y se ubica ahí el sistema coordenado de referencia. La posición de todas las partes del sistema puede ser descrita en todo momento a partir de las variables articulares del sistema. Esto plantea un problema inicial, ya que normalmente la tarea a realizar estará referida en coordenadas cartesianas del espacio de tarea, y no con respecto a las variables articulares del sistema. El análisis cinemático se divide en cinemática directa e inversa. La cinemática directa se encarga de calcular la posición, orientación, velocidad y aceleración del efector en el espacio de tarea cuando son conocidos los valores articulares. La cinemática inversa se refiere al caso contrario, en el cual las variables articulares son calculadas a partir de los valores deseados del efector final en el espacio de tarea.

Hay que mencionar que la cinemática inversa y directa proponen transformaciones entre dos espacios, el espacio articular y el espacio de tarea. El espacio de tarea a lo más seis dimensiones. El espacio articular es n-dimensional, posee tantas dimensiones como articulaciones tenga el manipulador; de ahí que mientras más articulaciones posea un manipulador se incremente la complejidad de su análisis y la obtención de las ecuaciones de cinemática inversa. Algunos aspectos del análisis cinemático incluyen el manejo de redundancia en el sistema, referida como muchas posibilidades para efectuar el mismo movimiento, evasión de colisiones y evasión de singularidades. Una vez que todas las posiciones, velocidades y aceleraciones han sido calculadas usando la cinemática, se usa la dinámica para estudiar el efecto de las fuerzas presentes en el sistema al ejecutar estos movimientos. La dinámica directa se refiere al cálculo de aceleraciones en el robot una vez que han aplicado fuerzas conocidas en las articulaciones. La dinámica inversa se refiere al cálculo de las fuerzas en los actuadores necesarias para llevar a cabo los movimientos deseados. Esta información es usada para implementar un esquema de control al robot o para elegir actuadores.

Los robots manipuladores tienen su principal foco de trabajo en la industria, automatizando los procesos de producción o almacenaje. Generalmente no trabajan de forma independiente sino en conjunto con otras máquinas herramientas formando células de trabajo. Se enumeran a continuación algunos ejemplos: (1) Operaciones de procesamiento, como soldadura, pintura, etc. Este tipo de robots son muy comunes en la industria de los automóviles. (2) Operaciones de ensamblaje, donde el trabajo repetitivo facilita el uso de este tipo de robots. (3) Operaciones de empaque, en tarimas o pallets, agilizando el proceso y manejando grandes pesos. (4) Otro tipo de operaciones como pueden ser remachados, estampados, corte por chorro de agua, sistemas de medición, etc.

Guillermo Choque Aspiazu
http://www.eldiario.net/
Julio 5 de 2010

viernes, 10 de septiembre de 2010

Epigenómica computacional

La investigación biológica dedicada a elucidar los factores y mecanismos asociados y que causan enfermedades comunes crónicas-degenerativas se ha visto reforzada enormemente por la aparición de nuevas tecnologías que permiten por primera vez en la historia obtener una visión tanto general como detallada del funcionamiento de los organismos vivos. Estas tecnologías se agrupan dentro de lo que se denomina “ómicas” y se pueden clasificar en una serie de subgrupos principales que incluyen genómica, transcriptómica, proteómica y metabolómica. Con su aparición, también surgió la esperanza de que su uso diera lugar a rápidos descubrimientos que facilitarían de manera casi inmediata la capacidad de prevenir, diagnosticar y desarrollar nuevas terapias contra las enfermedades más comunes, entre las que destacan las cardiovasculares. Sin embargo, a pesar de los grandes progresos tecnológicos, la promesa de que las “ómicas” iban a producir rápidos avances en la medicina y la salud pública no se ha cumplido todavía, principalmente debido a las limitaciones conceptuales y experimentales que impiden considerar en su totalidad las complejas y dinámicas interacciones entre la abundancia de factores involucrados en la iniciación, el progreso y la manifestación de la enfermedad.

La disponibilidad de la secuencia completa del genoma humano es el punto de partida para la ingente tarea de comprender toda la información genómica, es decir, descifrar qué tipo de información conlleva el genoma, cómo está codificada, y sobre todo cómo se implementa de modo interactivo en el curso del desarrollo embrionario y durante la vida del organismo. Este último aspecto, que ocupa actualmente la atención de un gran número de investigadores biomédicos, se integra en el concepto de epigenómica e incluye la investigación con células madre, la diferenciación celular, la impronta genética, la senescencia y una gran parte de los procesos de regulación génica que tienen que ver con la organización del ácido desoxirribonucleico en cromatina. La epigenómica recuerda que lo que se transmite de una célula a otra no es sólo el ácido desoxirribonucleico sino la cromatina, es decir, la compleja estructura nucleoprotéica que contiene toda la información genómica en organismos eucariotas así como sus modificaciones durante el desarrollo y la diferenciación celular. Precisamente la base estructural de la epigenómica son cambios en la estructura y la función de la cromatina acompañados de modificaciones químicas de sus componentes, las proteínas cromosomales y el ácido desoxirribonucleico.

Los biólogos describen los organismos vivos utilizando dos términos muy amplios: genotipo y fenotipo. El genotipo se refiere al conjunto de la información genética contenido en el genoma de un organismo que es recibido de sus antecesores y transmitido a su descendencia. En los organismos complejos los genomas paterno y materno se recombinan durante la reproducción sexual dando lugar a individuos con una composición genómica única. A menudo el genotipo se define como el conjunto de los genes de un organismo, pero esta definición es inexacta. Lo que se transmite de generación en generación no es sólo la información que codifica para proteínas o para ácido ribonucleico, los genes propiamente dichos, sino todo el ácido desoxirribonucleico resultante de la fusión de dos células germinales, un espermatozoide y un óvulo, del cual sólo un pequeño porcentaje codifica para genes en el sentido clásico. El fenotipo, por su parte, describe la estructura del organismo, su forma y su tamaño, así como su función, que resultan en cada individuo de la ejecución de las instrucciones contenidas en su genotipo particular. La descripción del fenotipo y sus desviaciones es la tarea de los biólogos y los médicos desde hace siglos, aunque aún se siguen descubriendo nuevas especies y queda una enorme cantidad por descubrir.

Se denomina genómica al estudio de la organización molecular del ácido desoxirribonucleico y su cartografía física. La genómica engloba distintas subespecialidades. La genómica estructural estudia el plegamiento de las macromoléculas y su estructura tridimensional con la ayuda de técnicas derivadas de la física y la bioinformática, clasificando estas moléculas en familias funcionales. La genómica bioquímica estudia grupos de proteínas específicas y sus correspondientes “marcos de lectura abiertos”. Esto se lleva a cabo mediante su generación y expresión. La genómica química estudia los efectos de moléculas pequeñas para evaluar sus efectos moduladores en el estado celular o la expresión génica, preferiblemente en sistemas de alto rendimiento. La genómica funcional o fisiológica se centra en el análisis funcional de la totalidad del genoma y la integración de la estructura del ácido desoxirribonucleico, así como de su función molecular y la interacción de los genes y sus productos génicos. La proteómica, por su parte, estudia los proteomas. Un proteoma puede definirse como el conjunto de las proteínas expresadas por un genoma. Configura una disciplina fundamental de la era post-genómica que trata de descubrir la constelación de proteínas que otorgan a las células su estructura y función. Distintas tecnologías permiten obtener y comparar “instantáneas” de las proteínas que se expresan en un momento determinado en una célula-robótica, electroforesis 2D, espectrometría de masas, chips, bioinformática, etc. La proteómica puede definirse como la genómica funcional a nivel de las proteínas. Es la ciencia que correlaciona las proteínas con sus genes, estudia el conjunto completo de proteínas que pueden obtenerse de un genoma.

A menudo se atribuye a Conrad Waddington (1905-1975) la acuñación del término “epigenética” en el año 1942 como “la rama de la biología que estudia las interacciones causales entre los genes y sus productos que dan lugar al fenotipo”. Las primeras apariciones de la epigenética en la literatura datan de mediados del siglo diecinueve, aunque los orígenes del concepto pueden encontrarse ya en Aristóteles (384-322 AC). Aristóteles creía en la epigénesis: el desarrollo de la forma orgánica del individuo a partir de materia amorfa. Esta controvertida creencia fue el principal argumento en contra de la hipótesis que se mantenía de que el desarrollo del ser humano es a partir de cuerpos minúsculos completamente formados. Incluso en los primeros años del siglo veintiuno, aún no existe un consenso universal acerca de hasta qué punto las personas están preprogramadas o modeladas por el ambiente. El campo de la epigenética ha surgido como un puente entre las influencias genéticas y ambientales. En el siglo veintiuno, la definición más comúnmente encontrada del término epigenética es “el estudio de cambios heredables en la función génica que se producen sin un cambio en la secuencia del acido desoxirribonucleico”.

La epigenómica es un área nueva que se encuentra en pleno desarrollo. Los primeros estudios epigenómicos comienzan en los años 1980 y se dan con mayor fuerza en los años 1990. En este nuevo siglo se ha producido una explosión bastante interesante de artículos sobre epigenómica, los que van de la mano del desarrollo de tecnologías computacionales que permiten estudiar el genoma y comparar tejidos normales con tumor, normales con premalignos, o tejidos expuestos con los no expuestos. En este entorno los cambios epigenómicos constituyen “la progresión natural de los cambios moleculares que se ven cuando un tejido que es normal se transforma por diferentes razones y llega a ser un tejido oncogénico. Como estos cambios ya se han visto en muchos tipos de cáncer, se está comenzando a desarrollar pruebas para detectar el cáncer en etapas tempranas, donde ya se ven estos cambios moleculares”, puntualizando que los médicos no pueden ver los cambios ni los pacientes sentirlos porque los cambios son a nivel molecular y los tejidos no se han expandido mostrando un cambio histológico.

En este entendido, la epigenómica analiza las interacciones entre genomas y proteomas, así como los patrones generales de mutilación y las señales de mutilación, y evalúa este tipo de información en las distintas especies. La genómica comparativa o filogenómica busca determinar el número de familias de proteínas diferentes codificadas por distintos genomas, la distribución de los genes codificantes en los diferentes genomas y cuántos de esos genes los comparten distintos genomas. La ortogenómica estudia los genomas de descendientes ortólogos, mientras que la paragenómica estudia genomas parálogos. Estos estudios incluyen la composición y la organización de dominios proteínicos en los diferentes organismos. La genómica genética incluye el análisis de perfiles de expresión y de huellas basadas en marcadores en cada individuo en una población que se segrega. La genómica computacional mide cuantitativa o cualitativamente una propiedad de interés Después se identifica computacionalmente los factores genéticos en regiones genómicas donde el patrón de variación genética se correlaciona con la distribución de rasgos entre las distintas cepas analizadas. El grado de correlación entre los rasgos y los agrupamientos de cepas dentro de cada bloque de haplotipos se evalúa mediante un análisis de la varianza. La nutrigenómica tiene como objetivo desvelar los efectos de los macronutrientes y los micronutrientes en la salud y la enfermedad en los distintos genotipos. La toxicogenómica busca entender las complejidades de un sistema biológico en su respuesta a factores tóxicos, mutagénicos o carcinogénicos. Reciben una consideración especial las homologías entre genes encargados de controlar las enfermedades en el genoma humano con respecto a compartir funciones tales como ciclo celular y estructura, adhesión celular, señalización, apoptosis, control neuronal y mecanismos de defensa.

Guillermo Choque Aspiazu
http://www.eldiario.net/
Junio 28 de 2010

viernes, 3 de septiembre de 2010

Búsqueda Tabú

La abundancia de problemas de optimización de alto grado de dificultad en el mundo real ha sido una de las causas principales por la que en los últimos años se ha desarrollado un número considerable de técnicas heurísticas que permiten obtener al menos un resultado sub-óptimo en un período de tiempo relativamente corto en problemas que resultaría impráctico resolver mediante "fuerza bruta", es decir enumerando todas las posibles soluciones para escoger de entre ellas a la mejor.

La búsqueda tabú tiene sus antecedentes en métodos diseñados para cruzar cotas de factibilidad u optimalidad local tratadas como barreras en procedimientos clásicos, e imponer y eliminar cotas sistemáticamente para permitir la exploración de regiones no consideradas en otro caso.. Una característica distintiva de este procedimiento es el uso de memoria adaptativa y de estrategias especiales de resolución de problemas. La búsqueda tabú es el origen del enfoque basado en memoria y estrategia intensiva en la literatura de la meta-heurística, en contraposición con los métodos que no tienen memoria o que sólo usan una memoria débil basada en herencia. La búsqueda tabú es también responsable de enfatizar el uso de los diseños estructurados para explotar los patrones históricos de la búsqueda, de forma opuesta a los procesos que confían casi exclusivamente en la aleatorización.

Los principios fundamentales de la búsqueda tabú fueron elaborados en una serie de artículos a finales de los años 1980 y principios de los años 1990. El destacable éxito de la búsqueda tabú para resolver problemas de optimización duros, especialmente aquellos que surgen en aplicaciones del mundo real, ha causado una explosión de nuevas aplicaciones de este tipo de búsqueda durante los últimos años. La filosofía de la búsqueda tabú es derivar y explotar una colección de estrategias inteligentes para la resolución de problemas, basadas en procedimientos implícitos y explícitos de aprendizaje.

Las técnicas heurísticas más conocidas hoy en día no hacen más que adaptar ideas conocidas desde hace mucho tiempo en otras disciplinas. Por ejemplo, los algoritmos genéticos emulan los mecanismos de la evolución; los métodos de flujo de redes se fundamentan en ideas de la electricidad y la hidráulica, y el "templado simulado" se basa en un proceso físico de la industria metalúrgica. Similarmente, la técnica conocida como búsqueda tabú se basa en ciertos conceptos tomados de la Inteligencia Artificial y se utiliza como una meta-heurística, o una heurística de "alto nivel", para resolver problemas de optimización combinatoria. Esto significa que la técnica tiene que combinarse con algún otro mecanismo de búsqueda, y lo que hace, básicamente, es evitar que dicho mecanismo quede atrapado en algún óptimo local.

Los orígenes de la búsqueda tabú se ubican a fines de los años 1960 y principios de los años 1970, y se atribuye a Fred Glover, quien desarrolló esta heurística para tratar de resolver problemas de cubierta no lineal, aunque varios de sus principios también fueron delineados independientemente por P. Hansen. La búsqueda tabú surgió como un dispositivo que permitiría implementar una estrategia para resolver problemas de programación entera con restricciones sustitutas, y aunque su planteamiento original ha sufrido varios cambios a través de los años, la idea básica propuesta por Glover ha permanecido intacta desde sus orígenes.

La búsqueda tabú puede verse como una meta-heurística que se superpone a una técnica de búsqueda y que se encarga de evitar que dicha técnica caiga en óptimos locales prohibiendo, o en un sentido más general penalizando, ciertos movimientos. El propósito de clasificar ciertos movimientos como prohibidos es para evitar que se caiga en ciclos durante la búsqueda. Debido a esto, Glover sugiere como nombre alternativo para su método el de búsqueda con "inhibición débil", ya que los movimientos que se consideran prohibidos constituyen generalmente una pequeña fracción del total de movimientos disponibles, y un movimiento pierde su status de prohibido después de un período de tiempo relativamente corto, volviéndose después nuevamente accesible. A este respecto, este método puede contrastarse con la técnica de ramificación y límites que también prohíbe ciertos movimientos para evitar ciclos, pero lo hace de una manera más rígida, por lo que se le considera como una forma de búsqueda con "inhibición fuerte". Desde la perspectiva de la inteligencia artificial, la búsqueda tabú trata de emular, de manera somera, el comportamiento de una persona.

Es bastante aceptado que los seres humanos poseen un avanzado mecanismo de intuición que permite operar aún con información mínima o nula, pero por lo general suelen introducir un elemento aleatorio en dichas decisiones, lo cual promueve un cierto grado de "inconsistencia" en su comportamiento. La tendencia resultante en estos casos suele desviarse de una cierta trayectoria pre-establecida, lo cual algunas veces puede ser una fuente de errores, pero en otras ocasiones puede llevar a una solución mejor. La búsqueda tabú intenta emular este mecanismo fundamental de la ingenuidad humana, pero sin utilizar elementos aleatorios, sino más bien asumiendo que no hay razón para escoger un movimiento que conduzca a una peor solución, a menos que se esté tratando de evitar recorrer una ruta que ya se examinó previamente. Con esta sola excepción, la técnica buscará, a cada paso, el mejor movimiento posible de acuerdo a la métrica utilizada por el problema en cuestión. Esto hace que la técnica se envíe inicialmente de forma directa hacia un óptimo local, pero eso no importa porque la búsqueda no se detendrá ahí, sino que se reinicializará manteniendo la capacidad inicial de identificación del mejor movimiento posible. Además, se mantiene información referente a los movimientos más recientes en una o más listas tabú, a fin de evitar que una cierta trayectoria previamente recorrida se repita, aunque esta prohibición es generalmente condicional y no absoluta.

La búsqueda tabú se encuentra fundamentada en tres elementos principales: (1) El uso de estructuras flexibles de memoria basadas en atributos. Estas estructuras se encuentran diseñadas para permitir una mejor explotación de los criterios de evaluación y la información histórica de la búsqueda que lo que se conseguiría con estructuras rígidas de memoria, o con sistemas carentes de memoria. (2) Un mecanismo asociado de control. Que se utiliza para emplear las estructuras de memoria, basado en la interacción entre las condiciones que limitan y hacen más flexible el proceso de búsqueda. Este mecanismo se encuentra inmerso en la técnica en forma de restricciones y criterios de aspiración, un criterio de aspiración es aquél que permite que un movimiento pierda su status de "tabú" debido a que proporciona una mejor solución que la actual. (3) La incorporación de memorias de diferente duración. Denominadas de corto a largo plazo, se emplean para implementar estrategias que intensifiquen y diversifiquen la búsqueda. Las estrategias de intensificación refuerzan las propiedades de las combinaciones de movimientos que han demostrado, históricamente, ser buenas, mientras que las estrategias de diversificación dirigen la búsqueda hacia nuevas regiones del espacio de soluciones factibles. Se debe observar que estos dos mecanismos son muy similares al apareamiento y la mutación en los algoritmos genéticos, ya que la primera permite delimitar una cierta región del espacio de búsqueda, mientras que la segunda permite saltar a nuevas regiones del mismo, evitando quedar atrapado en un óptimo local. La parte medular de la búsqueda tabú se localiza en el proceso de memoria de corto plazo, y muchas de las consideraciones estratégicas en las que se fundamenta este proceso reaparecen, amplificadas pero sin mayores modificaciones, en los procesos de memoria de largo plazo.

El marco de memoria adaptativa de la búsqueda tabú no sólo explota la historia del proceso de resolución del problema, sino que también exige la creación de estructuras para hacer posible tal explotación. La historia de resolución del problema se extiende a la experiencia ganada tras resolver múltiples instancias de una clase de problema uniendo la búsqueda tabú con un enfoque de aprendizaje asociado llamado “análisis de objetivo”.

Las listas tabú que contienen atributos pueden ser más efectivas para algunos dominios, pese a que presentan un nuevo problema. Cuando sólo un atributo es marcado como tabú, esto por lo general resulta en que más de una solución es marcada como tabú. Algunas de estas soluciones, que ahora deben ser evitadas, podrían ser de excelente calidad y no serían visitadas. Para mitigar este problema, se introducen los "criterios de aspiración": estos pueden modificar el estado de tabú de una solución, por lo tanto incluyendo la antes excluida solución en el conjunto de soluciones permitidas. Un criterio de aspiración muy utilizado es admitir soluciones que son mejores que la mejor solución conocida al momento.

Guillermo Choque Aspiazu
http://www.eldiario.net/
Junio 21 de 2010