lunes, 26 de marzo de 2012

Robótica cooperativa

Según Lynne Parker, en el artículo escrito el año 2008 relacionado con la “inteligencia distribuida”, las personas se organizan en puestos específicos para desarrollar actividades relacionadas a puestos de trabajo en una empresa. Cada trabajador se especializa en una parcela concreta formando una sociedad. En el ámbito profesional sucede lo mismo, es posible encontrar especialistas en derecho, medicina, ingeniería, computación, arquitectura, etc. Existen multitud de ejemplos donde aparecen equipos de individuos. Las personas han aprendido que un equipo coordinado es más eficiente a la hora de resolver problemas que un individuo. Marvin Minsky propuso, en su libro escrito el año 1985 titulado “la sociedad de la mente”, la idea de que la inteligencia se consigue como una sociedad de agentes que interactúan entre sí y el resultado es un comportamiento global. Sus ideas estaban fundamentadas bajo el análisis realizado sobre el funcionamiento del cerebro y la inteligencia. La base de su argumentación es que la mente no es una única entidad monolítica, sino que está formada por la sociedad de agentes especializados en tareas específicas. Estos agentes se relacionan produciendo como resultado un comportamiento o un pensamiento inteligente.

Según los investigadores Cao, Fukunaga y Kahng, en el artículo publicado el año 1997 relacionado con la “robótica móvil cooperativa”, los sistemas distribuidos de robots presentan un gran número de ventajas en comparación a la funcionalidad de un solo robot: (1) Algunas tareas son imposibles de realizar por un robot único, dada la complejidad o las limitaciones espaciales del problema, haciendo necesario que dos o más de ellos intervengan para efectuarla. (2) Utilizar más robots permite un aumento de la eficiencia y efectividad del sistema, lo que claramente puede evidenciarse en sistemas de exploración y recolección de la información, donde varios robots son capaces de abarcar un área mayor. (3) La creación de muchos robots simples es más barata y fácil, permitiendo una flexibilidad en cuanto a la atención de tareas que un robot único no es capaz de dar, sin importar que tan equipado este. Así actividades como el movimiento de cargas que puede realizarse igual de rápido por un robot único, puede efectuarse en forma más flexible por un conjunto de robots que ayudan según la magnitud de la carga. (4) El uso de múltiples agentes permite enfrentar fallas de mejor forma, ya que aunque fallen y salgan del sistema algunos robots, el objetivo final es aún posible de lograr. En el caso de un robot único, su falla significa la imposibilidad de continuar y finalizar la tarea.

Cuando se habla de sistemas cooperativos de robots se pueden diferenciar tres familias o niveles: (1) Sistemas multi-sensoriales. El caso de varios sensores cooperantes incluye todas aquellas aplicaciones que involucran a más de un sensor y comparten información. Esta información es útil para modelar de manera más rica el entorno que quieren percibir. Un ejemplo de estos sistemas son las redes de sensores. Es un concepto relativamente nuevo en adquisición y tratamiento de datos de manera coordinada. Estas redes están compuestas por un amplio número de sensores con capacidades comunicativas, que se interconectan formando redes ah-hoc. Disponen de una reducida capacidad de cálculo e incapacidad motora pero sus capacidades cooperativas permiten a estos sistemas ser una buena opción en determinados entornos: Por ejemplo zonas de difícil acceso o con alto riesgo de bloqueos. (2) Sistemas con múltiples actuadores. Los sistemas cooperantes con múltiples actuadores incluyen el control de actuadores dentro de un mismo robot o la manipulación coordinada de objetos. La locomoción con patas requiere que haya una sincronización y planificación de todos los movimientos, para que se produzca de manera suave y efectiva. En el caso de la manipulación coordinada sucede algo parecido, es vital que haya cooperación para evitar colisiones entre los manipuladores, interferencias, etc. Un ejemplo de estos últimos sistemas se puede encontrar en las cadenas de montaje de automóviles responsabilizándose de tareas de soldadura o pintura. (3) Sistema de robots independientes. La tercera familia de sistemas cooperantes está formada por varios robots independientes. Estos robots forman un equipo en caso de no ser excesivamente numeroso o un enjambre, en caso de pertenecer a un equipo muy numeroso. Las aplicaciones habituales de estos equipos son la recolección de objetos, exploración, navegación en formación, etc.

El uso de varios robots para lograr un objetivo común viene motivado por varios factores: El primero de ellos es que en algunos escenarios, el uso de un solo robot puede hacer la tarea muy complicada o incluso imposible de realizar. Imagine que se quiere construir un mapa de la superficie de Marte. Con una única entidad móvil se emplearía mucho tiempo hasta conseguir explorar toda la superficie marciana. Otra ventaja adicional es la mayor tolerancia a fallos. En el ejemplo, si un robot se quedara bloqueado, el resto de compañeros completarían la labor. La mejora del rendimiento es otro factor positivo. A mayor número de robots bien organizados, menor será el tiempo empleado hasta llegar al objetivo. Cuando la tarea a realizar es fácilmente divisible en subtareas es más fácil la asignación de subobjetivos a los miembros del equipo. Las capacidades de percepción de cada robot pueden verse ampliadas al compartir información. De esta manera un robot podría percibir más allá de lo que captan sus sensores. Otra ventaja del uso de sistemas multi-robot coordinados es el paralelismo, es decir, se podrían llevar a cabo diversas acciones de manera simultánea. El costo económico también puede beneficiarse del uso de equipos de robots. La compra de un super-robot encarecerá el costo total más que la suma de los precios individuales de varios robots convencionales.

Según Gregory Dudek, en el artículo escrito el año 1996 sobre “una taxonomía para la robótica multi agente”, presenta una taxonomía para clasificar los diferentes aspectos que forman parte de un sistema robótico de agentes múltiples, en este entendido los ejes más significativos son: (1) Control centralizado versus distribuido. Robin Murphy, en el libro escrito el año 2000 relacionado con una “introducción a la robótica”, describe esta característica como el grado de similitud entre los robots que forman el grupo. Un grupo heterogéneo está formado por al menos dos miembros con hardware o software diferente, mientras que en un grupo homogéneo todos los miembros son idénticos. (2) Mecanismos de coordinación. Un equipo de robots puede cooperar de maneras muy diversas: Desde la más básica en la que cada individuo no tiene conciencia del resto, hasta las más elaboradas basadas en negociaciones de alto nivel y con un elevado grado de comunicación. Los mecanismos de cooperación dinámica son adecuados para favorecer la flexibilidad y adaptabilidad a la hora de afrontar una tarea coordinada. En el artículo escrito el año 2004 titulado “un paradigma para la coordinación dinámica de robots múltiples”, los investigadores Chaimowicz, Kumar y Campos, proponen un mecanismo de asignación dinámico de roles, que permite asociar tareas concretas a robots o grupos de robots sobre la marcha. Este mecanismo es descentralizado y cada individuo toma sus propias decisiones basadas en la información local y global. Se pueden enumerar tres tipos de cambio de rol: (a) Asignación. Se asume un nuevo rol cuando se termina la ejecución de una tarea. (b) Reasignación. El rol activo se aborta y comienza la ejecución de otro nuevo. (c) Intercambio. Dos o más robots se sincronizan e intercambian sus papeles. (3) Comunicación. La comunicación determina las posibilidades de interacción entre los miembros del grupo, siendo el vehículo para que la coordinación se manifieste. Es posible identificar tres tipos de interacción que tienen que ver con el intercambio de información: A través del medio, a través de los propios sensores del robot o explícita empleando comunicaciones. (4) Interferencias y conflictos. Este es un problema típico cuando varios elementos quieren acceder a un recurso compartido. Este medio compartido puede ser desde un canal de comunicaciones hasta una intersección de carreteras. Si dos o más individuos acceden a él en el mismo instante de tiempo se produce una colisión. Por tanto, es necesario que exista algún mecanismo de exclusión mutua para evitar estos problemas cuando sea necesario.

En un barrido de las aplicaciones típicas que se abordan con grupos de robots, se observan las siguientes: (1) Recolección. La recolección consiste en encontrar y recoger una serie de objetos diseminados por el entorno. En situaciones reales estas técnicas se pueden usar para recoger sustancias tóxicas, participar en situaciones de rescate, detectar de minas, etc. (2) Formaciones. Esta especialidad aparece cuando se combina la navegación y los grupos de robots. Consiste en el control de múltiples individuos moviéndose juntos en formación. Los trabajos en el ámbito de las formaciones en vehículos no tripulados despertaron un interés militar en el Ministerio de Defensa de Estados Unidos durante la década de los años 1990. (3) Gestión de almacenamiento. En grandes centros de distribución, almacenes o pequeños negocios con gran volumen de movimiento de productos es habitual dedicar mucho tiempo a la gestión del inventario. Esta gestión involucra tareas de llenado de determinados compartimentos o vaciado cuando los clientes lo solicitan. Un equipo de robots cooperantes puede ser una muy buena solución para este problema, liberando a las personas de esta tarea repetitiva y mejorando la eficiencia de la gestión de los recursos. (4) Manipulación coordinada. Hay muchos trabajos sobre este tema consistente en arrastrar cajas usando varios robots con brazos, o de manera más genérica, manipular objetos entre varios agentes. Un dato interesante de esta especialidad es que la cooperación puede llevarse a cabo sin que cada robot sepa de la existencia del resto. (5) Fútbol robótico. El fútbol robótico es un campo de pruebas interesante que está cobrando mayor interés año a año. Además del reto tecnológico que requiere desarrollar un sistema completo perceptivo, locomotor, estratégico, que incluya auto-localización y cooperación entre sus miembros, tiene el ingrediente extra de ser competitivo. Un equipo de robots se enfrenta a otro equipo con objetivos opuestos a los tuyos. Desde el punto de vista de coordinación es un escenario muy propicio a establecer roles entre los miembros de cada equipo con estrategias de posicionamiento y comportamientos específicos.

Referencias Bibliográficas
  • Cao Y., Fukunaga A. y Kahng A. (1997) Cooperative Mobile Robotics: Antecedents and Directions. Autonomous Robots, vol. 4, 1-23.
  • Chaimowicz L., Kumar V. and Campos M. (2004) A Paradigm for Dynamic Coordination of Multiple Robots. Autonomous Robots, 17(1).
  • Dudek G., Jenkin M.R.M. and Wilkes D. (1996) A taxonomy for multi-agent robotics. Autonomous Robots, 3:375–397.
  • Minsky M. (1985) The Society of Mind. Simon and Schuster. EE.UU.
  • Murphy R.R. (2000) Introduction to AI Robotics. MIT Press, Cambridge, MA, USA.
  • Parker L. (2008) Distributed intelligence: Overview of the field and its application in multi-robot systems. Journal of Physical Agents, 2(1):5–14, 2008.
Guillermo Choque Aspiazu
http://www.eldiario.net
Marzo 26 de 2012

lunes, 19 de marzo de 2012

Métodos de la minería de datos

Las bases de datos surgieron como respuesta a la necesidad de almacenar datos en un sistema de cómputo. Al inicio de la era de las computadoras, década de los años 1960, la dimensión de las bases de datos se limitaba a unos cuantos kilobytes, sujeto a las restricciones tecnológicas de la época, por lo que su aplicación a diversos dominios tanto científicos como del mundo real fue limitado. Según los investigadores Witten y Frank, en el libro escrito el año 2005 relacionado con la “minería de datos, técnicas y herramientas de aprendizaje automático”, con el avance de la tecnología, se pasa de almacenar unos cuantos kilobytes a cientos de gigabytes, lo que ha permitido extender su uso a dominios que antes eran impensables. No obstante, el aumento en la dimensión de las bases de datos ha traído como consecuencia la necesidad de nuevas herramientas de administración y análisis que permitan lidiar con la vasta cantidad de datos. El análisis de datos es una tarea que consiste en buscar o encontrar tendencias o variaciones de comportamiento en los datos, de tal manera que esta información resulte de utilidad para los usuarios finales. A estas tendencias o variaciones se las conoce como patrón. Si los patrones son útiles y de relevancia para el dominio, entonces se le llama conocimiento. En un principio, el análisis se realizaba de forma manual, empleando técnicas estadísticas. Sin embargo, actualmente esta forma de análisis resulta inviable por la gran cantidad de datos que puede contener una base de datos moderna, además de que existe una gran cantidad de formatos para los datos, como tablas, secuencias, grafos, imágenes, audio, lo cual aumenta la complejidad de un análisis manual.

Bajo estas circunstancias es como surge la minería de datos, que es un proceso automático ó semiautomático que busca descubrir patrones ocultos en un conjunto de datos y que además, sean potencialmente útiles para los usuarios de la base de datos. Según Mitchel, en el libro escrito el año 1997 sobre “aprendizaje automático”, en la minería de datos se contemplan diversas estrategias para identificar diferentes tipos de patrones, como son árboles de clasificación, redes neuronales, redes bayesianas, técnicas de asociación, entre otros. El objetivo en todo proceso de minería de datos es obtener patrones de interés para el usuario final. Para lograrlo, es necesario preparar correctamente a los datos para procesarlos, elegir un método adecuado para extraer los patrones deseados y finalmente, determinar cómo evaluar los patrones encontrados. Estas etapas han sido organizadas en un esquema conocido como el proceso de descubrimiento de conocimiento en base de datos, en el cual se identifican tres grandes bloques: pre-procesamiento, búsqueda/identificación de patrones y evaluación. Un patrón es interesante si es fácilmente entendible por las personas, potencialmente útil, novedoso o si valida alguna hipótesis que el usuario busca confirmar. Un patrón interesante normalmente representa conocimiento.

Según Perichinsky y sus colegas, en el artículo escrito el año 2003 sobre “evidencia taxonómica y robustez de la clasificación aplicando minería de datos inteligente”, se denomina minería de datos al conjunto de técnicas y herramientas aplicadas al proceso no trivial de extraer y presentar conocimiento implícito, previamente desconocido, potencialmente útil y humanamente comprensible, a partir de grandes conjuntos de datos, con objeto de predecir de forma automatizada tendencias y comportamientos; y describir de forma automatizada modelos previamente desconocidos. El investigador Michalskí menciona que, en el libro escrito el año 1998 acerca de “minería de datos y aprendizaje automático”, el término minería de datos inteligente refiere específicamente a la aplicación de métodos de aprendizaje automático, para descubrir y enumerar patrones presentes en los datos, para estos, se desarrollaron un gran número de métodos de análisis de datos basados en la estadística. En la medida en que se incrementaba la cantidad de información almacenada en las bases de datos, estos métodos empezaron a enfrentar problemas de eficiencia y escalabilidad y es aquí donde aparece el concepto de minería de datos. Por su parte el investigador Hernández Orallo, en el texto escrito el año 2000 sobre “extracción automática de conocimiento de base de datos e ingeniería del software”, una de las diferencias entre al análisis de datos tradicional y la minería de datos es que el primero supone que las hipótesis ya están construidas y validadas contra los datos, mientras que el segundo supone que los patrones e hipótesis son automáticamente extraídos de los datos.

Según el investigador Morales, en el documento escrito el año 2003 sobre “descubrimiento de conocimiento en bases de datos”, la minería de datos es un proceso completo de descubrimiento de conocimiento que involucra varios pasos: (1) Entendimiento del dominio de aplicación, el conocimiento relevante a utilizar y las metas del usuario. (2) Seleccionar un conjunto de datos en donde realizar el proceso de descubrimiento. (3) Limpieza y preprocesamiento de los datos, diseñando una estrategia adecuada para manejar ruido, valores incompletos, valores fuera de rango, valores inconsistentes y otros. (4) Selección de la tarea de descubrimiento a realizar, por ejemplo, clasificación, agrupamiento, reglas de asociación, etc. (5) Selección de los algoritmos a utilizar. (6) Transformación de los datos al formato requerido por el algoritmo especifico de explotación de datos, hallando los atributos útiles, reduciendo las dimensiones de los datos, etc. (7) Llevar a cabo el proceso de minería de datos para encontrar patrones interesantes. (8) Evaluación de los patrones descubiertos y presentación de los mismos mediante técnicas de visualización. Quizás sea necesario eliminar patrones redundantes o no interesantes, o se necesite repetir algún paso anterior con otros datos, con otros algoritmos, con otras metas o con otras estrategias. (9) Utilización del conocimiento descubierto, ya sea incorporándolo dentro de un sistema o simplemente para almacenarlo y reportarlo a las personas interesadas.

La minería de datos abarca un terreno muy amplio, no es solamente aplicar un algoritmo existente a un conjunto de datos. Las herramientas existentes actualmente incluyen mecanismos para la preparación de los datos, su visualización y la interpretación de los resultados. Muchas de las herramientas funcionan bien en espacios de pocas dimensiones con datos numéricos, pero sus limitaciones comienzan a aparecer en espacios de mayores dimensiones o con datos no numéricos. Según el equipo de investigadores conformado por Thrun, Faloustos, Mitchell y Wasserman, en el artículo escrito el año 1998 acerca de “aprendizaje automatizado y descubrimiento: estado del arte y tópicos de investigación”, alguno de los métodos de minería de datos que resuelven distintos problemas inherentes a la misma son los siguientes: (1) Aprendizaje activo/Diseño experimental. El aprendizaje activo, por el lado de la inteligencia artificial, y el diseño experimental, por el lado de la estadística, tratan de resolver el problema de la elección del método a aplicar durante el aprendizaje. (2) Aprendizaje acumulativo. Muchas bases de datos crecen continuamente, en este entendido, aprender a partir de bases de datos de este tipo es difícil ya que los datos deben ser analizados acumulativamente a medida que se incorporan a la base. (3) Aprendizaje multitarea. Se aplica en dominios que se caracterizan por pertenecer a familias de problemas de aprendizaje similares. (4) Aprendizaje a partir de datos tabulados y no tabulados. En muchas aplicaciones el problema no está en la obtención de los datos, sino en la tabulación de los mismos. (5) Aprendizaje relacional. En muchos problemas de aprendizaje las entidades no se describen a partir de un conjunto estático de atributos, sino a partir de las relaciones entre entidades. En las bases de datos inteligentes encontrar patrones o relaciones entre entidades es un problema primordial.

El subconjunto de métodos que complementa el trabajo realizado por Thrun, Faloustos, Mitchell y Wasserman es: (6) Aprendizaje a partir de grandes bases de datos. Muchas bases de datos son demasiado grandes como para ser leídas y procesadas por una computadora más de una vez. Lo cual imposibilita el uso de algoritmos que requieran múltiples pasadas sobre los datos. Debe afrontarse entonces, el desafío de encontrar algoritmos inteligentes que sean escalables eficientemente a grandes bases de datos. (7) Aprendizaje a partir de bases de datos extremadamente pequeñas. En el otro extremo, existen también bases de datos que son demasiado pequeñas para los algoritmos existentes. Debe encontrarse entonces un método que trabaje eficientemente con un número limitado de datos, o bien, que se base en el conocimiento previo. (8) Aprendizaje con conocimientos previos. En muchos casos, se poseen conocimientos efectivos acerca del fenómeno en estudio. Deben existir métodos capaces de incorporar conocimientos previos tanto abstractos, como diversos o inciertos. (9) Aprendizaje a partir de datos de distintos tipos. Muchos juegos de datos contienen varios tipos de datos. La gran mayoría de los algoritmos actuales sólo pueden trabajar con un único tipo de datos, con lo cual deben encontrarse métodos capaces de manejar los distintos tipos o formatos de datos presentes en una base de datos. (10) Aprendizaje de relaciones casuales. Gran parte de los algoritmos de aprendizaje detectan la correlación entre los datos, pero son incapaces de determinar o modelar las casualidades, y, por lo tanto, fallan al tratar de predecir algunos efectos externos. Deben diseñarse, entonces, algoritmos que incorporen las casualidades. (11) Visualización y minería de datos interactiva. En muchos casos, la minería de datos es un proceso interactivo, en el cual el análisis de datos automático se mezcla con las decisiones de control de un experto de campo. Deben diseñarse herramientas que contemplen el intercambio entre estas dos áreas.

Referencias Bibliográficas
  • Hernández Orallo J. (2000) Extracción Automática de Conocimiento de base de datos e ingeniería del software. Programación declarativa e ingeniería de la programación.
  • Michalski R., I. Bratko, M. Kubat (1998) Machine Learning and data mining: Methods and Applications. Wiley & Sons Ltd., EE.UU.
  • Mitchel Tom M. (1997) Machine Learning. McGraw-Hill.
  • Morales E. (2003) Descubrimiento de Conocimiento en Bases de Datos.
  • Perichinsky, G., M. Servente, A. Servetto, R. García-Martínez, R. Orellana, A. Plastin (2003) Taxonomic Evidence and Robustness of the Classification Applying Intelligent Data Mining. Proceedings del VIII Congreso Argentino de Ciencias de la Computación. Pág. 1797-1808.
  • Thrun, S., Faloustos, C., Mitchell, T., Wasserman, L. (1998) Automated Learning and Discovery: State-Of-The-Art and Research Topics in a Rapidly Growing Field. CMU-CALD-98-100, Center for Automated Learning and Discovery, Carnegie Mellon University, Pittsburgh, EE.UU.
  • Witten Ian H. and Frank Eibe (2005) Data Mining, Practical Machine Learning Tools and Techniques. Morgan Kaufmann Publishers. Second Edition.

Guillermo Choque Aspiazu
http://www.eldiario.net
Marzo 19 de 2012

lunes, 12 de marzo de 2012

Nanopartículas terapéuticas

El premio Nobel de física de 1963, Richard Feynman, dio una conferencia, en 1959, en la que mencionó la posibilidad de almacenar los veinticuatro tomos de la Enciclopedia Británica en la cabeza de un alfiler, de crear micromáquinas capaces de viajar a través del cuerpo humano, de manipular, átomo por átomo, la síntesis de materiales de nueva creación, y algunas otras ideas que en aquel tiempo eran difíciles de concebir. En los primeros años del siglo veintiuno, el desarrollo tecnológico de nuevos materiales ha hecho tangibles algunas de las premisas de Feynman. Ejemplos de esto son los discos duros de la reciente generación de computadoras, capaces de almacenar una gran cantidad de información en películas magnéticas delgadas; los instrumentos médicos de diagnóstico que, en la actualidad, son más compactos y rápidos; las técnicas de enfriamiento, así como las de manipulación por láser que hacen más preciso el confinamiento de átomos y moléculas. Todo esto forma parte de lo que se conoce como nanotecnología, universo en el que se utilizan las propiedades físicas de los materiales en escala de nanómetros.

Una nanopartícula, conocida también como nanopolvo, nanoracimo, o nanocristal, es una partícula microscópica con por lo menos una dimensión menor que cien nanometros. Actualmente las nanopartículas son un área de intensa investigación científica, debido a una amplia variedad de aplicaciones potenciales en los campos de biomédicos, ópticos, y electrónicos. La Iniciativa Nacional de Nanotecnología del gobierno de los Estados Unidos ha conducido cantidades enormes de financiamiento exclusivamente para la investigación de las nanopartículas.

Una nanopartícula tiene el tamaño de algunos nanómetros, y sus propiedades tanto físicas como químicas son diferentes a las que presenta el material en la escala de los centímetros. Según el investigador Guozhong, en el artículo publicado el año 2004 sobre “nanoestructuras y nanomateriales”, existen diferentes tipos de nanopartículas, en las cuales es posible distinguir el carácter organizacional de la materia: (1) Semiconductoras. Las partículas semiconductoras se fabrican a partir de la combinación de un precursor metálico con elementos pertenecientes a la familia del oxígeno. En general, como en el caso de los semiconductores comunes, las nanopartículas se forman de la mezcla de los elementos de la tabla periódica del grupo tres con el grupo cinco, por ejemplo: fosfuro y arsenuro de indio; o de la composición de los grupos cuatro y seis, como son el selenuro, teluro y sulfuro de plomo. (2) Metálicas. En el caso de las nanopartículas metálicas su principal característica es que contienen un número determinado de electrones libres confinados en un espacio muy pequeño. Esto les da propiedades como la resonancia plasmónica, que es la propiedad de interactuar específicamente con la luz, la cual se puede ver claramente en el caso del oro, donde soluciones de distintos tamaños de nanopartículas presentan colores que van desde el púrpura hasta el marrón. Este cambio de color es resultado de la oscilación colectiva de los electrones al interactuar con la luz. (3) Otras. Existen otros tipos de nanopartículas con diversos usos como las magnéticas, que son empleadas en el mejoramiento de imágenes en el diagnóstico médico, y las dieléctricas, las cuales han sido propuestas como modelos para su uso en la computación cuántica, porque pueden ser selectivamente excitadas por medio de pulsos ópticos.

Las investigaciones dirigidas a la búsqueda de alternativas para el tratamiento de las infecciones causadas por bacterias y virus resistentes se incrementan cada día. Según Yoon y sus colegas investigadores, en el artículo publicado el año 2008 acerca de “características antimicobianas del aerosol de plata”, dentro de la gama de compuestos cuya actividad bactericida se está investigando, las nanopartículas de plata surgen como un prometedor agente antibacteriano que podría ser utilizado para enfrentar a bacterias resistentes a los antibióticos. En diversos estudios se han observado las propiedades antimicrobianas de las nanopartículas de plata tanto en virus como en bacterias. Se ha determinado que las nanopartículas de plata tienen efecto en bacterias Gram negativas como Escherichia coli, Vibrio cholera y Pseudomonas aeruginosa, además de Gram positivas como Bacillus subtilis, Staphylococcus aureus y Enterococcus faecalis. Aunado a ello, el grupo de investigación de Elechiguerra, en el artículo escrito el año 2005 acerca de la “interacción de nanopartículas de plata con el VIH-1” determinó la capacidad antiviral de las nanopartículas de plata en el virus de inmunodeficiencia humana tipo 1. A pesar de todos los hallazgos no se ha podido establecer hasta el momento el mecanismo de acción por el cual estos nanomateriales llevan a cabo su efecto antibacteriano. Sin embargo los resultados obtenidos gracias al empleo de la proteómica, en el articulo escrito el año 2006 por Lok y sus colegas acerca del “análisis proteómico del modo de acción antibacteriano de las nanopartículas de plata”, los cuales mostraron un claro efecto de las nanopartículas de plata sobre la expresión proteínas de la membrana interna de E. coli sugiriendo que un posible sitio de acción de estos compuestos es la membrana celular.

Los productos médicos que incorporan plata nanoescalar están entre los primeros éxitos comerciales de la nanotecnología. Aunque las propiedades antimicrobianas de la plata son conocidas hace miles de años, el incremento en el área superficial de las nano-partículas de plata diseñadas con ingeniería nanológica, de uno a cien nanómetros, las torna más reactivas químicamente y resalta sus propiedades terapéuticas. Nucryst Pharmaceuticals, una subsidiaria de Westaim Corporation, fabrica recubrimientos de heridas y quemaduras impregnados con plata nanoscópica con el fin de combatir la infección y la inflamación. Según Bethany Halford, en el artículo escrito el año 2006 titulado “¿una bala de plata para las infecciones?”, la plata mata las bacterias y los virus al impedir el transporte de electrones en los microbios y desfasar la replicación celular cuando entra en contacto con el ácido desoxirribonucleico. Los iones de plata, átomos que tienen una carga eléctrica debido al cambio en el número de electrones, pueden perturbar las estructuras microbianas y sus funciones. El lado problemático es que los altos niveles de iones de plata, liberados por periodos prolongados de tiempo, pueden matar también las células, por lo que debe controlarse la exposición a ellos.

Smith & Nephew, una de las firmas de equipo médico más grandes del mundo, vende los recubrimientos de heridas con capa de plata de Nucryst en treinta países, con el nombre de Acticoat. La demanda de recubrimientos antimicrobianos crece debido a que, con mucha rapidez, diversas bacterias se están volviendo resistentes a los antibióticos. Smith & Nephew afirma que el Acticoat es efectivo contra ciento cincuenta patógenos, incluidos algunos microorganismos resistentes.

Johnson & Johnson, Bristol-Myers Squibb y Medline Industries, entre otras compañías, comercializan ya productos médicos basados en plata nanoscópica. Pero los recubrimientos de heridas son sólo el principio. Según los investigadores Tobler y Warner, en el artículo escrito el año 2005 titulado “La nanotecnología de plata combate microbios en los dispositivos médicos”, dado que se calcula que las infecciones bacterianas relacionadas con la hospitalización son la quinta causa de muerte en Estados Unidos, las compañías intentan que se recubra con plata nanoscópica el instrumental quirúrgico, las sábanas de las camas y las cortinas de los hospitales. En diciembre de 2005 la Administradora de Alimentos y Medicamentos de los Estados Unidos, concedió la aprobación de un catéter, un tubo para transportar líquidos, recubierto con plata antimicrobiana para su implantación en el cuerpo humano.

Según Sampson, en el artículo escrito el año 2004 sobre “trajes con auto-limpieza, en su futuro”, los recubrimientos de plata nanoscópica se usan también como dispositivos antimicrobianos en los productos de consumo, como el acabado de refrigeradores, las escobas, los recipientes para almacenar alimentos y la ropa. SmartSilver son unos calcetines antimicrobianos que se venden a los soldados en las tiendas del ejército estadunidense, y los investigadores desarrollan telas con recubrimientos de plata nanoescalar que son descritas como “auto-limpiadoras”. Una nueva lavadora de ropa lanzada al mercado por Samsung, llamada SilverCare, inyecta iones de plata al agua de lavado y enjuague. Samsung afirma que los iones de plata penetran la tela y matan las bacterias sin necesidad de agua caliente o blanqueador. En palabras de Rhonda Rundle, “la guerra contra los gérmenes tiene una línea de plata”, los especialistas en tratamiento de aguas a nivel municipal se preguntan si la plata nanoscópica en las lavadoras de ropa podría ocasionar serios problemas si las partículas de plata se descargan a los drenajes y matan plancton, lo que perturbaría la cadena alimenticia. A petición hecha a principios de 2006 por la Asociación de Dependencias en pro de Agua Limpia de los Estados Unidos, la Agencia de Protección Ambiental del gobierno estadunidense consideró en junio de 2006 la revisión y clasificación de los productos que contuvieran nano-partículas de plata como plaguicidas, es decir, con la capacidad de matar vida vegetal.

Referencias Bibliográficas
  • Elechiguerra, J. L.; Burt, J. L.; Morones, J. R.; Camacho-Bragado, A.; Gao, X.; Lara, H. H. and Yacaman, M. J. (2005) Interaction of silver nanoparticles with HIV-1. J. Nanobiotechnology.
  • Guozhong, Cao (2004) Nanoestructuras y nanomateriales: síntesis, propiedades y aplicaciones, Imperial College Press.
  • Halford, Bethany (2006) A Silver Bullet for Infections?. Chemical and Engineering News, 17 de abril de 2006, p. 35-36. En la red electrónica: http://pubs.acs.org/cen/science/84/8416sci1c.html.
  • Lok, C. N.; Ho, C. M.; Chen, R.; He, Q. Y.; Yu, W. Y.; Sun, H.; Tam, P. K.; Chiu, J. F. and Che, C. M. 2006. Proteomic analysis of the mode of antibacterial action of silver nanoparticles. J. Proteome. Res. 5:916-924.
  • Rundle, Rhonda L. (2006) This War Against Germs Has a Silver Lining, Wall Street Journal, 6 de junio de 2006.
  • Sampson, Mark T. (2004) ‘Self-cleaning’ Suits May Be in Your Future, EurekAlert, 22 de noviembre de 2004. En la red electrónica: http://www.eurekalert.org/pub_releases/2004-11/acssm111904.php
  • Tobler, David y Warner, Lenna (2005) Nanotech Silver Fights Microbes in Medical Devices, Medical Device & Diagnostic Industry, mayo de 2005. En la red electrónica: http://www.devicelink.com/mddi/archive/05/05/029.html
  • Yoon, K. Y.; Byeon, J. H.; Park, J. H.; Hi, J. H.; Bae, G. N. and Hwang, J. (2008) Antimicrobial Characteristics of Silver Aerosol Nanoparticles against Bacillus subtilis Bioaerosols. Environmental Engineering Science 25:289-294.
Guillermo Choque Aspiazu
http://www.eldiario.net
Marzo 12 de 2012

lunes, 5 de marzo de 2012

Alineamiento de secuencias

En palabras de los investigadores Sanchez, Lopez y Maojo, en el artículo escrito el año 1999 sobre “bioinformatica y salud”, la bioinformática se encuentra en la intersección entre las ciencias de la vida y de la información, proporciona las herramientas y recursos necesarios para favorecer la investigación en biología molecular. Como campo interdisciplinario, comprende la investigación y el desarrollo de sistemas útiles para entender el flujo de información desde los genes a las estructuras moleculares, su función bioquímica, su conducta biológica y, finalmente, su influencia en las enfermedades y en la salud.

Los estímulos principales para el desarrollo de la bioinformática son: (1) El enorme volumen de datos generados por los distintos proyectos denominados genoma. (2) Los nuevos enfoques experimentales, basados en biochips, que permiten obtener datos genéticos a gran velocidad, bien de genomas individuales o de enfoques celulares, expresión génica. (3) El desarrollo de Internet, que permite el acceso universal a las bases de datos de información biológica. La magnitud de la información que genera las investigaciones realizadas sobre el genoma humano es tal que, probablemente, supera la generada por otras investigaciones en otras disciplinas científicas. Como se sabe, la vida es la forma más compleja de organización de la materia que se conoce. En estos momentos, las computadoras no clasificadas para uso civil más potentes del mundo están dedicadas a la investigación biológica, concretamente a la obtención y al análisis de las secuencias de nucleótidos de los genomas conocidos. Ante tal situación, uno de los retos de la bioinformática es el desarrollo de métodos que permitan integrar los datos genómicos, de secuencia, de expresión, de estructura, de interacciones y otras, para explicar el comportamiento global de la célula viva, minimizando la intervención humana. Dicha integración, sin embargo, no puede producirse sin considerar el conocimiento acumulado durante decenas de años, producto de la investigación de miles de científicos, recogido en millones de comunicaciones científicas.

La bioinformática se ocupa de la utilización y almacenamiento de grandes cantidades de información biológica, es decir, trata del uso de las computadoras para el análisis de la información biológica, entendida esta como la adquisición y consulta de datos, los análisis de correlación, la extracción y el procesamiento de la información. En otras palabras, la bioinformática es un área del espacio que representa la biología molecular computacional, que incluye la aplicación de las computadoras y de las ciencias de la información en áreas como la geonómica, el mapeo, la secuencia y determinación de las secuencias y estructuras por métodos clásicos. Las metas fundamentales de la bioinformática son la predicción de la estructura tridimensional de las proteínas a partir de su secuencia, la predicción de las funciones biológicas y biofísicas a partir de la secuencia o la estructura, así como simular el metabolismo y otros procesos biológicos basados en esas funciones. Muchos de los métodos de la computación y de las ciencias de la información sirven para estos fines, incluyendo el aprendizaje de las máquinas, las teorías de la información, la estadística, la teoría de los gráficos, los algoritmos, la inteligencia artificial, los métodos estocásticos, la simulación, la lógica, etc.

Ingresando en el tema del presente artículo, según los investigadores Smith y Waterman, en el artículo escrito el año 1981 sobre “identificación de secuencias moleculares comunes”, complementado con la opinión de los investigadores Schneider y Stephens, en el artículo escrito el año 1990 sobre “logotipos de secuencia: una nueva manera de ver las secuencias de consenso”, un alineamiento de secuencias en bioinformática es una forma de representar y comparar dos o más secuencias o cadenas de ácido desoxirribonucleico, acido ribonucleico o estructuras primarias proteicas para resaltar sus zonas de similitud, que podrían indicar relaciones funcionales o evolutivas entre los genes o proteínas consultados. Las secuencias alineadas se escriben con las letras, que representan aminoácidos o nucleótidos, en filas de una matriz en las que, si es necesario, se insertan espacios para que las zonas con idéntica o similar estructura se alineen.

Si dos secuencias en un alineamiento comparten un ancestro común, las no coincidencias pueden interpretarse como mutaciones puntuales o sustituciones, y los huecos como indels o mutaciones de inserción o borrado, introducida en uno o ambos linajes en el tiempo que transcurrió desde que divergieron. En el alineamiento de secuencias proteicas, el grado de similitud entre los aminoácidos que ocupan una posición concreta en la secuencia puede interpretarse como una medida aproximada de conservación en una región particular, o secuencia motivo, entre linajes. La ausencia de sustituciones, o la presencia de sustituciones muy conservadas en una región particular de la secuencia indican que esta zona tiene importancia estructural o funcional. Aunque las bases nucleotídicas del ácido desoxirribonucleico y ácido ribonucleico son bastante similares entre sí que con los aminoácidos, la conservación del emparejado de bases podría indicar papeles funcionales o estructurales similares. El alineamiento de secuencias puede utilizarse con secuencias no biológicas, como en la identificación de similitudes en series de letras y palabras del lenguaje humano o en análisis de datos financieros.

Secuencias muy cortas o muy similares pueden alinearse manualmente. Aun así, los problemas más interesantes necesitan alinear secuencias largas, muy variables y extremadamente numerosas que no pueden ser alineadas por seres humanos. El conocimiento humano se aplica principalmente en la construcción de algoritmos que produzcan alineamientos de alta calidad, y ocasionalmente ajustando el resultado final para representar patrones que son difíciles de introducir en algoritmos, especialmente en el caso de secuencias de nucleótidos. Las aproximaciones computacionales al alineamiento de secuencias se dividen en dos categorías: alineamiento global y alineamiento local. Calcular un alineamiento global es una forma de optimización global que “obliga” al alineamiento a ocupar la longitud total de todas las secuencias problema. Comparativamente, los alineamientos locales identifican regiones similares dentro de largas secuencias que normalmente son bastante divergentes entre sí. A menudo se prefieren los alineamientos locales, pero pueden ser más difíciles de calcular porque se añade el desafío de identificar las regiones de mayor similitud. Se aplican gran variedad de algoritmos computacionales al problema de alineamiento de secuencias, como métodos lentos, pero de optimización, como la programación dinámica, y métodos heurísticos o probabilísticos eficientes, pero no exhaustivos, diseñados para búsqueda a gran escala en bases de datos.

Según el investigador Robles, en la tesis de grado escrita el año 2003 denominada “clasificación supervisada basada en redes Bayesianas y su aplicación en biología computacional”, cuando se analizan secuencias se suelen utilizar de manera indiscriminada los términos de similitud y homología. Sin embargo, estos términos se refieren a conceptos muy distintos. Similitud es la característica resultante de la observación de que dos o más secuencias muestran algún grado de coincidencia en la secuencia de aminoácidos. La similitud, dado que es una observación, no puede ser un indicador a priori de ninguna relación biológica entre las secuencias, ya que ésta se podría deber a cambios que se hayan dado al azar. En cambio, se habla de homología cuando la similitud se puede atribuir a verdaderas razones evolutivas y no simplemente al azar. En este caso, se afirma que hay regiones de la secuencia conservadas en el tiempo. La similitud es producto de una medida, mientras que la homología es una hipótesis que se postula con base en la similitud de las secuencias estudiadas y otras características adicionales. Se puede hablar de un porcentaje de similitud entre dos secuencias pero no de un porcentaje de homología. Ya que la homología es una característica cualitativa, no es susceptible de ser medida, por lo que dos secuencias simplemente o son o no son homologas.

El alineamiento es el procedimiento que permite dar los primeros pasos hacia la conclusión de que dos o más secuencias son homologas. Consiste en establecer un segmento entre ellas, donde el número de coincidencias sea máximo. Una coincidencia se presenta cuando el aminoácido de la secuencia A es igual al de la secuencia B o bien si sus características físico-químicas, entre las que resaltan la hidrofobicidad, tamaño y carga, son similares. Los programas de alineamiento de secuencias utilizan matrices de sustitución, en las que a cada combinación posible de aminoácidos se le asigna un valor. Estas matrices de sustitución varían desde modelos simples que asignan el valor uno si los aminoácidos son iguales y cero si son distintos, hasta modelos más complejos evolutivos, estructurales o funcionales, que fijan un determinado costo por sustituir un aminoácido por otro dependiendo de ambos aminoácidos. Esta técnica, aparentemente sencilla, se hace más compleja en la medida en que el tamaño de las secuencias a comparar se hace mayor y, más aún, cuando se comparan más de dos secuencias. Para realizar esta tarea, se emplean distintos programas computacionales que dadas dos secuencias, generan el mejor alineamiento.

Referencias Bibliográficas
  • Sánchez F. Martin, López Campos G. & Maojo García V. (1999) Bioinformática y salud: impactos de la aplicación de las nuevas tecnologías para el tratamiento de la información genética en la investigación biomédica y la práctica clínica. Informática y Salud (19). Disponible en: http://www.seis.es/i_s/i_s19/i_s19l.htm
  • Schneider TD, Stephens RM (1990) Sequence logos: a new way to display consensus sequences. Nucleic Acids Res 18: pp. 6097-6100.
  • Smith, T.F., and Waterman, M.S. (1981) Identification of common molecular sequence, J. Mol. Biol., 1981, 147, pp. 195-197.
  • Robles Víctor (2003) Clasificación Supervisada basada en Redes Bayesianas. Aplicación en Biología Computacional. Tesis de doctorado. Universidad Politécnica de Madrid. Facultad de Informática. Madrid, 2003.

Guillermo Choque Aspiazu
http://www.eldiario.net
Marzo 5 de 2012