viernes, 24 de julio de 2009

Minería de datos inteligente

Se puede decir que los datos por sí solos no producen beneficio directo, su verdadero valor radica en la posibilidad de extraer información útil para la toma de decisiones o la exploración y comprensión del fenómeno que produjo los datos. Tradicionalmente en la mayoría de los dominios este análisis de datos se hacía mediante un proceso manual o semiautomático: uno o más analistas con conocimiento de los datos y con la ayuda de técnicas estadísticas proporcionaban resúmenes y generaban informes, o validaban modelos sugeridos manualmente por los expertos. Sin embargo, este proceso, en especial la generación de modelos, es irrealizable conforme aumenta el tamaño de los datos y el número de dimensiones o parámetros se incrementa.

Ante este panorama, surge la necesidad de metodologías para el análisis inteligente de datos, que permitan descubrir un conocimiento útil a partir de los datos. Este es el concepto de proceso correspondiente al descubrimiento de conocimiento en bases de datos, que puede ser definido como el proceso no trivial de identificar patrones en los datos con las características siguientes: válidos, novedosos, útiles y comprensibles. El proceso de descubrimiento de conocimiento en bases de datos es un conjunto de pasos interactivos e iterativos, entre los que se incluye el pre-procesamiento de los datos para corregir los posibles datos erróneos, incompletos o inconsistentes, la reducción del número de registros o características encontrando los más representativos, la búsqueda de patrones de interés con una representación particular y la interpretación de estos patrones incluso de una forma visual.

A lo largo de varios años, se desarrollaron un gran número de métodos de análisis de datos basados en la estadística. Sin embargo, en la medida en que se incrementaba la cantidad de información almacenada en las bases de datos, estos métodos empezaron a presentar problemas de eficiencia y escalabilidad. Una de las diferencias entre al análisis de datos tradicional y la minería de datos es que el análisis de datos tradicional supone que las hipótesis ya están construidas y validadas contra los datos, mientras que la minería de datos supone que los patrones e hipótesis son automáticamente extraídos de los datos. Un concepto primordial, y diferenciador de las técnicas estadísticas más clásicas, es el de aprendizaje automático, que fue concebido hace aproximadamente cuatro décadas con el objetivo de desarrollar métodos computacionales que implementarían varias formas de aprendizaje, en particular, mecanismos capaces de inducir conocimiento a partir de datos.

El aprendizaje automático es el campo de la informática en el que se estudian y desarrollan algoritmos que implementan los distintos modelos de aprendizaje y su aplicación a la resolución de problemas prácticos. Entre los problemas abordados en este campo, está el de inducir conocimientos a partir de datos o ejemplos. Esto resulta una alternativa de solución a problemas que no pueden ser resueltos mediante algoritmos tradicionales, entre los cuales se pueden mencionar: (1) La especificación de condiciones asociadas a diagnósticos técnicos o clínicos. (2) La identificación de características que permitan el reconocimiento visual de objetos., (3) El descubrimiento de patrones o regularidades en estructuras de información, en particular en bases de datos de gran tamaño.

Los algoritmos de aprendizaje automático pueden clasificarse en dos grandes categorías: métodos de caja negra o sin modelo, tales como redes neuronales o los métodos bayesianos, y métodos orientados al conocimiento, tales como los que generan árboles de decisión, reglas de asociación, o reglas de decisión. La propuesta de caja negra desarrolla su propia representación del conocimiento, que no es visible desde el exterior. Los métodos orientados al conocimiento, por el contrario, construyen una estructura simbólica del conocimiento que intenta ser útil desde el punto de vista de la funcionalidad, pero también descriptiva desde la perspectiva de la inteligibilidad. Existen también métodos para extraer reglas comprensibles a partir de estas cajas negras, con lo que en realidad ambas categorías pueden ser útiles para la extracción de conocimiento.

El área de aprendizaje automático es relativamente amplia y ha dado lugar a muchas técnicas diferentes de aprendizaje, entre las cuales se pueden citar las siguientes: (1) Aprendizaje inductivo. Se pretenden crear modelos de conceptos a partir de la generalización de conjuntos de ejemplos. Se busca descripciones simples que expliquen las características comunes de esos ejemplos. (2) Aprendizaje analítico o deductivo. Se aplica la deducción para obtener descripciones generales a partir de un ejemplo de concepto y su explicación. Esta generalización puede ser memorizada para ser utilizada en ocasiones en las que las personas logren encontrarse con una situación parecida a la del ejemplo. (3) Aprendizaje genético. Aplica algoritmos inspirados en la teoría de la evolución para encontrar descripciones generales a conjuntos de ejemplos. La exploración que realizan los algoritmos genéticos permite encontrar la descripción mas ajustada a un conjunto de ejemplos. (4) Aprendizaje conexionista. Busca descripciones generales mediante el uso de la capacidad de adaptación de redes de neuronas artificiales. Una red neuronal está compuesta de elementos simples interconectados que poseen estado. Tras un proceso de entrenamiento, el estado en el que quedan las neuronas de la red representa el concepto aprendido.

Lógicamente, las áreas del aprendizaje automático y la minería de datos se solapan en gran medida, en cuanto a los problemas que tratan y a los algoritmos que utilizan. No obstante, la minería de datos tiene un mayor enfoque en el conocimiento comprensible a partir de grandes cantidades de información, mientras que el aprendizaje automático se orienta más a la tarea del aprendizaje propiamente, buscando en algunos casos estrategias o heurísticas, más que el propio conocimiento comprensible. Por esa razón, la minería de datos tiene un espectro de aplicación más amplio visto desde el exterior, en el sentido de que interactúa mejor con diferentes dominios, pues el aprendizaje realizado se transforma en conocimiento útil para el experto en el dominio concreto.

Por consiguiente, se denomina “minería de datos” al conjunto de técnicas y herramientas aplicadas al proceso no trivial de extraer y presentar conocimiento implícito, previamente desconocido, potencialmente útil y humanamente comprensible, a partir de grandes conjuntos de datos, con objeto de predecir de forma automatizada tendencias y comportamientos; y describir de forma automatizada modelos previamente desconocidos. Cuando se habla de minería de datos inteligente se hace referencia específicamente a la aplicación de métodos de aprendizaje automático, para descubrir y enumerar patrones presentes en los datos. Como se ha mencionado, el aprendizaje automático es el campo dedicado al desarrollo de métodos computacionales para los procesos de aprendizaje y a la aplicación de los sistemas informáticos de aprendizaje en problemas prácticos. La minería de datos es la búsqueda de patrones e importantes regularidades en bases de datos de gran volumen. La minería de datos utiliza métodos y estrategias de otras áreas o ciencias, entre las cuales se puede nombrar al aprendizaje automático. Cuando este tipo de técnicas se utiliza para realizar la minería, se dice que se está ante una minería de datos inteligente.

Los métodos tradicionales de análisis de datos incluyen el trabajo con variables estadísticas, varianza, desviación estándar, covarianza y correlación entre los atributos; análisis de componentes, con la determinación de combinaciones lineales ortogonales que maximizan una varianza determinada; análisis de factores, con la determinación de grupos correlacionados de atributos; análisis de clusters, que consiste en la determinación de grupos de conceptos que están cercanos según una función de distancia dada; análisis de regresión, con la búsqueda de los coeficientes de una ecuación de los puntos dados como datos; análisis multivariable de la varianza, y análisis de los discriminantes. Todos estos métodos están orientados numéricamente, es decir son esencialmente cuantitativos. En contraposición, los métodos basados en aprendizaje automático, están orientados principalmente hacia el desarrollo de descripciones simbólicas de los datos, que puedan caracterizar uno o más grupos de conceptos, diferenciar entre distintas clases, crear nuevas clases, crear una nueva clasificación conceptual, seleccionar los atributos más representativos, y ser capaces de predecir secuencias lógicas, son tareas esencialmente consideradas como cualitativas.

Guillermo Choque Aspiazu
www.eldiario.net
mayo 4 de 2009

viernes, 17 de julio de 2009

Factorización cuántica

Desde tiempos del genial Euclides se conoce que todo entero positivo puede ser factorizado en forma única como un producto de números primos, excepto por el orden de sus factores; esta propiedad es conocida como el “teorema fundamental de la aritmética”. En la actualidad, los sistemas de encriptación de datos ampliamente utilizados, tales como el sistema criptográfico “Rivest, Shamir, Adleman”, están basados en la siguiente conjetura: La factorización de enteros es mucho más difícil que su multiplicación. Mientras que la multiplicación de enteros se realiza en tiempo polinomial, no hay algoritmos clásicos de tiempo polinomial para su factorización. Esta suposición se encuentra fundamentada en el hecho de que, a pesar de los esfuerzos para encontrar un algoritmo de factorización de tiempo polinomial, no se ha tenido éxito hasta ahora. El algoritmo clásico más eficiente, para este propósito, conocido hasta la fecha es la “criba numérica de campo”. La criba numérica de campo es un algoritmo especializado de factorización en números primos. La frase “criba del cuerpo de números” se utiliza de manera equivalente a la criba general numérica de campo.

En teoría de números, el problema de la factorización de enteros consiste en encontrar un divisor no trivial de un número compuesto. Cuando los números son muy grandes no se conoce ningún algoritmo que resuelva eficientemente este problema; un reciente intento de factorizar un número de 200 dígitos tardó 18 meses y consumió más de medio siglo de tiempo de cálculo. Su supuesta dificultad es el núcleo de ciertos algoritmos criptográficos. Muchas áreas de las matemáticas y de las ciencias de la computación, como la teoría algebraica de números, las curvas elípticas o la computación cuántica, están relacionadas con este problema. Descomponer dos números de igual longitud no tiene por qué tener la misma complicación. Actualmente, a pocos meses de llegar a la primera década del siglo veintiuno, se considera que los casos más duros son aquellos para los que los factores son dos números primos, elegidos al azar, de aproximadamente el mismo tamaño. Por el “teorema fundamental de la aritmética”, cada entero positivo tiene una única descomposición en números primos. Dado un algoritmo para la factorización de enteros, se puede factorizar cualquier número entero a sus factores primos mediante la aplicación repetitiva de dicho algoritmo.

Los algoritmos de factorización se dividen en dos grupos claramente diferenciados: los de propósito general y los de propósito específico. El tiempo de ejecución de un algoritmo de factorización de propósito general depende solamente del tamaño del entero a factorizar. La mayoría de algoritmos de factorización de propósito general están basados en el método de congruencia de cuadrados. Algunos de los algoritmos de propósito general son los siguientes: (1) Algoritmo de Dixon, (2) Factorización con fracciones continuas. (3) Criba cuadrática. (4) Algoritmo general de criba de campos de números y (5) Factorización de formas cuadradas de Shanks. Por su parte el tiempo de ejecución de un algoritmo de factorización de propósito específico depende de las propiedades de sus factores desconocidos: tamaño, forma especial, etc. Dichos factores cambian de un algoritmo a otro. Algunos de los algoritmos de propósito específico general son los siguientes: (1) División por tentativa, (2) Algoritmo rho de Pollard, (3) Algoritmo p-1 de Pollard, (4) Algoritmo p+1 de Williams, (5) Factorización de curva elíptica de Lenstra, (6) Método de factorización de Fermat y (7) Algoritmo especial de criba numérica de campo.

El principal método para aumentar la capacidad de cálculo de una computadora clásica es el procesamiento en paralelo. Las computadoras que soportan este esquema de proceso disponen de varios cientos o miles de procesadores. Se conoce en el medio científico que la capacidad de almacenamiento de información y la capacidad de cálculo de una computadora son proporcionales al número de celdas de memoria y al número de procesadores respectivamente, es decir, al tamaño de la computadora. Entonces la capacidad de una computadora clásica, de almacenamiento y de cálculo, crece linealmente con respecto a su tamaño.

En una computadora cuántica la situación cambia por completo, hasta el punto que su capacidad crece exponencialmente con respecto a su tamaño. Este hecho, estrechamente relacionado con el principio de superposición de la mecánica cuántica, se denomina paralelismo cuántico. Se llama qbits o bits cuánticos a los sistemas cuánticos elementales, es decir, a los sistemas cuánticos de dos estados. Los sistemas cuánticos de varios qbits se describen mediante vectores de un espacio de Hilbert complejo de dimensión 2n. Esto permite codificar una cantidad exponencial de información en el estado de un sistema cuántico de varios qbits. Además, cualquier transformación del estado del sistema se traduce en la modificación simultánea de toda la información almacenada. Por tanto, la capacidad de una computadora cuántica crece exponencialmente con respecto a su tamaño. Sin embargo, la medición de estados cuánticos es un inconveniente importante para la computación cuántica. Hay que señalar que las medidas cuánticas no son deterministas. Esto quiere decir que si se miden dos estados iguales los resultados no tienen por qué ser iguales. El proceso de medida es, por tanto, un experimento aleatorio en el que la probabilidad de cada resultado está determinada por el estado del sistema.

Las dificultades para sacar provecho del paralelismo cuántico son tan notables que hubo que esperar más de una década para encontrar el primer gran resultado. El año 1994 Peter W. Shor, científico de los laboratorios AT&T Bell, sorprendió a todos presentando sendos algoritmos polinomiales para factorizar números enteros y para calcular logaritmos discretos. Fue el primer problema en el que se alcanzaba una aceleración exponencial con respecto a los mejores algoritmos clásicos conocidos. A raíz de este descubrimiento se generó una gran actividad, tanto en el desarrollo de la tecnología necesaria para la construcción de computadoras cuánticas como en el estudio de algoritmos cuánticos. La parte central del algoritmo de Shor es el algoritmo cuántico para encontrar el orden “ere minúscula” de un numero entero “equis minúscula” módulo un entero “ene mayúscula”, con “equis minúscula” menor que “ene mayúscula” y “equis minúscula” coprimo a “ene mayúscula”. El algoritmo de Shor para encontrar los factores primos de un número compuesto de varios cientos de dígitos, es bastante interesante porque prueba directamente que las computadoras cuánticas son mas poderosas que las clásicas y pueden ser utilizadas para romper las claves publicas del sistema criptográfico “Rivest, Shamir, Adleman” en tiempo polinomial.

El algoritmo de Shor rompió teóricamente el sistema criptográfico más difundido en la actualidad, el sistema propuesto por Rivest, Shamir y Adleman en 1978. Este hecho contribuyó a su vez al desarrollo de los sistemas criptográficos cuánticos. Las técnicas que se utilizan para garantizar la confidencialidad de los canales cuánticos se apoyan en una propiedad característica de la mecánica cuántica: los estados cuánticos no se pueden clonar. En el área de las comunicaciones, además del estudio de la confidencialidad, se están investigando otros problemas como, por ejemplo, la codificación de información clásica en canales cuánticos y el teletransporte de estados cuánticos. Sin embargo, el estudio de este modelo de computación apenas si ha comenzado. Hasta el momento, sólo se han desarrollado computadoras cuánticas basadas en resonancia magnética nuclear, en trampas de iones y en cavidades cuánticas. Con la primera de estas técnicas se han conseguido prototipos de hasta 10 qbits, sobre los que se ha probado el algoritmo de Shor. También se ha propuesto la construcción de computadoras cuánticas aprovechando los conocimientos actuales sobre semiconductores, aunque esta técnica está menos desarrollada.

Como señala Simon Singh en su excelente libro "The Code Book", a medida que la información se convierte en uno de los bienes más valiosos, el destino político, económico y militar de las naciones depende de la seguridad de los criptosistemas. Sin embargo, la construcción de una computadora cuántica acabaría con la privacidad, con el comercio electrónico y con la seguridad de las naciones. Una computadora cuántica haría zozobrar el ya frágil equilibrio mundial. De ahí la carrera de las principales naciones por llegar primero a su construcción. El ganador será capaz de espiar las comunicaciones de los ciudadanos, leer las mentes de sus rivales comerciales y enterarse de los planes de sus enemigos. La computación cuántica, todavía en mantillas, representa una de las mayores amenazas de la historia al individuo, a la industria y a la seguridad global.

Guillermo Choque Aspiazu
www.eldiario.net
Abril 27 de 2009

viernes, 10 de julio de 2009

Moletrónica

El acelerado desarrollo tecnológico de las últimas décadas, ha llevado a la humanidad a adaptarse rápidamente a nuevos conceptos e innovaciones. Dentro de una sociedad hambrienta de conocimiento, ha sido posible evolucionar desde gigantescas y costosas máquinas de cómputo a computadoras portátiles, teléfonos móviles, revolucionarios sistemas médicos y un amplio espectro de herramientas electrónicas hoy en día fácilmente adquiribles, producto del desarrollo de dispositivos semiconductores cada vez más rápidos y con mayor capacidad de almacenamiento de datos como es el caso de las memorias digitales. Sin embargo, el aumento de la velocidad de respuesta y el número de transistores por chip han generando nuevos problemas para los diseñadores, quienes se han empeñado durante las últimas décadas en buscar soluciones que corrijan los efectos colaterales no deseados que surgen con la revolución provocada por la miniaturización.

Gran parte de la actividad cotidiana de las personas implica la utilización de dispositivos que funcionan gracias a componentes electrónicos. Estos componentes se han perfeccionado durante las últimas cuatro décadas utilizando básicamente materiales semiconductores inorgánicos, entre los cuales el silicio es el protagonista indiscutible. Sin embargo, la tecnología del silicio tiene sus limitaciones y, desde principios de los años 1990, se está dedicando un gran esfuerzo científico al desarrollo de una nueva electrónica basada en la utilización de materiales moleculares electroactivos. Estos materiales son de naturaleza orgánica, incluyendo desde moléculas de pequeño tamaño formadas por pocos átomos, hasta polímeros o macromoléculas, y son capaces de responder a estímulos eléctricos y luminosos de forma similar a los conductores y semiconductores inorgánicos. Sin lugar a dudas, el acontecimiento que más ha contribuido al desarrollo de los materiales moleculares electroactivos fue el descubrimiento de los polímeros conductores, conocidos también como plásticos que conducen la electricidad, merecedores del premio Nobel de Química del año 2000.

Siempre se ha enseñado, y la experiencia cotidiana así lo confirma, que los plásticos, a diferencia de los metales, no conducen la corriente eléctrica. De hecho, los plásticos se utilizan para aislar los hilos de cobre en el cableado eléctrico. Esta perspectiva ha cambiado en los últimos años con el descubrimiento de que ciertos plásticos, polímeros conjugados con alternancia de simples y dobles enlaces de carbono, se convierten en conductores eléctricos cuando se retiran o se introducen electrones en la cadena polimérica. Se está en presencia, por tanto, ante nuevos materiales que ofrecen las propiedades eléctricas y ópticas de los metales y semiconductores, junto con las atractivas propiedades mecánicas, las ventajas de procesado y el bajo costo económico de los polímeros. A estas ventajas hay que añadir el gran potencial de la síntesis química para modificar las propiedades del material mediante cambios en la estructura química de los sistemas componentes. Los materiales moleculares electroactivos están siendo desarrollados industrialmente para su utilización en aplicaciones tan diversas como baterías orgánicas, músculos artificiales, pantallas de teléfonos móviles, células solares, narices electrónicas, etc.

La electrónica molecular, a veces llamada moletrónica, es la rama de la ciencia que estudia el uso de moléculas orgánicas en la electrónica. Los primeros trabajos acerca de la transferencia de cargas eléctricas entre moléculas fueron realizados por los investigadores Robert Mulliken y Albert Szent-Gyorgi en 1940. Sin embargo, el primer dispositivo moletrónico no fue desarrollado hasta 1974, año en el que se construye un biestable de melanina. En el año 1988 fue descrita una molécula capaz de actuar como un transistor de efecto campo. La moletrónica hace referencia a cualquier sistema con aparatos electrónicos con precisión atómica de dimensión nanométrica, especialmente si está fabricado con componentes moleculares en vez de con materiales continuos encontrados en los aparatos semiconductores actuales. La electrónica molecular es el conjunto de comportamientos electrónicos en estructuras que contienen moléculas que dependen de la organización molecular característica del espacio.

La construcción de un sistema electrónico utilizando moléculas individuales es una de las metas fundamentales en la nanotecnología. Para lograr esto será necesario medir, controlar y comprender el transporte de los electrones a través de moléculas en contacto con los electrodos. Los temas que abarca esta tecnología incluyen cables moleculares, interruptores de dos terminales, diodos, transistores de tres terminales y dispositivos híbridos que utilizan diferentes señales como la luz, campos magnéticos y las señales químicas y mecánicas, para controlar el transporte de electrones en las moléculas. El transporte de electrones a través de la molécula puede ser controlado eléctricamente, magnéticamente, con medios ópticos, con mecánica, con química y por medios electroquímicos, dando lugar a diversas aplicaciones. Para alcanzar el objetivo final, se deben utilizar técnicas experimentales para fabricar este tipo de sistema electrodo-molécula-electrodo y métodos teóricos para describir las propiedades de transporte de electrones.

Una separación del orden de nanómetros entre dos electrodos de metal se puede realizar, ajustado mecánicamente mediante este método. La técnica que se describe de manera breve se denomina “Conjunción de Roturas Controlable Mecánicamente” y permite conectar moléculas individuales, proporcionando un medio de estudiar el transporte electrónico de las mismas. El principio se basa en producir mediante la rotura de un alambre, que está montado en una superficie que se puede curvar, los terminales de dos alambres y estos quedan separados por una distancia muy pequeña, que se puede ajustar, controlando el curvado de la superficie. Una vez formado el puente molecular esta unión se somete a fuerzas que la deforman mecánicamente, resultando diferentes configuraciones con diferentes propiedades electrónicas.

Un equipo de investigadores de la Universidad de Alberta y el Instituto Nacional de Nanotecnología del Consejo Nacional de Investigación de Canadá ha diseñado un nuevo concepto para un transistor de una sola molécula. Por primera vez, los investigadores han demostrado que un solo átomo sobre una superficie de silicio puede regular la conductividad de una molécula cercana. La miniaturización de la microelectrónica requería un nuevo avance de este tipo para seguir desarrollándose; un nuevo concepto para traspasar los límites de tecnología convencional de transistores. Estos científicos realizaron sus experimentos con el fin de examinar la posibilidad de desarrollar transistores eléctricos a escala molecular. Su enfoque ha logrado resolver lo que hasta ahora era una barrera que impedía la fabricación de un aparato molecular, el hecho de conseguir que lleguen conexiones a una sola molécula.

Esta nueva investigación demuestra que se puede cargar de forma controlada un único átomo sobre una superficie de silicio mientras que todos los demás átomos alrededor permanecen neutrales. Al "afinar" una molécula al lado del sitio cargado, una corriente eléctrica puede fluir a través de la molécula de un electrodo a otro. Se puede apagar y encender la corriente que corre por la molécula al cambiar el estado de carga del átomo adyacente. Esto abre nuevas puertas para la fabricación de nano aparatos con un rendimiento increíble. Según el director del equipo de científicos el Dr. Robert Wolkow explica; "Una tecnología basada en este concepto exigiría menos energía, produciría mucho menos calor y funcionaría con mucho más velocidad". Este equipo de científicos resolvió el problema de conexión al utilizar el campo electrostático que emana desde un átomo para regular la conductividad de una molécula, permitiendo correr una corriente eléctrica a través de la molécula. Estos efectos se pudieron observar a temperatura de ambiente, a diferencia de anteriores experimentos con moléculas que tenían que ser desarrollados bajo temperaturas de casi cero grados para medir un cambio en la conductividad. Otro gran logro de este estudio es el hecho que solo se requiere un electrón del átomo para encender o apagar la conductividad molecular. En un transistor convencional, esta acción requiere aproximadamente un millón de electrones.

Guillermo Choque Aspiazu
www.eldiario.net
Abril 20 de 2009

viernes, 3 de julio de 2009

Robótica modular reconfigurable

En el término robot confluyen las imágenes de máquinas para la realización de trabajos productivos así como de imitación de movimientos y comportamientos de los seres vivos. Desde la antigüedad, el hombre ha sentido fascinación por las máquinas que imitan la figura y los movimientos de seres animados, y existe una larga tradición de autómatas desde el mundo griego hasta los actuales días. El término “robot” aparece por vez primera en la obra dramática “Rossum's Universal Robots” de Karel Capek en el año 1921, a partir de la palabra checa “robota”, que significa servidumbre o trabajo forzado. De igual manera los avances logrados en la mecánica y en el control de máquinas nutren considerablemente el paso a dispositivos más sofisticados. Es a principios del siglo veinte cuando se pasa de máquinas que tienen como objetivo exclusivo la amplificación de la potencia muscular del hombre, sustituyéndolo en su trabajo físico, a máquinas o instrumentos que son también capaces de procesar información, complementando, o incluso sustituyendo al hombre en algunas actividades intelectuales. La robótica es la ciencia y la tecnología de los robots. Se ocupa del diseño, manufactura y aplicaciones de los robots. La robótica combina diversas disciplinas como son: la mecánica, la electrónica, la informática, la inteligencia artificial y la ingeniería de control. Otras áreas importantes en robótica son el álgebra, los autómatas programables y las máquinas de estados. El término robótica es acuñado por Isaac Asimov, definiéndola como la ciencia que estudia a los robots. Asimov creó también las “Leyes de la Robótica”.

En la robótica existen dos grandes áreas: manipulación y locomoción. La manipulación es la capacidad de actuar sobre los objetos, trasladándolos o modificándolos. Esta área se encuentra centrada en la construcción de manipuladores y brazos robóticos. La locomoción es la facultad de un robot para poder desplazarse de un lugar a otro. Los robots con capacidad locomotiva se llaman “robots móviles”. Uno de los grandes retos en el área de la locomoción es el de desarrollar un robot que sea capaz de moverse por cualquier tipo de entorno, por muy escarpado que sea. Esto tiene especial interés en la exploración de otros planetas, en los que no se sabe qué tipo de terreno se puede encontrar.

Los robots modulares están compuestos por muchos bloques constructores de entre un limitado repertorio. Estos bloques cuentan con mecanismos de sujeción que les permiten acoplarse entre sí y transmitir fuerzas mecánicas y señales eléctricas. Estos bloques constructores normalmente son unidades que aportan algún actuador, o unidades especializadas: un gripper, ruedas, cámaras, abastecimiento de energía, etc. Existe la posibilidad de contar con un solo tipo de unidades en un sistema homogéneo, o con varios tipos de ellas en un sistema heterogéneo. Con un sistema homogéneo se obtiene simplicidad, pero con un sistema heterogéneo se hace más extenso el rango de actividades realizables, y se puede manejar especialización entre los módulos.

El ingeniero mecánico Mark Yim es considerado como el principal investigador y padre de la robótica modular configurable. Yim realizó su tesis doctoral en la Universidad de Stanford entre los años 1992 a 1994. En esta tesis se introducen los conceptos de robótica modular reconfigurable. Además se realiza lo siguiente: taxonomía de las distintas formas de locomoción, diseño y construcción del robot Polypod, capaz de generar todas las clases de locomoción estáticamente estable, evaluación y comparación de los distintos modos de locomoción de Polypod y finalmente las limitaciones en cuanto al número de módulos.

Las dos características centrales de estos robots son: (1) Modularidad. Es una característica que consiste en que los robots están construidos a partir de componentes estandarizados que se pueden intercambiar. Según el número de módulos distintos, el robot puede ser 1-modular, 2-modular, etc. Los investigadores del Laboratorio “Hirose & Yoneda” fueron pioneros en el estudio y construcción de robots tipo serpiente, que están constituidos por módulos similares. Un prototipo es el ACM III, está compuesto por 20 módulos iguales, cada uno de los cuales dispone de un servomecanismo para girar a derecha o izquierda con respecto al módulo siguiente. El contacto con el suelo se realiza mediante unas ruedecillas, que permiten que los módulos se deslicen hacia delante fácilmente, ofreciendo mucha resistencia al deslizamiento lateral, lo que permite que la serpiente se impulse hacia adelante. La cabeza describe un movimiento sinusoidal, que se va propagando hacia el resto de articulaciones a una velocidad constante. Las características del ACM III son: (a) Velocidad: 40cm/sec. (b) Longitud: 2m. (c) Número de secciones: 20. También se ha empleado robots serpiente para crear manipuladores, como el SG, constituidos también por módulos iguales. Se trata de una “pinza” o “agarrador mecánico” que adopta la forma del objeto que va a coger, creando una fuerza que se reparte uniformemente por todo el objeto. El prototipo es capaz de levantar cuerpos humanos, sin que estos sufran ningún daño. Si se utilizasen los manipuladores clásicos, como pinzas, podrían hacer daño al humano en las zonas de contacto. (2) Reconfigurabilidad. Es la habilidad para combinar los componentes físicos del robot. La reconfigurabilidad puede ser: (a) Dinámica, cuando el robot se autoreconfigura. (b) Manual, cuando otro agente reconfigura el robot. Un ejemplo de reconfiguración son los brazos robóticos. El RMMS es un brazo robot que es capaz de recalcular los parámetros dinámicos, cuando el usuario cambia los módulos de lugar. Un brazo robot industrial que disponga de diferentes manipuladores situados en una estantería, y que sea capaz de dejar uno y colocar otro, sería un ejemplo de robot reconfigurable dinámicamente.

Los robots modulares reconfigurables presentan tres características importantes: (1) Versatilidad, al estar constituidos por módulos, pueden adoptar prácticamente cualquier forma por lo que se pueden emplear para múltiples tareas diferentes. Esta característica tiene especial importancia en la locomoción, puesto que permite que un robot pueda desplazarse por terrenos muy dispares. (2) Fiabilidad, debido a la alta redundancia. El sistema se va degradando poco a poco según se van fallando los módulos. (3) Bajos costos para varios módulos diferentes, con economía de escala.

Existen tres tipos de robots reconfigurables, según la manera en que cambian su forma: (1) Robots tipo cadena. Que consiste en robots que se unen y separan a través de cadenas de módulos. Un ejemplo de este tipo de robots son polypod y polybot. (2) Robots tipo retículo. En este tipo de robots los módulos se mueven dentro de un retículo en tres dimensiones. Esta tarea es similar a cómo se mueven los átomos en un cristal. (3) Autoreconfiguración móvil. En este tipo de robot los módulos se separan y se mueven independientemente hasta unirse a otro módulo en otra parte del robot. Son bastante complejos y se encuentran poco estudiados.

Los robots modulares autoconfigurables pueden ser agrupados en varios conjuntos atendiendo al tipo de ensamblado geométrico que realizan. Algunos sistemas son híbridos entre dos o más grupos, estos grupos son los siguientes: (1) Estructuras reticulares. Las unidades se encuentran acomodadas bajo algún patrón tridimensional, como una red cúbica o hexagonal. El control y el movimiento es ejecutado en paralelo. Estas estructuras en red ofrecen una representación computacional bastante simple y puede ser escalada fácilmente hacia sistemas más complejos. (2) Estructuras en cadena o en árbol. Las unidades se conectan entre sí formando una cadena, varias cadenas pueden estar ensambladas entre sí a través de nodos para formar árboles. Una estructura en cadena puede alcanzar cualquier punto en el espacio, sin embargo son computacionalmente más difíciles de representar y de analizar.

Los robots modulares autoconfigurables también pueden clasificarse, atendiendo a la manera en que ocurre la reconfiguración, en los siguientes elementos: (1) Reconfiguración determinística. Consiste en moverse hacia donde se encuentra el objetivo. Las posiciones y orientaciones de los módulos “objetivo” son conocidas en todo momento. De esta manera los tiempos de reconfiguración pueden ser asegurados. (2) Reconfiguración estocástica. Consiste en unidades que se mueven usando procesos estocásticos, tales como el movimiento Browniano. El ensamblado de las unidades solo puede darse cuando se encuentran suficientemente cerca. Los tiempos de ensamblado sólo pueden asegurarse estadísticamente.

Guillermo Choque Aspiazu
www.eldiario.net
Abril 13 de 2009