viernes, 25 de junio de 2010

Fractales

Los fractales son objetos matemáticos que constituyen la “geometría de la teoría del caos”, aunque es importante destacar que no todos los fractales son caóticos. Los objetos fractales fueron creados mucho antes de haberse desarrollado formalmente la geometría fractal o la teoría del caos. De hecho, se pueden encontrar y reconocer figuras con características fractales como la del triángulo de Sierpinski en grabados de tela de hace varias décadas atrás, hasta en los años de 1400 se hallaron grabados japoneses con estas estructuras.

Antes de que Newton, Leibniz y sus colaboradores crearan en el siglo diecisiete lo que se conoce como Cálculo, Análisis Matemático o Cálculo Infinitesimal, se conocían funciones con enormes irregularidades y discontinuidades, pero los científicos de aquella época supusieron que esas mismas funciones discontinuas eran muy escasas y que raramente surgirían en sistemas naturales, por lo que las consideraban excepciones a la matemática tradicional y simplemente las dejaban de lado, o si no las ignoraban realizaban aproximaciones a través de redondeos, lo cual aún hoy en día se continua haciendo con éxito en diferentes sistemas, pero dichos redondeos se vuelven peligrosos en sistemas con una dinámica caótica. Un grupo de matemáticos comenzó a darse cuenta que en la naturaleza se daba muy seguido el fenómeno de irregularidades y que no eran excepciones como se suponía. Los primeros que comenzaron a demostrar teóricamente esta problemática fueron Cantor y Peano. Hasta llegar a los años de 1880 con Poincaré, al que se lo conoce como el padre de la teoría del caos.

No fue hasta el año 1958 cuando Benoit Mandelbrot ingresa a trabajar en los laboratorios de IBM para hacer un análisis del ruido y perturbaciones eléctricas. Mientras realizaba dichos estudios encontró un patrón en su comportamiento y por lo tanto comenzó a descifrar una estructura escondida. Algo así como una jerarquía de fluctuaciones en todas las escalas. Lo que sí es cierto es que esas fluctuaciones no podían ser descritas por la matemática estadística que existía. Mientras seguía adelante con sus tareas empezó a imaginar en que otros sistemas podrían encontrarse patrones similares que no puedan ser descritos con exactitud por la matemática existente y que se comportaran de igual manera. Su visión lo llevó a hacerse una pregunta que para la mayoría de las personas puede resultar obvia y hasta para muchos otros ser trivial. Su famosa pregunta fue: ¿Cuánto mide realmente la costa de Inglaterra?, cualquiera que tome un libro de geografía o un mapa podrá contestar esto sin ningún tipo de problema. Imagine que el dato que se encuentra es de dos mil kilómetros. Ahora bien, esos dos mil kilómetros., ¿De dónde provienen? ¿Cómo se midieron?

Para contestar esto se propone tres situaciones diferentes, con distintos puntos de vista: (1) Si se mide las costas de Inglaterra desde un satélite, se puede observar que sus bordes son suaves, armónicos, con líneas casi rectas y ángulos prácticamente redondeados. (2) Pruebe ahora medir la misma distancia, pero desde un avión que vuela mucho más bajo que el satélite. Ahora que se ven las cosas con más detalle por estar más próximos, es posible darse cuenta que los bordes no eran en realidad tan suaves como se había observado anteriormente, sino que se notan muchas más rugosidades. (3) Imagine por último un tercer punto de partida, que no es ni un satélite, ni un avión; esta vez se está parado sobre la misma costa de Inglaterra con una regla como la que se usaba en la escuela, y se pone a medir roca por roca, rugosidad por rugosidad, detalle por detalle. Se acaba de decir que una longitud sin rigurosidades es menos extensa que una totalmente irregular, entonces se puede asegurar que los resultados de las tres mediciones serán en todos los casos diferentes, y el de mayor extensión será el tercer caso, ya que es en el cual existen más detalles.

Un fractal es un objeto semi-geométrico cuya estructura básica, fragmentada o irregular, se repite a diferentes escalas. El término fue propuesto por el matemático Benoît Mandelbrot en el año 1975 y deriva del Latín fractus, que significa quebrado o fracturado. Mandelbrot se fundamentó en las ideas de los primeros matemáticos y descubrió similitudes en circunstancias y formas caóticas y aleatorias. Un fractal también es una técnica para describir y comprimir en gran parte imágenes, especialmente objetos naturales como árboles, nubes y ríos. Convierte una imagen en un conjunto de datos y un algoritmo para expandirla nuevamente a su tamaño original. Muchas estructuras naturales son de tipo fractal. Un fractal natural es un elemento de la naturaleza que puede ser descrito mediante la geometría fractal. Las nubes, las montañas, el sistema circulatorio, las líneas costeras o los copos de nieve son fractales naturales. Esta representación es aproximada, pues las propiedades atribuidas a los objetos fractales ideales, como el detalle infinito, tienen límites en el mundo natural.

Como antecedente al estudio de los fractales se menciona que la geometría tradicional, la euclidiana, es la rama de la matemática que se encarga de las propiedades y de las mediciones de los elementos tales como puntos, líneas, planos y volúmenes. La geometría euclidiana también describe los conjuntos formados por la reunión de los elementos más arriba citados, cuyas combinaciones forman figuras o formas específicas. Sin embargo, las formas encontradas en la naturaleza, como montañas, franjas costeras, sistemas hidrográficos, nubes, hojas, árboles, vegetales, copos de nieve, y un sinnúmero de otros objetos no son fácilmente descriptas por la geometría tradicional. La geometría fractal provee una descripción y una forma de modelo matemático para las complicadas formas de la naturaleza.

En la naturaleza existen abundantes ejemplos de formas pertenecientes a la geometría euclidiana: hexágonos, cubos, tetraedros, cuadrados, triángulos, etc., pero su vasta diversidad también produce objetos que eluden la descripción euclidiana. En dichos casos los fractales proporcionan un mejor medio de explicación. La geometría euclidiana es muy útil para la descripción de objetos tales como cristales o colmenas, pero no se encuentra en ella objetos que puedan describir las palomitas de maíz, los productos horneados, la corteza de un árbol, las nubes, los motivos de los objetos textiles, ciertas raíces o las líneas costeras, entre otras. Los fractales permiten modelar objetos tales como una hoja de helecho o un copo de nieve. Con la incorporación del azar en la programación es posible, por medio de la computadora, obtener fractales que describen los flujos de lava y los terrenos montañosos.

Según Mandelbrot, un objeto es autosimilar o autosemejante si sus partes tienen la misma forma o estructura que el todo, aunque pueden presentarse a diferente escala y pueden estar ligeramente deformadas. Los fractales pueden presentar tres tipos de autosimilitud: (1) Autosimilitud exacta. Este es el tipo más restrictivo de autosimilitud, exige que el fractal parezca idéntico a diferentes escalas. A menudo se encuentra en fractales definidos por sistemas de funciones iteradas. (2) Cuasiautosimilitud. Exige que el fractal parezca aproximadamente idéntico a diferentes escalas. Los fractales de este tipo contienen copias menores y distorsionadas de sí mismos. Matemáticamente D. Sullivan definió el concepto de conjunto cuasiauto-similar a partir del concepto de cuasi-isometría. Los fractales definidos por relaciones de recurrencia son normalmente de este tipo. (3) Autosimilitud estadística. Es el tipo más débil de autosimilitud: se exige que el fractal tenga medidas numéricas o estadísticas que se preserven con el cambio de escala. Los fractales aleatorios son ejemplos de fractales de este tipo.

Entre los fractales se pueden encontrar ejemplos como curvas que llenan todo el plano. En ese caso, la dimensión topológica de la curva, que es uno, no informa sobre la forma en que esta ocupa el espacio. De modo general, podría realizarse la pregunta acerca de cómo densamente un conjunto ocupa el espacio métrico que lo contiene. Los números que informan objetivamente de este tipo de cuestiones son: (1) La dimensión fractal. Las fórmulas que la definen tienen que ver, en términos de la teoría del conteo, con el recuento de las esferas necesarias para recubrir el conjunto o con el de cajas de una cuadrícula que contienen parte del conjunto, cuando las dimensiones de unas y otras tienden a cero. Se puede medir la dimensión fractal de objetos reales: líneas de la costa, nubes, árboles, etc., Con estas medidas se pueden comparar objetos del mundo real con fractales generados por algoritmos matemáticos. (2) La dimensión de Hausdorff-Besicovitch. Tiene una definición más compleja que la de dimensión fractal. Su definición no suele usarse para comparar conjuntos del mundo real.

A un objeto geométrico fractal se le atribuyen las siguientes características: (1) Es demasiado irregular para ser descrito en términos geométricos tradicionales. (2) Posee detalle a cualquier escala de observación. (3) Es autosimilar. (4) Su dimensión de Hausdorff-Besicovitch es estrictamente mayor que su dimensión topológica. (5) Se define mediante un simple algoritmo recursivo. No basta con una sola de estas características para definir un fractal. Por ejemplo, la recta real no se considera un fractal, pues a pesar de ser un objeto autosimilar carece del resto de características exigidas.

Guillermo Choque Aspiazu
http://www.eldiario.net/
Abril 19 de 2010

viernes, 18 de junio de 2010

Minería de datos bayesiana

A lo largo de varios años, se desarrollaron un gran número de métodos de análisis de datos basados en la estadística. Sin embargo, en la medida en que se incrementaba la cantidad de información almacenada en las bases de datos, estos métodos empezaron a enfrentar problemas de eficiencia y escalabilidad. Gran parte de esta información es histórica, es decir, representa transacciones o situaciones que se han producido. Además, ya que los datos pueden proceder de fuentes diversas y pertenecer a diferentes dominios, parece clara la inminente necesidad de analizar los mismos para la obtención de información útil para la organización.

En muchas situaciones, el método tradicional de convertir los datos en conocimiento consiste en un análisis e interpretación realizada de forma manual. El especialista analiza los datos y elabora un informe o hipótesis que refleja las tendencias o pautas de los mismos. Este conocimiento, validado convenientemente, puede ser usado por los superiores para tomar decisiones importantes y significativas para la organización. Esta forma de actuar es lenta, cara y altamente subjetiva. De hecho, el análisis manual es impracticable en dominios donde el volumen de los datos crece exponencialmente: la enorme abundancia de datos desborda la capacidad humana de comprenderlos sin la ayuda de herramientas potentes. Consecuentemente, muchas decisiones importantes se realizan, no sobre la gran cantidad de datos disponibles, sino siguiendo la propia intuición del usuario al no disponer de las herramientas necesarias.

La minería de datos es el proceso de extraer información no trivial y potencialmente útil a partir de grandes conjuntos de datos disponibles en las ciencias experimentales, proporcionando información en un formato legible que puede ser usada para resolver problemas de diagnostico, clasificación o predicción. Tradicionalmente, este tipo de problemas se resolvía de forma manual aplicando técnicas estadísticas clásicas, pero el incremento del volumen de los datos ha motivado el estudio de técnicas de análisis automático que utiliza herramientas más complejas. Por lo tanto, la minería de datos identifica tendencias en los datos que van más allá de un análisis simple. Técnicas modernas de minería de datos, entre las que se cuentan las reglas de asociación, árboles de decisión, modelos de mezcla gausianos, algoritmos de regresión, redes neuronales, máquinas de vectores soporte, redes bayesianas, etc., se utilizan en ámbitos muy diferentes para resolver problemas de asociación, clasificación, segmentación y predicción.

Entre los diferentes algoritmos de minería de datos, los modelos gráficos probabilísticos, en particular las redes bayesianas, constituyen un método elegante y potente basada en la probabilidad y la estadística que permite construir modelos de probabilidad conjunta manejables que representan las dependencias relevantes entre un conjunto formado por cientos de variables en aplicaciones prácticas. Los modelos resultantes permiten realizar inferencia probabilística de una manera eficiente. Por ejemplo, una red bayesiana podría representar la relaciones probabilísticas entre campos sinópticos de larga escala y registros de observaciones locales, proporcionando una nueva metodología de escalado probabilístico.

Formalmente, una red bayesiana es un grafo dirigido sin ciclos cuyos nodos representan variables y las aristas o arcos que los unen codifican dependencias condicionales entre las variables. El grafo proporciona una forma intuitiva para describir las dependencias del modelo y define una factorización sencilla de la distribución de probabilidad conjunta consiguiendo un modelo manejable que es compatible con las dependencias codificadas. Existen algoritmos eficientes para aprender modelos gráficos probabilísticos a partir de datos, permitiendo así la aplicación automática de esta metodología en problemas complejos. Las redes bayesianas que modelan secuencias de variables, por ejemplo series temporales de observaciones, se denominan “redes bayesianas dinámicas”. Una generalización de las redes bayesianas que permite representar y resolver problemas de decisión con incertidumbre son los “diagramas de influencia”.

Las redes bayesianas son una alternativa para minería de datos, la cual tiene varias ventajas, entre las cuales resaltan las siguientes: (1) Permiten aprender sobre relaciones de dependencia y causalidad. (2) Permiten combinar conocimiento con datos. (3) Evitan el sobre-ajuste de los datos. (4) Pueden manejar bases de datos incompletas.

Obtener una red bayesiana a partir de datos es un proceso de aprendizaje, el cual se divide, naturalmente, en dos aspectos: (1) Aprendizaje paramétrico, dada una estructura, obtener las probabilidades a priori y condicionales requeridas. (2) Aprendizaje estructural, obtener la estructura de la red bayesiana, es decir, las relaciones de dependencia e independencia entre las variables involucradas. Las técnicas de aprendizaje estructural dependen del tipo de estructura de red: árboles, poli-árboles y redes multi-conectadas. Otra alternativa es combinar conocimiento subjetivo del experto con aprendizaje. Para ello se parte de la estructura dada por el experto, la cual se valida y mejora utilizando datos estadísticos.

A lo largo de varios años, se desarrollaron un gran número de métodos de análisis de datos basados en la estadística. Sin embargo, en la medida en que se incrementaba la cantidad de información almacenada en las bases de datos, estos métodos empezaron a enfrentar problemas de eficiencia y escalabilidad y es aquí donde aparece el concepto de minería de datos. Una de las diferencias entre al análisis de datos tradicional y la minería de datos es que el análisis de datos tradicional supone que las hipótesis ya están construidas y validadas contra los datos, mientras que la minería de datos supone que los patrones e hipótesis son automáticamente extraídas de los datos. En general, las tareas de la minería de datos se pueden clasificar en dos categorías: minería de datos descriptiva y minería de datos predictiva. Algunas de las técnicas más comunes de minería de datos son los árboles de decisión, las reglas de producción y las redes neuronales.

Una red bayesiana es un grafo dirigido sin ciclos en el que cada nodo representa una variable y cada arco una dependencia probabilística, en la cual se especifica la probabilidad condicional de cada variable dados sus padres. La variable a la que apunta el arco es dependiente, causa-efecto, de la que está en el origen de éste. La topología o estructura de la red proporciona información sobre las dependencias probabilísticas entre las variables pero también sobre las independencias condicionales de una variable dada otra variable. Dichas independencias, simplifican la representación del conocimiento, con menos parámetros, y el razonamiento, en lo referente a la propagación de las probabilidades.

Para el tratamiento del razonamiento probabilístico, muchos investigadores prefieren el modelo de Bayes. Éste contiene un modelo probabilístico completo con las probabilidades para todos y cada uno de los eventos, con juicios subjetivos si no hay información completa para definir probabilidades y utiliza el teorema de Bayes como mecanismo para la actualización de la credibilidad. Esto quiere decir que se emplea un modelo heurístico para la inferencia donde el teorema de Bayes modela la probabilidad de que tal suceso se deba a cierta causa, o hipótesis, siendo las causas mutuamente excluyentes, o sea, no pueden ocurrir dos causas al mismo tiempo.

Las redes bayesianas son utilizadas en diversas áreas de aplicación como por ejemplo el diagnóstico médico. Las mismas proveen una forma compacta de representar el conocimiento y métodos flexibles de razonamiento, basados en las teorías probabilísticas, capaces de predecir el valor de variables no observadas y explicar las observadas. Entre las características que poseen las redes bayesianas, se puede destacar que permiten aprender sobre relaciones de dependencia y causalidad, permiten combinar conocimiento con datos, evitan el sobre-ajuste de los datos y pueden manejar bases de datos incompletas.

Guillermo Choque Aspiazu
http://www.eldiario.net/
Abril 12 de 2010


viernes, 11 de junio de 2010

Nanocomputadoras

La capacidad de asombro siempre se ve rebasada por el incontenible avance tecnológico, que día con día se está experimentando en todos los campos del conocimiento, en una auténtica implosión de comienzos de milenio, como ocurrió hace más de cien años en las postrimerías del siglo diecinueve, cuando invenciones transformadoras como el teléfono, el automóvil, la electricidad y la aviación cambiaron las vidas de las personas y las formas de relaciones y de producción de conocimiento. En los primeros años de este milenio, un conjunto de nuevas tecnologías concebidas a escalas nanométricas parece anunciar lo que será la próxima revolución industrial, la de la manufactura molecular y la de la manipulación de átomo por átomo para crear nuevas estructuras, materiales y componentes que conducirán hacia los ensambladores universales, las nanocomputadoras, los nanorrobots, las máquinas autorreplicantes y toda una nueva generación de productos. Para comprender el impacto futuro de las nanotecnologías es necesario ubicar la escala del nanómetro, que es igual a un billonésimo de metro mucho, mucho más pequeño que un milímetro o una micra, comprensible en los ámbitos de los átomos y las moléculas.

La nanotecnología es un campo de las ciencias aplicadas dedicados al control y manipulación de la materia a una escala menor que un micrómetro, es decir, a nivel de átomos y moléculas. Lo más habitual es que tal manipulación se produzca en un rango de entre uno y cien nanómetros. Nano es un prefijo griego que indica una medida, no un objeto, de manera que la nanotecnología se caracteriza por ser un campo esencialmente multidisciplinar, y cohesionado exclusivamente por la escala de la materia con la que trabaja. La nanotecnología promete soluciones vanguardistas y más eficientes para los problemas ambientales, así como muchos otros enfrentados por la humanidad. Las nanotecnologías prometen beneficios de todo tipo, desde nuevas aplicaciones médicas o más eficientes a soluciones de problemas ambientales y muchos otros; sin embargo, el concepto de nanotecnología aún no está socialmente muy difundido.

Una nanocomputadora es una computadora con una circuitería tan pequeña que sólo puede verse a través de un microscopio. Las nanocomputadoras pueden ser electrónicas, donde la nanolitografía se usa para crear los circuitos microscópicos, bioquímica u orgánica. Las nanocomputadoras se componen de materiales a nivel molecular y son la promesa de crear computadoras cada vez más pequeñas y rápidas, un concepto que es bastante importante en el mundo de la computación. Comparado con las micro computadoras actuales, la principal ventaja de los nanocomputadoras es la alta densidad de integración de circuitos, bajo consumo de energía, mayor velocidad de cómputo y grandes capacidades de cálculo paralelas y distribuidas

Los catenanos son estructuras formadas por la interconexión de dos o más macrociclos para formar una especie de cadena, con cada macrociclo tomando el papel de un eslabón. Los rotaxanos son estructuras con una molécula en forma de mancuerna rodeada en el centro por un macrociclo. Los primeros catenanos y rotaxanos fueron sintetizados en la década de 1960, pero no fue sino hasta hace unos años que se empezaron a considerar estas estructuras como posibles fuentes de una aplicación importante. Al principio, la síntesis de este tipo de estructuras era muy difícil ya que se utilizaban únicamente fuerzas intermoleculares e interacciones ácido-base para dirigir la reacción. Sin embargo, en la actualidad ya no existen ese tipo de impedimentos ya que se han diseñado métodos de síntesis que incorporan metales de transición para dirigir la reacción.

La idea de producir motores moleculares con este tipo de estructuras proviene del estudio del mecanismo de la contracción muscular. En las células musculares existen arreglos en forma de fibras, con un filamento de miosina rodeado de filamentos de actina. El movimiento ocurre por deslizamiento de los filamentos impulsado por la hidrólisis del ATP. Haciendo una analogía con esta función biológica, se han preparado estructuras moleculares que presenten este tipo de movimiento. Uno de los sistemas más prometedores son los polipirroles que permiten doblar un polímero sólido en una dirección u otra dependiendo de la corriente eléctrica aplicada.

Los rotoxanos se basan en el mecanismo de los sarcómeros del músculo, y el ciclo central no permite que la cadena en forma de mancuerna se deslice completamente fuera del sistema. Sin embargo un método químico interesante consiste en el intercambio de centros metálicos en un catenano. Para esto es importante que los ciclos tengan varios átomos donadores. Es posible intercambiar un ion metálico con un número de coordinación por otro con mayor número de coordinación. Esto produce un movimiento de estiramiento y contracción.

La promesa de esta tecnología se ha manifestado en la industria de la computación. La naturaleza móvil tanto de los rotaxanos como de los catenanos hace que se comporten como interruptores moleculares, lo cual implica una amplia gama de aplicaciones tecnológicas. Se ha pensado en ocupar estas moléculas para producir chips muy pequeños, donde los rotaxanos actúen como transistores. También se están desarrollando aplicaciones en las que funcionen como sistemas de almacenamiento de información para producir computadoras moleculares. De igual forma pueden ocuparse como sensores moleculares. Este tipo de aplicaciones se han trabajado ampliamente en los últimos años y se ha hecho un gran avance, pero aún es muy temprano para asegurar su efectividad y si serán capaces de cumplir las expectativas que han generado.

Científicos de los laboratorios Hewlett-Packard en Palo Alto, California y en la Universidad de California en Los Ángeles se encuentran desarrollando computadoras muy, muy pequeñas. Tanto como que una de ellas cabria en un grano de arena. Estas nuevas computadoras son, en realidad, moléculas. En el mundo de la computación es conocido que todas las computadoras están basadas en un interruptor de encendido-apagado. Los científicos, para las nanocomputadoras, han desarrollado un rotaxano que actúa como tal interruptor: El rotaxano es “insertado” entre dos cables cruzados. Cuando la molécula está en la posición de "apagado", un electrón puede brincar desde un cable hasta la molécula y luego desde esta hasta el otro cable. Como el viajero que se vale de un puente para cruzar un rio. Imagine que el puente fuese móvil: para crear la posición de "encendido" los científicos aplican un campo eléctrico entre los cables. Entonces, el electrón ya no puede brincar tan fácilmente. El puente ya no está allí.

Los científicos también están tratando de crear cables más pequeños para ser usados con estas nuevas moléculas. Han estirado tubos de carbono hasta formar hilos delgados de un nanómetro de ancho. Diez mil veces más finos que un cabello, son el resultado del arrollamiento de capas de átomos de carbono distribuidos en el espacio según la estructura hexagonal típica de su sistema cristalino. Estos científicos planean introducir capas de moléculas de rotaxano en el interior de computadoras ultra potentes. Las nuevas computadoras serán mucho más pequeñas y varios miles de veces más rápidas que las que se usan en la actualidad. También serán más económicas. Se llaman "nanocomputadoras electrónicas químicamente ensambladas". Se cree que los científicos necesitarán algunos años más para fabricar la primera nanocomputadora electrónica químicamente ensamblada. Y pocos años después podrán venir ya las primeras nanocomputadoras electrónicas químicamente ensambladas a la venta para todo el público.

Uno de los grandes retos a los que se enfrentan los científicos en la actualidad es que cada molécula de rotaxano sólo puede ser usada una vez. Por ello, sirve únicamente para almacenar información en la “memoria de sólo lectura”. Un ejemplo de memoria memoria de sólo lectura es la utilizada para guardar en soporte de disco compacto una enciclopedia. Puede ser leída pero no modificada. La molécula de rotaxano no puede ser usada para almacenar datos en la memoria de la computadora que se cambia una y otra vez: la “memoria de acceso aleatorio” usada en procesadores de texto. Los científicos están tratando de desarrollar una molécula que pueda utilizarse cuantas veces sea necesario.

Estas computadoras microscópicas, incorporadas por ejemplo al torrente sanguíneo de una persona, podrían identificar bacterias que no son mayores que ellas. Así se conocerían los fármacos específicos para combatir infecciones. Una entre miles de posibilidades. Phil Kuekes es un arquitecto de computadoras Hewlett-Packard y un investigador de nanocomputadoras electrónicas químicamente ensambladas. Eventualmente, dice, "las computadoras serán tan pequeñas que ni siquiera las notaremos. La computadora no estará solamente en un reloj de pulsera; estará también en las fibras de la ropa que visten las personas".

Guillermo Choque Aspiazu
http://www.eldiario.net/
Abril 5 de 2010


viernes, 4 de junio de 2010

Robots flexibles

Hace unas décadas, el enfoque para la programación de robots era puramente analítico. Fundamentalmente se basaba en capturar información de los sensores, si es que los había, calcular las coordenadas a las que debía moverse el robot y controlar los motores para alcanzar dichas coordenadas. Con esto se construían controladores rígidos que tenían serios problemas para gestionar imprevistos como la aparición de un objeto nuevo en escena o la modificación del entorno. Esta rigidez se ha traducido en el acervo popular de diversas formas, desde los movimientos ortopédicos de los robots cinematográficos más famosos hasta la voz sin inflexiones utilizada para imitarlos.

A finales de la década de los años 1980 aparece un enfoque nuevo, denominado robótica reactiva o robótica basada en comportamientos, impulsado, entre otros, por Rodney Brooks. En dicho enfoque se rompe con la estructura centralizada y con la planificación pormenorizada usada hasta entonces y se introduce el concepto de “comportamiento”. Un comportamiento es un programa muy simple que se activa en ciertas condiciones y actúa sobre los motores del robot en función de las medidas sensoriales. Algo así como: “si el sensor ultrasónico de la derecha mide una distancia de menos de cincuenta centímetros hasta un obstáculo, gira diez grados a la izquierda”. Parecería que con instrucciones tan simples no es posible resolver problemas complejos, pero sorprendentemente los controladores construidos bajo este paradigma no sólo se desenvuelven bien en entornos complejos, sino que viendo a robots controlados de este modo se siente la inquietante sensación de estar viendo los movimientos de un ser vivo, no de una máquina.

Se populariza desde entonces una idea que quizá pueda aplicarse también a los animales e incluso a los propios humanos: la complejidad en el comportamiento de los seres vivos quizá no se deba a la complejidad de su programación interna, sino a un conjunto de algoritmos simples aplicados a un medio complejo. Es decir, sería la complejidad del medio la que se refleja en la complejidad del comportamiento animal y humano. Algunos de los precursores de estos robots flexibles son los espectaculares prototipos del “Leg Lab” del Instituto de Tecnología de Massachusetts. Uno de los más sorprendentes es el monópodo, que demuestra que la naturaleza no lo ha inventado todo: no existen animales con una sola pata, al menos hasta donde se sabe.

En tiempos actuales la exigencia de las máximas prestaciones en las maquinas, al mínimo costo, conduce inevitablemente a la reducción de las masas de las piezas en movimiento, lo que permite reducir los tiempos de ciclo, reducir el tamaño del actuador etc. Todas son ventajas excepto en un punto: al reducir la masa las piezas pierden rigidez y la hipótesis de solido rígido deja de ser válida. Esta tendencia afecta también a las estructuras, que al hacerse muy esbeltas tienen tendencia a vibrar demasiado y necesitan métodos de control activo. Esta tendencia se agrava con la utilización de nuevos materiales compuestos que permiten realizar elementos resistentes muy ligeros pero menos rígidos que los convencionales. Debido a lo escrito, es muy interesante estudiar el comportamiento de los sistemas con elementos flexibles, así como de las técnicas que permiten controlar las vibraciones en los sistemas flexibles de manera que puedan utilizarse en aplicaciones reservadas hasta ahora a sistemas rígidos.

Las aplicaciones potenciales son muy numerosas, pues van desde las estructuras hasta las maquinas: (a) Grandes estructuras en las que se utilizan sistemas activos para controlar las vibraciones. (b) Puentes levadizos, en los que se rigidizan sus elementos móviles, aumentando la sección de las vigas, para evitar las vibraciones. (c) Alerones y elementos similares en aviones. En aeronáutica toda reducción de masa que no disminuye la seguridad es bienvenida. (d) Sistemas autoportantes como las grúas o plataformas utilizadas para el mantenimiento. En estos sistemas es muy interesante cualquier reducción de masas, pues reduce las especificaciones del vehículo portador. (e) Las antenas de radar y de comunicaciones situadas en vehículos necesitan, en muchos casos, sistemas de orientación activa. Utilizar elementos flexibles no supondría un costo excesivo. (f) Robots flexibles. En principio los robots industriales se diseñaron de manera que sus estructuras mecánicas se comporten como sólidos rígidos. Para ello, se exige a sus elementos estructurales que su primera frecuencia propia sea diez veces mayor que su frecuencia de trabajo. Esta condición es insostenible en numerosas aplicaciones.

La robótica flexible surge de la necesidad de construir robots de grandes dimensiones y de poco peso, con objeto de ser transportados para aplicaciones aeroespaciales. Una forma de conseguir esto, además de la solución obvia de utilizar materiales más ligeros que a menudo no es factible, consiste en reducir la sección transversal de los eslabones del robot. Con ello se consiguen robots más “esbeltos”, pero que plantean dos problemas importantes: (1) en situaciones estáticas aparecen deflexiones que hacen que la posición final del útil instalado en el extremo del robot no sea la deseada, (2) durante el movimiento aparecen oscilaciones en el extremo del robot muy poco amortiguadas, lo cual obliga a esperar un tiempo considerable, entre la finalización de la trayectoria ordenada y la desaparición de estas vibraciones para ejecutar una acción con el útil del robot. Pronto se extiende este problema a aplicaciones terrestres. Como consecuencia de lo anterior la flexibilidad ha sido considerada tradicionalmente como un problema.

En la década de los años 1970 surge en la ciencia una nueva filosofía de robots manipuladores. Son los robots flexibles. Con ellos aparecen nuevas y novedosas aplicaciones en la industria aeroespacial puesto que robots más ligeros permiten ser utilizados empleando menor cantidad de energía. En la década de los 80 se realiza un mayor esfuerzo de investigación en este ámbito. Aparece un elevado número de publicaciones al respecto. Posteriormente, en los años 1990, se estudió la viabilidad de este tipo de estructuras en manipulación de objetos empleando un control de fuerza. Las ventajas de estos robots frente a los rígidos es precisamente su flexibilidad, que permite amortiguar el impacto con el objeto y, así mismo, el impacto se detecta instantáneamente por aparecer en la estructura un cambio en la dinámica. En estos casos de impacto el parámetro más relevante a tener en cuenta es la constante de rigidez de la estructura flexible.

Un robot flexible es aquél robot en el cual algunos de sus elementos constructivos tienen una elasticidad considerable comparada con la elasticidad de los elementos de los robots tradicionales, considerados rígidos. El empleo de robots flexibles, resulta necesario cuando se requiere bajo peso y gran alcance. La situación es típica en manipuladores espaciales, pero también se presenta en otras aplicaciones de la robótica tales como la construcción. Los robots flexibles constituyen un campo de investigación que ha despertado gran interés en los últimos años entre la comunidad científica dedicada a la robótica. Esto ha sido motivado por la necesidad, impuesta por el desarrollo de la industria aeroespacial, de construir robots más grandes y ligeros. Por otro lado, la dinámica de estos robots es muy compleja, lo que ha atraído, además, el interés de muchos investigadores de los campos de la mecánica y del control automático.

En un sentido muy amplio puede decirse que un robot flexible es aquel que incluye algún elemento con un cierto grado de flexibilidad, entendiendo por flexibilidad la propiedad mecánica de una pieza para deformarse de forma elástica ante la solicitud de una fuerza o par. Se consideran dos tipos de flexibilidad en robótica: en las articulaciones y en los eslabones. La primera de ellas aparece como consecuencia de la torsión en los elementos que conectan los actuadores o motores con los eslabones y siempre es de tipo rotacional. Se traduce en una variación de ángulos y, por ejemplo, las reductoras de los robots suelen experimentarla cuando están sometidas a movimientos rápidos.

La flexibilidad en los eslabones aparece también como consecuencia de movimientos rápidos, del transporte de grandes cargas o de la generación de grandes fuerzas o momentos en el extremo del robot resultado de la realización de tareas que impliquen contacto con el entorno. En este caso se produce una deflexión en cada eslabón que se traduce en una variación de la posición de su extremo respecto a la posición calculada geométricamente, como si fuera rígido. El fenómeno anterior combinado con la torsión que se produce en el eslabón, también genera una variación de la orientación del extremo. Sin embargo, se suponen despreciables las deformaciones producidas por los fenómenos de tracción o compresión. La flexibilidad en los eslabones es un problema sustancialmente más complejo que el de la flexibilidad en las articulaciones: por cada elemento flexible, en el primer caso aparecen deflexiones en dos direcciones espaciales además de la torsión de la barra mientras que en el segundo caso solo aparece el fenómeno de torsión.

Guillermo Choque Aspiazu
http://www.eldiario.net/
Marzo 29 de 2010