viernes, 23 de octubre de 2009

Software cuántico

La computación cuántica es un paradigma de computación distinto al de la computación clásica. Se basa en el uso de qubits en lugar de bits, y da lugar a nuevas puertas lógicas que hacen posibles nuevos algoritmos. Una misma tarea puede tener diferente complejidad en computación clásica y en computación cuántica, lo que ha dado lugar a una gran expectación, ya que algunos problemas intratables pasan a ser tratables. Mientras que, una computadora clásica equivale a una máquina de Turing, una computadora cuántica equivale a una máquina de Turing indeterminista.

A lo largo de la historia el ser humano ha usado diversos materiales y utilizado múltiples mecanismos en el diseño, construcción y operación de máquinas que agilicen y automaticen la realización de cálculos y el procesamiento de información, desde el ábaco hasta las actuales computadoras personales. En los últimos años la densidad de los circuitos electrónicos ha aumentado sin cesar, gracias a la disminución en el tamaño de los componentes. Pero supuestamente llegará un momento en que no sea posible reducir más los circuitos. Debido a que muy pronto la miniaturización será tal que las leyes de la física clásica ya no sean válidas, entonces se entrará en los dominios del mundo subatómico, y aquí es donde entra la mecánica cuántica. Dado que el tratamiento de la información cuántica es notablemente distinto al que se hace con la información clásica, se necesitaran algunas herramientas para construir el denominado software o programa cuántico.

El software es un elemento lógico de un sistema computacional, a diferencia del hardware que es un elemento físico, y presenta las siguientes características: (1) Se desarrolla no se fabrica en un sentido clásico. (2) No se estropea, se deteriora hasta la obsolescencia. (3) Se construye a medida, en lugar de ensamblarse a partir de componentes existentes. Existen tres cosas básicas que distinguen de manera inicial al software cuántico: (1) Un conjunto apropiado de puertas. Una forma de obtener puertas cuánticas es la cuantización de las puertas clásicas, que pasa por reinterpretar los bits como qubits. Se puede demostrar que el conjunto de puertas cuánticas que afectan a un sólo qubit, conjuntamente con las puertas llamadas control-not, que son aquellas que afectan a dos qubits, forman un conjunto universal con las que se puede construir cualquier programa cuántico. (2) Algoritmos que aprovechen el comportamiento cuántico. A pesar del esfuerzo que se ha dedicado a la obtención de algoritmos que aprovechen el comportamiento cuántico, en la actualidad, su número es bastante reducido. Aunque mediante superposiciones apropiadas, es posible manejar un número exponencial de estados, eso no supone que esta información esté disponible. Para acceder a esa información se debe medir sobre el estado colapsándolo, y la información se pierde casi en su totalidad. Para aprovechar los aspectos cuánticos, es necesario combinar la posibilidad del paralelismo cuántico con la interferencia. (3) Métodos apropiados para controlar los posibles errores. Quizás es éste uno de los mayores problemas a la hora de construir una computadora. Estos errores provienen de la inexorable interacción de la computadora con su entorno, proceso denominado decoherencia. Se pensó que no podían existir métodos para el control de errores cuánticos, pero se ha mostrado cómo es posible contener los errores mediante códigos cuánticos correctores de errores. Estos códigos, detectan y corrigen estos errores, usando sofisticadas técnicas cuánticas.

En resumen, la ventaja en la potencia de estas máquinas proviene del paralelismo masivo y exponencial, debido a la superposición de estados en los qubit. Si estas computadoras fueran factibles en la práctica, permitirían atacar aquellos problemas que en las computadoras clásicas implicarían tiempos astronómicos. Aparte de las aplicaciones encaminadas a la ciencia básica, estas computadoras podrían usarse en la criptografía, criptoanálisis, búsquedas en inmensas bases de datos, simulaciones meteorológicas, etc. Queda por saber si el aislamiento de los sistemas permitirá escapar al límite impuesto por el decaimiento y la decoherencia que destruyen la mezcla cuántica de estados. Otro de los problemas principales es la escalabilidad, especialmente teniendo en cuenta el considerable incremento en qubits necesarios para cualquier cálculo que implica la corrección de errores. Para ninguno de los sistemas actualmente propuestos es trivial un diseño capaz de manejar un número lo bastante alto de qubits para resolver problemas computacionalmente interesantes hoy en día.

A diferencia de los bloques binarios de una computadora convencional con interruptores de apagado-encendido, ó cero-uno, los bloques básicos de las computadoras cuánticas, conocidos como bits cuánticos, o qubits, tienen la capacidad, difícil de entender para la mente humana, de existir en ambos estados “encendido” y “apagado” simultáneamente, como consecuencia del principio de superposición de la física cuántica. Una vez dominado el principio de superposición, éste debería permitir a las computadoras cuánticas extraer patrones de los resultados de un gran número de cómputos sin realizarlos todos realmente, otro fenómeno que constituye un desafío para la lógica humana. Un problema, sin embargo, es que los prototipos de los procesadores cuánticos son propensos a los errores causados, por ejemplo, por el "ruido" de los campos eléctricos o magnéticos. Las computadoras convencionales pueden protegerse contra los errores usando técnicas como la repetición, en la cual, como su nombre sugiere, la información de cada bit es copiada varias veces y las copias se verifican entre sí a medida que avanza el cálculo. Pero esta clase de redundancia es imposible en una computadora cuántica, ya que en ella las leyes del mundo cuántico prohíben duplicar tal información.

Para mejorar la eficacia de la corrección de errores, los investigadores están diseñando arquitecturas de computadoras cuánticas que limiten la propagación de los errores. Una de las formas más simples y eficaces de asegurar esto es el citado método mediante software, un equipo de investigadores ha demostrado matemáticamente como inadecuado para ser usado como sistema único en esa tarea de protección contra los errores. Por consiguiente es necesario emplear soluciones más complejas para manejar y corregir los errores.

Intuitivamente es posible concluir que en una computadora cuántica el poder de proceso es exponencialmente mayor. Un problema bastante álgido es el relacionado con el manejo de operadores lógicos. Los operadores lógicos tradicionales que sustentan a las computadoras actuales tienen un valor bastante bajo en un dominio cuántico. Hasta ahora el problema de la computación cuántica no ha sido tanto de nanoingeniería, aislar y manipular la orientación de un grupo de átomos, sino de implementar en esos sistemas de laboratorio, aún bastante primitivos, algoritmos y sistemas lógicos funcionales que permitan realizar cálculos y operaciones útiles que posibiliten un ulterior desarrollo de software para los sistemas. La verdadera frontera está en la algoritmia y la lógica. Por ejemplo, en las computadoras actuales, los procesadores fallan continuamente aunque el usuario no siempre está enterado, cada operación se repite un cierto número de veces, se compara el resultado y el más repetido se da por bueno. Algo que no se puede hacer en un mundo cuántico, donde la observación modifica el resultado.

El año 1999 el matemático Peter W. Shor y el físico Andrew M. Steane idearon un algoritmo que permitía resolver este problema. El año 1994 Shor fue aún más lejos desarrollando un algoritmo que permitía factorizar números con sistemas cuánticos: la clave para romper sistemas criptográficos. En diciembre del año 2001, la empresa IBM declaró haber implementado el sistema en una computadora de siete átomos, factorizando con éxito el número 15, es decir obteniendo como resultado 3×5.

Sin embargo, un equipo japonés ha saltado a la actualidad al publicar sus resultados en la revista “Nature” capitaneado por el profesor Tsai Jaw-Shen, de la empresa NEC, llevando hasta el momento una gran ventaja respecto a estudios precedentes. El grupo japonés ha implementado con relativo éxito el año 1999 el equivalente cuántico de uno de los dos operadores lógicos que se necesitan para construir una computadora cuántica funcional. Al año 2008 ha realizado la implementación de un segundo operador. Su objetivo ahora es combinar ambos en lo que llama una puerta única, la base de las futuras computadoras cuánticas. El objetivo de este grupo de investigadores es construir algunos algoritmos cuánticos basados en estos operadores. Y es que aunque las computadoras cuánticas puedan tardar en llegar a ser plenamente operativas más de una década, nadie duda de que una serie de aplicaciones, como la factorización de grandes números, puedan estar desarrolladas experimentalmente mucho antes.

Guillermo Choque Aspiazu
http://www.eldiario.net/
Julio 27 de 2009

viernes, 16 de octubre de 2009

Nanoscopios

La nanotecnología tiene la habilidad de trabajar con nanómetros, una escala bastante minúscula considerando que un nanómetro es la millonésima parte de un milímetro; esta tecnología tiene numerosas posibilidades, además en el campo de alimentación, en el de la medicina o de la electrónica. La nanotecnología es la ciencia y la ingeniería capaz de crear máquinas extremadamente pequeñas, de medida nanométrica, a partir del manejo individual de átomos y moléculas. Un nanómetro es mil millones de veces inferior a un metro, es decir, como una pulga en un espacio diez mil veces más. La escala de trabajo de la nanotecnología es tan pequeña que permitiría coger una pulga y tatuarle en el lomo el escudo del equipo de futbol “Bolívar” por ejemplo. Esto es el que se conoce como nanolitografía, una técnica que permite “pintar” objetos empleando el microscopio como si fuera un pincel y los átomos o moléculas como si fueran tinta.

Una posibilidad para fabricar elementos en nanotecnología es utilizar herramientas destinadas inicialmente a la observación microscópica avanzada, como lo son: el “microscopio de barrido por efecto túnel” y “microscopio de fuerza atómico. Se ha demostrado en la práctica cómo estos instrumentos, o variantes de ellos, adicionalmente a su función como microscopios, pueden utilizarse para mover átomos a voluntad y construir así algunas estructuras diseñadas. Otra manera de construir nanosistemas es en aprovechar la tendencia natural al autoensamblaje que tienen ciertas moléculas. Un ejemplo de esto es la formación de pequeños esferoides, denominados "Liposomas", que se pueden formar gracias a que ciertas moléculas de lipofosfatos poseen una forma cilíndrica con un extremo hidrófilo y el otro hidrófobo, lo cual hace que al estar en un medio acuoso los extremos repelidos por el medio tienden a enfrentarse, de manera que un grupo de tales moléculas puede terminar por organizarse en esferas con los extremos hidrófilos hacia el exterior, en contacto con el medio acuoso. Autoensamblajes como el descrito se basan en fuerzas de origen eléctrico, en tensión superficial y fenómenos termodinámicos y afines. Sin embargo, la biología, en el desarrollo de los organismos utiliza un autoensamblaje diferente basado en la codificación genética presente en el ácido desoxirribonucleico. Existe la esperanza de que los avances en la comprensión y manipulación de procesos genéticos algún día permitirán copiarle a la biología sus métodos de autoensamblaje codificado para el desarrollo de nanosistemas complejos.

Un microscopio es cualquiera de los distintos tipos de instrumentos que se utilizan para obtener una imagen aumentada de objetos minúsculos o detalles muy pequeños de los mismos. El interés por el estudio de la materia a escalas pequeñas, más allá de lo que permite la visión humana, es muy antiguo. Diversos descubrimientos arqueológicos revelan el uso de lentes planos, convexos y biconvexos tres mil años antes de Cristo en la Antigua Mesopotamia. En sus manuscritos, Séneca, el filósofo romano, habla de “cristales aumentadores” y unos siglos más tarde, en el año 1590, los ópticos holandeses Hans y Zacharias Janssen se encargaron de fabricar el primer microscopio compuesto que aumentaba la imagen un máximo de diez veces. A partir de esa fecha, la lista de inventores de microscopios se fue ampliando. A mediados del siglo diecisiete el holandés Anton van Leeuwenhoek visualizó glóbulos rojos, bacterias y espermatozoides con microscopios que lograban doscientos setenta y cinco aumentos.

El denominado '”microscopio de barrido efecto túnel”, forma parte de los instrumentos llamados “nanoscopios” ya que posibilitan la visualización de objetos del tamaño de nanómetros y aún menores. Los físicos G. Binning y H. Rorher, del laboratorio de IBM en Zürich, desarrollaron en el año 1981 el microscopio de efecto túnel, que permitió observar por primera vez los átomos de forma individual. Pocos años después, estos investigadores presentaron a la comunidad científica el microscopio de fuerzas atómicas, con el que fue posible observar muestras de tipo biológico con una resolución que hasta entonces no había sido posible. El año 1986 Binning y Rorher fueron galardonados con el premio Nobel de Física. Como su nombre indica, el microscopio de efecto túnel basa su funcionamiento en un efecto bien conocido en mecánica cuántica denominado “efecto túnel”, quizá uno de los más encantadores y sorprendentes resultados de esta teoría que tantos éxitos está cosechando. Se debe recordar que la idea básica de la mecánica cuántica es que las partículas en sí, como un electrón por ejemplo, no están ubicadas exactamente en un lugar, sino que pueden interpretarse como una onda más o menos extendida, no pudiéndoseles atribuir una posición puntual, sino un conjunto de posiciones en las cuales la partícula podría encontrarse, algunas más probables que otras. Semejante ubicuidad permite cosas que hubieran horrorizado a cualquier físico pre-cuántico, como por ejemplo, que un electrón pueda, siempre con cierta probabilidad, escapar de un átomo, remontando las poderosas cadenas electromagnéticas que lo amarran a él, como si hubiera practicado un “túnel” a través de la barrera de potencial que lo mantiene confinado; y de ahí el nombre de “efecto túnel”.

Así, el microscopio de efecto túnel saca partido de este juego de magia de la Naturaleza. Pero, ¿cómo lo hace?, el principio es bastante sencillo: Una punta conductora extremamente afilada, denominada “sonda”, se acerca a una distancia muy corta, algo así como unas diez millonésimas de milímetro, de la superficie de una muestra conductora o semiconductora a observar; es decir se sitúa muy cerca pero sin tocarla. Para lograr esto la punta se monta en piezoeléctricos, que son materiales que, con una pequeña variación de tensión, se expanden o se contraen en décimas de Amstrong, siendo el Amstrong diez elevado a menos diez metros. Entre la punta y la superficie a observar reina el más estricto vacío y una pequeña diferencia de potencial eléctrico. Los electrones de la superficie del metal, debido a su ubicuidad cuántica, pueden, con cierta probabilidad, abandonar los átomos de origen y ser atraídos hacia la sonda, donde son detectados. Se habla de “corriente de efecto túnel” para designar a estos electrones que escapan de la muestra hacia la sonda. Resulta además que la intensidad de esta “corriente túnel” depende de la distancia entre la sonda y la superficie a analizar, de modo que las variaciones de intensidad denotan variaciones de distancia superficie-sonda, y así, se puede ir estableciendo los valles y montañas de la superficie que se está analizando, esto es, su relieve.

Todo el proceso está controlado en todo momento por una computadora donde se almacenan finalmente los datos y la imagen de la muestra. Cabe destacar que, debido precisamente a esa “deslocalización” que caracteriza a las partículas en mecánica cuántica, en cada punto de la imagen obtenida, no se observa un “estado electrónico” sino una mezcla de estados electrónicos, con energías diferentes, de todos los estados de esa banda. Con todo ello, la resolución del microscopio de efecto túnel es espectacular: menos de un décimo del radio promedio de un átomo. Así, esta nueva microscopía ha permitido obtener mapas bastante precisos de superficies de metales o de semiconductores, en los que cada átomo puede distinguirse de su vecino; ha proporcionado también imágenes atómicas de moléculas de ácido desoxirribonucleico, de extrema importancia en genética; e incluso ahora se está en la capacidad de mover átomos individuales colocándolos a gusto del usuario, donde él quiera. Ello posibilita, por ejemplo, la grabación de datos a una densidad, de bits por centímetro cuadrado, sin precedentes. Los microscopios de fuerza atómica también son capaces de reconstruir tal relieve pero no hacen acopio del efecto túnel sino de la fuerza electromagnética entre la sonda y los electrones de la muestra a analizar: la sonda entra en contacto con la muestra y detecta los efectos atractivos o repulsivos de las fuerzas atómicas. La resolución es similar al del efecto túnel pero se utiliza para materiales no conductores, como la mayoría de las muestras biológicas.

Hasta hace unos años la nanotecnología estaba restringida al campo exclusivamente científico, pero poco a poco se está convirtiendo en una promesa económica que atrae a gobiernos, inversores de capital de riesgo y grandes multinacionales. La nanotecnología, aún cuando la mayoría de las personas no son conscientes de sus posibilidades, está ya presente en muchos de los objetos cotidianos que rodean a los seres humano: en los discos duros de las computadoras, en algunas partes de los automóviles, en las gafas de sol, en los pintalabios, en algunas herramientas para cortar metales, en vendas antibacterianas, en ventanas autolimpiables, etc. Poco a poco se abre paso hacia los hogares y su impacto social puede llegar a ser tan revolucionario como la aparición de la máquina de vapor o el nacimiento de Internet.

Guillermo Choque Aspiazu
http://www.eldiario.net/
Julio 20 de 2009

viernes, 9 de octubre de 2009

Robots ápodos

La robótica es la ciencia encaminada a diseñar y construir aparatos y sistemas capaces de realizar tareas propias de un ser humano. Se dice que la robótica es la ciencia y la tecnología de los robots. Se ocupa del diseño, manufactura y aplicaciones de los robots. La robótica combina diversas disciplinas como son: la mecánica, la electrónica, la informática, la inteligencia artificial y la ingeniería de control. Otras áreas importantes en robótica son el álgebra, los autómatas programables y las máquinas de estados.

En la robótica existen dos grandes áreas: manipulación y locomoción. La manipulación es la capacidad de actuar sobre los objetos, trasladándolos o modificándolos. Esta área se centra en la construcción de manipuladores y brazos robóticos. La locomoción es la facultad de un robot para poder desplazarse de un lugar a otro. Los robots con capacidad locomotiva se llaman robots móviles. Al interior de la locomoción existen tres puntos claves: (1) Desplazarse un incremento en línea recta. La complejidad depende del tipo de robot. Es muy sencillo que un robot con ruedas avance en línea recta, pero no es tan sencillo que lo haga un robot con patas. (2) Giros y traslaciones en múltiples direcciones. Nuevamente depende del tipo de robot. El hacer que un robot ápodo pueda desplazarse por un plano es más complejo que en un robot con ruedas. (3) Planificación de trayectorias y navegación. Que el robot sepa qué camino elegir para llegar a un determinado lugar.

Según los efectores empleados para conseguir la locomoción, tradicionalmente se ha establecido la siguiente clasificación: (1) Con ruedas. Los efectores son ruedas. Por ejemplo, el microbot Tritt, tiene tres ruedas y dos motrices. (2) Con orugas. Por ejemplo los robots tipo “carro de combate”, como el robot de docencia, desarrollado en la Universidad Autónoma de Madrid. (3) Con patas. Cualquier robot que use patas para conseguir la locomoción: perros, gatos, hexápodos, arañas, etc. Normalmente se trata de robots bio-inspirados. Por ejemplo el robot perro Puchobot, o el hexápodo Sheila. (4) Otros. Aquí se sitúa cualquier otro tipo de locomoción no clasificable en ninguna de las anteriores categorías, como por ejemplo el robot gusano Cube 2.0.

Según cómo se realice la locomoción, existen dos tipos: (1) Locomoción estáticamente estable. El robot debe tener suficientes puntos de apoyo, que conforman el polígono de apoyo. El centro de gravedad debe caer siempre dentro de este polígono. (2) Locomoción dinámicamente estable. El robot tiene que ser estable en movimiento, no caerse, aunque puede no ser estable en reposo, como por ejemplo un robot unípodo. Este tipo de locomoción requiere más control pero aporta mayor velocidad.

Uno de los grandes retos en el área de la locomoción es el de desarrollar un robot que sea capaz de moverse por cualquier tipo de entorno, por muy escarpado y complicado que sea. Esto tiene especial interés en la exploración de otros planetas, en los que no se sabe qué tipo de terreno se puede encontrar. Se pueden realizar estudios previos y diseñar un robot específico para un determinado terreno. Pero lo interesante es conseguir un robot versátil que pueda moverse por la mayor cantidad de terrenos posibles.

Los robots ápodos son robots que no están dotados de partes móviles diferenciadas de su tronco, como pueden ser piernas o patas. Son robots ápodos los que imitan el comportamiento de serpientes, gusanos, caracoles y otros organismos vivos que emplean su propio tronco central para desplazarse. En los últimos años, los robots ápodos han cobrado interés en el área de robótica móvil. Esto se debe a que este tipo de robots, que se valen únicamente de su cuerpo para moverse, tienen un sistema de locomoción robusto para contender con ambientes con superficies irregulares. Los robots ápodos están frecuentemente inspirados en la naturaleza, es decir sus diseñadores se basan en los patrones de movimiento de los gusanos y serpientes cuya estructura se compone de múltiples segmentos que permiten el movimiento ondulatorio. De manera análoga, los robots ápodos se construyen a partir de módulos similares entre sí, que en su conjunto forman el cuerpo del robot.

Uno de los primeros robots ápodos conocidos fue un prototipo de robot serpiente diseñado por Shigeo Hirose el año 1993. A partir de este trabajo se han desarrollado diversos robots similares. Howie Choset y su equipo han trabajado durante los últimos doce años en el desarrollo de robots tipo serpiente. González Gómez y sus colegas presentan un prototipo de robot ápodo modular denominado “Cube revolutions”, constituido por la unión en cadena de ocho módulos iguales. Este robot se desplaza en línea recta por medio de ondas que recorren su cuerpo desde la cola hasta la cabeza. El robot calcula las posiciones de las articulaciones a partir de los parámetros de la onda, es decir, forma, amplitud y longitud. Finalmente Alarcón Ávila y sus colaboradores presentan el diseño y la construcción de un robot ápodo capaz de operar de manera autónoma con base en sus percepciones locales.

La locomoción de un gusano se basa en los músculos que se contraen y expanden, permitiéndole avanzar o retroceder. Para lograr esta locomoción, un robot ápodo debe tener una morfología que le permita contraerse y expandirse. Se diseñaron módulos para la composición del cuerpo del robot de manera que tuvieran dos características esenciales: (1) rigidez capaz de soportar toda la estructura del robot y, (2) flexibilidad para permitir la contracción y expansión del robot. El cuerpo del robot se compone de los siguientes tres elementos: (1) Cabeza. Es la parte más ligera del cuerpo del robot, debe ser ligera para lograr su elevación y por consiguiente escalar objetos de una cierta altura. La cabeza está formada por un “único módulo”. (2) Cuerpo. Es la parte que da soporte y movilidad al robot, está formada por una serie de módulos idénticos unidos entre sí, lo cual permite la expansión del cuerpo del robot únicamente agregando módulos adicionales de este tipo. (3) Cola. Es la parte más pesada del robot, permite el impulso al robot hacia adelante por medio de la contracción y expansión. Cada uno de estos módulos tiene una forma cilíndrica para permitir al robot mantenerse en equilibrio. Para aumentar la estabilidad, cada uno de los módulos tiene además un soporte plano en la parte inferior.

Para formar la estructura completa del robot se unen un módulo tipo cabeza dos módulos tipo cuerpo y un módulo tipo cola. Este tipo de configuración modular permite expandir el tamaño del robot únicamente agregando módulos adicionales del tipo cuerpo a la estructura completa del robot. Puede apreciarse también que entre cada par de módulos se encuentran dos enlaces, llamados articulaciones. Estas articulaciones permiten la unión y movilidad de los módulos de robot. Con estas articulaciones se puede imitar la contracción y expansión de un gusano. Dos articulaciones conectadas al mismo módulo tienen la misma función y se mueven de manera idéntica por lo que se consideran como una sola articulación. El robot tiene en total tres grados de libertad.

En los últimos años, los robots ápodos han cobrado interés en el área de la robótica móvil. Esto se debe a que este tipo de robots, que se valen únicamente de su cuerpo para moverse, tienen un sistema de locomoción robusto para contender con ambientes con superficies irregulares. Los robots ápodos están frecuentemente inspirados en la naturaleza, es decir., sus diseñadores se basan en los patrones de movimiento de los gusanos y serpientes cuya estructura se compone de múltiples segmentos que permiten el movimiento ondulatorio. De manera análoga, los robots ápodos se construyen a partir de módulos similares entre sí, que en su conjunto forman el cuerpo del robot.

El control en los robots ápodos se vuelve una tarea complicada conforme el número de módulos que lo conforman aumenta, esto debido a que los movimientos de las articulaciones que los unen deben sincronizarse adecuadamente. Una solución para generar el movimiento ondulatorio, es generar ondas que recorran el cuerpo del robot con la ayuda de algún modelo como la generación de una onda sinusoidal. Esta solución tiene la limitante de que cada vez que son agregados o eliminados módulos al robot, y cada vez que el robot enfrenta ambientes cuyas condiciones varían, los parámetros de dicho modelo deben ser redefinidos. Por ello, es importante dotar al robot de mecanismos de aprendizaje que le permitan contender con cambios en su estructura y en el ambiente que lo rodea.

Guillermo Choque Aspiazu
http://www.eldiario.net/
Julio 13 de 2009

viernes, 2 de octubre de 2009

Tecnología biométrica

La biometría es la ciencia que se encarga de medir las propiedades físicas de los seres vivos. El término biometría proviene de las palabras griegas “bios”, que significa vida y “metrón” que representa medida, puede definirse como el estudio de métodos ideados para el reconocimiento de forma única de personas con base en uno o más rasgos físicos intrínsecos o de comportamiento. La autenticación biométrica permite el reconocimiento automático de una persona utilizando características adecuadas de su cuerpo. La biometría permite la autenticación de usuarios con base en sus características físicas como la huella dactilar, patrón del iris, estructura de su voz o forma y aspecto de su escritura manuscrita. El costo de los sistemas biométricos va reduciéndose progresivamente mientras que su fiabilidad y precisión cada vez va en aumento. Existen diversos tipos de enfoques de autenticación como por ejemplo lo que generalmente se conoce: una contraseña o palabra clave, responder a preguntas, parafraseado, etc.; lo que una persona lleva: una tarjeta inteligente con PIN; donde una persona se encuentra geográficamente: en base a localización GPS o etiquetas RFID ocultas dentro del cuerpo humano, etc.

La tecnología biométrica consiste en métodos automatizados que determinan la identidad de una persona basada en sus características físicas e intransferibles. Estas tecnologías pueden clasificarse atendiendo a diversos criterios, así por ejemplo: (1) Las más actuales: huella dactilar, iris, voz, geometría de la mano, rostro. (2) No muy utilizadas: medidas del cráneo, termografía facial, patrón de venas de las manos, lóbulos de la oreja, exploración de la retina, huella de la mano, firma manuscrita, dinámica de introducción de teclas sobre un teclado, pigmentación y desarrollo de las uñas, forma de andar, forma de gesticular, reflectividad óptica de la piel. (3) Casos especiales: ácido desoxirribonucleico, ácido ribonucleico. (4) Prometido: olor corporal, multiatributos. Las principales categorías de aplicaciones biométricas son: (1) Autenticación uno a uno. (2) Identificación uno a muchos. (3) Investigar contra una lista negra uno a muchos. (4) Detección de duplicados uno a muchos. (5) Uno a pocos. Es un híbrido entre identificación uno a muchos y verificación uno a uno. Normalmente el proceso uno a pocos supone comparar una muestra biométrica presentada contra un pequeño número de plantillas de referencia biométricas en un archivo. En esta dirección los principales tipos de plantillas son: (1) Imagen o impresión de mapa de bits, el filtrado y la compresión de mapa de bits permiten seleccionar las características útiles y desechar las inútiles. (2) Hash tanto unidireccional como reversible.

Pueden identificarse las siguientes categorías de sistemas biométricos: (1) Un sistema uni-biométrico, es aquel que sólo utiliza un único identificador biométrico. (2) Un sistema biométrico unimodal, es un sub-conjunto de un sistema uni-biométrico que utiliza una única instancia o snapshot, una única representación y un único comparador para tomar una decisión de reconocimiento. (3) Un sistema multi-biométrico, es un sistema biométrico que utiliza más de un identificador biométrico independiente o correlacionado débilmente de un individuo, por ejemplo, la huella dactilar y el rostro de la misma persona o las huellas de dos dedos diferentes de una persona. (4) Un sistema biométrico multi- modal es un super-conjunto de un sistema multi-biométrico que puede utilizar más de una medida biométrica correlacionada, por ejemplo varias impresiones de un dedo, varias imágenes de un rostro en un video, varias representaciones de una única entrada, múltiples comparadores de una única representación o una combinación de ellos. La definición de un sistema biométrico uni-modal es la más restrictiva, en cambio, la definición de un sistema biométrico multi-modal es la más general.

Los principales componentes que se pueden identificar en un sistema biométrico son: (1) Sensor. Es el dispositivo de captura los rasgos o características biométricas. Para registrar y convertir los rasgos biométricos en datos de computadora se necesitan sensores adecuados. Para la huella dactilar, en la biometría estática, con vistas a obtener las minucias se utilizan sensores capacitivos, ópticos, térmicos, acústicos y de presión. Para reconocer la firma manuscrita, en la biometría dinámica, una tableta sobre la que escribir que detecte presión, aceleración del lápiz, etc. Para la estructura facial, patrón del iris o retina, geometría de la mano, forma de los dedos, estructura de las venas de la mano y forma de las orejas, una cámara de vídeo, TV o cámara Web. Para la voz, detectando el timbre de la misma mediante un micrófono. Para el ácido desoxirribonucleico un laboratorio químico o una unidad electrónica de análisis automatizado. Para el olor corporal, sensores químicos. Para reconocer como se pulsan las teclas, un teclado. (2) Repositorio. Es la base de datos donde se almacenan las plantillas biométricas inscritas para su comparación. Debería protegerse en un área física segura, cifradas y firmadas digitalmente. (3) Algoritmos para extracción de características, procesamiento y comparación.

Las tres funciones básicas asociadas a todo sistema biométrico son: (a) Inscripción. Añade información biométrica a un archivo de datos. Puede incluir protección contra duplicados en la base de datos. (b) Verificación. Se compara contra un único registro. La respuesta es la persona quien dice ser. (c) Identificación. Se compara todos los registros de la base de datos. La respuesta es que se tiene un registro de la persona. Las principales sub-funciones comunes a la mayor parte de las técnicas biométricas son: (1) Captura. Mide la característica biométrica utilizando un dispositivo sensor. Los datos pueden ser una imagen en mapa de bits, un flujo de audio, etc. Pueden capturarse series de muestras. A veces incluye un valor de calidad. (2) Proceso. Convierte los datos en un identificador numérico o plantilla. Generalmente implica una extracción de características, pero puede también incluir otro tipo de manejos. (3) Comparación. Se compara una plantilla biométrica procesada con una plantilla biométrica inscrita para determinar el nivel de similitud. Existen muchos métodos o tipos de algoritmos a utilizar. La salida del proceso de comparación es el resultado. La probabilidad de coincidencia, es decir que pertenece al mismo sujeto. (4) Decisión. Se determina los resultados de la comparación. Estos resultados se comparan con un resultado umbral, si se encuentra por encima hay coincidencia pero si se encuentra por debajo no la hay. El tiempo de respuesta es el período de tiempo que un sistema biométrico necesita para devolver una decisión sobre identificación o verificación de una muestra biométrica presentada.

La biometría sirve para identificar y autenticar personas y seres vivos con base en tres factores fundamentales: (1) De tipo genético o rasgos de genotipo. Los gemelos homocigóticos poseen los mismos rasgos de genotipo. (2) Debidas a variaciones aleatorias en las fases tempranas del desarrollo embrionario o rasgos de fenotipo. (3) A través del aprendizaje o con rasgos de comportamiento. Las características biométricas varían con el tiempo debido a factores como el crecimiento, edad, desgaste por el uso, suciedad, heridas y regeneración subsiguiente, etc. Las “pruebas humanas interactivas” permiten a una persona autenticarse como miembro de un grupo dado, como humano frente a máquinas, como ella frente a otras, como adulto frente a niños, etc., se utiliza para detener spam y mensajería automatizada. Consiste en lo siguiente: la computadora presenta un desafío que debe ser fácil para que lo supere cualquier ser humano, en cambio debe ser difícil de superarlo por parte de los que no sean personas. La mayor parte de las pruebas interactivas son de tipo gráfico o código CAPTCHA, referido como “prueba de Turing publica completamente automatizada para indicar la separación de humanos y computadoras”. Un tipo común de CAPTCHA requiere que el usuario teclee las letras de una imagen distorsionada que se le presenta, a veces con la adición de un fondo obscurecido con una secuencia de letras y números que aparecen superpuestos para dificultar las técnicas de visión por computadora. Otros tipos de pruebas interactivas con desafío no gráfico requieren reconocer voz, resolver rompecabezas, etc.

Las técnicas biométricas ofrecen una amplia gama de soluciones para todo tipo de escenarios, desde autenticación de usuarios para el control de asistencia o autenticación simple en la red, hasta el uso de técnicas combinadas para proteger zonas restringidas o sistemas sensibles; hoy en día, este tipo de técnicas son bastante exactas y confiables, se pueden implementar soluciones sencillas de bajo costo o complejas de costos elevados. Esto estará en función de las necesidades de seguridad de las empresas e individuos y hacia donde estará enfocado, es sabido que la complejidad no es sinónimo de seguridad, debe existir un equilibrio entre la seguridad, la simplicidad del manejo, la facilidad de implementación, la capacitación y los costos asociados.

Guillermo Choque Aspiazu
http://www.eldiario.net/
Julio 6 de 2009