viernes, 26 de noviembre de 2010

Tecnología estratificada

El software de la computadora, se ha convertido en el alma mater. Es la máquina que conduce a la toma de decisiones comerciales. Sirve como la base de investigación científica moderna y de resolución de problemas de ingeniería. Es el factor clave que diferencia los productos y servicios modernos. Está inmerso en sistemas de todo tipo: de transportes, médicos, de telecomunicaciones, militares, procesos industriales, entretenimientos, productos de oficina, etc., la lista es casi interminable. A medida que transcurra el siglo veintiuno, será uno de los pilares que conduzca a grandes cambios, desde la educación elemental hasta la ingeniería genética.

Según la definición del Instituto de Ingenieros Eléctricos y Electrónicos, “software es la suma total de los programas de computadora, procedimientos, reglas, la documentación asociada y los datos que pertenecen a un sistema de cómputo”. Según la misma organización, “un producto software es un producto diseñado para un usuario.” En este contexto, la ingeniería del software es un enfoque sistemático del desarrollo, operación, mantenimiento y retiro del software”, que en palabras más llanas, se considera que “la ingeniería del software es la rama de la ingeniería que aplica los principios de la ciencia de la computación y las matemáticas para lograr soluciones costo-efectivas, eficaces en costo o económicas, a los problemas de desarrollo del software”, es decir, “permite elaborar consistentemente productos correctos, utilizables y costo-efectivos”.

El proceso de ingeniería del software se define como “un conjunto de etapas parcialmente ordenadas con la intención de lograr un objetivo, en este caso, la obtención de un producto software de calidad”. El proceso de desarrollo del software “es aquel en que las necesidades del usuario son traducidas en requerimientos del software, estos requerimientos transformados en diseño y el diseño implementado en código, el código es probado, documentado y certificado para su uso operativo”. Concretamente “define quién está haciendo qué, cuándo hacerlo y cómo alcanzar un cierto objetivo”. El proceso de desarrollo del software requiere por un lado un conjunto de conceptos, una metodología y un lenguaje propio. A este proceso también se le llama el ciclo de vida del software que comprende cuatro grandes fases: concepción, elaboración, construcción y transición.

En la actualidad cada vez son más complejos los problemas que buscan una solución en el software. Dicha complejidad ha sobrepasado la habilidad de desarrollar y mantener el software por parte de las organizaciones que se dedican a esta actividad, por lo que las empresas desarrolladoras de software necesitan lograr una evolución hacia la cultura de excelencia en la ingeniería y la administración del software, para ser capaces de desarrollar y entregar software confiable, a tiempo y apegado al presupuesto acordado con el cliente, además los clientes quieren saber con certeza que todo acuerdo se cumplirá. Por esta razón, ya no sólo basta medir la calidad del producto terminado sino también, medir la calidad del proceso en el que se desarrolla el producto.

Lo anterior conduce a definir el término calidad del software, que para el “Instituto de Ingenieros Eléctricos y Electrónicos” es: “El grado en que un sistema, componente o proceso cumple con los requerimientos especificados y las necesidades del cliente o el usuario”. De acuerdo al investigador Tom DeMarco, en una definición establecida el año 1982, la calidad del software está directamente relacionada con su proceso de desarrollo, considera que un proceso bien conocido y ampliamente utilizado, sustentado en medición y predicción de eventos, permite controlar en buena medida la producción de software y en consecuencia software de calidad. Roger Pressman, el gurú de la ingeniería del software, el año 2005, menciona que: “La calidad del software es el cumplimiento de los requisitos de funcionalidad y desempeño explícitamente establecidos, de los estándares de desarrollo explícitamente documentados y de las características implícitas que se esperan de todo software desarrollado profesionalmente”.

La ingeniería del software es una tecnología estratificada, cualquier enfoque de la ingeniería, incluyendo a la ingeniería del software, debe estar sustentado en un compromiso con la calidad, la base que soporta la ingeniería del software es un enfoque de calidad. La gestión de calidad total, Six Sigma y enfoques similares fomentan una cultura de mejora continua del proceso. Un proceso define quién hace qué, cuándo y cómo para alcanzar cierto objetivo. En general, el éxito de las empresas u organizaciones depende en gran medida de la definición y seguimiento adecuados de sus procesos. En el caso de una empresa que se dedica al desarrollo del software, un proceso de software se define como un conjunto de actividades técnicas y administrativas realizadas durante la adquisición, desarrollo, mantenimiento y retiro de software, en estos procesos de software se requieren procesos especializados que abarquen desde la creación hasta la administración y mantenimiento de software. Un modelo de proceso del software define como solucionar la problemática del desarrollo de sistemas de software, ya que para esta actividad se requiere resolver ciertas fases de su proceso, las cuales se conocen como ciclo de vida del desarrollo de software. Un modelo de proceso debe considerar una variedad de aspectos, como el conjunto de personas, reglas, políticas, actividades, componentes de software, metodologías y herramientas utilizadas.

La ingeniería del software se caracteriza por ser una tecnología estratificada, los diferentes enfoques conducen a las siguientes definiciones. (1) Según Fritz Bauer “La ingeniería del software es el establecimiento y uso de principios robustos de la ingeniería a fin de obtener económicamente software que sea fiable y que funcione eficientemente sobre máquinas reales”. (2) Una definición más completa desarrollada por el “Instituto de Ingenieros Eléctricos y Electrónicos” es: “La ingeniería del software es la aplicación de un enfoque sistemático, disciplinado y cuantificable hacia el desarrollo, operación y mantenimiento del software”. (3) La ingeniería del software se define como la disciplina tecnológica y administrativa dedicada a la producción sistemática de productos de software, que son desarrollados y modificados a tiempo y dentro de un presupuesto definido. (4) Es la disciplina cuyo fin es la producción de software libre de fallas, entregado a tiempo, dentro del presupuesto y que satisfaga las necesidades del cliente. La ingeniería del software es una tecnología multicapa. Los cimientos que son la base de la ingeniería del software están orientados hacia la calidad. La gestión de calidad total y las filosofías similares fomentan una cultura continua de mejora de proceso, y es esta cultura la que conduce últimamente al desarrollo de enfoques cada vez más robustos para la ingeniería del software.

El fundamento de la ingeniería del software es el estrato proceso. El proceso es la unión que mantiene juntas las capas de tecnología y que permite un desarrollo racional y oportuno de la ingeniería del software. Las áreas clave del proceso forman la base del control de gestión de proyectos del software y establecen en contexto en el que se aplican los métodos técnicos, se producen resultados del trabajo, se establecen hitos, se asegura la calidad y se gestiona el cambio de manera adecuada. Los métodos indican cómo construir de manera técnica el software. Los métodos abarcan una gama de tareas que incluyen análisis de requisitos, diseño, construcción de programas, pruebas y mantenimiento. Los métodos dependen de un conjunto de principios básicos que gobiernan cada área de la tecnología e incluyen actividades de modelado y otras técnicas descriptivas. Las herramientas proporcionan un soporte automático o semi-automático para el proceso y para los métodos. Cuando se integran herramientas para que la información creada por una herramienta la pueda utilizar otra, se establece un sistema de soporte para el desarrollo de software denominada ingeniería del software asistida por computadora.

Los métodos de la ingeniería de software proporcionan las características técnicas para construir el software, por otro lado “un método es un procedimiento que define tareas o acciones a realizar, donde cada tarea incluye condiciones de entrada y salida que se deben satisfacer antes y después de completarse”. Y el estrato más elevado que corresponde a las herramientas proporciona un soporte automatizado o semi-automatizado para el proceso y los métodos. Cuando las herramientas se integran de forma que la información que crea una de estas pueda ser utilizada por otra herramienta, se dice que se ha establecido un sistema para el soporte del desarrollo del software, que con frecuencia se denomina ingeniería del software asistida por computadora. Las herramientas varían en su apoyo a los procesos integrando componentes como editores de texto, generadores de modelos gráficos, generadores de código, compiladores, depuradores, administradores de configuración y administradores del proyecto.
Guillermo Choque Aspiazu
http://www.eldiario.net/
Octubre 25 de 2010.

jueves, 25 de noviembre de 2010

Programación neurolingüística

La programación neurolingüística es el estudio de los procesos mentales con el fin de obtener un modelo formal y dinámico de cómo funciona la mente y la percepción humana. La programación neurolingüística intenta definir patrones o “programas” directos sobre la conducta humana relacionados con el lenguaje. La programación neurolingüística tiene sus orígenes en las investigaciones publicadas el año 1973 por Richard Bandler y John Grinder, quienes sostenían que es posible cambiar o reprogramar esta estrategia o plantilla de pensamiento, si es que hay algo que la limite o para potenciar algún recurso, comportamiento o creencia, con el fin de mejorar la calidad de vida. A pesar de su relativa popularidad en los años 1970, cuando se empezó a emplear en procesos diversos como el aprendizaje, el afrontamiento del estrés o la superación de fobias, la programación neurolingüística ha sido ampliamente ignorada por los métodos convencionales de las ciencias sociales debido a la insuficiencia de evidencias para sustentar los modelos de Bandler y Grinder. Actualmente, es considerada por la mayoría de la comunidad científica como una pseudociencia mientras que por parte de esta es considerada como una herramienta de la psicología.

Este tipo de programación consiste en el estudio de los patrones mentales. Permite conocer los procesos mentales que se usan para codificar información, y por lo tanto la forma de pensar y de actuar de las personas. Programación neurolingüística significa que los pensamientos están conformados de palabras, de lenguaje y este lenguaje califica lo que rodea al ser humano con palabras y estas viajan por las neuronas para crear un programa. Cuando se repiten ciertas palabras con frecuencia se va convirtiendo este mensaje en un programa. Estos programas ya instalados producen emociones que dirigen las conductas y las reacciones. Esto quiere decir que a lo largo de la vida de las persona se han instalado cientos de programas desde antes de nacer. Al principio de la vida misma, los programas fueron instalados por los antecesores de las personas, sean estos los padres o abuelos; más adelante por los maestros, amigos y por los medios de comunicación. Estos programas se los acepta sin que las personas reflexionen acerca de si son favorables o dañinos. Simplemente allí están. También se tienen programas que las personas por cuenta propia llegan a instalar y de igual manera, algunos son buenos y otros no tanto.

La programación neurolingüística ayuda a las personas a tener una percepción más clara de sus propios programas y también de los programas de los demás. Una persona recuerda que de niño le daban para comer merendar pan marraqueta y café de manera que se convirtió en un hábito y luego en un programa; en cambio a otra persona de niño le daban de merendar pan con plátano de manera que también se convirtió en un hábito y luego en un programa. En este ejemplo se observa que cada uno tiene un programa diferente y que no compiten entre sí. Estos programas con el tiempo se han ido modificando o cancelando a medida que se observa si son o no funcionales para la vida de las personas. La programación neurolingüística ayuda a ser más consciente de cuáles son los programas que las personas tienen en su haber. También ayuda a liberarse de aquellos programas que ya no son útiles para lograr un cambio.

El término programación neurolingüística fue acuñado el año 1976 por Grinder y Bandler y se compone de los siguientes términos: (1) Programación. La mente es programable o modificable, debido a la facultad de las personas de elegir los pensamientos necesarios para obtener los resultados deseados. (2) Neuro. Los procesos neuronales controlan la actividad mental y la relación mente-cuerpo. (3) Lingüística. Mediante el lenguaje y otros sistemas no verbales de comunicación se ordenan los pensamientos para comunicarse con el exterior. La programación neurolingüística consiste en seleccionar un plan de acción de entre varias alternativas con el fin de encontrar la que mejor convenga al propósito natural de las personas: conservarse con vida y ser los mejores, a través de la excelencia, y este proceso se lo realiza por conducto de las neuronas, a través del lenguaje y otros sistemas no verbales que permiten al sistema neuronal codificar, ordenar e interpretar esta información.

La programación neurolingüística parte de la teoría constructivista, define la realidad como una invención y no como un descubrimiento. Se basa en el hecho de que el ser humano no opera directamente sobre el mundo real en que vive, sino que lo hace a través de representaciones mentales del mismo que determinan la forma en que cada individuo percibe el mundo. Es un medio de autoconocimiento y evolución personal. Describe cómo la mente trabaja y se estructura, de manera que las personas piensan, aprenden, se motivan, interactúan, se comunican, evolucionan y cambian. Esta técnica proporciona herramientas y habilidades para el desarrollo en comunicación y reprogramación de actitudes. Promueve la flexibilidad del comportamiento, la creatividad y la comunicación, el pensamiento trascendental y una comprensión de los procesos mentales, tanto para el desarrollo individual como para la optimización de cada grupo humano. Permite resolver fobias, miedos y situaciones similares hasta en una sola sesión de trabajo.

La programación neurolingüística define tres elementos como constituyentes clave de la conducta humana: (1) El sistema nervioso, referido como el soporte neurológico. (2) El lenguaje que sirve para la comunicación externa e interna, con uno mismo, es verbal y no verbal. (3) La conducta que se puede aprender. Así mismo explica el proceso de aprendizaje como cuatro etapas que debe pasar el individuo que aprende: (1) Incompetencia inconsciente. No se sabe qué es un coche y, mucho menos, conducirlo. (2) Incompetencia consciente. Momento en el que más se aprende. El conductor es consciente de que no sabe conducir y lo intenta. (3) Competencia consciente. El conductor ya sabe conducir y presta demasiada atención al proceso como embrague, guiñadores, palanca de cambio de marchas, etc. (4) Competencia inconsciente. Se libera la atención del consciente. El individuo realiza la acción sin ser prácticamente consciente y puede dirigir así su atención para otras cosas. Así se observa a un conductor conversar con los pasajeros, escuchar música, contestar su celular mientras conduce.

La programación neurolingüística es útil en varios campos. En el campo de la educación ayuda a tener un mejor conocimiento de los alumnos de cualquier edad, para poder tratar con ellos y encausarlos a aprender con mayor facilidad. El maestro tendrá una mayor percepción de las necesidades de cada alumno, sobre todo tendrá herramientas específicas para tratar a jóvenes con problemas. La programación neurolingüística puede enseñar al alumno a dirigir su mente tanto para aprender con mayor efectividad como para realizar tareas que, en muchísimas ocasiones, son tediosas y largas por la falta de enfoque correcto en el lenguaje y por lo tanto la actividad se torna lenta.

En el campo de los negocios también resulta interesante ver cuántas técnicas se pueden utilizar tanto en la oficina con los compañeros de trabajo como en ventas. Las técnicas para crear empatía y entender al otro son sumamente útiles para crear un ambiente de confianza y trabajar mejor en equipo. El lenguaje correcto y preciso de parte del superior a un subalterno es muy importante para no mandar mensajes incompletos o distorsionados. Ante situaciones de estrés ayuda a elegir diferentes maneras de manejarlo para evitar el desgaste físico y las alteraciones emocionales.

En cuanto a la salud, la programación neurolingüística ha aportado varias técnicas muy eficaces para disminuir el dolor e incluso eliminarlo. Ofrece técnicas para re-entrenar la mente, para pensar de manera más positiva y así lograr salud en vez de la enfermedad. Pensamientos positivos aportan un mejor nivel de energía para lograr mejoría a través de símbolos y visualizaciones. La respiración correcta es vital para tratar cualquier enfermedad y eliminarla. La terapia breve de la programación neurolingüística ayuda a lograr cambios en poco tiempo.

En la comunicación, en general, los fundadores encontraron que el lenguaje verbal y no verbal es la clave para tener y mantener una buena relación en cualquier ámbito. Para cualquier comunicación, sea en la casa, la oficina o con extraños, se tienen técnicas para ser flexibles con las diferentes personas que rodean a las personas, también para dejar de enjuiciar al que se tiene enfrente y para aprender de las personas que opinan diferente. Se puede ver un nuevo horizonte con miles de millones de individuos, cada uno diferente, que capta al mundo en forma única y reacciona de una forma específica ante un estímulo. Y ninguna está mal, sino que simplemente, lo ve diferente de cómo uno lo ve. Si se aprende a usar el lenguaje en forma más efectiva y se cuida no usar palabras negativas, se tendrá una mejor comunicación.
Guillermo Choque Aspiazu
http://www.eldiario.net/
Octubre 18 de 2010

viernes, 19 de noviembre de 2010

Descubrimiento de conocimiento en bases de datos

En muchas áreas del saber, el conocimiento se ha venido obteniendo por el clásico método hipotético-deductivo de la ciencia positiva. En él es fundamental el paso inductivo inicial: a partir de un conjunto de observaciones y de unos conocimientos previos, la intuición del investigador le conduce a formular la hipótesis. Esta "intuición" resulta inoperante cuando no se trata de observaciones aisladas y casuales, sino de millones de datos almacenados en soporte informático. En el fondo de todas las investigaciones sobre inducción en bases de datos subyace la idea de automatizar ese paso inductivo.

Las técnicas de análisis estadístico, desarrolladas hace tiempo, permiten obtener cierta información útil, pero no inducir relaciones cualitativas generales, o leyes, previamente desconocidas; para esto se requieren técnicas de análisis inteligente que todavía no han sido perfectamente establecidas. Por ello, se incrementa de forma continua la diferencia existente entre la cantidad de datos disponibles y el conocimiento extraído de los mismos. Pero cada vez más investigaciones dentro de la inteligencia artificial están enfocadas a la inducción de conocimiento en bases de datos. Consecuencia de esta creciente necesidad ha aparecido un nuevo campo de interés: la minería de datos, que incluye los nuevos métodos matemáticos y técnicas para el análisis inteligente de datos. La minería de datos surge a partir de sistemas de aprendizaje inductivo en computadoras, al ser aplicados a bases de datos, y su importancia crece de tal forma que incluso es posible que, en el futuro, los sistemas de aprendizaje se usen de forma masiva como herramientas para analizar datos a gran escala.

El descubrimiento implica observar, recoger datos, formar hipótesis para explicar las observaciones, diseñar experimentos, comprobar la corrección de las hipótesis, comparar los hallazgos con los de otros investigadores y repetir el ciclo. Las computadoras son capaces de observar y recoger datos, a veces mejor que los observadores humanos; los programas estadísticos pueden generar agrupaciones de forma automática entre los datos recogidos, aunque no siempre se corresponden con las clasificaciones hechas por los hombres; también hay programas con cierta capacidad para diseñar experimentos; y algunos sistemas robóticos realizan las manipulaciones necesarias en ciertos experimentos. Pero ninguna computadora reúne todas estas habilidades ni es capaz de adaptarse para aplicarlas a nuevos problemas; en este sentido, las computadoras no serían capaces de descubrir. Sin embargo, el descubrimiento no requiere realizar simultáneamente todas estas tareas. De igual modo que un investigador puede descubrir nuevo conocimiento a través del análisis de sus datos, una computadora puede examinar los datos disponibles o recogidos por otras computadoras y encontrar relaciones y explicaciones previamente desconocidas, realizando así descubrimiento en un sentido más restringido. La capacidad de las computadoras para realizar búsquedas exhaustivas de forma incansable entre grandes cantidades de datos ofrece buenas expectativas para obtener descubrimiento de forma automática.

El fácil almacenamiento de la información en sistemas de cómputo, conocido como generación masiva de datos, a través de la automatización de aplicaciones, el uso de lectores de código de barras y otros métodos de captura, han permitido la creación de almacenes masivos de información, hasta el punto en el que consultas enunciadas con hipótesis concretas en lenguajes de consulta estructurados han sido insuficientes para explotar estos almacenes. El sueño del hombre a través de la historia de la computación ha sido el desarrollar sistemas inteligentes para el manejo de la información en sistemas de cómputo. La minería de datos es una disciplina que combina técnicas de la inteligencia artificial, el aprendizaje automático, la probabilidad, la estadística y las bases de datos para extraer información y conocimientos útiles desde grandes cantidades de datos. El término minería de datos no es nuevo, desde los años 1970 los estadísticos manejaban para explicar el significado de minería de datos, expresiones como: extracción de conocimientos, descubrimiento de información, cosecha de información, arqueología de los datos, procesamiento de patrones de los datos, inclusive minería de datos. La minería de datos es usada principalmente por los estadísticos. Aunque conceptualmente hay una diferencia entre minería de datos y descubrimiento de conocimiento en bases de datos, regularmente su uso es indistinto.

Se denomina descubrimiento de conocimiento en bases de datos al proceso global de búsqueda de nuevo conocimiento a partir de los datos de una base de datos. Este proceso incluye no sólo el análisis inteligente de los datos con técnicas de minería de datos, sino también los pasos previos, como el filtrado y preprocesado de los datos, y los posteriores, como la interpretación y validación del conocimiento extraído. Normalmente el término minería de datos lo usan estadísticos, analistas de datos, y la comunidad de sistemas de gestión de información, mientras que el descubrimiento de conocimiento en bases de datos es más utilizado en inteligencia artificial y aprendizaje automático.

El descubrimiento de conocimiento en bases de datos, es un área de investigación de naturaleza multidisciplinaria comprende áreas como: bases de datos, inteligencia artificial (aprendizaje automático, reconocimiento de patrones, sistemas de expertos), y estadística. El descubrimiento de conocimiento en bases de datos es un proceso no-trivial de identificación válida, novedosa, potencialmente útil y entendible de patrones comprensibles que se encuentran en los datos. Algunos términos que forman parte de la definición son los siguientes: (1) Proceso. Implica varios pasos los cuales incluyen pre-procesamiento de los datos, búsqueda de patrones, evaluación y mejoramiento del conocimiento. (2) No trivial. Significa que alguna búsqueda o inferencia está involucrada. (3) Patrón. Es un subconjunto de datos que comparten propiedades similares. (4) Datos. Es un conjunto de registros que aparecen en una base de datos. (5) Validez. Extraer patrones puede ser validado con base en alguna prueba de datos con algún grado de certeza. (6) Potencialmente útiles. Que sean de beneficio para el usuario. (7) Entendibles. El objetivo de descubrir conocimientos es identificar patrones y hacer esto entendible para los seres humanos.

El proceso de descubrimiento de conocimiento en bases de datos es un proceso iterativo e interactivo. Es iterativo porque el resultado de cada paso podría ser usado para previos pasos. Es interactivo porque el usuario o experto en el campo de aplicación debe estar involucrado para ayudar en la preparación de los datos, descubrimiento y evaluación de conocimiento. El descubrimiento de conocimiento en bases de datos en los últimos años ha ganado preponderancia, se viene desarrollando y utilizando ampliamente ya como una disciplina con un cuerpo teórico bastante estructurado. Uno de sus componentes más importantes es la minería de datos que integra técnicas de análisis de datos y extracción de modelos. La minería de datos se basa en varias disciplinas, algunas de ellas tan antiguas como la estadística. Por ello, lo novedoso no son tanto sus técnicas sino su fin, el cual es el de extraer conocimiento.

Los pasos en el proceso de descubrimiento de conocimiento en bases de datos son: (1) Desarrollar un entendimiento del dominio de la aplicación y el conocimiento apriori relevante, así como la identificación del objetivo del proceso de descubrimiento desde el punto de vista de cliente o usuario. (2) Integrar datos de diferentes tipos de información que pueden ser usados en el proceso de descubrir conocimiento. Así es que, fuentes de datos múltiples pueden ser combinados definiendo el conjunto para el cual es aplicado el proceso de “minería”. (3) Crear un conjunto de datos objetivo, seleccionando un conjunto de datos o un subconjunto de variables sobre los cuales el proceso de descubrir será interpretado. (4) Limpiar datos y efectuar un pre-proceso, este paso incluye las operaciones básicas tales como eliminar datos extremos, colectar la información necesaria para modelar o explicar el ruido y las decisiones sobre las estrategias para datos faltantes. (5) Transformar los datos o consolidarlos en forma apropiada para “explotar o minar” usando reducción de la dimensionalidad o métodos de transformación para reducir el número de variables efectivas bajo consideración o encontrar información invariante para los datos. (6) Seleccionar la tarea de minería de datos y algoritmos, se decide el objetivo del proceso de descubrimiento de conocimiento seleccionando la tarea de minería de datos para llevar a cabo dicho objetivo, esto incluye decidir qué modelo y parámetros son apropiados, además de adecuar los método de minería de datos con los requerimientos y todos los criterios del proceso de descubrimiento de conocimiento. (7) Aplicar los métodos de minería de datos para encontrar patrones interesantes de conocimiento. Los patrones pueden ser para una representación específica o un conjunto de tales representaciones tales como: reglas de clasificación, árboles de decisión, regresión, agrupamiento etc. La ejecución y los resultados de minería de datos dependen de los pasos precedentes. (8) La extracción de patrones son evaluados sobre algunas mediciones interesantes para identificar patrones representando conocimientos. (9) La extracción de conocimientos es incorporado en un sistema o simplemente la visualización y técnicas de representación de conocimientos son usadas para representar el conocimiento minado para su uso. Es menester señalar que también se observa y se resuelve conflictos con conocimientos previos.
Guillermo Choque Aspiazu
http://www.eldiario.net/
Octubre 11 de 2010

jueves, 18 de noviembre de 2010

Nanotecnología avanzada

La nanotecnología o tecnología de lo pequeño se conoce también como tecnología atómica o tecnología gris. Esta disciplina trabaja a escalas del orden de una milésima de millonésima de metro, y está enfocada a diseñar, controlar y modificar materiales orgánicos e inorgánicos, a través de la miniaturización de componentes a rangos del nivel de un submicrón hasta niveles de átomos individuales o moléculas. Con la nanotecnología se plantea en un futuro no muy lejano crear sistemas nanoscópicos que permitan ensamblar o autoensamblar estructuras moleculares usando como materia prima elementos del entorno, lo que ocasionará que a medida que se vaya reduciendo la escala de trabajo de los dispositivos, los efectos cuánticos serán cada vez más importantes. Esta tecnología es un campo de las ciencias aplicadas dedicados al control y manipulación de la materia a una escala menor que un micrómetro, es decir, a nivel de átomos y moléculas. Lo más habitual es que tal manipulación se produzca en un rango de entre uno y cien nanómetros. Se tiene una idea de lo pequeño que puede ser un nanobot sabiendo que un nanobot de unos cincuenta nanómetros tiene el tamaño de cinco capas de moléculas o átomos, dependiendo de qué esté hecho el nanobot.

Nano es un prefijo griego que indica una medida, no un objeto, de manera que la nanotecnología se caracteriza por ser un campo esencialmente multidisciplinar, y cohesionado exclusivamente por la escala de la materia con la que trabaja. La nanotecnología es el estudio, diseño, creación, síntesis, manipulación y aplicación de materiales, aparatos y sistemas funcionales a través del control de la materia a nano escala, y la explotación de fenómenos y propiedades de la materia también a nano escala. Cuando se maneja la materia a escala tan minúscula de átomos y moléculas, demuestra fenómenos y propiedades totalmente nuevas. Por lo tanto, los científicos utilizan la nanotecnología para crear materiales, aparatos y sistemas novedosos y poco costosos con propiedades únicas.

La nanotecnología avanzada, en ocasiones también llamada fabricación molecular, es un término dado al concepto de ingeniería de nanosistemas, que constituyen máquinas a escala nanométrica, las cuales operan a escala molecular. Se basa en que los productos manufacturados se realizan a partir de átomos. Las propiedades de estos productos dependiendo de cómo estén esos átomos dispuestos. Así por ejemplo, si se reubica los átomos del grafito, compuesto principalmente por carbono, de la mina del lápiz se podrían hacer diamantes, cuya composición básica es carbono puro cristalizado. Si se reubica los átomos de la arena, compuesta básicamente por sílice y se agrega algunos elementos extras se consiguen los chips de una computadora.

A partir de los incontables ejemplos encontrados en la biología se sabe que miles de millones de años de retroalimentación evolucionada pueden producir máquinas biológicas sofisticadas y estocásticamente optimizadas. Se tiene la esperanza que los desarrollos en nanotecnología harán posible su construcción a través de algunos significados más cortos, quizás usando principios biomiméticos. Sin embargo, el investigador K. Eric Drexler y otros investigadores han propuesto que la nanotecnología avanzada, aunque quizá inicialmente implementada a través de principios miméticos, finalmente podría estar basada en los principios de la ingeniería mecánica.

Determinar un conjunto de caminos a seguir para el desarrollo de la nanotecnología molecular es un objetivo para el proyecto sobre el mapa de la tecnología liderado por Instituto Memorial Battelle, el principal de varios laboratorios nacionales de Estados Unidos, y del Instituto Foresigth. La fabricación molecular ofrece esperanza para una capacidad de respuesta mucho mayor por parte de los servicios humanitarios y para aliviar de forma más rápida el sufrimiento de las poblaciones afectadas por desastres naturales. El proyecto ofrece el siguiente escenario hipotético: “Dentro de unos años un pueblo en una región agraria aislado en un país pobre queda destrozado completamente por inundaciones, dejando a cinco mil familias sin casa, sin su medio de vida y sin agua potable. Hoy en día un acontecimiento de este tipo ofrecería todos los ingredientes de un desastre humanitario de gran escala. Pero dentro de unos años, y gracias a la fabricación molecular, una de las especialidades más controvertidas dentro de la investigación y avances del campo de la nanotecnología, solo con unos cuantos vuelos de un helicóptero se podría resolver la situación. Miles de avances tecnológicos ya han desarrollado materiales de ayuda más compactos y eficaces. Pero al avance tecnológico más importante hasta ahora es la nano-fábrica portátil que, con la utilización de materiales locales puede construir una amplia variedad de suministros humanitarios. El entorno es cómodo aunque extraño. Cuando las tierras se secan, se reconstruye poco a poco el pueblo. Casas vacías se desinflan y se queman. Los restos son utilizados por las plantas químicas. Se quema la mayoría de las nano-fábricas, aunque no todas. Algunos de los habitantes siguen cultivando en los invernaderos, y se guardan algunas nano-fábricas por si algún día vuelva a ocurrir un desastre. Este escenario describe el enorme y atractivo potencial humanitario de la nanotecnología. Para ello es necesario, y deseable, una gestión responsable de la nanotecnología y la fabricación molecular.

La fabricación molecular es el uso futuro hipotético de “ensambladores” reprogramables a nanoescala para construir productos átomo por átomo. Un ensamblador molecular es un manipulador robótico a nanoescala capaz de poner los átomos individuales, por ejemplo de carbono, en una superficie con precisión atómica. Un ensamblador molecular, para ser útil a los seres humanos, tendría que ser capaz de hacer copias de sí mismo. De lo contrario, sería demasiado largo para un ensamblador para crear algo de considerable tamaño o valor. Si una gran variedad de ensambladores podrían generarse en un ambiente de cooperación, se podría construir productos macroescala con precisión atómica, utilizando un proceso completamente automatizado con un alto rendimiento. Esto es bastante significativo que, si se superan los obstáculos técnicos, la tecnología podría lanzar otra Revolución Industrial, probablemente más transformadora que las dos primeras juntas.

Por otra parte los ensambladores moleculares y la fabricación molecular no son nada nuevo. Se tiene miles de millones de ellos al interior del organismo humano: orgánulos llamados ribosomas. Trabajando en gran número, los ribosomas sintetizan todas las proteínas en cada organismo en la naturaleza, desde los microbios extremófilos a la ballena azul. Su diseño básico es el mismo, porque todos los seres vivos evolucionaron de un ancestro común que ya tenía la maquinaria de síntesis de proteínas básicas en el lugar. Por supuesto, los ribosomas son también auto-replicantes.

Si un ensamblador molecular inorgánico fue creado con la capacidad de hacer copias de sí mismo, podría crear una nueva forma de “vida”, aunque sea un tipo controlado directamente a través de una aplicación de software. Esta idea ha sido llamada fabricación molecular, y algunos de los detalles técnicos para su funcionamiento ya fueron elaborados. Los teóricos diseñaron objetos a nanoescala físicamente viables, tales como: engranajes, motores, baterías, cables, barras, clasificadores, ejes, y muchos más. Algunos de estos dispositivos a nanoescala ya han sido fabricados, otros están activamente en diseño y desarrollo.

Los productos manufacturados están hechos de átomos. Las propiedades de estos productos dependen de cómo estén organizados estos átomos. Como se comentaba al inicio, si se reorganiza los átomos del carbón, se obtienen diamantes. Si se reorganiza los átomos de la arena, y se agrega una pizca de impurezas, se obtiene chips de computadora. Si se reorganiza los átomos de la tierra, el agua y el aire, se obtiene pasto. Desde que se empezaron a hacer herramientas de piedra y cuchillos de pedernal, se han organizando los átomos en enormes “manadas estadísticas” por medio de procesos tales como la fundición, el molido, el triturado, el astillado, y otros. Alrededor de primera década del siglo veintiuno es posible hacer más cosas, a costos más bajos, y con mayor precisión que nunca. Pero a escala molecular se continúa produciendo grandes pilas desordenadas de átomos.

Esto está cambiando. En casos especiales es posible arreglar los átomos y las moléculas exactamente como desea el diseñador. Los análisis teóricos muestran claramente que se puede hacer mucho más. Algún día el ser humano debería ser capaz de arreglar y re-arreglar los átomos y las moléculas tal como se arreglarían bloques de Lego. Dentro de no muchas décadas debería contarse con una tecnología de manufactura capaz de: (1) Fabricar productos con casi todos los átomos en el lugar correcto. (2) Hacerlo en forma barata. (3) Hacer la mayoría de los arreglos de los átomos consistentes con las leyes de la física. La llamada nanotecnología, nanotecnología molecular o fabricación molecular, permitirá fabricar la mayoría de los productos de tal manera que sean más livianos, más fuertes, más inteligentes, más baratos, más limpios y más precisos.
Guillermo Choque Aspiazu
http://www.eldiario.net/
Octubre 4 de 2010

viernes, 12 de noviembre de 2010

Telerrobotica

La robótica es un campo multidisciplinario de la inteligencia artificial encargado de la investigación y el desarrollo de robots. En el mismo confluyen áreas como la mecánica, automática, informática y electrónica. En la actualidad los robots tienen múltiples variedades, clasificados de acuerdo a su arquitectura y aplicación, los mismos van desde los industriales que pueden ser encontrados en las líneas de ensamblado de las industrias hasta los robots humanoides que busca mimetizar al ser humano, así como también insectoides, aéreos, submarinos, móviles, etc. En el presente trabajo el interés está centrado en los robots que poseen una característica especial, al ser al ser manipulados de diferentes lugares en la Internet.

Las exploraciones al espacio con lanzamientos de sondas espaciales, el control de satélites, los aviones teleoperados y el telecontrol de misiles son ejemplos de tecnologías que, hoy en día, entremezclan las técnicas de los sistemas de control y los sistemas de comunicaciones. Sin embargo, y aunque pareciera que esta tecnología vanguardista sólo es accesible a un grupo selecto de personas, debido a las fuertes inversiones económicas, gracias a la Internet, a la reducción de precios de microprocesadores y tarjetas de adquisición de datos, al considerable aumento potencial de las computadoras personales, entre otros, el uso de estas mezclas tecnológicas se vuelve más y más accesible. De modo que ahora se utiliza en universidades para implementar laboratorios a distancia; en empresas para mantenimiento, programación y control de dispositivos en forma remota, y en la implementación de casas, hoteles y restaurantes inteligentes, todos de una manera relativamente muy accesible. Asimismo, los beneficios del control a distancia han impactado en forma muy positiva el área de investigación en robótica, de modo que los robots ya no sólo son utilizados para movimientos básicos, sino que son capaces de interactuar con personas a distancia.

La búsqueda de la autonomía siempre ha sido un objetivo fundamental de la robótica. Durante años se ha tratado de que los robots estén dotados de capacidades de percepción y actuación autónomas, sin la intervención de los humanos. Los robots industriales actuales son capaces de realizar autónomamente numerosas operaciones en procesos de fabricación, ejecutando programas que permiten realizar movimientos variados en operaciones repetitivas en entornos estructurados y acondicionados para su funcionamiento. Sin embargo, la actuación de robots en entornos naturales no acondicionados y con dinámicas no predecibles requiere funciones de interacción con el entorno y capacidades de deliberación mucho más complejas. Un aspecto clave es la seguridad de funcionamiento: el robot no sólo debe ser capaz de demostrar funcionalidades en determinadas condiciones, sino que debe funcionar siempre, aunque las condiciones del entorno sean impredecibles, y su funcionamiento debe ser seguro, incluso cuando se produzcan errores y fallos en el propio robot. Por ello, las aplicaciones prácticas de los robots completamente autónomos son todavía escasas. De hecho, en la práctica, gran parte de las aplicaciones de los robots en entornos naturales no estructurados, requiere que una persona supervise o guíe la actuación del robot La telerrobótica surge como síntesis de la teleoperación y la robótica. Se trata de que el humano reciba la información de los sensores del robot y genere órdenes que se ejecutan de forma autónoma en el robot.

Para lograr la comprensión de la telerrobótica es necesario conocer lo que representa la teleoperación. Un sistema de teleoperación consta de los siguientes elementos: (1) Operador o teleoperador. Hace referencia a un ser humano que realiza a distancia el control de la operación. Su acción puede ir desde un control continuo hasta una intervención intermitente, con la que únicamente se ocupa de monitorizar y de indicar objetivos y planes cada cierto tiempo. (2) Dispositivo teleoperado. Puede referirse a un manipulador, un robot, un vehículo o dispositivo similar. Es la maquina que trabaja en la zona remota y que está siendo controlada por el operador. (3) Interfaz. Es un conjunto de dispositivos que permiten la interacción del operador con el sistema de teleoperación. Se considera al manipulador maestro como parte del interfaz, así como a los monitores de vídeo, o cualquier otro dispositivo que permita al operador mandar información al sistema y recibir información del mismo. (4) Control y canales de comunicación. Se refiere a un conjunto de dispositivos que modulan, transmiten y adaptan el conjunto de señales que se transmiten entre la zona remota y la local. Generalmente se cuenta con uno o varias unidades de procesamiento. (5) Sensores. Constituyen un conjunto de dispositivos que recogen la información, tanto de la zona local como de la zona remota, para ser utilizada por la interface y el control.

A priori al ingreso para el análisis de las tecnologías conviene especificar algunos conceptos de interés para la presente propuesta: (1) Teleoperación. Es un conjunto de tecnologías que comprenden la operación o gobierno a distancia de un dispositivo por un ser humano. Por tanto, teleoperar es la acción que realiza un ser humano de operar o gobernar a distancia un dispositivo; mientras que un sistema de teleoperación será aquel que permita teleoperar un dispositivo, que se denominará dispositivo teleoperado. (2) Telemanipulación. Es un conjunto de tecnologías que comprenden la operación o gobierno a distancia por un ser humano de un manipulador. Por tanto, telemanipular es la acción que realiza un ser humano de operar o gobernar a distancia un manipulador, mientras que un sistema de telemanipulación será aquel que permita teleoperar un manipulador, que se denominará manipulador teleoperado. (3) Telerrobótica. Es un conjunto de tecnologías que comprenden la monitorización y reprogramación a distancia de un robot por un ser humano. Se habla entonces de la teleoperación de un robot, que se denominará telerrobot o robot teleoperado.

Es común escuchar el término “telerrobótica”, esto no es más que una aplicación del control de los robots a distancia, se utiliza tanto en la docencia como en la investigación y en la industria. Actualmente, este interés se ha incrementado debido al acceso a la tecnología de Internet como medio de comunicación entre hombre y robot. De modo que la telerrobótica, en conjunto con el Internet como medio de comunicación, se conoce como Internet –robots, y provee de diferentes aplicaciones en distintas áreas, por ejemplo: servicios en el hogar, entretenimiento, telemedicina, la industria de automatización, servicios militares, educación a distancia y laboratorios remotos de investigación.

Aunque se encuentran varias definiciones que provienen de diferentes fuentes, se puede definir a la telerrobótica como un campo de la Robótica que se ocupa del control remoto de robots. A continuación se relacionan otras definiciones que pueden complementar la mencionada anteriormente: (1) El término telerrobótica se aplica a los casos en los que un operador humano es capaz de monitorizar y reprogramar remotamente el comportamiento de un determinado robot. (2) La telerrobótica puede considerarse como una forma evolucionada de teleoperación, caracterizada por un aumento de autonomía (capacidad de decisión y actuación) en el sistema remoto manteniendo una intervención significativa del operador humano para supervisión o teleoperación directa. Vale la pena destacar el hecho de que en telerrobótica el término “remoto” es un poco ambiguo ya que se puede referir a una distancia física, en donde el operador está separado del robot por una distancia que se puede cuantificar en metros o kilómetros; pero también se puede referir a un cambio de escala, como por ejemplo en una aplicación médica, donde un cirujano usa un microrobot para hacer un procedimiento quirúrgico a nivel microscópico.

Uno de las principales referencias en telerrobótica, automatización y control supervisor es Thomas B. Sheridan. Una de las principales ideas de este autor es que los progresos en robótica dependen no solo de los cambios en la tecnología, sino también en los avances en la comprensión de la relación entre personas y máquinas. Esta idea introduce un concepto interesante. Si bien es necesario estudiar cada factor por separado, persona con: perfil del usuario, aspectos cognitivos, tipo de discapacidad, tipo de dependencia, además de la máquina: estructura cinemática, tipo de pinza prensora, control de la trayectoria, Sheridan enfoca la atención en la relación entre ellos, por tanto en la parte de interacción: (1) Reparto del control de la tarea entre persona y máquina. (2) interacción entre persona y máquina: tipo de interfaz física adaptada al tipo de discapacidad.

A esta idea conviene añadir que el sistema persona-máquina no puede considerarse de forma aislada, hay que valorar que la persona y la máquina se encuentran en un entorno, por ejemplo el ámbito doméstico, y por tanto el “sistema” pasa a ser la persona, la máquina y el entorno y lo que conviene analizar son las múltiples interacciones entre ellos cuando se lleva a cabo una tarea. La ergonomía cognitiva ya engloba esta última idea dentro del marco conceptual actual denominada sistema cognitivo conjunto, en el que se describe cómo debe arroparse el concepto de diseño centrado en el usuario desde la perspectiva del diseño contextual. Dentro del ciclo de diseño se enmarca el concepto de usabilidad, es decir, a como el usuario puede usar el sistema que está siendo diseñado. Para ello es necesario llegar al concepto de evaluación de la usabilidad con lo siguiente: (1) deben existir unas especificaciones de usabilidad. (2) la opinión del usuario debe tenerse en cuenta. (3) el diseño debe ser poco costoso.
Guillermo Choque Aspiazu
http://www.eldiario.net/
Septiembre 27 de 2010

jueves, 11 de noviembre de 2010

Secuenciamiento de genes

La bioinformática es una ciencia aplicada donde se usa teoría y tecnología matemática computacional para procesar, relacionar y derivar predicciones e inferencias a partir de datos obtenidos en biología molecular. Pretende sobre todo entender y analizar el flujo de información y el control de esta en los organismos. Pero es mucho más que eso, es un campo de fertilización cruzada donde interactúan sinérgicamente las ciencias de la computación y la biología, con todas la riquezas y limitantes que puedan aportar cada una de ellas, además, estas dos aúnan esfuerzos para formar un campo donde diariamente se expanden las fronteras de la ciencia, en beneficio directo de la humanidad y el entendimiento de la vida en general. La bioinformática se construye con los siguientes conceptos: (1) El primero y más importante es la base del dogma central de la biología molecular. El archivo de información de cada organismo, la huella digital para el desarrollo potencial o la actividad de cualquier individuo, es el material genético que subyace en su interior celular; de manera concreta es una molécula llamada ácido desoxirribonucleico. (2) El segundo concepto es el de vida. “Un organismo vivo es uno complejo y organizado, que ocurre naturalmente, efectúa manipulaciones de materia, energía e información homeostática y se auto reproduce sobre el mismo principio molecular, lo que le permite, tomados como un todo, la capacidad de evolucionar”

En uno de los campos más apasionantes y complejos de la biología, la taxonomía, la ciencia de imponer orden en el aparente caos de la vida, la bioinformática cumple un papel estelar. Con el tiempo, se ha establecido que el análisis de secuencias da la evidencia menos ambigua para la relación entre especies. Para organismos avanzados es muy adecuada, e integrando datos de la paleontología, anatomía comparada y embriología se logra el mejor panorama que se pueda esperar. Las moléculas de ácido desoxirribonucleico son cadenas largas, lineales, donde se encuentra un mensaje compuesto por un alfabeto de cuatro símbolos: Adenina, Timina, Guanina y Citosina. Implícita en su estructura se encuentra su función, es decir, los mecanismos para su auto replicación y su expresión de genes en proteínas. El ácido desoxirribonucleico contiene información necesaria para construir proteínas, las cuales son las moléculas responsables de la gran mayoría de estructuras y actividades de los organismos vivos. Ciertos fragmentos de ácido desoxirribonucleico descifran secuencias de aminoácidos que codifican proteínas. El dogma central de la biología molecular es entonces el siguiente: (1) La secuencia del ácido desoxirribonucleico determina la secuencia de la proteína. (2) La secuencia de la proteína determina la estructura proteica. (3) La estructura proteica determina la función proteica.

Desde que hace más de medio siglo se descubriese que el ácido desoxirribonucleico era la molécula portadora de la información genética, su secuenciación ha supuesto un permanente reto tecnológico para los científicos. Pero sin lugar a dudas el reto que supuso a finales del siglo veinte la secuenciación del genoma humano, y el avance que ha de suponer para la Biología en general y para la Medicina en particular, la posibilidad de conocer a un costo razonable la secuencia individual de cada ser vivo, incluidos los organismos patógenos, ha disparado una carrera tecnológica para abaratar el costo de la secuenciación y ofrecer a un ritmo que se acelera por momentos, rebajas continuas en la secuenciación masiva de genomas, incluidas las del genoma humano. En el año 1977, los investigadores Sanger y Coulson desarrollaron un método para secuenciar el ácido desoxirribonucleico, basado en una reacción enzimática de terminación de cadena, lo que transformó la biología, permitiendo descifrar genes y más tarde, genomas completos.

En la década de 1980 aumenta la secuenciación de genes y genomas mediante el método de Sanger, aunque la secuenciación en esta época es tediosa y manual. Hacia el año 1997 se publica la primera secuencia de ácido desoxirribonucleico de un genoma completo, el bacteriófago PhiX174. De esta forma surge la era genómica, es decir, el estudio de los genomas desde una visión global, su secuencia, los genes, sus funciones y regulación. El planteamiento de la secuenciación del genoma humano promovió que a final de los años 1980 aparecieran los primeros secuenciadores automáticos de ácido desoxirribonucleico de la empresa “Applied Biosystems”. Una comparación de genes en una especie o entre especies puede mostrar similitudes entre funciones de proteínas, o relaciones entre especies, a través del uso de filogenética molecular para construir árboles filogenéticos. Con la creciente cantidad de datos, desde hace mucho se ha vuelto poco práctico analizar secuencias de ácido desoxirribonucleico manualmente. Actualmente se usan programas de computadora para estudiar el genoma de miles de organismos, conteniendo miles de millones de nucleótidos. Estos programas pueden compensar mutaciones en la secuencia del ácido desoxirribonucleico, para identificar secuencias que están relacionadas, pero que no son idénticas. Una variante de este alineamiento de secuencias se usa en el proceso de secuenciación. Esta tecnología fue aplicada en la secuenciación del genoma humano, proyecto que duró diez años, culminando el año 2000 y, en el que se invirtieron unos tres mil millones de dólares.

La posibilidad de secuenciar el genoma humano estimuló la imaginación de ingenieros, químicos, y biólogos, y a finales de la década de 1980 aparecen los primeros secuenciadores automáticos de ácido desoxirribonucleico. La firma Applied Biosystems pone en el mercado, hacia el año 1987, el secuenciador automático ABI 370A que tres años más tarde se convertiría en el ABI 377. Estos secuenciadores utilizaban la electroforesis en placas de poliacrilamida para la separación de los fragmentos de ácido desoxirribonucleico y permitían la secuenciación en unas pocas horas de hasta noventa y seis muestras de ácido desoxirribonucleico al mismo tiempo con longitudes de secuencia de más de quinientos pares de bases. Los nucléotidos se leían y registraban automáticamente gracias a un sistema de detección láser y a un complejo programa de análisis informático. El uso de cuatro fluorocromos diferentes para marcar los terminadores de secuencia, permitía utilizar el mismo canal para separar los fragmentos generados en las cuatro reacciones de terminación de polimerización que utiliza el método de Sanger.

El proyecto genoma humano motivó el perfeccionamiento y desarrollo de técnicas en el campo de la biología y en el de la bioinformática para la obtención de la secuencia completa del ácido desoxirribonucleico, el genoma o “conjunto de genes”. Se determino la secuencia del genoma y se cartografiaron los genes a través de un mapeo genético. Tras el proyecto Genoma Humano, además de la Genómica, surgieron la Proteómica, Metabolómica, etc. El elevado costo de secuenciación de los primeros genomas completos, que tenían un costo de un dólar por nucleótido, y de los casi tres mil millones de dólares que se estima costó el primer borrador del genoma humano con los tres mil millones de nucleótidos, sirvió para estimular la imaginación de los científicos en busca de soluciones más baratas para la secuenciación masiva de ácido desoxirribonucleico. Así surgieron los secuenciadores de alto rendimiento.

La secuenciación conocida como “perdigonada” fue utilizada por el Instituto de Investigación Genómica, para secuenciar el primer genoma de bacteria, el “haemophilus influenzae”, la cual no proporciona una lista secuencial de nucleótidos, pero en cambio ofrece las secuencias de miles de pequeños fragmentos de ácido desoxirribonucleico, cada uno de aproximadamente seiscientos a ochocientos nucleótidos de largo. Las terminaciones de estos fragmentos se superponen y, cuando son alineados de la manera correcta, constituyen el genoma completo del organismo en cuestión. El secuenciamiento perdigonado proporciona datos de secuencia rápidamente, pero la tarea de ensamblar los fragmentos puede ser bastante complicada para genomas muy grandes. En el caso del Proyecto Genoma Humano, llevó varios meses de tiempo de procesador, en una computadora DEC Alpha, para ensamblar los fragmentos. El secuenciamiento perdigonado es el método de elección para todos los genomas secuenciados y los algoritmos de ensamblado genómico son un área crítica de la investigación en bioinformática.

Otro aspecto de la bioinformática en el análisis de secuencias es la búsqueda automática de genes y secuencias reguladoras dentro de un genoma. No todos los nucleótidos dentro de un genoma son genes. Dentro del genoma de organismos más avanzados, grandes partes del ácido desoxirribonucleico no sirven a ningún propósito obvio. Este ácido desoxirribonucleico, conocido como “ácido desoxirribonucleico basura", puede, sin embargo, contener elementos funcionales todavía no reconocidos. La bioinformática sirve para estrechar la brecha entre los proyectos de genoma y proteoma, por ejemplo, en el uso de secuencias de ácido desoxirribonucleico para identificación de proteínas.
Guillermo Choque Aspiazu
http://www.eldiario.net/ 
Septiembre 20 de 2010

viernes, 5 de noviembre de 2010

Darwinismo

Darwinismo es un término con el que se describen las ideas de Charles Darwin, especialmente en relación con la evolución biológica por selección natural. El darwinismo no es sinónimo de evolucionismo, este último es anterior a Charles Darwin: las teorías darwinistas son evolucionistas, pero su aportación clave es el concepto de selección natural considerado determinante para explicar la causa de la evolución y que en su posterior desarrollo, con numerosas aportaciones y correcciones, permitirá la formulación de la teoría de la evolución actual o síntesis evolutiva moderna. Por tanto es igualmente equivocado usar el término “darwinismo” cuando se hace referencia a la actual teoría de la evolución ya que ésta no se reduce solo a las ideas postuladas por Charles Darwin.

Por lo general, se suele asociar el evolucionismo con la figura de Charles Darwin el genial naturalista británico. Pero eso no es así. Darwin no utilizó la palabra “evolución” hasta la sexta edición de su ya famoso libro “Sobre el Origen de las Especies”. La aportación de Darwin a la Ciencia es haber propuesto un mecanismo explicativo acerca del hecho evolutivo: la Selección Natural. Sin embargo, el darwinismo, y en general, el evolucionismo, fue esgrimido como banderín de enganche de los librepensadores, los ateos, los masones, los anarquistas y, en general, las fuerzas que en el siglo diecinueve se oponían a una iglesia católica, beligerante y monolítica, y a unos católicos impregnados del tradicionalismo más radical. Los argumentos esgrimidos por los contrarios a la evolución eran muy diversos: la evolución se oponía a la Biblia, negaba la providencia de Dios, situaba a los humanos al nivel de los monos y de los animales; el evolucionismo era materialista, ateo y enemigo de la religión; pervertía las costumbres y reducía todo a un relativismo moral. Las ideas de Darwin contenían implicaciones religiosas que algunos no estaban dispuestos a tolerar. Actualmente todavía restan, no sólo por parte de los creyentes como por parte de los científicos, atisbos de intolerancia.

A partir de Darwin se inicia la nueva Biología. Thomas Henry Huxley en Inglaterra, Ernst Haëckel y Fritz Muller en Alemania, fueron más radicalmente darwinistas que el mismo Darwin. En este sentido, se puede decir que Darwin no era darwinista. El más destacado de ellos fue Ernst Haëckel, a este investigador le pertenece la teoría de gastrea que dice: “…todos los metazoos descienden de un antecesor hipotético semejante al estado de gástrula del embrión. Y junto con Fritz Muller propone la ley biogenética fundamental, la ontogenia es una recapitulación de la filogenia. Entre otros términos acuñó los de filogenia, el año 1866, y el de ecología, aunque en un sentido diferente al moderno. Desde los tiempos de Haëckel, la sistemática animal y vegetal ya no es pura taxonomía, sino filogenética, esta ultima representa la descripción dinámica de los linajes evolutivos. En los primeros años del siglo veinte no tardan en cobrar fuerza algunas teorías alternativas al darwinismo que pretenden explicar mejor los cambios en las especies. Así, reaparecen concepciones biológicas de tipo lamarckista y neolamarckista. Éstos defienden que los caracteres adquiridos por uso y desuso de los órganos pasan a los descendientes: se heredan. Para ellos hay un “transformismo” en las especies debido a las modificaciones, producidas por los cambio en el medio, de forma natural o artificial y son las que dan lugar a variaciones correlativas en el patrimonio hereditario.

Desde finales del siglo diecinueve hasta bien entrado el siglo veinte, y posiblemente parte del actual siglo veintiuno, algunos naturalistas adoptaron la idea de la evolución, pero no el mecanismo de “variación aleatoria” y la “selección natural”. Como escribió el novelista Samuel Butler, amigo al principio de Darwin y luego sarcástico oponente, “el darwinismo desterraba la mente del universo”, destruía el diseño inteligente y negaba la posibilidad de transmitir a las generaciones futuras el acervo de los logros culturales y científicos, los cuales no se explican por selección natural. Algunos científicos de la primera mitad del siglo veinte creían que había que enterrar a Darwin y a sus teorías. Se consideraba anticientífico y contrario a las teorías biológicas de moda basadas en la genética y las mutaciones.

Por los años treinta se introduce la genética de poblaciones en el pensamiento científico y aparece la llamada “Nueva Síntesis” o “Teoría Sintética de la Evolución”. Se suele considerar al investigador Theodosius Dobzhanski como el “padre” de la nueva síntesis, al publicar hacia el año 1937 el libro “Genética y el Origen de las Especies”. A estas ideas se unen el zoólogo Julian Huxley, el ornitólogo Erns Mayr, los botánicos Stebbins y Grant, el genetista Ford y el paleontólogo Georges Gaylord Simpson, entre otros. Tras la publicación de la obra de Darwin, los debates y las polémicas ocupan todo el final del siglo diecinueve. Pero con el cambio de siglo llegó la crisis del darwinismo, la misma se produce por el avance de la genética y sobre todo con la teoría cromosómica de la herencia de los caracteres adquiridos. Los biólogos se preguntaban: ¿cómo compaginar la existencia de la selección natural, que es un proceso gradual, con las mutaciones, que son discontinuas?. Los esfuerzos individuales de cada uno de estos, confluyeron en el famoso Congreso de Princeton, celebrado en la Universidad norteamericana del mismo nombre en enero del año 1947. Este Congreso culminó con un acuerdo general entre las diferentes disciplinas biológicas y paleontológicas convertidas al “pensamiento poblacional”: la genética de poblaciones.

Las concepciones evolucionistas de Darwin constituyen un complejo sistema teórico, un conjunto de teorías relacionadas, más que una teoría singular. El núcleo de esas concepciones sigue conservando toda su validez, a pesar de su natural insuficiencia y de algún error significativo, sobre todo en su explicación de la herencia a través de pangénesis. En el darwinismo se identifican tres ejes teóricos que explican distintos aspectos de la realidad biológica. (1) El transformismo, que es la noción de que las especies van cambiando sus características a lo largo del tiempo de una manera fundamentalmente gradual. Lo que ahora designa el término evolucionismo fue señalado durante mucho tiempo, hasta bien entrado el siglo veinte, como transformismo. (2) La noción de que las especies se diversifican, por adaptación a ambientes o modos de vida diferenciados, ramificándose; el otro aspecto del mismo fenómeno es que todas las especies están emparentadas, aunque en grados distintos, y en último término todas las especies tienen su origen común en un remoto antepasado común único. De esta convicción deriva la filogenia, que intenta clasificar las especies de manera obligatoria por su parentesco, siendo un criterio que debe pasar por encima de cualquier otro. Darwin desconfiaba de que este ideal fuera alcanzable, aunque el desarrollo reciente del análisis filogenético lo está aproximando. (3) La adaptación al ambiente que motiva el cambio evolutivo, según había sido ya propuesto con anterioridad por otros autores, como Lamarck, debía tener su mecanismo en la selección natural, concebida como resultado de dos factores. Estos son, por un lado, la variabilidad natural hereditaria de los individuos de una especie y, por otro, la tasa diferencial de éxito reproductivo, dependiente también de la tasa de supervivencia, entre las distintas variantes genéticas presentes en la población.

Cualquier teoría sobre la evolución de las especies terrestres tiene que demostrar dos principios básicos: (1) la aparición de la flora y fauna por la transformación de antepasados extintos; (2) la existencia de un mecanismo reproductor acorde con el argumento transformista. Darwin publicó en 1859 la primera edición del “Origen de las Especies” pero hasta el año 1868 no expuso un modelo hereditario complementario a su teoría de la evolución, aunque la idea se remonta a comienzos de la década de los años cuarenta. La denominó “Teoría de la Pangénesis” y constituye el capítulo final del libro “La Variación de Plantas y Animales bajo Domesticación”. Explicar cómo se producen y se transmiten las variaciones a la progenie en el curso de la especiación fue el reto planteado en el origen de las especies, pero Darwin postergó la resolución del problema convirtiéndolo en un argumento contrario a su ideología. Para un darwinista como Wallace la carencia de un modelo hereditario complemento a la teoría de la evolución había sido una dificultad inquietante que la pangénesis resolvía.

Darwin eligió la teoría celular como referente científico de su propuesta, y vertebró la pangénesis entorno a dos fenómenos citológicos: (1) la división celular; (2) la producción de partículas celulares, gémulas, que circulan libremente por el organismo y tienen capacidad individual para regenerar la célula de procedencia. Relacionando ambos procesos propone un mecanismo fisiológico común a todos los seres vivos y activo en cualquier fenómeno hereditario: en su fase de división las células producen gémulas que son liberadas al sistema, el conjunto representa físicamente el organigrama anatómico individual permaneciendo inactiva su capacidad generatriz si no ocurre algún proceso multiplicativo. Entonces, cada unidad desarrolla una célula semejante a la progenitora, punto de partida para la morfogénesis de nuevos organismos en los procesos reproductivos, o para reconstruir la porción anatómica lesionada si es un episodio regenerativo.
Guillermo Choque Aspiazu
http://www.eldiario.net/
Septiembre 13 de 2010

jueves, 4 de noviembre de 2010

Reconocimiento de patrones

El reconocimiento de patrones es la ciencia que se ocupa de los procesos sobre ingeniería, computación y matemáticas relacionados con objetos físicos o abstractos, con el propósito de extraer información que permita establecer propiedades de entre conjuntos de dichos objetos. El reconocimiento de patrones llamado también lectura de patrones, identificación de figuras y reconocimiento de formas consiste en el reconocimiento de patrones de señales. Los patrones se obtienen a partir de los procesos de segmentación, extracción de características y descripción, dónde cada objeto queda representado por una colección de descriptores. El sistema de reconocimiento debe asignar a cada objeto su categoría o clase, que es el conjunto de entidades que comparten alguna característica que las diferencia del resto. Para reconocer los patrones se siguen las siguientes etapas: (1) adquisición de datos, (2) extracción de características, (3) toma de decisiones. El punto esencial del reconocimiento de patrones es la clasificación: se quiere clasificar una señal dependiendo de sus características. Señales, características y clases pueden ser de cualquiera forma.

En términos históricos, el reconocimiento de patrones tiene su inicio a principios de los años 1960 cuando los investigadores Eden, Narasimham y Ledley publican los primeros trabajos. En el año 1965, se abre una línea de aplicación de la Teoría de Testores a los problemas clásicos de reconocimiento de patrones. El año 1966, Zhuravliov hace el primer trabajo que habla de la Teoría de Testores y el reconocimiento de patrones. A partir de este momento, el reconocimiento de patrones se convierte en un objeto de estudio más serio. El año 1972 se realiza la primera conferencia sobre el reconocimiento de patrones en Washington. El año 1974 se realiza la segunda conferencia sobre el reconocimiento de patrones en Copenhague. En el año 1977 Vapnik y Chervonenkis escriben el libro “Reconocimiento de Patrones”. En éste libro mencionan: “En esencia, diferentes puntos de vista en la formulación del problema del reconocimiento de patrones se determinan por la respuesta a la pregunta: ¿Existen principios generales adecuados para describir clases de patrones de diversa naturaleza?. En enero del año 1978 se funda la “Asociación internacional para el Reconocimiento de Patrones”. A partir de los años 1980 hasta fines del siglo veinte se produce una explosión combinatoria de trabajos desarrollados sobre reconocimiento de patrones, realizándose en términos académicos las siguientes conferencias: Kyoto en 1978, Miami el año 1980, Munich en 1982, Montreal en 1984, París en 1986, Roma en 1988, Atlantic City en 1990, el Hague en 1992, Jerusalén en 1994, Viena en 1996, Brisbane en 1998, Barcelona el año 2000, Quebec en 2002, Cambridge en 2004, Hong‐Kong en 2006 y Tampa el año 2008.

El reconocimiento de patrones hace referencia a los medios por los cuales se puede interpretar el mundo. En términos formales se dice que es la ciencia que se ocupa de los procesos sobre ingeniería, computación y matemáticas relacionados con objetos físicos o abstractos, con el propósito de extraer información que permita establecer propiedades de o entre conjuntos de dichos objetos.

Un sistema completo de reconocimiento de patrones incluye un sensor que recoge fielmente los elementos del universo a ser clasificado, un mecanismo de extracción de características cuyo propósito es extraer la información útil, eliminando la información redundante e irrelevante, y finalmente una etapa de toma de decisiones en la cual se asigna a la categoría apropiada los patrones de clase desconocida a priori. En este entendido se realizan las siguientes etapas: (1) Sensor. El sensor es el dispositivo encargado de la adquisición de datos. Debe ser capaz de transformar magnitudes físicas o químicas, llamadas variables de instrumentación, en magnitudes eléctricas. Las variables de instrumentación dependen del tipo de sensor y pueden ser por ejemplo: temperatura, intensidad lumínica, distancia, aceleración, inclinación, desplazamiento, presión, fuerza, torsión, humedad, etc. (2) Extracción de características. Es el proceso de generar características que puedan ser usadas en el proceso de clasificación de los datos. En ocasiones viene precedido por un pre-procesado de la señal, necesario para corregir posibles deficiencias en los datos debido a errores del sensor, o bien para preparar los datos de cara a posteriores procesos en las etapas de extracción de características o clasificación. Las características elementales están explícitamente presentes en los datos adquiridos y pueden ser pasados directamente a la etapa de clasificación. Las características de alto orden son derivadas de las elementales y son generadas por manipulación o transformaciones en los datos. (3) Selección de variables. Consiste en seleccionar cuál es el tipo de características o rasgos más adecuados para describir los objetos. Para ello, se deben localizar los rasgos que inciden en el problema de manera determinante.

Algunos enfoques sobresalientes del reconocimiento de patrones son: (1) Reconocimiento estadístico de patrones. Este enfoque se basa en la teoría de probabilidad y estadística y supone que se tiene un conjunto de medidas numéricas con distribuciones de probabilidad conocidas y a partir de ellas se hace el reconocimiento. (2) Reconocimiento sintáctico de patrones. Este enfoque se basa en encontrar las relaciones estructurales que guardan los objetos de estudio, utilizando la teoría de lenguajes formales. El objetivo es construir una gramática que describa la estructura del universo de objetos. (3) Redes neuronales. Este enfoque supone que tiene una estructura de neuronas interconectadas que se estimulan unas a otras, las cuales pueden ser “entrenadas” para dar una cierta respuesta cuando se le presentan determinados valores. (4) Reconocimiento lógico combinatorio de patrones. Este enfoque se basa en la idea de que la modelación del problema debe ser lo más cercana posible a la realidad del mismo, sin hacer suposiciones que no estén fundamentadas. Uno de los aspectos esenciales del enfoque es que las características utilizadas para describir a los objetos de estudio deben ser tratadas cuidadosamente.

Existen diferentes orientaciones dentro del reconocimiento de patrones, las más significativas son: (1) Geométrica. Los patrones deben ser graficables, en éste enfoque se emplea el cálculo de distancias, geometría de formas, vectores numéricos, puntos de atracción, etc. (2) Estadística. Se basa en la teoría de la probabilidad y la estadística, utiliza análisis de varianzas, covarianzas, dispersión, distribución, etc. (3) Sintáctica‐Estructural. Estudia la estructura de los objetos, es decir, utiliza teoría de lenguajes formales, gramáticas, teoría de autómatas, etc. (4) Neuro‐Reticular. Se utilizan redes neuronales que se “entrenan” para dar una cierta respuesta ante determinados valores. (5) Lógico‐Combinatoria. Se basa en la idea de que la modelación del problema debe ser lo más cercana posible a la realidad del mismo, sin hacer suposiciones que no estén fundamentadas. Se utiliza para conjuntos difusos y utiliza lógica simbólica, circuitos combinatorios y secuenciales, etc.

Los sistemas de reconocimiento de patrones tienen diversas aplicaciones. Algunas de las más relevantes y utilizadas actualmente son: (1) Previsión meteorológica. En esta aplicación se intenta clasificar todos los datos meteorológicos según diversos patrones, con el conocimiento a priori que se tiene de las diferentes situaciones que pueden aparecer, permitiendo la creación automática de mapas de predicción. (2) Reconocimiento de caracteres escritos a mano. Es una de las utilidades más populares de los sistemas de reconocimiento de patrones ya que los símbolos de escritura son fácilmente identificables. (3) Reconocimiento de voz. El análisis de la señal de voz se utiliza actualmente en muchas aplicaciones, un ejemplo claro son los teleoperadores informáticos. (4) Aplicaciones en medicina. Entre las más importantes se encuentran. Análisis de biorritmos, detección de irregularidades en imágenes de rayos-x, detección de células infectadas, marcas en la piel y otras. (5) Reconocimiento de huellas dactilares. Utilizado y conocido por la gran mayoría, mediante las huellas dactilares es posible identificare a todas las personas y con programas que detectan y clasifican las coincidencias, resulta sencillo encontrar correspondencias. (6) Reconocimiento de rostros. Utilizado para contar asistentes en una manifestación o simplemente para detectar una sonrisa, ya hay diferentes cámaras en el mercado con esta opción disponible. (7) Interpretación de fotografías aéreas y de satélite. De gran utilidad para propuestas militares o civiles, como la agricultura, geología, geografía, planificación urbana y otras. (8) Predicción de magnitudes máximas de terremotos. Una aplicación útil para los servicios de alerta temprana. (9) Reconocimiento de objetos. Especialmente con importantes aplicaciones para personas con discapacidad visual. (10) Reconocimiento de música. Identifica el tipo de música o la canción concreta que se reproduce en ese momento.
Guillermo Choque Aspiazu
http://www.eldiario.net/
Septiembre 6 de 2010