lunes, 30 de enero de 2012

Sistemas expertos en medicina

En el artículo sobre inteligencia artificial escrito por el investigador Hanovar el año 2008, los intentos por comprender la inteligencia, tanto natural como artificial, conducen de manera natural a la problemática de la construcción de modelos y teorías sobre procesos mentales y cerebrales. La aparición y consolidación de la computación, gracias a los trabajos pioneros de John Von Neumann, Alan Turing, Stephen Kleene y otros, facilitaron la aproximación al problema, a partir del análisis, diseño y evaluación de computadoras y programas que reproducían en cierto grado, conductas inteligentes como el reconocimiento y clasificación de patrones, el razonamiento desde las premisas hasta las conclusiones y el aprendizaje a partir de la experiencia.

La comprensión de la actividad de los médicos en su ámbito profesional se convierte en elemento de suma importancia para la inteligencia artificial médica. Las tareas capaces de ser resueltas por aquellos, se pueden agrupar en dos tipos: (1) Las tareas reproductivas que se ejecutan cuando las condiciones existentes, las vías y procedimientos de solución y los medios de los cuales se dispone son suficientes para dar cumplimiento a los objetivos, son recurrentes y se realizan de acuerdo con cierto esquema, patrón o pautas establecidas. (2) Las tareas creativas se caracterizan, porque al plantearse el cumplimiento de estas, las condiciones existentes, los medios y métodos de solución que tiene a su disposición o forman parte de su experiencia, son insuficientes para resolverlas, de manera que los eslabones faltantes en el camino hacia la solución se hallan en la interacción con el medio en el que desarrolla su actividad, a partir del despliegue de toda su experiencia pasada, de sus habilidades y del acervo de conocimientos acumulados. Cualquier tarea generada por situaciones problemáticas contiene elementos reproductivos y de creación del pensamiento. La división en uno u otro tipo de tarea depende, por consiguiente, de cuál de las dos predomina. Si se considera este punto de vista, el intelecto natural es “la capacidad de resolver las tareas que incluyen en sí elementos reproductivos y de creación” y cuyas propiedades notables residen en la capacidad para la comprensión y la adopción de decisiones; así como en la construcción de textos en lenguajes naturales y el conocimiento de las leyes del mundo exterior. En cambio el intelecto artificial se presenta en esta interpretación como la simulación por las máquinas de las tareas reproductivas y de creación, definiciones poco sustanciosas, porque sigue en pie en ellas la cuestión de los atributos.

Los sistemas expertos son una clase particular derivada de los sistemas basados en conocimiento y se han venido utilizando desde el año 1977, de hecho una generalización del estudio de los sistemas expertos es lo que ha dado lugar a los sistemas basados en conocimiento. Uno de los primeros sistemas expertos diseñados es MYCIN, reportado en el libro del año 1988 de Szolovitz relacionado con la “inteligencia artificial en la medicina”, que está orientado al diagnóstico y tratamiento de enfermedades infecciosas y cuya principal característica es la forma de representar y procesar la incertidumbre mediante los ahora conocidos “factores de confianza”, que son entendidos como medidas subjetivas del experto para calificar y procesar, de manera bastante elemental, la incertidumbre.

En la Conferencia Mundial de Inteligencia Artificial realizada el año 1977 en la ciudad de Tokio, Japón, el investigador Feigenbaum presentó la siguiente definición de sistema experto: “Es un programa inteligente que utiliza conocimiento y procedimientos de inferencia para resolver problemas difíciles que requieren por sí solos de la participación de expertos humanos para su resolución”. Según los investigadores Giarratano y Riley en el libro “sistemas expertos, principios y programación” publicado el año 2001, la propiedad más relevante de los sistemas expertos es que separan los conocimientos almacenados, en una base de conocimiento, del programa que los controla, que hace las veces de una máquina de inferencias. Los datos propios de un determinado problema se almacenan en una base de datos, conocida también como base de reglas. La base de conocimiento contiene el conocimiento altamente especializado extraído de los expertos en el dominio. Es decir, contiene conocimiento general sobre el dominio en el que se trabaja. El método más común para representar el conocimiento es mediante reglas de producción. El dominio de conocimiento representado se divide, pues, en pequeñas fracciones de conocimiento o reglas heurísticas. Cada regla consta de una parte denominada condición y de otra parte denominada conclusión o acción.

Para los investigadores Friedman y Gustafson, en el artículo del año 1997 titulado “computadoras en la clínica medica, la tecnología de la computación ha tenido una gran influencia en la medicina y ésta sigue aumentando cada vez más. Algunos de los usos de las computadoras en este campo son las pruebas para detectar e identificar alteraciones, como por ejemplo, la tomografía axial computarizada, los análisis de electrocardiogramas por computadora, los monitores de procesos fisiológicos, la automatización de las líneas en laboratorios clínicos, el control de los resultados entrega de medicamentos, y otros. Los profesionales de la salud utilizan también las computadoras para controlar y planificar sus servicios.

En el ámbito de los sistemas expertos para las ciencias médicas, se puede hablar de paquetes de diagnóstico médico. Se han desarrollado varios sistemas expertos para diagnosticar enfermedades y recomendar tratamientos. Uno de estos es el sistema experto llamado HELP que se emplea para diagnosticar los problemas de pacientes enfermos del corazón, desarrollo reportado el año 1983 por sus creadores Pryor, Gardner, Clayton y Warner. HELP acumula datos sobre pacientes proporcionados por médicos, enfermeras y otros profesionales de la salud y sugiere posibles diagnósticos y tratamientos. Otro sistema de tratamiento incluye a PUFF, escrito el año 1983 por los investigadores Aikins, Kuns y Shortliffe, que se encarga de medir funciones pulmonares. CADUCEUS fue un sistema experto médico programado para realizar diagnósticos en medicina interna. Fue terminado a mediados de la década de 1980, si bien el inicio de su desarrollo se remonta a la década de 1970 habiendo sido programado por Harry Pople, de la Universidad de Pittsburgh, partiendo para el sistema de las entrevistas de Pople al Dr. Jack Meyers. CADUCEUS es un paquete más generalizado, programado para evaluar más de cuatro mil síntomas y otros datos con el propósito de reconocer más de seiscientas enfermedades. Por medio de una terminal, un médico proporciona a CADUCEUS datos iníciales sobre un paciente. Después de analizar esos datos, el programa comienza a hacer preguntas sobre el paciente. Durante este interrogatorio, CADUCEUS dice al médico cuál es el diagnóstico que está considerando y le indica los datos que no está tomando en cuenta por el momento. Pueden bastar unos minutos para que el programa proporcione un diagnóstico. A fin de evitar análisis clínicos innecesarios, CADUCEUS está programado para considerar primero las enfermedades más probables. MYCIN es un sistema experto desarrollado a principios de los años 1970 por Edgar ShortLiffe, en la Universidad de Stanford. Fue escrito en Lisp, e inicialmente estaba inspirado en DENDRAL, otro sistema experto que tuvo cierto éxito a finales de los años 1960. Su principal función consistía en el diagnóstico de enfermedades infecciosas de la sangre; además, MYCIN era capaz de “razonar” el proceso seguido para llegar a estos diagnósticos, y de recetar medicaciones personalizadas a cada paciente.

Según los investigadores Bemmel, Hasman, Sollet y Veth, en el artículo del año 1983, titulado “entrenamiento en información médica”, los profesionales en ciencias médicas saben lo importante que es la relación médico-paciente y la responsabilidad que esto significa. Los adelantos tecnológicos han tenido mucha influencia en esta relación. Por desgracia, esta influencia no ha sido siempre beneficiosa para este tipo de relación, sino más bien, la ha deteriorado. La automatización de los procesos de diagnóstico y tratamiento ha deshumanizado la relación médico-paciente, al límite de casi hacerla desaparecer. Estos adelantos cuando refuerzan esta relación son convenientes, pero las técnicas o procedimientos que la deterioren son perjudiciales. La responsabilidad del médico y el personal profesional en salud se basa en los conocimientos y capacidad que éstos tengan en la práctica diaria. La computación debe dirigir sus esfuerzos para mejorar la prestación del servicio médico manteniendo los cánones de la ética y servicio de la medicina.

Finalmente para el investigador Sierra y sus colegas del año 1995, en el libro “sistemas expertos en contabilidad y administración de empresas”, los sistemas expertos se han venido aplicando a muchos campos del quehacer humano y en muy diversos escenarios tales como diagnóstico médico, contaduría, administración de empresas, planeación, monitoreo, capacitación y otros. Generalmente un sistema experto administrativo o médico hecho para un determinado país no puede ser útil en otro lugar si no se cuenta con idénticas condiciones. Por ejemplo, la cultura expresada en los hábitos cotidianos de las personas y la sociedad influyen directamente en la definición del conocimiento a ser utilizado.

Referencias Bibliográficas
  • Aikins J.S., Kuns J.S. and E.H. Shortliffe (1983) PUFF: An expert system for interpretation of pulmonary function data. Comput. Biomed. Res. 16:199.
  • Angulo J.M & Bueno A.M. Inteligencia Artificial. Madrid: Paraninfo, 1996; 103.
  • Bemmel J.H., Hasman A., SolIet P.C., and Veth A.F. (1983) Training in Medical information. Comput. Biomed. Res. 16:414-432.
  • Buchanan B.G. and E.H. Shortliffe (1984) Rule-based expert systems. The Mycin experiment of the Stanford heuristic programming project. Addison-Wesley, Reading. M.A.
  • Friedman R.B. and Gustafson D.H. (1997). Computers in clinical medicine. A critical review. Guest Editorial. Comput. Biomed. Res.; 10:199-204.
  • Giarratano J. y Riley G. (2001) Sistemas Expertos, principios y programación. 3ª. Ed. Internacional Thomson Editores. México.
  • Honavar V. (2008) Artificial Intelligence: An Overview. Disponible en: http://www.cs.iastate.edu/~cs572/handout1.pdf [Consultado: 17 de marzo de 2008].
  • Pryor T. A., Gardner R.M., Clayton P.D. and Warner H.R. (1983) The HELP System. J. Med. Syst. 7:87.
  • Sierra G.J. et al. (1995) Sistemas Expertos en Contabilidad y Administración de Empresas. Addison-Wesley Iberoamericana. Wilmington, Delaware, USA.
  • Szolovitz Meter (Ed.) (1988) Artificial Intelligence in Medicine. Westview Press, Inc. AAAS Boulder, Colorado U.S.A.
Guillermo Choque Aspiazu
http://www.eldiario.net/
Enero 30 de 2012

lunes, 23 de enero de 2012

Inteligencia artificial en medicina

El progreso sorprendente experimentado por el uso de los medios informáticos durante los últimos años constituye un indicador del grado de integración, la utilidad y el papel excepcional que desempeñan las computadoras en el mundo contemporáneo y en particular, en la esfera médica. Una simple revisión de un tema conexo: la ingeniería biomédica, basta para apreciar el resultado de las aplicaciones realizadas. Según Peter Szolovits, en el libro escrito el año 2000 sobre “inteligencia artificial en medicina”, varias disciplinas encuentran zonas de convergencia con la informática. Los programas computacionales que tratan de emular la inteligencia humana constituyen una muestra de la integración de diversas ciencias y áreas del conocimiento. Su perfeccionamiento futuro pudiera permitir una asistencia apropiada al médico en la toma de decisiones, a los futuros profesionales durante su práctica y en especial a quienes atienden el diagnóstico de enfermedades de difícil identificación.

La inteligencia artificial es una disciplina moderna que se inicia formalmente el año 1956, y en la actualidad abarca una gran variedad de subcampos, desde áreas de propósito general, como es el caso de la percepción o el razonamiento lógico, hasta áreas específicas como el ajedrez, la demostración de teoremas matemáticos, y el diagnóstico de enfermedades. El desarrollo de las tecnologías asociadas con técnicas de inteligencia artificial, aplicadas a la medicina, representa una novedosa perspectiva, que puede reducir los costos, el tiempo, las fallas médicas; así como potenciar el uso de los recursos humanos en las ramas médicas con mayores requerimientos. Sin embargo, la posibilidad de una recreación de intelecto humano a escala artificial en el campo de la salud, tropieza con dificultades que es preciso tratar desde una sana postura crítica. Con frecuencia, los pronunciamientos al respecto, caracterizados por un gran optimismo con relación al futuro promisorio de la inteligencia artificial con fines médicos, tratan la realidad de forma fragmentada y estudian sólo ciertos aspectos de la relación médico-paciente.

Una definición completa de inteligencia artificial estaría afectada del hecho de que la inteligencia en sí misma no está ni bien entendida ni comprendida. Aunque la mayoría de las personas reconocen un comportamiento inteligente cuando lo observan, sin duda nadie es capaz de definir certeramente la inteligencia de una forma lo suficientemente específica para evaluar un software supuestamente inteligente. Según Luger y Stubblefield, en el libro escrito el año 1989 sobre “inteligencia artificial y diseño de sistemas expertos”, el problema de definir la inteligencia artificial se resume a un problema de definir la inteligencia en sí misma. La inteligencia artificial puede considerarse como una ciencia empírica, en la cual los investigadores usan los paradigmas clásicos de hipótesis y prueba para validar los modelos y mecanismos inteligentes de acción que han diseñado. Según el investigador Reddy, en el artículo escrito el año 1996 sobre “el cambio de la inteligencia artificial”, la computadora es el laboratorio donde tienen lugar los experimentos de inteligencia artificial y el clásico ciclo ingenieril de análisis, diseño, construcción, prueba y validación del software es el proceso mediante el cual los investigadores de inteligencia artificial verifican sus hipótesis.

La inteligencia artificial es una disciplina joven aunque herede muchas ideas y técnicas de otras disciplinas mucho más antiguas, como pueden ser la filosofía, matemática, psicología, lingüística y ciencias de la computación, de la que se toman las herramientas de trabajo para que la misma sea una realidad. Durante la primera época de investigación en inteligencia artificial el interés se había centrado en mecanismos de búsqueda de propósito general que intentaban encadenar pasos de razonamiento elementales para encontrar soluciones completas. Eran los llamados métodos débiles, debido a que la información sobre el dominio con la que cuentan es débil. En el caso de muchos dominios complejos, se trata de utilizar conocimiento más adecuado para seguir pasos de razonamiento más amplios y solucionar casos típicos en áreas limitadas de la experiencia. Se podría decir que para solucionar un problema complicado casi habría que conocer la solución. El programa Dendral, reportado el año 1969 por los investigadores Buchanan, Sutherland y Feigembaum como un programa para la generación de hipótesis explicativas en química orgánica, constituye uno de los primeros ejemplos de este enfoque. También de la misma época es el programa Mycin, reportado en la tesis de doctorado de Shortliffe el año 1974 como un programa basado en reglas para la selección de terapia antimicrobiana, dedicado al diagnóstico de enfermedades infecciosas, y al que siguieron otros procedimientos para la realización de diagnósticos médicos. Numerosos grupos del Instituto Tecnológico de Massachusetts pretendían encontrar un método para obtener diagnósticos y tratamientos con el objetivo de construir sistemas que produjeran las recomendaciones médicas óptimas más probables.

Uno de los desarrollos con mayor repercusión al interior de la inteligencia artificial han sido los sistemas expertos, definidos como sistemas computarizados construidos con técnicas de inteligencia artificial que utilizan el conocimiento sobre algún dominio especializado para obtener la solución a un problema de ese dominio. En palabras de los investigadores González y Dankel, en el libro escrito el año 1993 sobre “la ingeniería de los sistemas basados en conocimiento”, la solución pretende ser la misma que la concluida por un experto en el dominio cuando se enfrenta con el mismo problema. Lo que realmente distingue a los sistemas expertos de la programación convencional o de cualquier técnica de búsqueda general son tres características: (1) La separación entre el conocimiento y la forma en que es usado. (2) El uso de conocimiento del dominio bastante específico. (3) La naturaleza heurística, más que algorítmica, del conocimiento empleado. En el relato efectuado por el investigador Berner, el año 1999 en el artículo sobre los resultados del diseño e implementación de sistemas de toma de decisiones clínico, la historia de la inteligencia artificial en medicina es una mezcla de una creatividad impresionante agrupada con un éxito limitado, y pequeños beneficios. Todas las aproximaciones llevadas a cabo para la creación de sistemas, aunque permitan avances en dominios reducidos, presentan serias limitaciones a la hora de abordar problemas de dominios amplios. La incompleta comprensión del proceso de razonamiento médico y la falta de una “teoría de la medicina” que lo abarque todo, continuarán siendo las fuentes de consternación e intriga de los problemas de investigación.

Según Coiera, en el libro escrito el año 1997 sobre una “guía para la informática medica, Internet y telemedicina”, el campo de la inteligencia artificial en medicina ha evolucionado en los últimos años como una disciplina creciente y muy activa. La inteligencia artificial en medicina está en principio relacionada con la construcción de programas de inteligencia artificial que obtengan diagnósticos y elaboren recomendaciones terapéuticas. A diferencia de las aplicaciones médicas basadas en otros métodos de programación, como los métodos probabilísticos puros, los programas de inteligencia artificial médicos están basados en modelos simbólicos de utilidades diagnósticas y sus relaciones con factores y manifestaciones clínicas del paciente. Lo anterior se complementa con lo mencionado por el investigador Uckun, en el artículo escrito el año 1993 sobre “monitoreo y administración de terapias en sistemas inteligentes para pacientes”, a pesar de que los avances de la tecnología biomédica incrementan la potencia en el ámbito del diagnóstico, monitorización, tratamiento e interpretación de la gran cantidad de información que generan, también suponen un problema por la excesiva demanda sobre el personal de asistencia clínica. Aunque los métodos de ingeniería intentan aliviar los problemas de almacenamiento, recuperación, procesamiento y presentación de esta información, con más dispositivos de monitorización, sensores más fiables y técnicas avanzadas de procesamiento de señales, existen muchas lagunas que intentan cubrir la aplicación de técnicas de inteligencia artificial, con bases de datos inteligentes, sistemas expertos y sistemas de monitoreo inteligente, en último término.

Finalmente en el documento de los investigadores María del Carmen Expósito y Rafael Ávila, escrito el año 2008 sobre “Aplicaciones de la inteligencia artificial en la medicina”, las computadoras actúan en correspondencia con programas elaborados por el hombre. Su protagonismo al simular la actividad de un profesional médico requeriría al menos, de modelos de las esferas objetivas involucradas, sobre la base de conocimientos aportados, de programas planificadores para la solución de las tareas y del programa de trabajo propiamente dicho del médico en la realidad, con toda su carga, variedad semántica, emociones y otros atributos del accionar humano. Las computadoras en calidad de instrumento para simular la actividad intelectual del médico en las relaciones comunicativas con los pacientes, están imposibilitadas de simularla si no retienen en la memoria modelos semánticos de la esfera médica como mínimo, capaces de propiciar la comunicación, el análisis y la síntesis de textos y palabras en la semántica médica propiamente dicha y comprensible para el paciente. La elaboración de modelos semánticos acabados es un problema por resolver que exige la representación de conocimientos médicos, no datos en la memoria de la computadora. Desde el punto de vista cibernético, tratar el intelecto artificial médico implica tratar sobre la capacidad predictiva y de adoptar soluciones que tengan como escenario no sólo un contexto médico, acompañadas de toda la carga afectiva, ética y espiritual en situaciones complicadas y con la economía de recursos correspondientes.

Referencias Bibliográficas
  • Berner E.S. (ed) (1999) Clinical diagnostic decision support systems – An overview. En: Clinical Decision Support Systems. Theory and Practice. Springer-Verlag Ed., pp. 3-34.
  • Buchanan B.G., Sutherland G.L. and Feigembaum E.A. (1969) Heuristic DENDRAL: a program for generating explanatory hypothesis in organic chemistry. Machine Intelligence, vol. 4, pp. 209-254, Edinburgh University Press, Edinburgh, Scotland.
  • Coiera E. (1997) Guide to Medical Informatics, the Internet and Telemedicine. Chapman & Hall.
  • Expósito G. María del Carmen y Ávila Rafael (2008) Aplicaciones de la inteligencia artificial en la Medicina: Perspectivas y problemas. Acimed 2008; 17(5).
  • Gonzalez A.J., Dankel D.D. (1993) The engineering of knowledge-based systems: Theory and practice. Prentice-Hall International.
  • Luger G.F. and Stubblefield W.A. (1989) Artificial Intelligence and the design of expert systems. Benjamin-Cummings Publishing Company, California.
  • Reddy R. (1996) The challenge of Artificial Intelligence. Computer, vol. 29, nº 10. Shortliffe E. H. (1974) MYCIN: A rule-based computer program for advising physicians regarding antimicrobial therapy selection. Ph. D. Disertation, Stanford University.
  • Szolovits P. (Ed.) (2000) Artificial Intelligence in Medicine. Westview Press, Boulder, Colorado. The text was scanned, OCR'd, and re-set in HTML by Peter Szolovits in 2000.
  • Uckun S. (1993) Intelligent Systems in Patient Monitoring and Therapy Management: A survey of research projects. Technical Report KSL 93-32, Knowledge Systems Laboratory, Stanford University.

Guillermo Choque Aspiazu
http://www.eldiario.net/
Enero 23 de 2012

miércoles, 18 de enero de 2012

Inteligencia colectiva en la Web 2.0

En el año 2004, O’Reilly y sus asociados acuñaron el término Web 2.0, el cual consiguió finalmente una aceptación mayoritaria como término para esta nueva era, de la misma manera en la que puntocom o Web 1.0 describió la época anterior. Según el investigador S. Alag, en el artículo publicado el año 2008 sobre la inteligencia colectiva en acción, a pesar de la actual popularidad de la Web 2.0, aún no es fácil implementar muchos de sus principios. La Web 2.0 no es un concepto uniforme, sino un término genérico o un concepto para las nuevas tecnologías de Internet y sus aplicaciones. La Web 2.0 puede ser vista como un renacimiento, una intensificación, una renovación o aún como una segunda generación de Internet, en la cual el usuario que genera los contenidos ocupa un lugar central. No es fácil definir el Web 2.0 debido a la longitud de este concepto. Por eso, se suelen hacer descripciones generales de la Web 2.0 en lugar de definiciones específicas.
En el artículo Web 2.0 para el gobierno electrónico, publicado el año 2007 por Osimo y Burgelman, se afirma que la Web 2.0 es un concepto relacionado tanto con la tecnología como con la actitud. Por su parte el investigador Miller, en el documento del año 2005 denominado “Web 2.0 construyendo la nueva biblioteca”, describe la Web 2.0 como la red usada como una plataforma, incluyendo a todos los dispositivos conectados; las aplicaciones Web 2.0 son aquellas que aprovechan al máximo las ventajas intrínsecas de esta plataforma, desarrollando software como un servicio continuamente puesto al día y que mejora a medida que es usado por más personas; consumiendo y remezclando datos de múltiples fuentes; incluyendo usuarios individuales; proporcionando sus propios datos y servicios de forma que permite la participación de otros, creando efectos de red mediante una arquitectura de participación; y yendo más allá del concepto de página que existía en la Web 1.0 para proporcionar experiencias más ricas al usuario.
Según los investigadores De Kool y Van Wamelen, en el artículo Web 2.0: una nueva base para el gobierno electrónico, la Web 2.0 se presenta a menudo como un modo revolucionario de compilación, organización y compartición de información. Los ejemplos más conocidos de uso de la Web 2.0 usos son Google, Weblogs, Wikipedia, YouTube, MySpace, Tuenti, Facebook y Second Life, entre otros. A pesar de que muchos usuarios han abrazado la Web 2.0, existen también voces críticas, según las cuales la Web 2.0 ha tenido una promoción exagerada y existen dudas acerca de si el potencial de la Web 2.0 se pondrá realmente en práctica.
O’Reilly en su artículo “Qué es la Web 2.0 Patrones de diseño y modelos de negocio para la siguiente generación del software”, escrita el año 2005, extrae los principios de la Web 2.0 que se deducen, de una forma u otra, de las historias de éxito de la Web 1.0 y de lo más interesante de las nuevas aplicaciones. Los siete principios constitutivos de las aplicaciones Web 2.0 son: (1) La World Wide Web como plataforma. Las nuevas compañías ofrecen software gratuito, utilizando a la Web como plataforma. Así, las herramientas y sus contenidos existen en la propia Web y no en la computadora del usuario. El concepto de webtop opuesto al de desktop es apropiado para explicar este fenómeno comercial. (2) Aprovechar la inteligencia colectiva. La idea se encuentra en el origen de la World Wide Web y del Open Source. No constituye un concepto novedoso. Según Tapscott y Williams, en su artículo sobre Wikieconomía publicado el año 2007, la nueva infraestructura de bajo costo para la colaboración, desde telefonía gratuita por Internet, hasta software libre o plataformas globales de externalización, permiten que miles de individuos y pequeños productores creen productos en colaboración, accedan a mercados y complazcan a los clientes de manera que sólo las grandes corporaciones podían gestionar en el pasado. Esto propicia el surgimiento de posibilidades de colaboración y modelos de negocios nuevos que potenciarán a las empresas preparadas y destruirán a las que no consigan adaptarse. (3) La gestión de la base de datos como competencia. Se refiere al control sobre fuentes de datos únicos y difíciles de replicar que se enriquezcan a medida que más personas las utilicen. Este principio tiene una palabra clave: Infoware, software más datos. (4) El fin del ciclo de actualizaciones de versiones del software. La confianza en los usuarios como codesarrolladores, considerando las prácticas del desarrollo del software abierto y la posibilidad de tener aplicaciones en prueba de forma continua, versiones beta, añadiendo nuevas funcionalidades basadas en las sugerencias y recomendaciones de los usuarios. (5) Modelos de programación ligera. Búsqueda de la simplicidad; interfaces de usuario, modelos de desarrollo y de negocio ligeros que utilicen las herramientas de Internet, disponibles en la actualidad para aprovechar los recursos disponibles en la red y disponerlos de forma creativa. (6) El software no limitado a un solo dispositivo. La utilización de los productos de la Web 2.0 no se limita a las computadoras. Los teléfonos móviles de tercera generación empezaron a ocupar espacios hasta ahora sólo reservado a aquéllas. (7) Experiencias enriquecedoras del usuario. Las clásicas herramientas para producir aplicaciones Web, como Dreamweaver y Flash, ofrecen la posibilidad de crear un diseño complejo de contenidos dinámicos mediante HTML, estilos CSS y programación, pero también se quedan atrás de las aplicaciones diseñadas en Ajax, Ruby on Rails o BitTorrent para los productos Web 2.0. Interfaces con la capacidad de acceso en todo lugar y momento a los servicios web, con la usabilidad, familiaridad y sencillez de las interfaces de los sistemas operativos.
En la era post-puntocom, la Web no deja de transformarse hacia la nueva Web 2.0. Existen nuevas aplicaciones Web en las que confían los usuarios, que los invitan a interactuar, a conectarse con otros usuarios, obteniendo información constante y permitiendo que la aplicación mejore gracias a esta interacción. Los usuarios se expresan, tanto compartiendo sus opiniones sobre un producto o un servicio, como etiquetando contenidos, mediante su participación en comunidades online o bien distribuyendo nuevos contenidos entre los demás usuarios. Este incremento de la interacción y participación de los usuarios provoca lógicamente un incremento de los datos que pueden ser convertidos en inteligencia por la aplicación, por lo que es necesario el uso de la llamada “inteligencia colectiva” para personalizar un sitio Web para un usuario concreto, ayudándole a buscar soluciones y tomar decisiones. Según el investigador Alag, en el artículo comentado del año 2008, la inteligencia colectiva se define como el uso efectivo de la información que proveen otros usuarios con el fin de mejorar la aplicación de uno. Además de extraer inteligencia de un conjunto de interacciones y contribuciones de los usuarios, la inteligencia colectiva se encarga de actuar como filtro para saber que lo que puede resultar importante de una aplicación para cada usuario. Este filtro puede ser desde una simple influencia, puntuaciones o revisiones, a un modelo personalizado de recomendaciones de contenidos por parte de un usuario.
En una aplicación, existen distintos tipos de inteligencia colectiva, a saber: (1) Explícita. Es proporcionada por el usuario a la aplicación. Se trata de revisiones, etiquetas, marcadores y recomendaciones, entre otros. (2) Implícita. Se trata de información que los usuarios proporcionan tanto dentro como fuera de la aplicación y que está en formato no estructurado. Blogs, Wikis, comunidades o redes sociales aportan a este tipo de inteligencia. (3) Inteligencia derivada. Se encuentra basada en la información recogida de las dos anteriores, mediante técnicas como el agrupamiento, las búsquedas, la minería Web y la minería de textos. Mediante su interacción con una aplicación Web, los usuarios proporcionan un rico conjunto de información que puede ser convertido en inteligencia. Existen dos fuentes principales de alimentación para la inteligencia de una aplicación: (1) Basada en contenidos. El estar basada en contenidos representa generalmente palabras o frases clave. (2) Basada en la colaboración. Fuente de alimentación basada en la interacción entre usuarios.
Cobo y Pardo, en su libro “Planeta Web 2.0. Inteligencia colectiva o medios fast food”, escrita el año 2007, proponen algunas pautas para orientar la selección de herramientas disponibles en Internet, haciendo la salvedad que todo intento de depurar, clasificar y organizar el universo digital es una tarea sin fin y cuya misión nunca se alcanzará plenamente. Los autores buscan ordenar la Web 2.0 en cuatro líneas fundamentales y proponen una estructura que denominan los cuatro pilares de la Web 2.0, los cuales son: (1) Redes sociales. (2) Contenidos. (3) Organización social e inteligente de la información. (4) Aplicaciones y servicios. El principal valor que ofrecen las aplicaciones Web 2.0 es la simplificación de la lectura y escritura on-line. Esto se traduce en dos acciones sustantivas del proceso de aprendizaje: generar contenidos y compartirlos. En este sentido, se ha considerado la posibilidad de utilizar aplicaciones Web 2.0 para el desarrollo de proyectos colaborativos en línea que faciliten la colaboración y participación activa de las personas en la generación y publicación de contenido, con la posibilidad de compartirlos y beneficiarse de la colaboración de personas ubicadas geográficamente en lugares distantes.  

Referencias Bibliográficas
  • Alag S. (2007) Collective Intelligence in Action. Manning Pub, online ed., September 2008.
  • Osimo D. y Burgelman J.C., “Web 2.0 for e-Government: Why and How”, 4th Ministerial e-Government Conference, Lisboa 2007.
  • Miller P. (2005) Web 2.0: building the new library. Ariadne, vol. 45.
  • De Kool D. y J. Van Wamelen (2008) Web 2.0: A New Basis for E-Government, 3rd International Conference on Information and Communication Technologies: From Theory to Applications, ICTTA 2008, vol. 1 pp.1-7, 7-11 April 2008.
  • O’Reilly (2005) “What is Web 2.0”. Recuperado el 15 de diciembre de 2007, a partir de: http://www.oreilly.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html.
  • Tapscott D. y Williams A. (2007) Wikinomics: la nueva economía de las multitudes inteligentes. Paidos Iberica Ediciones, Barcelona, España.
  • Cobo y Pardo (2007) Planeta Web 2.0. Inteligencia colectiva o medios fast food. (Grup de Recerca d'Interaccions Digitals, Universitat de Vic. Flacso México.). Barcelona/México DF; 2007.
Guillermo Choque Aspiazu
http://www.eldiario.net/
Articulo no publicado

lunes, 16 de enero de 2012

Bases de la ingeniería del software

Según el investigador J. Leite, en sus notas de cátedra escritas en 1997, el mundo moderno depende cada día más de los sistemas de software. Los sistemas computacionales están en todas partes, desde los sistemas de freno de los autos, hasta el control de los hornos de microondas. Hoy en día, las grandes corporaciones conocen la importancia estratégica de sus políticas en relación con las tecnologías de información y el papel fundamental del software como parte de esas tecnologías. Roger Pressman complementa la idea, en su famoso libro sobre ingeniería del software escrito en su sexta edición el año 2005, menciona que, en los años cuarenta y cincuenta del siglo veinte, ya era común el hardware de propósito general. El software, sin embargo, era diseñado a medida para cada aplicación y tenía una distribución relativamente limitada. El software como producto, es decir, programas desarrollados para ser vendidos a uno o más clientes estaba en su infancia. La mayoría del software era desarrollado y finalmente usado por la misma persona u organización. El diseño era un proceso implícito llevado a cabo en la cabeza de alguien y la documentación era en general inexistente.
En el afán de comprender lo que es el software, y consecuentemente la ingeniería del software, es importante examinar las características del software que lo diferencian de otras cosas que las personas pueden construir. Cuando se construye hardware, el proceso creativo humano se traduce finalmente en una forma física. El software en cambio es un elemento del sistema que es lógico, en lugar de físico. Según Roger Pressman, el software tiene características considerablemente distintas a las del hardware: (1) El software se desarrolla, no se fabrica en un sentido clásico. Aunque existen similitudes entre el desarrollo del software y la construcción del hardware, ambas actividades son fundamentalmente diferentes. En ambas actividades la buena calidad se adquiere mediante un buen diseño, pero la fase de construcción del hardware puede introducir problemas de calidad que no existen, o son fácilmente corregibles, en el software. Ambas actividades dependen de las personas, pero la relación entre las personas dedicadas y el trabajo realizado es completamente diferente para el software. Ambas actividades requieren la construcción de un “producto” pero los enfoques son diferentes. (2) El software no se estropea. El software no es susceptible a los males del entorno que hacen que el hardware se estropee. Sin embargo la implicación es clara, el software no se estropea. ¡Pero se deteriora!. (3) Aunque la industria tiende a ensamblar componentes, la mayoría del software se construye a medida. En el mundo del hardware, la reutilización de componentes es una parte natural del proceso de ingeniería. En el mundo del software es algo que sólo ha comenzado a lograrse en una escala amplia.
Para los investigadores M. Dorfman y R. Thayer, en un artículo sobre ingeniería del software publicado en 1997, un programa era considerado exitoso si: (a) ejecutaba, (b) ejecutaba rápidamente y (c) daba una respuesta aceptable, donde la calidad dependía altamente de la habilidad del programador. Hacia fines de los años 1960 comenzaron a producirse problemas recurrentes en el desarrollo de sistemas que se conoce como la “crisis del software”, caracterizada por problemas en el desarrollo de software, que provocaban demoras en los plazos de entrega, altos presupuestos, falta de respuesta a los requerimientos de los clientes o usuarios, y dificultad para usar, mantener y mejorar los sistemas. Complementando lo que antecede, Roger Pressman, en la obra ya citada menciona, a medida que los sistemas se hacían más grandes, su calidad era sospechosa. La gente responsable del desarrollo de software tenía limitados datos históricos para usar como guías y menos control sobre el curso de un proyecto. En el año 1969, un conjunto de técnicas, llamadas “ingeniería del software”, surgió como respuesta a esa crisis. Estas técnicas ven al software como un producto de ingeniería que requiere planificación, análisis, diseño, implementación, pruebas y mantenimiento.
Según los investigadores Nauer y Randall, en un artículo sobre ingeniería del software escrito el año 1969, el término ingeniería del software significa “el establecimiento y uso de principios de ingeniería para obtener en forma económica, software confiable y que trabaje eficientemente en máquinas reales”. En los estudios que realiza Carl Hoare, en especial en el artículo en el que cuestiona si la programación es brujería o ciencia, menciona que durante casi veinte años, hubo grandes debates sobre si la creación del software era un arte, una ciencia o disciplina. El término “ingeniería del software” ha tenido cierto nivel de aceptación dentro de la comunidad de software. Sin embargo, lo que significa exactamente, sigue algo confuso. Los escritores Guezzi, Jazayeri y Mandrioli, en el libro “fundamentos de la ingeniería del software, escrito el año 1991, definen la ingeniería del software como “el campo de la ciencia de la computación que trata la construcción de sistemas de software que son tan grandes o tan complejos que tienen que ser construidos por un equipo o equipos de ingenieros”.
Por su parte el investigador Alan Davis, en el libro sobre ingeniería de requerimientos escrita en año 1990, menciona que la ingeniería del software es “la aplicación de principios científicos a: (1) la transformación ordenada de un problema en una solución de software, y 82) el mantenimiento subsiguiente de ese software hasta el final de su vida útil”. Roger Pressman establece de manera clara y simple los objetivos de la ingeniería del software: “Los objetivos clave de la ingeniería del software son definir, crear y aplicar (1) una metodología bien definida dirigida a un ciclo de vida de planeamiento, desarrollo, y mantenimiento; (2) un conjunto establecido de componentes de software que documenta cada paso en el ciclo de vida y muestra un seguimiento paso a paso, y (3) un conjunto de hitos predecibles que pueden ser revisados a intervalos regulares a través del ciclo de vida del software”.
A medida del avance de los años, se han producido grandes avances en la tecnología de la ingeniería del software en todas las áreas que la conforman: Análisis de requerimientos, estrategias de implementación, modelos de costos, etc. Sin embargo, la ingeniería del software aún está por debajo de las necesidades de calidad demandadas por sistemas cada vez más complejos. En este contexto, existen considerables esfuerzos de investigación y desarrollo con el objetivo de perfeccionar el proceso de producción del software, tanto a través de estudios teóricos, como de estudios aplicados. Cuando la ingeniería del software ingresa en su cuarta década, tiene muchas de las fortalezas y debilidades que son experimentadas por los seres humanos de la misma edad. Roger Pressman menciona que la inocencia y el entusiasmo de sus primeros años han sido reemplazados por expectativas más razonables, y aún por un saludable cinismo, basados en bastantes años de experiencia. La ingeniería del software llega a su edad adulta con muchos logros, pero con abundante trabajo aún por hacer.
El Dr. Windston Royce enfatizó esta situación, en su obra ingeniería del software aeroespacial del año 1991, mencionando lo siguiente: “La construcción de nuevo software a gusto del usuario o cliente y sin errores es un problema inesperadamente difícil. Es tal vez el problema más difícil de la ingeniería hoy en día, y ha sido reconocido como tal durante más de quince años. La “crisis del software”, se ha convertido en la crisis más larga en el mundo de la ingeniería, y aún continúa. A pesar de la creciente participación del software en el mundo actual, y de los avances producidos, el software como producto aún utiliza procesos de producción bastante insatisfactorios. Son varios los casos en que errores en el software han traído problemas no sólo financieros, sino también en vidas humanas. Es función de la ingeniería del software evitar que estos errores ocurran, produciendo productos de software más robustos y proveyendo procesos de producción más confiables. Durante mucho tiempo, la literatura y la investigación en ingeniería del software centraban sus esfuerzos en el modelado, procurando desarrollar lenguajes y técnicas de representación.”
Una de las tendencias definidas y ampliamente aceptadas de la ingeniería del software, en el plano académico, es la que proporciona Roger Pressman en su libro ingeniería del software un enfoque practico, donde se menciona que la ingeniería del software es una tecnología estratificada, donde la base que soporta la ingeniería del software, es un enfoque en la calidad que fomenta una cultura de mejora continua del proceso. La base propiamente dicha de la ingeniería del software es el estrato del proceso. El proceso de la ingeniería del software es el elemento que mantiene juntos los estratos de la tecnología y que permite el desarrollo racional y a tiempo del software de computadora. Los métodos de la ingeniería del software proporcionan los “cómo” técnicos para construir software. Los métodos abarcan un amplio espectro de tareas que incluyen la comunicación, el análisis de requerimientos, el modelado del diseño, la construcción del programa, la realización de pruebas y el soporte. Las herramientas de la ingeniería del software proporcionan el soporte automático o semiautomático para el proceso y los métodos. La ingeniería del software se ha utilizado en una gran diversidad de aplicaciones por ejemplo de negocios, de medicina, de producción, de bancos, de control de tráfico, de derecho, en la milicia, en aplicaciones de gobierno, de transporte etc.

Referencias Bibliográficas
  • Davis, A. (1990) Software Requirements: Analysis and Specification. Prentice Hall.
  • Dorfman, M., Thayer, R. (1997) Software Engineering. IEEE Computer Society Press.
  • Guezzi, C., Jazayeri, M., Mandrioli, D. (1991) Fundamentals of Software Engineering. Prentice Hall.
  • Hoare, C. (1984) Programming: Sorcery or Science?, IEEE Software, Vol. 1, Nº 2, April 1984.
  • Leite, J.C.S.P. (1997) Ingeniería de Requisitos. Notas de Cátedra.
  • Nauer, P., Randall, B., eds. (1969) Software Engineering. NATO Scientific Affairs Division, Brussels, Belgium.
  • Pressman, R. (2005) Software Engineering: A Practioner´s Approach. Sixth Edition. McGraw-Hill, Inc.
  • Royce, W., Current Problems in “Aerospace Software Engineering: A Collection of Concepts”. edited by Anderson, Ch., Dorfman, M., American Institute of Aeronautics, Inc., Washington DC, 1991.
Guillermo Choque Aspiazu
http://www.eldiario.net/
Enero 16 de 2012

lunes, 9 de enero de 2012

Tecnología 2012

Se acaba 2011 y es hora tanto de repasar cuáles han sido los momentos claves en la tecnología en este año, entre otros la compra de Motorola por parte de Google o la muerte de Steve Jobs; también es hora de dirigir la vista un poco hacia el futuro e intentar vislumbrar cuáles serán las tendencias que pegarán fuerte en este 2012 que ingresa. Una tendencia que sobresale, y con bastante razón, es la tecnología de control por voz. Es preocupación de muchos es el pronóstico comentado de la cultura maya que menciona que el mundo como se lo conoce, verá su final en el año 2012 del calendario gregoriano. Lo que sí es una realidad es que los avances tecnológicos que se podrían estar gozando en ese año serían muy variados y sorprendentes. Aunque a decir verdad ya son pocas las cosas que sorprenden: lo que hoy aparece en una película como un sofisticado gadget futurista, mañana estará en el bolsillo de cualquier ciudadano.

Bienvenido 2012, Gartner una reconocida consultora internacional en temas de tecnología informática, ha dado a conocer cuáles serán las tecnologías clave en los doce meses que siguen a esta cordial bienvenida del nuevo año, ésas que, según la consultora, tienen el potencial de impactar de forma significativa en las organizaciones, las primeras cinco son: (1) Aplicaciones e interfaces centradas en movilidad. El paradigma de la interfaz de usuario que se ha utilizado desde hace más de veinte años, la centrada en los iconos, menús y punteros, será reemplazada por interfaces basadas en la movilidad que harán énfasis en la búsqueda, la voz, el vídeo, lo táctil y lo gestual. (2) Experiencia de usuario contextual y social. La informática contextual utiliza información sobre el usuario, su entorno, actividades, conexiones y preferencias para mejorar la calidad de la interacción. El sistema se anticipa a las necesidades del usuario, y de forma proactiva le sirve el contenido, producto o servicio más apropiado y personalizado. El contexto puede utilizarse para aplicaciones del tipo móvil, social, ubicación, pagos y transacciones. (3) Internet de las cosas. Es un concepto que describe cómo Internet se ampliará en la medida que se incorporan sensores e inteligencia a sistemas como dispositivos de consumo que a su vez están conectados a la Web. La visión y el concepto han existido durante años pero no ha sido hasta ahora cuando se habla con propiedad del tema, cuando se ha producido una explosión del número y la variedad de cosas que se conectan a la Red y en las tecnologías diseñadas para identificar, detectar y comunicar. (4) Tiendas de aplicaciones. Las tiendas de aplicaciones de Apple y Android, donde existen cientos de miles de aplicaciones, se harán móviles. (5) Aplicaciones analíticas de próxima generación. Estas aplicaciones están empezando a mirar a la nube y, por tanto, a explotar recursos de la nube para computación grid e informática de alto rendimiento.

Continuando con la clasificación realizada por Gartner, las siguientes cinco tecnologías clave son: (6) Datos inmensos. El tamaño y la complejidad de los formatos y la velocidad de entrega superan las capacidades de tecnologías de gestión de datos tradicionales. Se requiere por tanto el uso de nuevas tecnologías que simplifiquen sólo la gestión del volumen. Otras nuevas tecnologías surgirán con el potencial de ser disruptivas. Además, como consecuencia del crecimiento exponencial de los datos, en el futuro, los usuarios no podrán poner toda la información en un único almacén de datos, sino en varios almacenes de datos lógicos que contengan información de múltiples fuentes. (7) Informática empotrada. Se observa un potencial enorme en el uso de memoria flash en dispositivos de consumo, equipos de entretenimiento y otros sistemas de tecnología informática embebidos. Asimismo, esta tecnología ofrece una nueva capa de jerarquía de memoria en servidores que presenta ventajas clave como espacio, temperatura, rendimiento y resistencia, entre otras. Pero, además, la disponibilidad de gran cantidad de memoria impulsa nuevos modelos de aplicaciones. (8) Servidores de bajo consumo. La adopción de servidores de bajo consumo energético, anunciados y comercializados por los nuevos jugadores en el mercado de este tipo de sistemas y que han sido diseñados sobre procesadores de baja potencia que se utilizan tradicionalmente en los dispositivos móviles, empezarán a ser una realidad. (9) Computación en las nubes. La nube es una tendencia disruptiva y tiene el potencial para impactar a largo plazo en la mayoría de las industrias. La computación en las nubes es la tendencia a basar las aplicaciones en servicios alojados de forma externa, en la propia Web. Mientras que el mercado se mantiene en sus primeras etapas, la mayor parte de los proveedores de grandes empresas participan plenamente en la entrega de una gama de ofertas para construir entornos y ofrecer servicios en la nube. Las organizaciones están pasando de tratar de entender la nube para la toma de decisiones sobre las cargas de trabajo seleccionadas a poner en práctica servicios, construyendo para ello nubes privadas. La nube híbrida, que reúne a los servicios externos de nube pública y los servicios internos de nube privada, así como las capacidades para asegurar, administrar y gobernar todo el espectro de la nube, será un foco importante para el año 2012. (10) El reinado de las tabletas. Una de las tecnologías que no puede faltar en esta lista son las tabletas, las que gracias a su cómodo tamaño, a su interfaz táctil y a su fácil conectividad, han supuesto un enorme avance en los últimos años, tanto en tecnología como en popularidad, y no es de extrañar, a tenor de las cifras de ventas registradas el segundo trimestre de 2011 con un total de cuatro punto cuatro millones de unidades distribuidas. Una cifra que se sitúa por encima de las previsiones iníciales de tres punto siete millones de dispositivos, y que representa un incremento de un trescientos noventa y cuatro por ciento frente al mismo intervalo del año anterior, y de un ochenta y dos por ciento con respecto al primer trimestre de 2011. Está claro que esta nueva opción de movilidad reinará en las compañías, que deberán ser capaces de gestionar un entorno que operará con dos o cuatro soluciones inteligentes.

A continuación se recopilan algunos ejemplos de tecnología que pudiera verse en el 2012 o antes de la fecha señalada, y si no se termina el mundo seguramente se estarán hablando de dichos avances alrededor de todo el mundo. Algunas de estas tecnologías han sido agregadas a la lista oficial de IBM de avances tecnológicos, otras se las han mencionado en varios sitios de la autopista de la información. (1) Tecnología para almacenamiento de energía solar. La misma estará disponible en el pavimento, la pintura y las ventanas. Esta tecnología suena particularmente atractiva pues una de las realidades es que es necesario que se empiece a utilizar otras formas de energía alternativa. (2) La bola de cristal de la salud. Según IBM esta tecnología estará disponible en breve, por menos de doscientos dólares y se refiere a lecturas del acido desoxirribonucleico que serán posibles gracias al reciente mapeo del genoma humano. (3) Reconocimiento de voz para todos los equipos. Este reconocimiento se refiere principalmente a la comunicación directa por voz con Internet. Algunos ejemplos de esta tecnología ya se pueden ver en ciertos gadgets como el iPod Schuffle que responde a comandos de voz, juegos como Singstar en el que se por voz selecciona lo que quieres cantar, entre otros ejemplos más. La idea es que se podrá “escuchar” correos electrónicos, dictar el contenido de las respuestas, solicitar cálculos, y otras actividades tan solo utilizando comandos de voz. (4) Inteligencia artificial como soporte de compras. Un consejero en los probadores, cambios de color de la ropa en vestidores digitales, etiquetas que solicitan al súper mercado productos que ya están por terminarse, bienes perecederos que ya no deben ser consumidos por su fecha de caducidad. Cuestiones como éstas serán mejoradas con la inteligencia artificial que servirá como soporte de compras. (5) Firmas digitales inteligentes. Las mismas que sirvan de apoyo a firmar toda clase de documentos y evitar las engorrosas filas para hacer trámites, es muy probable que los celulares se acerquen a estas firmas que resuelvan gran parte de los problemas del ser humano. (6) Papel y plumas digitales. Una perfecta interfaz es aquella a la que se está acostumbrado, así que una hoja digital que sirva para tomar apuntes y notas y se pueda después transferirla a la computadora sería una gran idea. Pues no sólo le salvaría la vida a miles de árboles anualmente, sino que permitiría a los estudiantes del mundo contar con apuntes perfectos y se horraría un montón de materias reprobadas. (7) Videojuegos. Es cierto que el futuro está a la vuelta de la esquina y que una de las tecnologías de las que más se hablará el año que entra es del proyecto Natal de Xbox. Sin embargo, para el 2012 es probable que no sólo sean necesarios los controles para vivir la experiencia de los videojuegos, sino que sea posible ser observadores participantes en mundos virtuales con realidad aumentada utilizando tercera dimensión.

Finalmente algunas predicciones para el año 2012, las que quizá se impongan en términos de una prospectiva deseable que suceda en este mundo dominado por espectros de energía transparentes que permitan una comunicación más fluida utilizando millones de circuitos que transmiten bits en miles de dispositivos electrónicos, son las siguientes: (1) Windows 8, el nuevo sistema operativo de Microsoft, con posibilidades de interfaz hablada. (2) Facebook con un sistema análogo a los hangouts de Google Plus. (3) Android, con la fragmentación eliminada de este sistema operativo. (4) Apple, con el dominio del mercado de smartphones y tablets, y la llegada de nuevos iPhones, iPads y Macs. (5) Tabletas, más accesibles e innovadoras. (6) Televisores inteligentes, con dispositivos conectados a Internet, cultura y entretenimiento en un solo lugar y tener toda la información de la película, serie o partido de fútbol a disposición en cualquier momento. (7) Autos voladores, con posibilidades ciertas de poner fin al caótico tráfico, solucionando uno de los grandes problemas que aquejan a las metrópolis del siglo veintiuno.
Guillermo Choque Aspiazu
http://www.eldiario.net/
Enero 9 de 2012