viernes, 29 de enero de 2010

Redes sociales en la Web

El Ciberspacio o Internet ofrece una enorme capacidad para que la gente se comunique en forma rápida cubriendo grandes distancias, ya sea de manera formal con fines de trabajo o de manera informal con carácter de entretenimiento. Un fenómeno social en Internet que cobra fuerza en esta década, son las llamadas redes o comunidades virtuales, en donde hay ciertas reglas de actuación, algunas de ellas propias del medio. Una red social en la Web es una comunidad de usuarios registrados en una aplicación Web que comparten información, interactúan entre ellos mediante mensajes y cuentan con otras formas de colaboración. En una red de este tipo, conocida como comunidad virtual, se forman grupos de amigos por afinidad. Cada usuario registrado puede mantener una lista de contactos considerados como amigos, los cuales deben estar registrados en la aplicación Web. Un usuario puede enviar una invitación a un destinatario de correo, si no es usuario del portal, se le pide que se registre, y si acepta seguramente otros usuarios le pedirán que sea su amigo o incluso el invitará a otros. Los amigos virtuales pueden llegar a conocerse gracias a la relación que estos pudieran tener con amigos en común, de tal manera que un usuario suele dedicar tiempo visitando los perfiles de los amigos de otros, e invitarlo si él desea.

Las redes sociales constituyen formas de interacción social, las mismas se definen como un intercambio dinámico entre personas, grupos e instituciones en contextos altamente complejos asociados con las conductas de las personas. Una red social es un sistema abierto y en construcción permanente que involucra a conjuntos que se identifican en las mismas necesidades y problemáticas y que se organizan para potenciar sus recursos. Una sociedad fragmentada en minorías aisladas, discriminadas, que ha desvitalizado sus redes vinculares, con ciudadanos carentes de protagonismo en procesos transformadores, se condena a una democracia restringida. La intervención en red es un intento reflexivo y organizador de esas interacciones e intercambios, donde el sujeto se funda a sí mismo diferenciándose de otros. No difiere lo dicho sobre una red grupal y lo que sucede a nivel subjetivo en la Web, al menos en las que se dedican a propiciar contactos afectivos nuevos como lo son las redes de búsqueda de pareja, amistad o compartir intereses sin fines de lucro.

En las redes sociales en la Web se tiene la posibilidad de interactuar con otras personas aunque no se las conozca, el sistema es abierto y se va construyendo obviamente con lo que cada suscripto a la red aporta, cada nuevo miembro que ingresa transforma al grupo en otro nuevo. La red no es lo mismo si uno de sus miembros deja de ser parte. Intervenir en una red social empieza por hallar allí otros con quienes compartir intereses, preocupaciones o necesidades comunes y aunque no sucediera más que eso, eso mismo ya es mucho porque rompe el aislamiento que suele aquejar a la gran mayoría de las personas, lo cual suele manifestarse en retraimiento y otras veces en excesiva vida social sin afectos comprometidos. Las redes sociales en la Web suelen posibilitar que pluridad y comunidad se conjuguen y allí quizás esté gran parte de toda la energía que le da vida a los grupos humanos que conforman esas redes. Las redes sociales dan al anónimo popularidad, al discriminado integración, al diferente igualdad, al malhumorado educación y así muchas otras cosas más.

Desde una óptica formal, una red social es una estructura que se puede representar en forma de uno o varios grafos en los cuales los nodos representan individuos o actores y las aristas representan las relaciones entre ellos. Desde su ingreso, los sitios de redes sociales tales como MySpace, Facebook, Cyworld, Twitter, Meeterh y Bebo han atraído a millones de usuarios, muchos de los cuales han integrado estos sitios en sus prácticas diarias. El primer sitio de redes sociales reconocible puesto en marcha en el año 1997 fue SixDegrees.com, este sitio permitía a los usuarios crear perfiles, lista de amigos y amigos de sus amigos. Del año 1997 al año 2001, aparecieron AsianAvenue, Blackplanet y MiGente, los cuales permitían a los usuarios crear relaciones personales y profesionales, creando perfiles que consentían identificar amigos en sus redes sin pedir la aprobación de esas conexiones. Desde entonces diversas redes se han creado unas permanecen y otras han desaparecido, según la zona geográfica el líder puede ir cambiando, pero a la fecha los principales competidores a nivel mundial son: Hi5, MySpace, Facebook y Twitter.

MySpace se instaló el año 2003 y se ha diferenciado de otros sitios porque permite a los usuarios personalizar sus páginas. Los adolescentes fueron los primeros en adoptarlo y MySpace floreció a través de la atracción de este grupo demográfico. MySpace incluso ha modificado su política de usuario para permitir a los menores de edad crear sus propios perfiles a raíz de la demanda producida por los mismos en el segmento de mercado. Conforme el sitio ha crecido, tres poblaciones se empezaron a formar: los músicos o artistas, jóvenes, y adultos en su etapa posterior a la universidad.

Facebook fue creado originalmente para apoyar a las redes universitarias, el año 2004 los usuarios del sitio estaban obligados a proporcionar las direcciones de correo electrónico asociada con las instituciones educativas. Este requisito lo llevó a ser un modelo de acceso relativamente cerrado y por lo que los usuarios tenían la percepción de la Web como un sitio íntimo y privado de una comunidad demográfica cerrada. Facebook posteriormente se ha ampliado para incluir a los estudiantes de secundaria, profesionales, y finalmente a muchos usuarios potenciales de Internet. A diferencia de otros sistemas de redes sociales, en Facebook los usuarios sólo pueden hacer públicos sus perfiles a otros usuarios del sitio. Otra característica que distingue a Facebook es la capacidad para desarrolladores externos de crear aplicaciones lo que permite a los usuarios personalizar sus perfiles y realizar otras tareas.

Una persona que tiene amistad virtual con alguien no necesariamente la tiene en forma presencial o relación “cara a cara”, esto se debe a varios factores: (1) Distancia. Los miembros de la comunidad en términos generales viven lejos uno del otro, incluso podrían no saber la dirección exacta, como para tener un acercamiento personal. (2) Disfrazado. También puede ser que realmente no se es lo que se muestra en su perfil, en términos de personalidad, ya que tratando de despertar mayor interés a otros para tener más amigos se presentan datos alterados. (3) Identidad falsa. El usuario tiene la posibilidad de apropiar las características de una persona, es muy común recurrir a personajes famosos de quien se es fanático, personas cercanas con el fin de ridiculizarlas, o identidades inexistentes como tratando de reinventarse a uno mismo como otra persona.

Desde el punto psicológico, el pertenecer a una comunidad y a grupos dentro esta, cubre una necesidad de afiliación del hombre, aún cuando esta asociación sea a distancia, se esté disfrazado o con una identidad falsa. Esta afiliación presenta diversas ventajas tanto de forma individual como de forma colectiva: (1) Cooperación. Permite definir redes de cooperación internacional, debido a su alcance mundial. (2) Amistad. Permite establecer relaciones afectivas entre personas, disminuyendo el impacto de la soledad.

Hi5.com, Ringo.com, y FaceBox.com, son sitios Web muy populares que conforman redes sociales, sin embargo, aunque son muy recomendados debido a la gran cantidad de usuarios registrados, hay que considerar lo siguiente: (1) Bloqueos. Hay sitios Web que no son accesibles debido a que están bloqueados por algunas instituciones, sobre todo escuelas o empresas, debido a políticas organizacionales. (2) Especialización. Debido a la gran cantidad de sitios Web de este tipo, cada portal que ha tenido éxito, como lo son los ya mencionados, se han especializado por algún tipo de servicio, por ejemplo: Ringo es experto en la gestión de fotos. (3) Contenidos no deseados. Hay comunidades virtuales que son visitadas recurrentemente por delincuentes informáticos, que emplean sistemas automáticos de envío de mensajes basura, violan cuentas de acceso, promocionan material no apto para menores, cometen fraudes, entre otros delitos. Aunque evidentemente hay aspectos negativos en el uso de estos sitios, son muchas las aplicaciones tanto en beneficio personal como de negocios, aunado al tema de la socialización basada en el entretenimiento, también está el beneficio en las actividades laborales, los portales son un medio para la publicidad de productos y servicios de manera directa y con un bajo costo.

El Ciberspacio o Internet ofrece una enorme capacidad para que la gente se comunique en forma rápida cubriendo grandes distancias, ya sea de manera formal con fines de trabajo o de manera informal con carácter de entretenimiento. Un fenómeno social en Internet que cobra fuerza en esta década, son las llamadas redes o comunidades virtuales, en donde hay ciertas reglas de actuación, algunas de ellas propias del medio. Una red social en la Web es una comunidad de usuarios registrados en una aplicación Web que comparten información, interactúan entre ellos mediante mensajes y cuentan con otras formas de colaboración. En una red de este tipo, conocida como comunidad virtual, se forman grupos de amigos por afinidad. Cada usuario registrado puede mantener una lista de contactos considerados como amigos, los cuales deben estar registrados en la aplicación Web. Un usuario puede enviar una invitación a un destinatario de correo, si no es usuario del portal, se le pide que se registre, y si acepta seguramente otros usuarios le pedirán que sea su amigo o incluso el invitará a otros. Los amigos virtuales pueden llegar a conocerse gracias a la relación que estos pudieran tener con amigos en común, de tal manera que un usuario suele dedicar tiempo visitando los perfiles de los amigos de otros, e invitarlo si él desea.

Las redes sociales constituyen formas de interacción social, las mismas se definen como un intercambio dinámico entre personas, grupos e instituciones en contextos altamente complejos asociados con las conductas de las personas. Una red social es un sistema abierto y en construcción permanente que involucra a conjuntos que se identifican en las mismas necesidades y problemáticas y que se organizan para potenciar sus recursos. Una sociedad fragmentada en minorías aisladas, discriminadas, que ha desvitalizado sus redes vinculares, con ciudadanos carentes de protagonismo en procesos transformadores, se condena a una democracia restringida. La intervención en red es un intento reflexivo y organizador de esas interacciones e intercambios, donde el sujeto se funda a sí mismo diferenciándose de otros. No difiere lo dicho sobre una red grupal y lo que sucede a nivel subjetivo en la Web, al menos en las que se dedican a propiciar contactos afectivos nuevos como lo son las redes de búsqueda de pareja, amistad o compartir intereses sin fines de lucro.

En las redes sociales en la Web se tiene la posibilidad de interactuar con otras personas aunque no se las conozca, el sistema es abierto y se va construyendo obviamente con lo que cada suscripto a la red aporta, cada nuevo miembro que ingresa transforma al grupo en otro nuevo. La red no es lo mismo si uno de sus miembros deja de ser parte. Intervenir en una red social empieza por hallar allí otros con quienes compartir intereses, preocupaciones o necesidades comunes y aunque no sucediera más que eso, eso mismo ya es mucho porque rompe el aislamiento que suele aquejar a la gran mayoría de las personas, lo cual suele manifestarse en retraimiento y otras veces en excesiva vida social sin afectos comprometidos. Las redes sociales en la Web suelen posibilitar que pluridad y comunidad se conjuguen y allí quizás esté gran parte de toda la energía que le da vida a los grupos humanos que conforman esas redes. Las redes sociales dan al anónimo popularidad, al discriminado integración, al diferente igualdad, al malhumorado educación y así muchas otras cosas más.

Desde una óptica formal, una red social es una estructura que se puede representar en forma de uno o varios grafos en los cuales los nodos representan individuos o actores y las aristas representan las relaciones entre ellos. Desde su ingreso, los sitios de redes sociales tales como MySpace, Facebook, Cyworld, Twitter, Meeterh y Bebo han atraído a millones de usuarios, muchos de los cuales han integrado estos sitios en sus prácticas diarias. El primer sitio de redes sociales reconocible puesto en marcha en el año 1997 fue SixDegrees.com, este sitio permitía a los usuarios crear perfiles, lista de amigos y amigos de sus amigos. Del año 1997 al año 2001, aparecieron AsianAvenue, Blackplanet y MiGente, los cuales permitían a los usuarios crear relaciones personales y profesionales, creando perfiles que consentían identificar amigos en sus redes sin pedir la aprobación de esas conexiones. Desde entonces diversas redes se han creado unas permanecen y otras han desaparecido, según la zona geográfica el líder puede ir cambiando, pero a la fecha los principales competidores a nivel mundial son: Hi5, MySpace, Facebook y Twitter.

MySpace se instaló el año 2003 y se ha diferenciado de otros sitios porque permite a los usuarios personalizar sus páginas. Los adolescentes fueron los primeros en adoptarlo y MySpace floreció a través de la atracción de este grupo demográfico. MySpace incluso ha modificado su política de usuario para permitir a los menores de edad crear sus propios perfiles a raíz de la demanda producida por los mismos en el segmento de mercado. Conforme el sitio ha crecido, tres poblaciones se empezaron a formar: los músicos o artistas, jóvenes, y adultos en su etapa posterior a la universidad.

Facebook fue creado originalmente para apoyar a las redes universitarias, el año 2004 los usuarios del sitio estaban obligados a proporcionar las direcciones de correo electrónico asociada con las instituciones educativas. Este requisito lo llevó a ser un modelo de acceso relativamente cerrado y por lo que los usuarios tenían la percepción de la Web como un sitio íntimo y privado de una comunidad demográfica cerrada. Facebook posteriormente se ha ampliado para incluir a los estudiantes de secundaria, profesionales, y finalmente a muchos usuarios potenciales de Internet. A diferencia de otros sistemas de redes sociales, en Facebook los usuarios sólo pueden hacer públicos sus perfiles a otros usuarios del sitio. Otra característica que distingue a Facebook es la capacidad para desarrolladores externos de crear aplicaciones lo que permite a los usuarios personalizar sus perfiles y realizar otras tareas.

Una persona que tiene amistad virtual con alguien no necesariamente la tiene en forma presencial o relación “cara a cara”, esto se debe a varios factores: (1) Distancia. Los miembros de la comunidad en términos generales viven lejos uno del otro, incluso podrían no saber la dirección exacta, como para tener un acercamiento personal. (2) Disfrazado. También puede ser que realmente no se es lo que se muestra en su perfil, en términos de personalidad, ya que tratando de despertar mayor interés a otros para tener más amigos se presentan datos alterados. (3) Identidad falsa. El usuario tiene la posibilidad de apropiar las características de una persona, es muy común recurrir a personajes famosos de quien se es fanático, personas cercanas con el fin de ridiculizarlas, o identidades inexistentes como tratando de reinventarse a uno mismo como otra persona.

Desde el punto psicológico, el pertenecer a una comunidad y a grupos dentro esta, cubre una necesidad de afiliación del hombre, aún cuando esta asociación sea a distancia, se esté disfrazado o con una identidad falsa. Esta afiliación presenta diversas ventajas tanto de forma individual como de forma colectiva: (1) Cooperación. Permite definir redes de cooperación internacional, debido a su alcance mundial. (2) Amistad. Permite establecer relaciones afectivas entre personas, disminuyendo el impacto de la soledad.

Hi5.com, Ringo.com, y FaceBox.com, son sitios Web muy populares que conforman redes sociales, sin embargo, aunque son muy recomendados debido a la gran cantidad de usuarios registrados, hay que considerar lo siguiente: (1) Bloqueos. Hay sitios Web que no son accesibles debido a que están bloqueados por algunas instituciones, sobre todo escuelas o empresas, debido a políticas organizacionales. (2) Especialización. Debido a la gran cantidad de sitios Web de este tipo, cada portal que ha tenido éxito, como lo son los ya mencionados, se han especializado por algún tipo de servicio, por ejemplo: Ringo es experto en la gestión de fotos. (3) Contenidos no deseados. Hay comunidades virtuales que son visitadas recurrentemente por delincuentes informáticos, que emplean sistemas automáticos de envío de mensajes basura, violan cuentas de acceso, promocionan material no apto para menores, cometen fraudes, entre otros delitos. Aunque evidentemente hay aspectos negativos en el uso de estos sitios, son muchas las aplicaciones tanto en beneficio personal como de negocios, aunado al tema de la socialización basada en el entretenimiento, también está el beneficio en las actividades laborales, los portales son un medio para la publicidad de productos y servicios de manera directa y con un bajo costo.

Guillermo Choque Aspiazu
http://www.eldiario.net/
Noviembre 30 de 2009

jueves, 21 de enero de 2010

Ingeniería de requerimientos con AtlasTi

La ingeniería de requerimientos facilita el mecanismo apropiado para comprender lo que requiere el cliente, analizando necesidades, confirmando su factibilidad, negociando una solución razonable, especificando la solución sin ambigüedad, validando la especificación y gestionando los requerimientos para que se transformen en un sistema operacional. La ingeniería de requerimientos cumple un papel primordial en el proceso de producción de software, ya que enfoca un área fundamental: la definición de lo que se desea producir. Su principal tarea consiste en la generación de especificaciones correctas que describan con claridad, sin ambigüedades, en forma consistente y compacta, el comportamiento del sistema; de esta manera, se pretende minimizar los problemas relacionados al desarrollo del producto software.

Es necesario apuntar que las técnicas más habituales en la elicitación de requerimientos son las entrevistas, el desarrollo conjunto de aplicaciones, la tormenta de ideas y la utilización de escenarios, más conocidos como casos de uso. A estas técnicas se las suele apoyar con otras técnicas complementarias como la observación in situ, el estudio de documentación, los cuestionarios, la inmersión en el negocio del cliente o haciendo que los ingenieros de requerimientos sean aprendices del cliente. El proceso de la ingeniería de requerimientos se lleva a cabo a través de siete distintas funciones: (1) Inicio, (2) obtención, (3) elaboración, (4) negociación, (5) especificación, (6) validación y (7) gestión. Resulta importante destacar que algunas de estas funciones de la ingeniería de requerimientos ocurren en paralelo y que todas deben adaptarse a las necesidades del proyecto. Todas están dirigidas a definir lo que el cliente quiere, y todas sirven para establecer una base sólida respecto del diseño y la construcción de lo que obtendrá el cliente.

Por otra parte, la investigación cualitativa en ciencias humanas tiene como propósito principal comprender los fenómenos sociales, sean en grupos de individuos o situaciones sociales. Un ejemplo lo constituye la expresión estudio de caso, corrientemente usada en ciencias humanas como metodología. Se trata de un método de investigación realizado bajo esta forma. A momento, los investigadores cualitativos disponen de todo un repertorio de paradigmas, métodos y estrategias que emplear en sus investigaciones. Las teorías van desde el interaccionismo simbólico hasta el constructivismo, la indagación naturalista, positivismo y post-positivismo, fenomenología, etno-metodología, crítica semiótica, estructuralismo, feminismo y varios paradigmas étnicos. La investigación cualitativa va ganando en valor, y la política y la ética de la investigación cualitativa fueron tópicos de gran interés. Las estrategias de investigación se fundamentan a partir de la “teoría fundamentada” hasta el estudio de casos, los métodos históricos, biográficos, la etnografía en la acción y la investigación. También se dispone de diversas normas para recoger y analizar materiales empíricos, incluyendo la entrevista cualitativa, la observación, la visualización, la experiencia personal y los métodos documentales.

Glaser y Strauss desarrollaron la teoría fundamentada como un método de investigación proveniente del interaccionismo simbólico y como un método para derivar sistemáticamente teorías sobre el comportamiento humano y el mundo social, con una base empírica. En la práctica, los investigadores, comúnmente, se refieren a la teoría fundamentada como un modo de análisis. Como cualquier otro método cualitativo, la teoría fundamentada ofrece una manera de representar la realidad que arroje luz o un entendimiento sobre lo estudiado. Los investigadores la utilizan con el objetivo de crear categorías teóricas a partir de los datos y analizar las relaciones relevantes que hay entre ellas. Es decir, a través de los procedimientos analíticos, se construye teoría que está fundamentada en los datos, de ahí su nombre. El interés que tiene es que hace explícitos los procedimientos de análisis cualitativo y ayuda a los investigadores a desarrollar conceptualizaciones útiles de los datos. Hasta antes de su creación, el análisis cualitativo dependía de métodos implícitos y por tanto de la intuición y el talento de los investigadores.

AtlasTi es una herramienta informática cuyo objetivo es facilitar el análisis cualitativo de, principalmente, grandes volúmenes de datos textuales. Puesto que su foco de atención es el análisis cualitativo, no pretende automatizar el proceso de análisis, sino simplemente ayudar al intérprete humano agilizando considerablemente muchas de las actividades implicadas en el análisis cualitativo y la interpretación, como por ejemplo la segmentación del texto en pasajes o citas, la codificación, o la escritura de comentarios y anotaciones; es decir, todas aquellas actividades que, de no disponer del programa, se realizaría con la ayuda de otras herramientas como papel, lápices de colores, tijeras, fichas, fotocopias, etc. Sin embargo, un documento es, en realidad, la combinación de diferentes elementos: una serie de caracteres relacionados con códigos de formato: negritas, cursiva, definición de márgenes, etc.; es decir, con propiedades de esos caracteres o datos “brutos”. Una presentación son imágenes combinadas entre sí siguiendo una serie de criterios y a las que se aplica una serie de características: orden, tiempo de presentación en pantalla, efectos de difuminado, etc.; mientras que una hoja de cálculo incluirá, por ejemplo, fórmulas para el tratamiento de los datos numéricos.

En el caso de AtlasTi el resultado del trabajo realizado será un archivo, almacenado en el disco duro de la computadora o en una unidad externa de almacenamiento, compuesto por una serie de elementos. En este caso, al archivo es denominado Unidad Hermenéutica y sus componentes principales son los siguientes: (1) Los documentos primarios, que constituyen la base del análisis, es decir, los “datos brutos”. (2) Las citas, que son fragmentos de los documentos primarios que tienen algún significado. (3) Los códigos suelen ser, aunque no necesariamente, la unidad básica de análisis. (4) Las anotaciones son comentarios de un nivel cualitativamente superior, puesto que son todas aquellas anotaciones que realiza el analista durante el proceso de análisis. (5) Las familias pueden ser vistas como agrupaciones de citas. (6) Las redes permiten representar información compleja de una forma intuitiva mediante representaciones gráficas de los diferentes componentes y de las relaciones que se hayan establecido entre ellos.

Para fines de la propuesta, se debe reconocer que el proceso de ingeniería de requerimientos consiste fundamentalmente en la elicitación, análisis, validación y especificación de las necesidades de los clientes. En el contacto que se tiene entre el ingeniero del software con los clientes, lo que normalmente se recoge son datos cualitativos antes que cuantitativos. Los datos cualitativos por lo general provienen desde las entrevistas en profundidad, discursos, entrevistas focales, diarios, informes y testimonios; con la adición de los sistemas computarizados se propone la inclusión de textos de carácter general, documentos históricos, fotografías, imágenes, videos y sonidos. Valga hacer una distinción del dato cualitativo: Los ingenieros de requerimiento consideran datos a toda una serie de elementos relativos a las interacciones de los sujetos entre sí y con el propio ingeniero, sus actividades y los contextos en que tienen lugar, la información proporcionada por los sujetos, bien a iniciativa propia o a requerimiento del ingeniero de requerimientos, o por los artefactos que construyen y usan, sean estos documentos escritos u objetos materiales.

Se propone realizar el proceso de ingeniería de requerimientos a través de la teoría fundamentada contando como elementos con los siguientes: (1) Inicio, la mayoría de los proyectos comienzan cuando se identifica una necesidad de negocios o se descubre un nuevo mercado o servicio potencial. (2) Obtención, determina los objetivos para el sistema o producto software, qué es lo que se debe lograr, de qué forma el producto satisface las necesidades del negocio y por último cómo se utilizará el sistema o producto día a día. (3) Codificación, incluye la reunión y análisis de todos los datos que se refieren a temas, ideas, conceptos, interpretaciones y proposiciones. (4) Nivel de categorización, es entendido como una operación que agrupa o clasifica conceptualmente un conjunto de elementos, datos o códigos, que reúnen o comparten un significado, por tanto es concebida en un nivel de abstracción superior próximo a un nivel relacional conceptual. (5) Conceptualización, permite visualizar patrones o rutinas en el conjunto de datos que forman la coyuntura principal para explicar la realidad observada. (6) Teorización, consiste en la generación de conjuntos de conceptos bien relacionados vinculados por medio de oraciones de relación, las cuales juntas constituyen un marco conceptual integrado que puede usarse para explicar o predecir. (7) Negociación, se pide a los clientes, usuarios y otros interesados que ordenen sus requerimientos y después discutan los conflictos relacionados con la prioridad. (8) Especificación, se encuentra entendida como el refino de la teorización y la generación de una lista de requerimientos. (9) Validación, examina la especificación para asegurar que todos los requisitos del software se han establecido de manera precisa. (10) Gestión, consiste en un conjunto de actividades que ayudan al equipo del proyecto a identificar, controlar y rastrear los requerimientos y los cambios a estos en cualquier momento mientras se desarrolla el proyecto.

Guillermo Choque Aspiazu
http://www.eldiario.net/
Noviembre 23 de 2009

viernes, 15 de enero de 2010

Sistemas inteligentes

La inteligencia artificial es una enorme rama de la ciencia de la computación encargada del estudio y desarrollo de elementos que tratan de replicar la inteligencia y el comportamiento inteligente de las personas en las computadoras, de hecho, John McCarthy, quién acuñó el término “Inteligencia Artificial” el año 1956, la define como “la ciencia e ingeniería de hacer máquinas inteligentes”. Teniendo en cuenta que la inteligencia es un término umbral que describe un estado mental en el que se han desarrollado diversas capacidades complejas, para simular o desarrollar en las máquinas este estado mental, estas máquinas tendrían que ser capaces de razonar, conocer, planificar, aprender, comunicarse, percibir y ser capaces de interactuar con su entorno. El gran objetivo, a largo plazo, de la inteligencia artificial es el desarrollo de un sistema capaz de exhibir todas estas habilidades de una forma conjunta y sobre una gran variedad de dominios, excediendo las habilidades de un ser humano.

La inteligencia artificial abarca en la actualidad un enorme campo de acción que van desde áreas de propósito general como la percepción y el aprendizaje a otras más específicas como el juego de ajedrez, la demostración de teoremas matemáticos, el diagnóstico de enfermedades, el diseño de dispositivos y la planificación de tareas. Esta disciplina ha recibido numerosas definiciones pero básicamente se pueden descomponer desde el punto de vista del pensamiento, en sistemas que piensan como humanos o que lo hacen racionalmente y desde el punto de vista de su comportamiento, en aquellos que actúan como humanos o que lo hacen racionalmente. Sus fundamentos están en la filosofía, la matemática y la lógica, la economía, la psicología, la neurociencia, la teoría de control y la lingüística. Las aplicaciones de la inteligencia artificial que mayor difusión han tenido son los sistemas de información basados en conocimiento y los sistemas expertos, cuyo estudio y desarrollo se ha denominado ingeniería del conocimiento y suele considerarse como una especialización de la ingeniería del software aplicada al desarrollo de sistemas inteligentes. Actualmente su expansión abarca lo que se denominan ontologías y su aplicación a la Web semántica.

Durante las décadas de los años 1970 y 1980 los investigadores en inteligencia artificial llegaron al convencimiento de que las metodologías generales de solución de problemas y más específicamente los algoritmos de búsqueda tradicionales eran insuficientes para resolver problemas de mediana complejidad, surgiendo la necesidad de incorporar conocimiento limitado a un particular dominio de interés. Para lograr el objetivo de transferir los conocimientos de un experto en un dominio se ha hecho necesario poder especificarlo formalmente, destacándose la lógica, los diagramas de redes semánticas, los marcos, los objetos y otros procedimientos para la representación del conocimiento. Pero este conocimiento estático de las relaciones causales no es suficiente para producir los resultados o su explicitación por medio de sucesivas transformaciones, que en general, pueden caracterizarse como nuevos conocimientos, siendo entonces necesario desarrollar algoritmos que produzcan las inferencias buscadas, recibiendo así la denominación genérica de algoritmos o motores de inferencia.

El razonamiento basado en la lógica y sus diferentes versiones de razonamiento exacto se vieron necesitados, durante las décadas de los años 1980 y 1990, de una adaptación a la incertidumbre y la inexactitud propia de los lenguajes naturales y los sistemas de conocimientos reales. En ésta oportunidad a la lógica formal se incorporaron los conceptos probabilísticos, estableciéndose métodos de razonamiento en condiciones de incertidumbre como las redes bayesianas y de razonamiento inexacto basado en los conjuntos difusos. La ingeniería del conocimiento se enfoca en la aplicación de los anteriores conceptos al desarrollo de los sistemas basados en el conocimiento en general y al de los sistemas expertos en particular, destacándose la necesidad de la adquisición del conocimiento así como su especificación, verificación, validación, diseño e implementación en sistemas informáticos o lenguajes apropiados para la construcción de bases de conocimiento para la toma de decisiones.

El paso de la teoría de los sistemas basados en conocimiento a la construcción de los mismos, requiere la adquisición de una fluida habilidad para realizar las tareas indicadas en el punto anterior, las que solo se logran a partir de una práctica sobre un lenguaje concreto, que soporte las diferentes formas de representación como la programación basada en reglas, la orientada a objetos o marcos, la funcional y la lógica. Además el motor de inferencia debe también proveer medios de control de diferentes estrategias de razonamiento y soportar mecanismos de incertidumbre y mantenimiento de la verdad como en el caso de los razonamientos no-monotónicos. Para una visión completa se requeriría el estudio de varias herramientas de programación simbólica o directamente de bajo nivel para construir las herramientas que den sustento a las diferentes teorías de la inteligencia artificial, pero desde un punto de vista del contexto de la ingeniería del conocimiento, se encara la solución a los problemas con las herramientas de libre disponibilidad en Internet. La adquisición del conocimiento a partir de expertos humanos, si bien necesaria e insustituible en muchas aplicaciones, ha presentado diversas dificultades que van desde la representación del sentido común hasta las excesivas demoras en la implementación y el mantenimiento de los sistemas. Ante estas dificultades han surgido las técnicas de adquisición automática del conocimiento.

Para asegurar el crecimiento de los sistemas basados en conocimiento se ha hecho necesario desarrollar técnicas que permitan evitar los errores de diseño del sistema y la adquisición del conocimiento, para lo cual se los debe verificar, es decir que se demuestra su consistencia y completitud, se los debe validar, o sea que se determina la corrección El aprendizaje automático ha sido una posterior repuesta a las dificultades para la adquisición humana del conocimiento y se basa en el aprendizaje de conceptos generales a partir de casos particulares. Algunas de las técnicas más conocidas son las de inducción de árboles de decisión, las redes neuronales y los algoritmos genéticos. Actualmente la aplicación de estas técnicas a grandes bases de datos ha dado lugar a los conceptos de minería de datos y de descubrimiento de conocimientos en grandes bases de datos aplicada a la construcción de bases de conocimientos en problemas de estrategias de negocios.

Un sistema inteligente es un sistema computacional o físico, en el cual se utilizan técnicas de inteligencia artificial. Existen muchos tipos de sistemas inteligentes, siendo los más complejos los que requieren desempeñarse en forma autónoma en ambientes dinámicos o cambiantes. Los sistemas inteligentes constituyen el campo de la informática en el que se estudian y desarrollan algoritmos que implementan algún comportamiento inteligente y su aplicación a la resolución de problemas prácticos. Entre los problemas abordados en este campo, está el de descubrir conocimientos a partir de una masa de información. Esto resulta una alternativa de solución a problemas que no pueden ser resueltos mediante algoritmos tradicionales, entre los cuales se pueden mencionar la especificación de condiciones asociadas a diagnósticos técnicos o clínicos, identificación de características que permitan reconocimiento visual de objetos, descubrimiento de patrones o regularidades en estructuras de información, entre otros.

Los sistemas inteligentes son meramente sistemas software que muestran un cierto comportamiento inteligente o interactúan de una forma más inteligente con su entorno que otros sistemas. Como se puede apreciar, la barrera entre un sistema software normal y un sistema inteligente queda un tanto difusa, al igual que la barrera entre los sistemas inteligentes y la inteligencia artificial. Ejemplos típicos de sistemas inteligentes son los motores de búsqueda, los sistemas de gestión de reglas de negocio, los sistemas que permiten que los coches aparquen solos, los controles difusos de las lavadoras, etc. Un sistema inteligente aprende durante su existencia, en otras palabras, siente su entorno y aprende, para cada situación que se presenta, cuál es la acción que le permite alcanzar sus objetivos. Actúa continuamente, en forma mental y externa, y al accionar alcanza sus objetivos más frecuentemente que lo que indica la casualidad pura. Consume energía y la utiliza para sus procesos interiores y para actuar.

La inteligencia artificial se ocupa de la “investigación básica”, que trata de mejorar la implementación de cada una de las habilidades relacionadas con la inteligencia. Los sistemas inteligentes se encargan de aplicar dicha investigación, tratando de solucionar problemas ya existentes o mejorar la forma de trabajar o calidad de vida de las personas, aplicando técnicas generalmente sacadas de la inteligencia artificial. Sin la inteligencia artificial no se habría llegado a contar con sistemas inteligentes, pero también es verdad que sin los sistemas inteligentes el impacto de los avances de la inteligencia artificial en la sociedad sería menor.

Guillermo Choque Aspiazu
http://www.eldiario.net/
Noviembre 16 de 2009

jueves, 14 de enero de 2010

Minería de datos con ontologías

La ingeniería del conocimiento surge como consecuencia de la necesidad de establecer principios metodológicos y científicos que permitan desarrollar sistemas de información basados en conocimiento a partir de los fundamentos de la informática en general y de la inteligencia artificial en particular. La adquisición del conocimiento a partir de expertos humanos, si bien es necesaria e insustituible en muchas aplicaciones, ha presentado diversas dificultades que van desde la representación del sentido común hasta las excesivas demoras en la implementación y el mantenimiento de los sistemas. Ante estas dificultades han surgido las técnicas de adquisición automática del conocimiento.

Para asegurar el crecimiento de los sistemas basados en el conocimiento se ha hecho necesario desarrollar técnicas que permitan evitar los errores de diseño del sistema y la adquisición del conocimiento, para lo cual se los debe verificar, es decir que se demuestra su consistencia y completitud, se los debe validar, o sea que se determina la corrección. El aprendizaje automático ha sido una respuesta a las dificultades para la adquisición humana del conocimiento y se basa en el aprendizaje de conceptos generales a partir de casos particulares. Algunas de las técnicas más conocidas son las de inducción de árboles de decisión, las redes neuronales y los algoritmos genéticos. Actualmente la aplicación de estas técnicas a grandes bases de datos ha dado lugar a los conceptos de minería de datos y de descubrimiento de conocimientos en grandes bases de datos.

De manera general se puede decir que la minería de datos consiste en la “explotación” de datos en bruto. Su objetivo, perseguido mediante la manipulación automática o semiautomática de los datos, es la obtención de información clave para conseguir beneficios, información más relevante y útil que los propios datos de partida. La minería de datos se fundamenta en la intersección de diversas áreas de estudio, entre las que cabe destacar: análisis estadístico, bases de datos, inteligencia artificial y visualización gráfica. Una buena definición de lo que es minería de datos puede ser la siguiente: “Es el empleo de algoritmos y procedimientos para sacar a la luz asociaciones, correlaciones, reglas, patrones e incluso excepciones interesantes o potencialmente útiles, desconocidos y escondidos en bases de datos o almacenes de datos. La importancia de la minería de datos crece de manera análoga al crecimiento en el tamaño de las bases de datos. En las bases de datos pequeñas son suficientes las técnicas estadísticas tradicionales y las aplicaciones relativamente sencillas.

A veces se ha apelado al nombre de “descubrimiento de conocimiento en bases de datos” para hacer referencia a la minería de datos; sin embargo, muchos autores prefieren referirse al proceso de minería de datos como al de la aplicación de un algoritmo para extraer patrones de datos y a descubrimiento de conocimiento como al proceso completo: pre-procesamiento, minería, post-procesamiento. En este sentido, el descubrimiento de conocimiento en bases de datos implica un proceso interactivo e iterativo, involucrando la aplicación de métodos de minería de datos, para extraer o identificar lo que se considera como conocimiento de acuerdo a la especificación de ciertos parámetros usando una base de datos, junto con el pre-procesamiento, muestreo y transformaciones de la base de datos. La meta de este proceso es justamente resolver de manera automática grandes cantidades de datos crudos, identificar los patrones más significativos y relevantes, y presentarlos como conocimiento apropiado para satisfacer las metas del usuario.

Las herramientas de la minería de datos desarrolladas en profundidad en los últimos años, son de mucha utilidad en las organizaciones, ya que permiten el análisis de grandes volúmenes de información, con el fin de obtener resúmenes y conocimiento que apoye la toma de decisiones y que pueda construir una experiencia a partir de los millones de transacciones detalladas que registra una corporación en sus sistemas informáticos; científicos del área han desarrollado técnicas de visualización de los modelos de comportamiento obtenidos en estos procesos, que relacionan información relevante con un mayor grado de análisis para ser utilizada con efectividad en la toma de decisiones.

No obstante, los procesos de minería de datos lo que permiten obtener son modelos de comportamiento y no necesariamente, conocimiento semánticamente estructurado de conocimiento, con lo cual son efectivas para gestionar información, que luego, a través de otros procesos puede convertirse en conocimiento. En la década de los años 1990, con el desarrollo de la Web y los deseos de compartir y rehusar el conocimiento, las investigaciones sobre sistemas de representación del conocimiento comenzaron a cobrar importancia en la medida en que el problema de la búsqueda y recuperación de información se agudizó, y el Consorcio Web inició el proyecto de la Web semántica. Entre estos sistemas se destacan las taxonomías de dominio, los mapas de tópicos, los mapas conceptuales, las ontologías, entre otros. Aunque la investigación que hoy día se lleva a cabo sobre estos sistemas es básicamente para su empleo en la búsqueda y recuperación de información en la Web, concretamente en el proyecto de la Web semántica. Estos sistemas tienen grandes posibilidades de uso en los sistemas de información organizacional como herramienta para la gestión del conocimiento, debido a que pueden representar el conocimiento que existe sobre un determinado dominio. De todos los sistemas antes expuestos, destaca la ontología como el sistema de representación propuesto por el Consorcio Web para la gestión semántica en la Web, y a su vez, parece que puede ser empleada para la gestión del conocimiento en las organizaciones.

El objetivo de las ontologías en la inteligencia artificial es representar procesos del tipo no algorítmico con el fin de dotar a los sistemas inteligentes de la suficiente flexibilidad que les permita reproducir, en alguna medida, los procesos cognitivos que se llevan a cabo en la mente humana. Con el desarrollo de la Web y los deseos de compartir y reusar el conocimiento, la investigación sobre las ontologías como posibles sistemas para representar el conocimiento almacenado en las páginas Web, comenzó a cobrar importancia en la medida en que el problema de la búsqueda y recuperación de información se agudizó, y el Consorcio Web comenzó a desarrollar el proyecto de la Web semántica. En el entorno de la hipertextualidad, la ontología ha sido definida como: Una representación explícita y formal de una conceptualización compartida.

En la definición de ontología se destacan los siguientes elementos: (1) La conceptualización corresponde a una parte del mundo o universo que es objeto de tratamiento. Es un modelo que se construye a partir de identificar los conceptos que componen un dominio del conocimiento, y las relaciones relevantes establecidas entre dichos conceptos, por lo que la base de toda ontología es una taxonomía o clasificación de conceptos. (2) Es compartida porque debe ser consensuada y aceptada por un grupo o comunidad científica. Si un grupo o comunidad debe establecer consenso sobre cómo ven el campo de conocimiento sobre el que trabajan, es bastante fácil, que aflore el conocimiento tácito que de manera individual posee cada miembro a un nivel micro y cada grupo a un nivel macro. (3) Explícita porque se define el conocimiento implícito que existe sobre determinada noción y esa definición es a través del lenguaje natural, lo que la dota de capacidades didácticas. (4) Formal, porque es legible por la computadora, es decir, debe ser desarrollada y puesta en marcha a través de lenguajes computacionales, lo que permite también su reutilización en otros procesos como la gestión de información, específicamente, como sistemas para la organización y de recuperación de información en intranets, bibliotecas digitales, sitios Web, etc.

De esta manera, se puede ver la relación entre ontologías y minería de datos de dos modos: (1) Desde las ontologías a la minería de datos, se incorpora el conocimiento al proceso por el uso de ontologías, es decir como los expertos entienden y realizan las tareas de análisis. Las aplicaciones representativas son ayudantes inteligentes para el proceso de descubrimiento, la interpretación y la validación del conocimiento extraído, las ontologías para recursos y la descripción de servicios. (2) Desde la minería de datos a las ontologías, se incluye el conocimiento del dominio en la información de entrada o se utiliza las ontologías para representar los resultados. Por lo tanto el análisis es realizado sobre estas ontologías. Las aplicaciones más representativas se encuentran en la medicina, biología y datos espaciales, como: la representación de genes, taxonomías, aplicaciones en geociencias y aplicaciones médicas.

Guillermo Choque Aspiazu
http://www.eldiario.net/
Noviembre 9 de 2009

viernes, 8 de enero de 2010

Lógica cuántica

La computación cuántica es una corriente que se está propagando dentro de las nuevas investigaciones, con el objetivo de hacer que las máquinas puedan resolver en un tiempo menor los problemas. Con este tipo de investigación se logra fusionar dos teorías que están luchando por mantenerse una y sobresalir la otra, la física clásica y la física cuántica, los conceptos de una y otra hicieron nacer primero el concepto de computación normal y ahora con los nuevos conceptos aplicados a la computación de la física cuántica surge la computación cuántica.

Una de las primeras presentaciones de la idea de potencialidad clásica puede ser encontrada en el famoso poema de Parménides con la exposición del principio lógico de no contradicción. Este principio esconde una ontología donde lo actual, lo determinado, se presenta como fundamento de toda forma de pensamiento. El principio de no contradicción evita la posibilidad de pensar aquello que se encuentra indeterminado, todo debe ser en tanto que es, o no es. El espectro se resume, se amputa ante la posibilidad de lo indeterminado. Del mismo modo, en lógica clásica, las proposiciones encuentran su determinación en las tablas de verdad: una proposición resulta entonces verdadera o falsa. El principio de no contradicción esconde detrás de sí el principio de identidad: si A es A, entonces A no puede ser no A.

Este presupuesto se presenta como una intuición incuestionable, sin embargo, existen muchos camia la hora de “elegir”. Una lógica exenta del principio de no contradicción no se encuentra condenada al sinsentido, muy por el contrario, del mismo modo en que la geometría no Euclidiana resulta un sistema en pie de igualdad al de la geometría Euclidiana, las lógicas carentes de éste principio pueden sostener cierto “sentido”. La geometría de Riemann atenta contra el “sentido común”: en ella la idea de que dos paralelas no se cruzan es dejada de lado. Los matemáticos anteriores buscaban una demostración ad absurdum de la imposibilidad de desprenderse del quinto axioma de Euclides; en su lugar Riemann erigió un nuevo sistema en geometría tan consistente como su predecesor. Este sinsentido, que es la geometría de Riemann, hizo posible el desarrollo de la teoría de la relatividad, una de las más bellas teorías creadas por el hombre; del mismo modo, una lógica carente del principio de no contradicción puede abrir las puertas de la mecánica cuántica. El principio de no contradicción hace explicita la negación de aquello que se presenta indeterminado; ha creado al mismo tiempo un sendero “seguro” que ha seguido el pensamiento occidental a través de centurias. Este es el camino de la objetividad. La idea de objeto se sustenta en la estabilidad del ser, en la posibilidad de adjudicar a una entidad una serie de propiedades que la determinan.

El significado de una sentencia elemental en la lógica asociada a la computación cuántica está representado por la cantidad de información cuántica codificada en una colección de qbits, el equivalente cuántico de los bits clásicos o de qmixes. La conjunción y la disyunción de la información contenida en los q-registros tienen características diferentes de sus homónimas no solo en la lógica clásica sino también en la lógica cuántica estándar. La articulación de esas sentencias admite además otros conectivos, como el unario no funcional, que reflejan un comportamiento cuántico genuino asociado al procesamiento de la información en una computadora cuántica, en particular la aparición de estados tipo gato de Schrodinger de los qbits, que no admiten un paralelo ni en la lógica clásica ni en la cuántica ordinaria. Se puede decir que existe una lógica cuántica, pero esa lógica fue inventada mucho antes de la computación cuántica; fue desarrollada con base en la mecánica cuántica, de manera ad-hoc, tratando de capturar su comportamiento. Luego, con el advenimiento de la computación cuántica, se ha tratado intensamente de hacer una correspondencia entre los algoritmos cuánticos y la lógica cuántica, para lo cual se ha ido modificando la lógica a medida que avanzan las investigaciones de manera de adecuarla a los algoritmos.

En física, la lógica cuántica es el conjunto de reglas algebraicas que rigen las operaciones para combinar y los predicados para relacionar proposiciones asociadas a acontecimientos físicos que se observan a escalas atómicas. Ejemplos de tales proposiciones son aquellas relativas al momento lineal o a la posición en el espacio de un electrón. La lógica cuántica puede considerarse como un sistema formal paralelo al cálculo proposicional de la lógica clásica, donde en esta última, las operaciones para combinar proposiciones son las conectivas lógicas y los predicados entre proposiciones son la equivalencia y la implicación. La lógica cuántica fue creada con el propósito de tratar matemáticamente las anomalías relativas a la medición en la mecánica cuántica. Estas anomalías surgen por la medición simultánea de observables complementarios en escalas atómicas.

El concepto de lógica cuántica fue propuesto originalmente por Garrett Birkhoff y John von Neumann en el año 1936. Tal como fue propuesta originalmente, la lógica cuántica se fundamenta en la idea que el reticulado de proyecciones ortogonales en un espacio de Hilbert es la estructura que corresponde en la mecánica cuántica al reticulado de proposiciones en la física clásica. La lógica cuántica puede formularse como una versión modificada de la lógica proposicional. Tiene algunas propiedades que la diferencian de la lógica clásica, la más notable es que la propiedad distributiva, que constituye una propiedad básica en la lógica clásica, ya no es válida en la lógica cuántica.

La tesis que la lógica cuántica es la lógica apropiada para el raciocinio de manera general ha sido trabajada por varios filósofos y físicos. Entre los proponentes de esta tesis se encuentra el filósofo estadounidense Hilary Putnam, la tesis mencionada fue un ingrediente importante en su trabajo titulado "¿Es empírica la lógica?" en el cual analizó el fundamento epistemológico de las leyes de la lógica proposicional. Putnam atribuyó la idea que las anomalías asociadas a la medición cuántica surgen de anomalías en la lógica de la física misma, en conjunción con el investigador David Finkelstein.

La idea que una modificación de las reglas de la lógica sería necesaria para razonar correctamente con proposiciones relativas a eventos subatómicos, había existido en alguna forma con anterioridad al trabajo de Putnam. Ideas parecidas, aunque con menos proyección filosófica habían sido propuestas por el matemático George Mackey en sus estudios en los cuales relacionaba la teoría cuántica y la teoría de representaciones unitarias de grupos. Sin embargo, el punto de vista más prevaleciente entre los especialistas en fundamentos de mecánica cuántica, es que la lógica cuántica no debe considerarse como un sistema de reglas de deducción. Lo que la lógica cuántica proporciona es un formalismo matemático para relacionar diversos elementos de la mecánica cuántica, que son, a saber, filtros físicos para la preparación de estados y los estados mismos.

Las leyes formales de una teoría física están justificadas por un proceso de repetidas observaciones controladas. Esto, desde el punto de vista físico constituye el significado de la naturaleza empírica de estas leyes. La idea de una lógica proposicional con reglas radicalmente diferentes de la lógica booleana no era algo novedoso. De hecho, como ya se ha mencionado, Birkhoff y von Neumann lo habían intentado a partir precisamente de la mecánica cuántica. Putnam y el físico David Finkelstein propusieron que había algo más en esta correspondencia que la mera analogía: Que de hecho existía un sistema lógico cuya semántica estaba dada por un retículo de los operadores de proyección en un espacio de Hilbert. Esta era en realidad la lógica correcta para razonar sobre el mundo microscópico.

Desde esta perspectiva, la lógica clásica era meramente un caso límite de esta nueva lógica. Si así fuera el caso, entonces la lógica booleana “preconcebida” tendría que ser rechazada por evidencia empírica en la misma forma en que la geometría euclidiana fue rechazada sobre la base de los hechos que apoyan la teoría de la relatividad general. Este argumento favorece la concepción de que las reglas de la lógica son empíricas. Dicha lógica llegó a ser conocida como lógica cuántica. Sin embargo, hay algunos filósofos hoy en día que ven esta lógica como un reemplazo de la lógica clásica; Putnam sostiene esta opinión. La lógica cuántica continua siendo utilizada como un formalismo fundacional para la mecánica cuántica, pero en una forma en que los eventos primitivos no son interpretados como frases atómicas sino en términos operacionales como los resultados posibles de las observaciones. Por consiguiente la lógica cuántica proporciona una teoría matemática unificada y consistente de los observables físicos y la medición cuántica.

Guillermo Choque Aspiazu
http://www.eldiario.net/
Noviembre 2 de 2009

jueves, 7 de enero de 2010

Nanotecnología para dispositivos moviles

La nanotecnología es un campo de las ciencias aplicadas, dedicada al control y manejo de la materia a una escala menor que un micrómetro, es decir, a nivel de átomos y moléculas. Lo más habitual es que tal manejo se produzca en un rango de entre uno y cien nanómetros. Para hacerse una idea de lo pequeño que puede ser un nanobot, más o menos uno de cincuenta nano metros tiene el tamaño de cinco capas de moléculas o átomos. Nano es un prefijo griego que indica una medida, no un objeto, de manera que la nanotecnología se caracteriza por ser un campo esencialmente multidisciplinario, y cohesionado exclusivamente por la escala de la materia con la que trabaja.

Un nanómetro es la mil millonésima parte de un metro. Para comprender el potencial de esta tecnología resulta factor clave saber que las propiedades físicas y químicas de la materia cambian a escala nanométrica, lo cual se debe a efectos cuánticos. La conductividad eléctrica, el calor, la resistencia, la elasticidad, la reactividad, entre otras propiedades, se comporta de manera diferente que en los mismos elementos a mayor escala. Las nanotecnologías prometen beneficios de todo tipo, desde aplicaciones médicas nuevas o más eficientes a soluciones de problemas ambientales y muchos otros; aunque en las investigaciones actuales con frecuencia se hace referencia a la nanotecnología, en forma de motores moleculares, computación cuántica, etcétera, siendo discutible que la nanotecnología sea una realidad hoy en día. Los progresos actuales pueden calificarse más bien de nanociencia, cuerpo de conocimiento que sienta las bases para el futuro desarrollo de una tecnología basada en la manipulación detallada de las estructuras moleculares

Uno de los aspectos más interesantes del teléfono celular es que es solamente un radio, extremadamente sofisticado, pero un radio a fin de cuentas. El teléfono fue inventado por Alexander Graham Bell en el año 1876, y la comunicación inalámbrica tiene sus raíces en la invención del radio por Nikolai Tesla en la década de 1880. El radio fue formalmente presentado en 1894 por un joven italiano llamado Guillermo Marconi. Era de esperarse que un día ambas tecnologías fueran combinadas en un mismo aparato. En la época predecesora a los teléfonos celulares, la gente que realmente necesitaba comunicación móvil tenía que confiar en el uso de radio-teléfonos en sus autos. En el sistema radio-telefónico, existía sólo una antena central por cada ciudad, y probablemente veinticinco canales disponibles en la torre. Esta antena central significaba que el teléfono en el vehículo requeriría una antena poderosa, lo suficientemente poderosa para transmitir a cincuenta o sesenta kilómetros de distancia. Esto también significaba que pocas personas podrían usar estos radio-teléfonos, debido a que no existían suficientes canales para conectar los mismos.

Los primeros sistemas de telefonía móvil civil empiezan a desarrollarse a partir de finales de los años 1940 en los Estados Unidos. Estos sistemas de radio analógicos utilizaron en el primer momento amplitud modulada y posteriormente frecuencia modulada. Se popularizó el uso de sistemas de frecuencia modulada gracias a su superior calidad de audio y resistencia a las interferencias. Los primeros equipos eran bastante grandes y pesados, por lo que estaban destinados casi exclusivamente a su uso a bordo de vehículos. Generalmente se instalaba el equipo de radio en el maletero y se pasaba un cable con el teléfono hasta el salpicadero del coche. Una de las compañías pioneras que se dedicaron a la explotación de este servicio fue la americana Bell, con su servicio móvil denominado “Servicio de los Sistemas Bell”. No era un servicio popular porque era extremadamente caro, pero estuvo operando desde el año 1946 hasta el año 1985.

La primera generación de celulares tuvo su origen en el año 1981, cuando el fabricante Ericsson lanza el sistema de “Telefonía Móvil Nórdico” con 450 mega hertz. Este sistema seguía utilizando canales de radio analógicos con frecuencia modulada. Era el primer sistema del mundo de telefonía móvil tal como se la entiende hoy en día. Los equipos de esta primera generación pueden parecer algo aparatosos para los estándares actuales pero fueron un gran avance para su época, ya que podían ser trasladados y utilizados por una única persona. En el año 1986, Ericsson modernizó el sistema, llevándolo hasta el nivel de 900 mega hertz. Esta nueva versión funcionaba prácticamente igual que la anterior pero a frecuencias superiores, esto posibilitó proporcionar servicio a un mayor número de usuarios y avanzar en la portabilidad de los terminales. Además del sistema de telefonía móvil nórdico, en los años 1980 se desarrollaron otros sistemas de telefonía móvil tales como: El “Sistema de Telefonía Móvil Avanzada” y los “Sistemas de Comunicación de Acceso Total” en los Estados Unidos.

La segunda generación data tiene su inicio, a mediados de los años 1990. Esta generación utiliza sistemas tales como los “Sistemas Globales para Móviles”. Las frecuencias utilizadas en Europa fueron de 900 y 1800 mega hertz. El desarrollo de esta generación tiene como piedra angular la digitalización de las comunicaciones. Las comunicaciones digitales ofrecen una mejor calidad de voz que las analógicas, además se aumenta el nivel de seguridad y se simplifica la fabricación del terminal (con la reducción de costos que ello conlleva. El estándar que ha universalizado la telefonía móvil ha sido el archiconocido “Sistema Global para Comunicaciones Móviles”. Este sistema se trata de un estándar europeo nacido bajo el paraguas de los siguientes principios: (1) Buena calidad de voz, gracias al procesado digital. (2) Itinerancia. (3) Deseo de implantación internacional. (4) Terminales realmente portátiles a un precio asequible. (5) Compatibilidad con la Red Digital de Servicios Integrados. (6) Instauración de un mercado competitivo con multitud de operadores y fabricantes. Realmente, el sistema global para comunicaciones móviles, ha cumplido con todos sus objetivos pero al cabo de un tiempo empezó a acercarse a la obsolescencia porque sólo ofrecía un servicio de voz o datos a baja velocidad y el mercado empezaba a requerir servicios multimedia que hacían necesario un aumento de la capacidad de transferencia de datos del sistema.

La tercera generación nace de la necesidad de aumentar la capacidad de transmisión de datos para ofrecer servicios como la conexión a Internet desde el móvil, la videoconferencia, la televisión y la descarga de archivos. En ese momento el desarrollo tecnológico ya posibilita un sistema totalmente nuevo: el Sistema de Telecomunicaciones Móviles Universal. Este sistema utiliza la tecnología de “Acceso Múltiple a la División de Código”, lo cual le hace alcanzar velocidades realmente elevadas, de ciento cuarenta kilo bytes por segundo hasta siete punto dos mega bytes por segundo, según las condiciones del terreno.

Entrando en tema, según la revista “Sci-Tech”, investigadores de los Laboratorios Bell de Lucent están desarrollando teléfonos a nano-escala para la “Agencia de Proyectos de Investigación Avanzada” del Ministerio de Defensa de los Estados Unidos. Estos nano-teléfonos consisten en transmisores de radio cuyo tamaño es igual al diámetro de un pelo humano. Se podría utilizar los transmisores para estudiar procesos dentro de células vivas y medir potenciales químicos, campos eléctricos y presiones. Las declaraciones de David Bishop, vice presidente de Laboratorios Bell, suponen una nueva posibilidad para reducir el tamaño de la tecnología existente a su límite práctico. Las partes de los teléfonos celulares que ayudan a enviar y recibir datos representan los componentes más costosos y los que más energía consumen. Según Bishop, con la nanotecnología se pueden reducir costos, aumentar la funcionalidad y disminuir el consumo de energía de manera drástica. Los amplificadores de frecuencia de radio utilizados en los teléfonos celulares son filamentos de tungsteno calientes cuya eficiencia de potencia llega al diez por ciento. El objetivo de las investigaciones actuales es sustituir estos filamentos, que consumen mucha potencia de la batería, con conjuntos de nanotubos de carbón cultivados en platos de silicio que actúen como tubos al vacío altamente eficientes que emiten electrones.

Algunas investigaciones que se están desarrollando, en el campo de la nanotecnología para dispositivos moviles, incluyen: (1) Micro-micrófonos para mejorar la filtración de interferencias y la recepción de sonidos deseados. Los micro-micrófonos desarrollados por Bell Labs incorporan membranas de silicio y otros materiales compuestos. (2) Lentes líquidas que son apretadas entre platos transparentes pintados con nano-capas que permite el movimiento del líquido sin viscosidad permitiendo que la lente pueda transformar para que mantenga su objetivo enfocado. (3) Baterías inteligentes fabricadas con nanotubos de silicio. (4) Nano-brújulas que, una vez conectadas con sistemas de posicionamiento global, permitirán utilizar el teléfono para detectar la localización exacta y utilizar servicios que indican las direcciones para llegar de un sitio a otro. (5) Nanosensores para que el teléfono móvil detecte la presencia de productos químicos en el ambiente.

Guillermo Choque Aspiazu
http://www.eldiario.net/
Octubre 26 de 2009