La información puede definirse como la “comunicación o adquisición de conocimientos que permiten ampliar o precisar los que se poseen sobre una materia determinada”. En esta definición se recogen los tres aspectos esenciales de la información, a saber: transmisión, procesado, y almacenamiento. El aspecto de transmisión corresponde a la “comunicación”. También el término “adquisición” puede entenderse como proporcionado por la transmisión: para ello es necesario hacer la abstracción de que el emisor de la señal, de la información comunicada, no es necesariamente un ser consciente. Así, se puede recibir información de un proceso físico. Y, de hecho, desde el punto de vista de entrada de información, el que ésta haya sido transmitida desde una voluntad de proporcionar esa información o no es irrelevante. Por lo que se prescinde de la volición del emisor para conceptualizar el proceso de comunicación, de manera análoga para el receptor. En cuanto al procesado, naturalmente parece implicar una sucesión de estados, que serán anímicos o mentales en un ser vivo o consciente, o meramente estados de un sistema físico. Por lo que a almacenamiento se refiere, las implicaciones físicas de la palabra son evidentes, y más aún en la actual sociedad tecnológica.
La teoría de la información es una rama de la teoría matemática de la probabilidad y la estadística que estudia la información y todo lo relacionado con ella, es decir canales, compresión de datos, criptografía y otros temas. La teoría de la información fue iniciada por Claude E. Shannon a través de un artículo publicado el año 1948, titulado “Una teoría matemática de la comunicación”. En este, la información es tratada como magnitud física y para caracterizar la información de una secuencia de símbolos se utiliza el concepto de entropía. Se parte de la idea de que los canales no son ideales, aunque muchas veces se idealicen las no linealidades, para estudiar diversos métodos utilizados para enviar información o la cantidad de información útil que se puede enviar a través de un canal. La teoría de la información matemática y la teoría de la codificación son dos disciplinas relativas al problema de transmitir información, de manera eficiente y precisa, desde una fuente a un receptor. Su análisis comienza por tratar de manera cuantitativa la información y sus diferentes manejos. Proporciona las bases teóricas para la observación, medida, compresión de datos, almacenamiento de datos, comunicación y sistemas de transmisión, estimación y toma de decisiones.
Se habla de la “teoría de la información cuántica”, un campo de investigación relativamente joven, que propone emplear sistemas cuánticos para almacenar y procesar información de manera más eficiente que por medios clásicos. La idea básica es muy sencilla y utiliza el principio de superposición de la mecánica cuántica: un sistema físico puede encontrarse en una superposición de dos o más estados medibles. Por ejemplo, los electrones tienen un momento angular intrínseco, el espín, que dada una dirección puede estar “apuntando hacia arriba”, o “hacia abajo”. Pero un electrón también puede encontrarse en un estado intermedio con el 50% de probabilidad de cada sentido.
La teoría de la información cuántica ha descubierto que el entrelazamiento o coherencia es, como la energía, un recurso cuantificable que posibilita tareas de procesado de información: algunos sistemas tienen un poco de entrelazamiento, otros mucho. Cuanto mayor sea el entrelazamiento disponible, más valdrá un sistema para el procesado cuántico de la información. Esta ciencia es lo bastante nueva para que se esté aún intentando aprehender su auténtica naturaleza. Si se llega a conocer los principios generales o leyes del entrelazamiento o coherencia cuántica quizá se podrá interpretar la complejidad de los sistemas cuánticos. La transición entre lo cuántico y lo clásico, en los sistemas complejos con muchas partes constituyentes, ocurre porque los grandes sistemas cuánticos interaccionan fuertemente con su entorno y sufren un proceso de decoherencia o pérdida del entrelazamiento que destruye las propiedades cuánticas del sistema. La clave para que un sistema complejo presente un comportamiento verdaderamente cuántico consiste en aislar muy bien el sistema del resto del mundo, de forma que se evite la decoherencia y se preserven los frágiles estados cuánticos. Conforme sea más complejo el sistema más difícil será aislarlo de las interacciones del medio y de hecho los grandes sistemas, prácticamente todos los objetos que se encuentran alrededor de las personas, por pequeños que sean, han perdido su coherencia cuántica y presentan un comportamiento puramente clásico, siendo esta la mayor dificultad a la hora de construir una computadora cuántica.
El recurso fundamental en el tratamiento de la información cuántica es el qubit, objeto cuántico ideal que proviene de la mecánica cuántica. Sus propiedades son independientes del soporte físico sobre el que se trate, sea el espín de un núcleo atómico o de la polarización de un electrón. Cualquier objeto que tenga dos estados diferentes, necesariamente, poseerá además un conjunto de otros estados posibles conocidos como superposiciones, que incluyen ambos estados en grados distintos. El continuo cambio de estados entre el cero y el uno causa muchas de las extraordinarias propiedades de la información cuántica. Los qubits individuales son interesantes, pero cuando se combinan varios entrelazándose aparece un comportamiento aún más fascinante. Estos estados entrelazados poseen propiedades fundamentalmente distintas de las que caracterizan a cualquier ente de la física clásica. Para Schrödinger el entrelazamiento no era un rasgo característico, sino el rasgo característico de la mecánica cuántica, el que la aparta por completo de las líneas de pensamiento clásicas. Los objetos entrelazados se comportan como si estuvieran conectados entre sí, con independencia de lo alejados que se hallen el uno del otro, pues la distancia no atenúa lo más mínimo el entrelazamiento. Si se realiza una medición sobre un ente entrelazado con otros objetos, proporcionará a la vez información acerca de éstos. Sin embargo el entrelazamiento no vale para enviar señales más deprisa que la velocidad de la luz, pues la naturaleza probabilística de la mecánica cuántica desbarata tal posibilidad.
El año 2001, Benjamin Schumacher, del Kenyon College, planteó que los elementos esenciales de la ciencia de la información, tanto clásica como cuántica, se resumían en un procedimiento que abarca tres etapas: (1) Identificar un recurso físico. Una cadena de bits o qubits codificados mediante objetos físicos reales, en el presente caso los dos estados fundamentales de un átomo, o del spin de un electrón, por ejemplo, que pueden codificar un qubit. (2) Identificar una tarea de procesado de información que pueda realizarse gracias al recurso físico del paso. (3) Identificar un criterio que establezca cuándo ha tenido éxito la tarea del paso (2). La pregunta fundamental que la ciencia de la información menciona, en este entendido es:¿Cuál es la mínima cantidad de recurso físico (1) que se necesita para realizar la tarea de procesamiento de la información (2) cumpliendo el criterio de éxito (3)?.
El año 1948 Shannon resolvió el problema fundamental relacionado con la información clásica, determinando el mínimo número de bits necesarios para almacenar la información producida por una fuente. Sus trabajos fundaron la teoría de la información, y su expresión matemática del contenido de información recibe hoy el nombre de entropía de Shannon. La clave de la nueva ciencia la tiene la calibración del entrelazamiento de los qubits. Las medidas cuantitativas del entrelazamiento están demostrando una enorme utilidad como conceptos unificadores en la descripción de una amplia gama de fenómenos. Se puede analizar el flujo de entrelazamiento, de un subsistema a otro, que se requiere para ejecutar un determinado proceso de información, de forma parecida a como se estudia el flujo de energía entre distintas partes de un sistema, pues el entrelazamiento de un estado se puede transmitir a otro tal como fluye la energía.
Además de las generalizaciones cuánticas de nociones clásicas como las de fuentes, canales y códigos, esta nueva teoría de la información incluye dos tipos complementarios de información cuantificable: la información clásica y el entrelazamiento cuántico. La información clásica puede copiarse a voluntad, pero sólo puede transmitirse hacia adelante en el tiempo, hacia un receptor situado en el cono de luz futuro del emisor. Por el contrario, el entrelazamiento no puede copiarse, pero puede conectar dos puntos cualesquiera en el espacio-tiempo. Las operaciones convencionales de procesamiento de datos destruyen el entrelazamiento, pero las operaciones cuánticas pueden crearlo y usarlo para distintos propósitos, como acelerar determinadas computaciones clásicas o ayudar en la transmisión de información clásica o de estados cuánticos. Una parte de esta teoría consiste en el estudio cualitativo y cuantitativo del entrelazamiento y de sus interacciones con la información clásica.
La teoría de la información es una rama de la teoría matemática de la probabilidad y la estadística que estudia la información y todo lo relacionado con ella, es decir canales, compresión de datos, criptografía y otros temas. La teoría de la información fue iniciada por Claude E. Shannon a través de un artículo publicado el año 1948, titulado “Una teoría matemática de la comunicación”. En este, la información es tratada como magnitud física y para caracterizar la información de una secuencia de símbolos se utiliza el concepto de entropía. Se parte de la idea de que los canales no son ideales, aunque muchas veces se idealicen las no linealidades, para estudiar diversos métodos utilizados para enviar información o la cantidad de información útil que se puede enviar a través de un canal. La teoría de la información matemática y la teoría de la codificación son dos disciplinas relativas al problema de transmitir información, de manera eficiente y precisa, desde una fuente a un receptor. Su análisis comienza por tratar de manera cuantitativa la información y sus diferentes manejos. Proporciona las bases teóricas para la observación, medida, compresión de datos, almacenamiento de datos, comunicación y sistemas de transmisión, estimación y toma de decisiones.
Se habla de la “teoría de la información cuántica”, un campo de investigación relativamente joven, que propone emplear sistemas cuánticos para almacenar y procesar información de manera más eficiente que por medios clásicos. La idea básica es muy sencilla y utiliza el principio de superposición de la mecánica cuántica: un sistema físico puede encontrarse en una superposición de dos o más estados medibles. Por ejemplo, los electrones tienen un momento angular intrínseco, el espín, que dada una dirección puede estar “apuntando hacia arriba”, o “hacia abajo”. Pero un electrón también puede encontrarse en un estado intermedio con el 50% de probabilidad de cada sentido.
La teoría de la información cuántica ha descubierto que el entrelazamiento o coherencia es, como la energía, un recurso cuantificable que posibilita tareas de procesado de información: algunos sistemas tienen un poco de entrelazamiento, otros mucho. Cuanto mayor sea el entrelazamiento disponible, más valdrá un sistema para el procesado cuántico de la información. Esta ciencia es lo bastante nueva para que se esté aún intentando aprehender su auténtica naturaleza. Si se llega a conocer los principios generales o leyes del entrelazamiento o coherencia cuántica quizá se podrá interpretar la complejidad de los sistemas cuánticos. La transición entre lo cuántico y lo clásico, en los sistemas complejos con muchas partes constituyentes, ocurre porque los grandes sistemas cuánticos interaccionan fuertemente con su entorno y sufren un proceso de decoherencia o pérdida del entrelazamiento que destruye las propiedades cuánticas del sistema. La clave para que un sistema complejo presente un comportamiento verdaderamente cuántico consiste en aislar muy bien el sistema del resto del mundo, de forma que se evite la decoherencia y se preserven los frágiles estados cuánticos. Conforme sea más complejo el sistema más difícil será aislarlo de las interacciones del medio y de hecho los grandes sistemas, prácticamente todos los objetos que se encuentran alrededor de las personas, por pequeños que sean, han perdido su coherencia cuántica y presentan un comportamiento puramente clásico, siendo esta la mayor dificultad a la hora de construir una computadora cuántica.
El recurso fundamental en el tratamiento de la información cuántica es el qubit, objeto cuántico ideal que proviene de la mecánica cuántica. Sus propiedades son independientes del soporte físico sobre el que se trate, sea el espín de un núcleo atómico o de la polarización de un electrón. Cualquier objeto que tenga dos estados diferentes, necesariamente, poseerá además un conjunto de otros estados posibles conocidos como superposiciones, que incluyen ambos estados en grados distintos. El continuo cambio de estados entre el cero y el uno causa muchas de las extraordinarias propiedades de la información cuántica. Los qubits individuales son interesantes, pero cuando se combinan varios entrelazándose aparece un comportamiento aún más fascinante. Estos estados entrelazados poseen propiedades fundamentalmente distintas de las que caracterizan a cualquier ente de la física clásica. Para Schrödinger el entrelazamiento no era un rasgo característico, sino el rasgo característico de la mecánica cuántica, el que la aparta por completo de las líneas de pensamiento clásicas. Los objetos entrelazados se comportan como si estuvieran conectados entre sí, con independencia de lo alejados que se hallen el uno del otro, pues la distancia no atenúa lo más mínimo el entrelazamiento. Si se realiza una medición sobre un ente entrelazado con otros objetos, proporcionará a la vez información acerca de éstos. Sin embargo el entrelazamiento no vale para enviar señales más deprisa que la velocidad de la luz, pues la naturaleza probabilística de la mecánica cuántica desbarata tal posibilidad.
El año 2001, Benjamin Schumacher, del Kenyon College, planteó que los elementos esenciales de la ciencia de la información, tanto clásica como cuántica, se resumían en un procedimiento que abarca tres etapas: (1) Identificar un recurso físico. Una cadena de bits o qubits codificados mediante objetos físicos reales, en el presente caso los dos estados fundamentales de un átomo, o del spin de un electrón, por ejemplo, que pueden codificar un qubit. (2) Identificar una tarea de procesado de información que pueda realizarse gracias al recurso físico del paso. (3) Identificar un criterio que establezca cuándo ha tenido éxito la tarea del paso (2). La pregunta fundamental que la ciencia de la información menciona, en este entendido es:¿Cuál es la mínima cantidad de recurso físico (1) que se necesita para realizar la tarea de procesamiento de la información (2) cumpliendo el criterio de éxito (3)?.
El año 1948 Shannon resolvió el problema fundamental relacionado con la información clásica, determinando el mínimo número de bits necesarios para almacenar la información producida por una fuente. Sus trabajos fundaron la teoría de la información, y su expresión matemática del contenido de información recibe hoy el nombre de entropía de Shannon. La clave de la nueva ciencia la tiene la calibración del entrelazamiento de los qubits. Las medidas cuantitativas del entrelazamiento están demostrando una enorme utilidad como conceptos unificadores en la descripción de una amplia gama de fenómenos. Se puede analizar el flujo de entrelazamiento, de un subsistema a otro, que se requiere para ejecutar un determinado proceso de información, de forma parecida a como se estudia el flujo de energía entre distintas partes de un sistema, pues el entrelazamiento de un estado se puede transmitir a otro tal como fluye la energía.
Además de las generalizaciones cuánticas de nociones clásicas como las de fuentes, canales y códigos, esta nueva teoría de la información incluye dos tipos complementarios de información cuantificable: la información clásica y el entrelazamiento cuántico. La información clásica puede copiarse a voluntad, pero sólo puede transmitirse hacia adelante en el tiempo, hacia un receptor situado en el cono de luz futuro del emisor. Por el contrario, el entrelazamiento no puede copiarse, pero puede conectar dos puntos cualesquiera en el espacio-tiempo. Las operaciones convencionales de procesamiento de datos destruyen el entrelazamiento, pero las operaciones cuánticas pueden crearlo y usarlo para distintos propósitos, como acelerar determinadas computaciones clásicas o ayudar en la transmisión de información clásica o de estados cuánticos. Una parte de esta teoría consiste en el estudio cualitativo y cuantitativo del entrelazamiento y de sus interacciones con la información clásica.