¿Te has preguntado que significa información?
Hace 6 horas
Tiempo de lectura aprox. :
5 min.
0 votos

No en el sentido común de datos y mensajes, sino desde una perspectiva matemática que desentraña lo que realmente hay detrás de los procesos comunicativos. Parece algo sencillo, pero lo que propone la teoría de la información es mucho más profundo y complejo de lo que podrías imaginar.


En 1907, un ladrón robó una caja fuerte en un banco alemán y se deshizo de toda evidencia, dejándola atrás sin rastro .

La policía sospechaba que se estaba dirigiendo a Londres, pero el tiempo apremiaba. A pesar de que el correo postal era lento, había una forma más rápida de transmitir la imagen del criminal: el teléfono. Sin embargo, el gran desafío era ¿Cómo enviar una imagen a través de una línea telefónica?. No solo se trataba de transmitir una foto, sino de encontrar una forma eficiente de hacerlo.


Este enigma llevó a Claude Shannon, en 1948, a desarrollar una teoría que revolucionó la forma en que entendemos la comunicación: la teoría de la información. Según Shannon, cualquier tipo de mensaje, ya sea texto, imagen o sonido, tiene una cantidad de información que puede medirse usando una unidad específica: el bit. Pero, más allá de simplemente contar bits, Shannon introdujo un concepto clave: la información no es solo la cantidad de datos, sino la cantidad de incertidumbre que un mensaje puede resolver.


Imagina que tienes que adivinar el planeta favorito de alguien en el sistema solar. Existen 8 planetas posibles, por lo que, si haces una serie de preguntas, podrías reducir las opciones. Si la respuesta te lleva de 8 opciones a 4, obtienes un "bit" de información. Pero, si te dicen que el planeta favorito tiene anillos, entonces habrías resuelto mucho más rápido, con solo 3 bits de información. Aquí radica un detalle importante: las respuestas no son iguales. Algunas resuelven muchas posibilidades con una sola respuesta, mientras que otras no nos ayudan tanto. Esta es una de las bases fundamentales de la teoría de Shannon.


Shannon también demostró algo sorprendente: no todas las preguntas que haces tienen el mismo valor informativo. Las respuestas dependen de las probabilidades. Si, por ejemplo, la respuesta a una pregunta tiene un 50% de probabilidad de ser afirmativa, esa respuesta aporta un bit de información. Pero si la probabilidad es mucho más baja, la sorpresa (y la información) que nos aporta es mucho mayor.


Así es como la información se relaciona con la probabilidad. La teoría de Shannon no solo mide cuánta información hay en un mensaje, sino cómo podemos transmitirla de la forma más eficiente posible. En un contexto tan sencillo como escribir un mensaje en tu teléfono, usas caracteres que no son aleatorios. Sabes que ciertas letras (como la "e") aparecen mucho más frecuentemente que otras. Por eso, puedes pensar en el mensaje de forma que las letras más comunes "cuesten" menos preguntas que las más raras.


Esto nos lleva a una idea fundamental: los mensajes no son solo datos; son estructuras complejas de probabilidad, redundancia y sorpresas. Con la teoría de Shannon, podemos entender cuánta información tiene un mensaje y cómo se puede comprimir. Lo más interesante es que esta fórmula no solo funciona para textos o imágenes, sino para casi todo tipo de comunicación, desde el ADN hasta las transmisiones de datos en tecnología avanzada.


Cuando aplicamos esta teoría a la biología, podemos ver cómo ciertos fragmentos del ADN son más comunes y otros más raros. Esto puede explicar características genéticas únicas de los individuos. De hecho, la teoría de la información ha sido tan relevante que hoy se usa para estudiar el genoma humano y comprender cómo se codifica nuestra información genética.

1 visita
Valora la calidad de esta publicación
0 votos

Por favor, entra o regístrate para responder a esta publicación.

Publicaciones relacionadas
Adimvi es mejor en su app para Android e IOS.