Teoría de la información
La teoría de la información
también conocida como teoría matemática de la comunicación (Mathematical Theory
of Communication) o teoría matemática de la información, es una propuesta
teórica presentada por Claude E. Shannon y Warren Weaver a finales de la década
de los 40. Esta teoría está relacionada con las leyes matemáticas que rigen la
transmisión y el procesamiento de la información y se ocupa de la medición de
la información y de la representación de la misma así como también de la
capacidad de los sistemas de comunicación para transmitir y procesar
información.1 La Teoría de la Información es una rama de la teoría matemática y
de las ciencias de la computación que estudia la información y todo lo
relacionado con ella: canales, compresión de datos, criptografía y temas
relacionados.
Antecedentes históricos
La teoría de la información
surgió a finales de la Segunda Guerra Mundial en los años cuarenta. Fue
iniciada por Claude E. Shannon a través de un artículo publicado en el Bell
System Technical Journal en 1948, titulado Una teoría matemática de la
comunicación (texto completo en inglés). En esta época se buscaba utilizar de
manera más eficiente los canales de comunicación, enviando una cantidad de
información por un determinado canal y midiendo su capacidad; se buscaba la
transmisión óptima de los mensajes. Esta teoría es el resultado de trabajos
comenzados en la década 1910 por Andrei A. Markovi, a quien le siguió Ralp V.
L. Hartley en 1927, quien fue el precursor del lenguaje binario. A su vez, Alan
Turing en 1936, realizó el esquema de una máquina capaz de tratar información
con emisión de símbolos, y finalmente Shannon, matemático, ingeniero
electrónico y criptógrafo americano conocido como "el padre de la teoría
de la información” junto a Warren Weaver contribuyeron en la culminación y el
asentamiento de la Teoría Matemática de la Comunicación de 1949 –que hoy es
mundialmente conocida por todos como la Teoría de la Información-. Weaver
consiguió darle un alcance superior al planteamiento inicial, creando un modelo
simple y lineal: Fuente/codificador/mensaje canal/descodificador/destino.
La necesidad de una base teórica
para la tecnología de la comunicación surgió del aumento de la complejidad y de
la masificación de las vías de comunicación, tales como el teléfono, las redes
de teletipo y los sistemas de comunicación por radio. La teoría de la
información también abarca todas las restantes formas de transmisión y
almacenamiento de información, incluyendo la televisión y los impulsos
eléctricos que se transmiten en las computadoras y en la grabación óptica de
datos e imágenes. La idea es garantizar que el transporte masivo de datos no
sea en modo alguno una merma de la calidad, incluso si los datos se comprimen
de alguna manera. Idealmente, los datos se pueden restaurar a su forma original
al llegar a su destino. En algunos casos, sin embargo, el objetivo es permitir
que los datos de alguna forma se convierten para la transmisión en masas, se
reciban en el punto de destino, y convertidos fácilmente a su formato original,
sin perder ninguna de la información transmitida.
Desarrollo de la teoría
El modelo propuesto por Shannon
es un sistema general de la comunicación que parte de una fuente de información
desde la cual, a través de un transmisor, se emite una señal, la cual viaja por
un canal, pero a lo largo de su viaje puede ser interferida por algún ruido. La
señal sale del canal, llega a un receptor que decodifica la información
convirtiéndola posteriormente en mensaje que pasa a un destinatario. Con el
modelo de la teoría de la información se trata de llegar a determinar la forma
más económica, rápida y segura de codificar un mensaje, sin que la presencia de
algún ruido complique su transmisión. Para esto, el destinatario debe
comprender la señal correctamente, el problema es que aunque exista un mismo
código de por medio, esto no significa que el destinatario va captar el
significado que el emisor le quiso dar al mensaje. La codificación puede
referirse tanto a la transformación de voz o imagen en señales eléctricas o
electromagnéticas, como al cifrado de mensajes para asegurar su privacidad. Un
concepto fundamental en la teoría de la información es que la cantidad de
información contenida en un mensaje es un valor matemático bien definido y
medible. El término cantidad no se refiere a la cuantía de datos, sino a la
probabilidad de que un mensaje, dentro de un conjunto de mensajes posibles, sea
recibido. En lo que se refiere a la cantidad de información, el valor más alto
se le asigna al mensaje que menos probabilidades tiene de ser recibido. Si se
sabe con certeza que un mensaje va a ser recibido, su cantidad de información
es 0. 3
Finalidad
Con el modelo de la teoría de la
información se trata de llegar a determinar la forma más económica, rápida y
segura de codificar un mensaje, sin que la presencia de algún ruido complique
su transmisión. Para esto, el destinatario debe comprender la señal
correctamente, el problema es que aunque exista un mismo código de por medio,
esto no significa que el destinatario va captar el significado que el emisor le
quiso dar al mensaje. Otro aspecto importante dentro de esta teoría es la
resistencia a la distorsión que provoca el ruido, la facilidad de codificación
y descodificación, así como la velocidad de transmisión. Es por esto que se
dice que el mensaje tiene muchos sentidos, y el destinatario extrae el sentido
que debe atribuirle al mensaje, siempre y cuando haya un mismo código en común.
La teoría de la información tiene ciertas limitantes como lo es la acepción del
concepto del código, el significado que se quiere transmitir no cuenta tanto
como el número de alternativas necesario para definir el hecho sin ambigüedad.
Si la selección del mensaje se plantea únicamente entre dos alternativas
diferentes, la teoría de Shannon postula arbitrariamente que el valor de la
información es uno. esta unidad de información recibe el nombre de bit. Para
que el valor de la información sea un bit, todas las alternativas deben ser
igual de probables y estar disponibles. Es importante saber si la fuente de
información tiene el mismo grado de libertad para elegir cualquier posibilidad
o si se halla bajo alguna influencia que la induce a una cierta elección. La
cantidad de información crece cuando todas las alternativas son igual de probables
o cuando mayor sea el número de alternativas. Pero en la práctica comunicativa
real no todas las alternativas son igualmente probables, lo cual contribuye un
tipo de proceso estocástico denominado Markoff. el subtipo de Markoff dice que
la cadena de símbolos está configurada de manera que cualquier secuencia de esa
cadena es representativa de toda la cadena completa.
Teoría aplicada a la tecnología
La teoría de la Información se
encuentra aún hoy en día en relación con una de las tecnologías en boga, el
Internet. Desde el punto de vista social, Internet representa unos
significativos beneficios potenciales ya que ofrece oportunidades sin
precedentes para dar poder a los individuos y conectarlos con fuentes cada vez
más ricas de información digital.
Una de las aplicaciones de la
teoría de la información son los archivos ZIP, documentos que se comprimen para
su transmisión a través de correo electrónico o como parte de los
procedimientos de almacenamiento de datos. La compresión de los datos hace
posible completar la transmisión en menos tiempo. En el extremo receptor, un
software se utiliza para la liberación o descompresión del archivo, restaurando
los documentos contenidos en el archivo ZIP a su formato original. La teoría de
la información también entra en uso con otros tipos de archivos; por ejemplo,
los archivos de audio y video que se reproducen en un reproductor de MP3 se
comprimen para una fácil descarga y almacenamiento en el dispositivo. Cuando se
accede a los archivos se amplían para que estén inmediatamente disponibles para
su uso.4
Elementos de la Teoría
Esquema de la comunicación ideado por Claude
E. Shannon.
Fuente
Una fuente es todo aquello que
emite mensajes. Por ejemplo, una fuente puede ser una computadora y mensajes
sus archivos, una fuente puede ser un dispositivo de transmisión de datos y
mensajes los datos enviados, etc. Una fuente es en sí misma un conjunto finito
de mensajes: todos los posibles mensajes que puede emitir dicha fuente. En
compresión de datos tomaremos como fuente al archivo a comprimir y como
mensajes a los caracteres que conforman dicho archivo.
Tipo de Fuentes
Por la naturaleza generativa de
sus mensajes una fuente puede ser aleatoria o determinística. Por la relación
entre los mensajes emitidos una fuente puede ser estructurada o no estructurada
(o caótica).
Existen varios tipos de fuentes.
Para la teoría de la información interesan las fuentes aleatorias y
estructuradas. Una fuente es aleatoria cuando no es posible predecir cual es el
próximo mensaje a emitir por la misma. Una fuente es estructurada cuando posee
un cierto nivel de redundancia, una fuente no estructurada o de información
pura es aquella en que todos los mensajes son absolutamente aleatorios sin
relación alguna ni sentido aparente, este tipo de fuente emite mensajes que no
se pueden comprimir, un mensaje para poder ser comprimido debe poseer un cierto
nivel de redundancia, la información pura no puede ser comprimida sin que haya
una perdida de conocimiento sobre el mensaje.5
Mensaje
Un mensaje es un conjunto de
ceros y unos. Un archivo, un paquete de datos que viaja por una red y cualquier
cosa que tenga una representación binaria puede considerarse un mensaje. El
concepto de mensaje se aplica también a alfabetos de más de dos símbolos, pero
debido a que tratamos con información digital nos referiremos casi siempre a
mensajes binarios.
Código
Un código es un conjunto de unos
y ceros que se usan para representar a un cierto mensaje de acuerdo a reglas o
convenciones preestablecidas. Por ejemplo al mensaje 0010 lo podemos
representar con el código 1101 usando para codificar la función (NOT). La forma
en la cual codificamos es arbitraria. Un mensaje puede, en algunos casos
representarse con un código de menor longitud que el mensaje original.
Supongamos que a cualquier mensaje S lo codificamos usando un cierto algoritmo
de forma tal que cada S es codificado en L(S) bits, definimos entonces a la
información contenida en el mensaje S como la cantidad mínima de bits
necesarios para codificar un mensaje.
Información
La información contenida en un
mensaje es proporcional a la cantidad de bits que se requieren como mínimo para
representar al mensaje. El concepto de información puede entenderse más
fácilmente si consideramos un ejemplo. Supongamos que estamos leyendo un
mensaje y hemos leído "string of ch", la probabilidad de que el
mensaje continúe con "aracters" es muy alta por lo tanto cuando
realmente leemos "aracters" del archivo la cantidad de información
que recibimos es muy baja pues estabamos en condiciones de predecir que era lo
que iba a ocurrir. La ocurrencia de mensajes de alta probabilidad de aparición
aporta menos información que la ocurrencia de mensajes menos probables. Si
luego de "string of ch" leemos "imichurri" la cantidad de
información que recibimos es mucho mayor.
buena información
ResponderEliminarEste comentario ha sido eliminado por el autor.
ResponderEliminar,,,, Mala muy ladilla debe ser la info mas especifica centrada asi se vuelve tedioso ,,,,
ResponderEliminarcopiado de wikipedia
ResponderEliminar