miércoles, 1 de junio de 2011

Teoría de la información de Claude Shannom

La Teoría de la Información es una teoría matemática creada por Claude Shannon en el año 1948 y que es la mas importante sobre la que se ha desarrollado toda la teoría actual de la comunicación y la codificación. Esta teoría establece los límites de cuánto se puede comprimir la información y de cuál es la máxima velocidad a la que se puede transmitir información. La Teoría de la Información es, por tanto una teoría de límites alcanzables: máxima compresión de datos y máxima tasa de transmisión de información transmitida sin errores. Las aplicaciones de esta teoría son enormes y abarcan desde las ciencias de la computación (criptografía, aprendizaje), la ingeniería eléctrica (Teoría de la comunicación y teoría de la codificación), la estadística o la biología (secuencias de ADN, código genético).

La información es algo que inevitablemente necesita un soporte físico sobre el que manifestarse. la termodinámica sólo impone un costo energético mínimo a la operación de "borrar" información mientras que las restantes operaciones se pueden ejecutar de forma reversible.

Los avances tecnológicos actuales y futuros harán que la informática trabaje con este nuevo tipo de información.

1 comentario: