4106948-6232512.jpg

Claude Shannon y la Teoría de la Información (y IV)

Nos detenemos algo más en este post en la obra concreta de Shannon. Sobre todo en su invención de la palabra y concepto, “bit”, que a partir de entonces fue una unidad de medida muy importante, como el metro, el kilogramo y muchas otras que el hombre ha inventado y utiliza. Con esa unidad de medida y con la posibilidad de medir, la información, los conocimientos y muchas otras cosas formadas por información, se dispararon las posibilidades de los hombres de poner en marcha nuevas actividades. La tecnología digital surgió de sus aportaciones, tanto el ordenador como los circuitos digitales, así como las modernas redes de Telecomunicación. Un genio como él llegó a predecir la Economía de la Información o “Economía de Internet” que se desarrolla con fuerza en la actualidad en nuestro mundo.

(Continuación del post anterior)

Parece que los trabajos de Shannon en esa última materia (criptografía) realizados durante la segunda guerra mundial le sirvieron para desarrollar su famosa “Teoría de la Información” Tuvo en ese terreno una actividad paralela a la de Alan Turing, el gran criptoanalista inglés que descifró Enigma, el código secreto utilizado por el ejército alemán. Shannon trabajó en el Sistema X utilizado para codificar las conversaciones de Roosevelt y Churchill y coincidió con Turing en los Bell Labs. Parece que hablaron poco de sus respectivos trabajos que eran supersecretos pero intercambiaron muchas ideas sobre los ordenadores, máquinas que empezaban a ser realidad entonces y sobre la posibilidad de construir máquinas pensantes.

Los esfuerzos realizados en la codificación y decodificación de sistemas de comunicación encriptados le valieron para acumular multitud de conocimientos relacionados con los idiomas, su redundancia, su aleatoriedad y la elaboración de señales como cadenas de símbolos discretos.

Se ocupó de forma preeminente de medir la cantidad de información transmitida por un determinado canal y para ello acuñó el término “bit” deducido de la expresión “binary digit”.

Analizó los circuitos de telecomunicación como canales en los que existía una fuente de información, un mensaje, un transmisor, una señal emitida y el procedimiento inverso: señal recibida, receptor, mensaje y destino. En medio del canal y afectando a todo él está la fuente de ruidos, los cuales pueden ser de muy diverso tipo: adiciones no deseadas, simples errores, alteraciones aleatorias, las corrientes estáticas del circuito, las cuestiones atmosféricas, las interferencias, las distorsiones y otros desajustes. Cuestiones todas mucho más graves en los circuitos de la época en los que había señales discretas y señales analógicas.

Shannon esquivaba todos estos problemas tratando la señal como una cadena de símbolos discretos, es decir, pensó en los circuitos digitales mucho antes de las telecomunicaciones pasaran de la analógico a lo digital. Imaginó también que el tratamiento de los mensajes como variables discretas podía no sólo aplicarse en las telecomunicaciones sino también en el nuevo terreno de los ordenadores. Temas estos últimos explicados con detalle por Gleick en el Capítulo 7 de su libro.

A pesar de la insistencia de Shannon en que “el significado de un mensaje es normalmente irrelevante” el impacto de sus teorías fue enorme en multitud de disciplinas en las que el significado y el mensaje eran muy importantes. La información suponía, o estaba relacionada, con la incertidumbre, la sorpresa, la dificultad y la entropía.

Muchas disciplinas se sintieron involucradas con la forma matemática de definir y medir la información y asuntos como el principio de incertidumbre de Heisenberg, los teoremas de Gödel y el concepto de entropía, se vieron relacionados con las ideas de Shannon, Wiener y otros científicos de la época. La información fue vista en concreto como entropía negativa, algo que también trata con detalle Gleick y que si tenemos ocasión resumiremos en próximos posts.

Se produjo además lo que algunos filósofos han llamado el “el giro informacional”, el cual es explicado por Gleick en el Capítulo 8 de su libro. En él cita a Frederick Adams, un autor joven que en el libro de 2003, “Minds and Machines” publicó un artículo con el título “The Informational Turn in Philosophy”. La cita es: “Los que dan el giro informacional ven la información como el ingrediente básico para construir una mente”. Era el principio de la revolución cognitiva que ha dado lugar al terreno amplio de las “Ciencias Cognitivas” en el que la Inteligencia Artificial tiene un papel relevante.

Claude Shannon, para concluir, hizo multitud de aportaciones más y fue un hombre muy célebre en los Estados Unidos. En sus últimos años de vida activa fue un conferenciante muy apreciado. Como muestra de su genialidad recogemos la cita incluida por Gleick en su libro de una conferencia dada precisamente en la Universidad de Pennsylvania: “creo que en cierto sentido el siglo actual verá un fuerte aumento y desarrollo de este negocio de la información; del negocio de la recogida de información y del de su transmisión de un punto a otro, y lo que tal vez sea más importante, del negocio de su procesamiento”.

Tags:
0 shares
Doctor Ingeniero del ICAI y Catedrático de Economía Aplicada, Adolfo Castilla es también Licenciado en Económicas por la Universidad Autónoma de Madrid, Licenciado en Informática por la Universidad Politécnica de Madrid, MBA por Wharton School, Master en Ingeniería de Sistemas e Investigación Operativa por Moore School (Universidad de Pennsylvania). En la actualidad es asimismo Presidente de AESPLAN, Presidente del Capítulo Español de la World Future Society, Miembro del Alto Consejo Consultivo del Instituto de la Ingeniería de España, Profesor de Dirección Estratégica de la Empresa en CEPADE y en la Universidad Antonio de Nebrija.
Post anterior

Newton y Huygens

Post siguiente

Claude Shannon y la Teoría de la Información (III)

Deja tu comentario