Hagamos hoy un homenaje a Claude Elwood Shannon. Ingeniero estadounidense, padre de la moderna teoría de la información, una formulación matemática que analiza las unidades de información (bits) y su pérdida en los procesos de transmisión. Claude Elwood Shannon se graduó en ingeniería por la Universidad de Michigan en 1936 y, cuatro años más tarde, obtuvo un doctorado de matemáticas en el Massachusetts Institute of Technology.

Nacido en Petoskey, Michigan (Estados Unidos), hijo del juez de Gaylord y una profesora de secundaria. Desde su juventud se destacó por su inquietud investigadora y su habilidad en la creación de prototipos técnicos, tal vez dando continuidad al talento creativo de su abuelo. Se graduó con premio extraordinario en la Universidad de Michigan en Ingeniería Eléctrica y en Matemáticas.A los 20 años se trasladó al Instituto Tecnológico de Massachusetts (MIT) como ayudante de investigación en ingeniería eléctrica, donde superó, a los 24 años, su tesis doctoral en matemáticas sobre la aplicación del álgebra ‘booleana’ en el análisis de datos (An Algebra for Theoretical Genetics). En el MIT se ocupó en el desarrollo de los primeros ordenadores, cerca de Vannevar Bush, cuyo ‘Memex’ ha sido considerado un claro antecedente de Internet.

Aportación de Claude Elwood Shannon

Claude Elwood Shannon, ingeniero electrónico y matemático cuya aportación al campo del conocimiento sentó las bases de la informática y las comunicaciones electrónicas, nació en Petoskey, Michigan, EEUU en 1916. Realizó estudios profesionales en dos especialidades en la Universidad de Michigan donde se graduó en 1936 a los 20 años, con dos títulos, uno en Ingeniería electrónica y otro en matemáticas. Ese mismo año, para tener el ingreso que le permitiera vivir y seguir estudiando acepta un trabajo como asistente de investigación en el departamento de ingeniería eléctrica, nada menos que en el prestigiado Instituto de Tecnología de Massachussets el MIT, de donde obtiene el grado de Doctor en matemáticas en 1940. Shannon demostró la utilidad del álgebra Booleana, desarrollada 70 años atrás y llamada así por su desarrollador George Boole en 1854, al convertirla en la herramienta matemática para modelar los circuitos de conmutación eléctrica, que luego aplicó a los conmutadores telefónicos y a los circuitos digitales del cómputo electrónico.

Los primeros años de su vida los pasó en Gaylord, donde se graduó de la secundaria en 1932. En 1932 ingresó en la Universidad de Michigan, siguiendo a su hermana Catherine, doctora en matemática. En 1936 obtuvo los títulos de ingeniero electricista y matemático. Su interés por la matemática y la ingeniería continuó durante toda su vida. Durante su estancia en dicha institución empezó a trabajar sobre el problema de la eficacia de los diferentes métodos existentes de transmisión de la información, tanto mediante el flujo a través de hilos o cables como el aéreo, por medio de corrientes eléctricas fluctuantes o bien moduladas por la radiación electromagnética.

En ese momento surgió su interés hacia los circuitos de relevadores complejos. Intentando simplificar centralitas telefónicas de relés se dio cuenta de que estos podían usarse para hacer cálculos. Sumado esto a su gusto por la lógica y el álgebra booleana pudo desarrollar esta idea durante el verano de 1937, que pasó en los Laboratorios Bell en la ciudad de Nueva York. Durante el curso 1940-41 colaboró con el matemático alemán Hermann Weyl en el Institute for Advanced Study de Princeton. Es entonces cuando Shannon empieza a desarrollar sus ideas sobre la Teoría de la Información. A partir de 1941 Shannon trabajó en los Laboratorios Bell de AT&T en New Jersey como matemático investigador hasta 1972.

Mathematical Theory of Communication

Claude Elwood Shannon , en 1948 publicó un método para expresar la información de forma cualitativa, A Mathematical Theory of Communication, en el Bell System Technical Journal. Shannon partía del hecho de que una fuente de información está compuesta por un número finito de símbolos que consumen un tiempo finito al ser transmitidos a través de un canal. Es un proceso estacionario estocástico. Y para su tratamiento introdujo por primera vez el concepto de ‘bit’. De esta forma era posible medir la verosimilitud de la información mutilada por pérdidas de bits, distorsión de los mismos, adición de elementos extraños, etc., y hablar con precisión de términos antes vagos, como redundancia o ruido e, incluso, expresar el concepto físico de entropía como un proceso continuado de pérdida de información. Shannon orientó sus esfuerzos hacia la comprensión fundamental del problema y en 1948 desarrolló un método para expresar la información de forma cuantitativa.

Él desarrolló la teoría matemática que impactó en áreas tan diversas del conocimiento como las enunciadas, pero fue en la industria de las telecomunicaciones en la cual dejó más huella. Como este año se está celebrando la centuria de su natalicio, es bueno resaltar su importancia como científico. Aplicó el álgebra booleana a la genética. Luego -en 1937- se vinculó con los laboratorios Bell, y allí se rodeó de grandes matemáticos y físicos como John Bardeen, Walter Brattain y William B. Shockley inventores del transistor y galardonados con el Nobel de Física 1956. En ese ambiente académico aplicó el álgebra booleana a la genética, tal como había hecho con los circuitos.

La II Guerra Mundial

Fruto de esa investigación fue su tesis doctoral: “Un algebra para la genética teórica”. En 1940 recibió el título de Doctor en matemáticas del MIT, y el premio Alfred Nobel de la Sociedad Americana de Ingeniería civil por su tesis de Maestría. Durante la II Guerra Mundial las comunicaciones jugaron un papel fundamental, y al final de del conflicto -1945-, Shannon demostró que todas las fuentes de información eran medibles, sentando las bases que impulsaron el uso del teléfono y luego el internet. La idea la plasmó en 1948 con el libro: “Una teoría matemática de la comunicación”.

Una teoría matemática de la comunicación, publicada en 1948, fue su trabajo más importante durante los quince años que pasó en los laboratorios Bell de Nueva York. En él demostró que tanto las fuentes de información como los canales de comunicación pueden medirse, y que de esta medida depende su capacidad y velocidad de transferencia. También sentó las bases para la supresión de ruido y la redundancia.

Pero ahí no termina el legado de este visionaron que ha dado nombre a un premio que desde 1972 reconoce las contribuciones realizadas en la teoría de la información. En 1950 coqueteó con la inteligencia artificial publicando un artículo donde describe cómo una computadora puede jugar al ajedrez de una forma razonable. Sentó la base de los ordenadores tal y como los conocemos hoy.

A pesar de su larga vida, murió a los 84 años, Shannon no es parte del grupo de ingenieros o científicos más conocidos del siglo XX, sin embargo, gracias a sus aportaciones al campo de la teoría de la información, gozamos hoy sin duda alguna de los más avanzados sistemas de cómputo y comunicaciones llamados “Tecnologías de Información” o TIC´s. Lo que si es cierto es que recibió gran cantidad de reconocimientos de diversas instituciones y universidades por todo el mundo. Claude Elwood Shannon sostuvo una dura batalla contra el Alzheimer, y finalmente muere a comienzos de este siglo, el 27 de febrero de 2001.