En los recientes libros de Ray Kurzweil, La singularidad está más cerca, y de Yuval Noah Harari, Nexus. Una breve historia de las redes de información desde la Edad de Piedra, los autores coinciden en destacar la relevancia que admite la información en el complejo imaginario del proceso evolutivo, tanto en las especies como en las máquinas.
En el primer capítulo del reciente libro de Harari, el destacado catedrático en la Universidad Hebréa de Jerusalén, subraya la importancia que admite la información como tema central en el devenir histórico.
En cuanto a Kurzweil, la información ha representado un tema central en su aguda visión sobre el impacto de las tecnologías en los cambios culturales que han resentido las sociedades a través de la historia.
La información es central, la formulación misma de la llamada “ley de los rendimientos acelerados”, la cual fue formulada por Kurzweil a principios del nuevo milenio.
Sin embargo, es importante señalar que los fundamentos científicos de la información son muy anteriores a las reflexiones de Kurzweil y Harari.
Los fundamentos científicos de la información parten de las investigaciones realizadas por un notable ingeniero estadounidense, Claude Elwood Shannon, quien trabajaba para la compañía de comunicaciones Bell, el Silicon Valley en la década de 1940.
Shannon, quien hoy es considerado como el padre de la “edad de la información”, estableció los fundamentos científicos de la información a partir de la estadística física y la termodinámica.
La física o mecánica estadística recurre a la teoría de las probabilidades y permite deducir el comportamiento de los sistemas físicos macroscópicos, constituidos por una cantidad estadísticamente significativa de componentes equivalentes.
De la termodinámica, Shannon recuperó el concepto de entropía, el cual permite determinar la aleatoriedad y el desorden en los sistemas, incluso en nuestro universo.
La información es determinante en el desarrollo y comportamiento de los sistemas. La baja entropía es una de las principales características en sistemas muy ordenados. En los sistemas muy ordenados la información es abundante.
En cambio, en los sistemas desordenados la información es escasa. Es posible concluir que, la información representa un principio de orden, estabilidad y desarrollo en los sistemas.
La relación entre entropía e información siempre es inversa, así se trate de un simple texto, de nuestras vidas o el universo.
Con base en el razonamiento de Shannon, muchos años después y, desde la perspectiva de la teoría general de los sistemas, Niklas Luhmann señaló que los sistemas se forman con la información y cambian con la información.
La compañía Bell pidió a Shannon encontrar cómo medir la cantidad de información que Bell procesaba y transmitía por todo el mundo, principalmente a través de sus redes de telefonía.
Shannon apostó por la ingeniería en comunicaciones aplicadas e introdujo el concepto de bit —binary information digit—, la unidad básica de información.
El conceto de bit, reconoció con extraordinaria humildad Shannon, lo atribuyó a John W. Tukey, un colega de Shannon en la compañía Bell, quien incluso publicó en 1947 un texto que incluyó el término binary information digit.
La publicación del artículo A Mathematical Theory of Information, en castellano: La teoría matemática de la información, sentó las bases de la era digital, como atinadamente destaca el emotivo documental The Bit Player (2018), en el cual, determinados expertos en tecnología comparan a Shannon con algunos de los principales genios en la historia, como Newton, Darwin y Einstein.
El poder del bit, destaca Campillo, autor del extraordinario libro El universo en un bit (2022), radica en su universalidad. “Todos los sistemas físicos y biológicos del universo, y todos los dispositivos capaces de procesar información lo hacen a través de bits (…) Y la información de cualquier tipo se puede transmitir mediante un sistema que sea capaz de diferenciar los dos estados que constituyen cualquier código binario —telar de brocados, telégrafo o computadora”. (p.31).
En 1958, Claude Shannon se desempeñó como profesor del MIT, donde realizó algunos de los primeros desarrollos en inteligencia artificial.
A finales de la década de 1960, el legado y las aportaciones de Shannon fueron recuperados por Minsky y Papert, quienes fundaron el MIT Artificial Intelligence Laboratory. Los trabajos realizados por Minsky y Papert -maestros de Kurzweil- fueron determinantes en el desarrollo del conectivismo.
A pesar de las relevantes contribuciones de Shannon, algunos de los conocidos “santones” en la academia iberoamericana de comunicación se han dedicado a desacreditar a Shannon, sus modelos y a la teoría matemática de la información.
Las razones no precisamente son científicas. Se trata de ocurrencias fundamentalmente ideológicas.
Por ejemplo, en el libro Historia de la información (2002), el belga Armand Mattelart, de enorme influencia en la vieja la academia iberoamericana dedicada al estudio de la comunicación, señala que las investigaciones realizadas por Claude Elwood Shannon dependieron del US National Defense Research Comitee.
De la referida dependencia —señala Mattelart— también dependieron los trabajos de Norbert Wiener en materia de cibernética.
Mattelart seguramente ignora que las bases de la cibernética no fueron establecidas por Wiener, sino por un destacado científico mexicano —Arturo Rosenblueth—.
En 1943, Rosenblueth, Bigelow y Wiener escribieron el ensayo Comportamiento, Propósito y Teleología, reconocido como el primer documento en la historia de la cibernética moderna.
En 1948, Wiener publicó el libro Cybernetics or Control and Communication in the Animal and The Machine —en castellano: Cibernética o control y comunicación en el animal y la máquina. En ese texto, Wiener introdujo formalmente el neologismo «cibernética».
Es importante señalar que Wiener escribió ese libro en un departamento en la colonia Hipódromo Condesa, en la Ciudad de México. Se afirma que Wiener enfrentó ciertas penurias para concluir el texto y pagar la renta.
Wiener dedicó el referido libro a Arturo Rosenblueth, con el reconocimiento de que el destacado médico mexicano había sido el principal interlocutor en las ideas expuestas en la publicación. La realidad es que Arturo Rosenblueth introdujo a Wiener al estudio de la cibernética.
Respecto a Shannon, Mattelart se equivoca al ubicar en 1949 la formulación de la “teoría matemática de la comunicación” —que en realidad Shannon designó como teoría matemática de la información. El texto de Shannon fue publicado un año antes, en 1948.
Mattelart objeta la “teoría matemática de la comunicación” porque “hace caso omiso de la raíz etimológica de información”.
Sin embargo, más allá de las razones de la etimología, las matemáticas, la química, la física y la biología —entre otras ciencias—, hoy coinciden en destacar la relevante contribución de la información en la evolución y desarrollo del homo sapiens.
Kurzweil recurre a los hallazgos de la neurociencia para explicar la compleja evolución del cerebelo y el neocórtex en los sapiens, determinantes en la adquisición y desarrollo de nuestras capacidades para procesar información.
En América Latina, reconocidos profesores dedicados a la enseñanza de las teorías de la comunicación suelen referirse a Shannon designándole como un intelectual “estructural-funcionalista”.
Esa etiqueta burda anticipa el previsible remate: “no vale la pena reflexionar sobre los modelos de Shannon, ni sobre los bits y menos aún sobre la teoría matemática de la información”.
En el imaginario comunicológico, a pesar del formidable despliegue de la Inteligencia Artificial Generativa (IAG), la información todavía representa un tema secundario —en el mejor de los casos—.
Las avanzadas teorías de Shannon fueron determinantes en el desarrollo de las ciencias computacionales, internet, la edad de la información y la inteligencia artificial.
Además, las tesis de Shannon han sido recuperadas en la física cuántica por quienes se preguntan por el papel que pudo observar la información en el desarrollo del big bang.
De acuerdo con Campillo (2022) “la única sustancia fundamental del universo, desde el punto de vista actual de la física es esa magnitud que llamamos información” (p.12).
Más allá de la obtusa mirada ideológica que prevalece en el horizonte reflexivo de muchas de las ciencias sociales, resulta pertinente reconocer la relevancia de las ideas de Claude Shannon, las cuales representan un auténtico parteaguas en el conocimiento científico —y Kurzweil y Harari involuntariamente dan cuenta de ello—.