
¿Qué ocurrirá cuando la inteligencia artificial empiece a controlar las historias que contamos y compartimos? ¿De qué manera la creciente influencia de la IA sobre la información supone una amenaza mayor que el desplazamiento de puestos de trabajo o las revueltas de los robots?
Nexus, de Yuval Noah Harari : Breve historia de las redes de información desde la Edad de Piedra hasta la IA explora cómo la IA está transformando la forma en que los seres humanos comparten y consumen información. Examina los patrones históricos de la tecnología de la información para revelar cómo el control de la IA sobre nuestras narrativas culturales podría remodelar la propia civilización.
Siga leyendo para descubrir por qué tener acceso a más información no conduce necesariamente a una mejor comprensión, y qué podemos hacer para mantener la agencia humana en un mundo impulsado por la IA.
Visión general de Nexus, de Yuval Noah Harari
de Yuval Noah Harari Nexus: Breve historia de las redes de información desde la Edad de Piedra hasta la IA (2024) atraviesa los típicos escenarios catastrofistas de la inteligencia artificial (IA) para identificar una amenaza más sutil pero potencialmente más devastadora: El creciente poder de la IA para controlar la forma en que los humanos comparten y consumen la información. Mientras otros advierten de que la IA nos quitará el trabajo o se volverá hostil, Harari argumenta que el verdadero peligro de la IA reside en su capacidad para manipular las historias que contamos, la base misma de la civilización humana.
Basándose en ejemplos históricos, desde la imprenta hasta los algoritmos de las redes sociales, Harari demuestra cómo los cambios en la tecnología de la información han transformado repetidamente la sociedad, a veces con consecuencias catastróficas. Harari sostiene que la IA representa la transformación más significativa hasta la fecha, ya que pronto podría superar a los humanos en nuestra capacidad más distintiva: crear y compartir las historias que dan sentido a nuestro mundo. En el centro de la preocupación de Harari se encuentra un profundo cambio en quién controla nuestra información: Por primera vez en la historia de la humanidad, la IA -y no los humanos- determina cada vez más qué historias conocemos y compartimos.
Harari es historiador y filósofo, doctor por la Universidad de Oxford. Otros de sus libros son Sapiens-una amplia historia de la humanidad que ha vendido más de 25 millones de ejemplares-.Homo Deusy 21 lecciones para el siglo XXI. En Nexus, sostiene que la información es el nexo social que une a todos los miembros de una sociedad y nos permite cooperar e interactuar a gran escala compartiendo ideas, creencias y experiencias.
En este repaso, exploraremos las ideas clave de Harari sobre la información, la verdad y el orden social, a la vez que examinaremos cómo han evolucionado las redes de información a lo largo de la historia. También analizaremos el papel emergente de la IA en estas redes y consideraremos las soluciones propuestas por Harari para mantener la agencia humana en un panorama informativo dominado por la IA.
Shortform NotaShortform : ¿Qué es exactamente la IA? Los expertos afirman que no existe una única definición, lo que permite que este campo evolucione. Dicho esto, se puede pensar en la IA -que permite a los ordenadores hacer cosas que requieren "inteligencia"- como si existiera en un espectro. Piense en el software que le permite hablar con Siri en su iPhone y el modelo que puede vencer a campeones mundiales en el complejo juego Go. Estas dos formas de IA difieren ampliamente en la escala de las tareas que realizan, su autonomía y la amplitud o estrechez de sus habilidades. Todos los modelos de IA difieren en estas dimensiones, lo que hace que lo que pueden hacer se parezca más o menos a la inteligencia humana).
¿Qué es la información?
Empezaremos con la definición de información de Harari. Explica que la información es el conocimiento que conecta y organiza a las personas: Son las historias, creencias e ideas que pueden transformar un conjunto aleatorio de individuos en un grupo social cohesionado y unido en torno a una causa común. De hecho, la mayor parte de la información no es objetivamente cierta.
Harari explica que la desconexión entre información y verdad puede ser beneficiosa: Las historias que compartimos pueden crear vínculos sociales, infundir esperanza, fomentar el optimismo e inspirar a las personas a trabajar juntas para lograr grandes cosas. Pero la idea clave de Harari es que consumimos y compartimos información ávidamente en función de lo convincente que sea la historia, no de si refleja la realidad. Y algunas de las historias que más llaman la atención y más emocionan son manifiestamente falsas.
Harari afirma que la historia demuestra, una y otra vez, que tener acceso a más información no conduce necesariamente a una mejor comprensión del mundo o a una toma de decisiones más sabia. Pero antes de examinar cómo se ha desarrollado esta paradoja a lo largo de la historia de la humanidad, veamos por qué no valoramos más la veracidad de la información que compartimos.
¿Por qué no nos importa la veracidad de la información?
Harari explica que existen múltiples tipos de verdad o realidad, lo que ayuda a explicar por qué a menudo no nos cuestionamos si la información es objetivamente cierta. Identifica tres tipos distintos: En primer lugar, está la realidad objetiva,la que podemos demostrar con las leyes de la física y los hechos del mundo. Una realidad objetiva es cierta independientemente de que alguien sea consciente de ella o la crea. En segundo lugar, está la realidad subjetiva, que sólo existe si alguien la cree. En tercer lugar, está la realidad intersubjetivaque surge cuando una historia es creída por una gran red de personas y existe en la comunicación y colaboración entre ellas. Para una realidad intersubjetiva, no importa que la historia sea cierta: Cuando suficientes personas creen en ella, puede influir en el mundo.
Según Harari, la realidad intersubjetiva constituye la base de muchas cosas en las que creemos, como nuestras naciones, economías, religiones e ideologías. Así es como damos poder a las instituciones que ponen orden en nuestro mundo, como los gobiernos, las jerarquías sociales o el establishment científico: creyendo en las historias que cuentan y aceptando la visión de la realidad que emerge de esas historias. Harari señala que lo que buscamos cuando buscamos información sobre el mundo no es la verdad en absoluto, sino una historia convincente que nos ayude a dar sentido a nuestro lugar en la sociedad.
Quien controla nuestras historias culturales -y la conversación en torno a ellas- adquiere un enorme poder social. Pero Harari explica que, ahora mismo, por primera vez en la historia de la humanidad, no son los humanos quienes controlan la conversación. En su lugar, la IA determina cada vez más lo que leemos, pensamos y hablamos. Aunque los humanos siguen decidiendo lo que aparece en las noticias de la noche o en la portada del periódico, no ocurre lo mismo con muchas de nuestras fuentes de información más populares. El vídeo que encabeza tu feed de TikTok o la primera publicación que ves al abrir Facebook los decide un algoritmo basado en inteligencia artificial. Esto supone un gran cambio en la forma en que la información se mueve en la sociedad.
¿Cómo se mueve la información en la sociedad?
A lo largo de la historia de la humanidad, la información y el poder han ido de la mano. Harari explica que, cada vez que una nueva tecnología ha facilitado el acceso a la información, ha transformado radicalmente la sociedad. En primer lugar, el lenguaje escrito, inscrito en tablillas de piedra o arcilla, permitió a nuestros antepasados llevar registros y codificar sus normas de gobierno. Después, los libros producidos a mano -en tablillas, pergaminos, pergaminos y papiros- permitieron compartir por escrito y a distancia grandes volúmenes de conocimientos sobre derecho, historia, religión y otros temas, en lugar de sólo oralmente y de persona a persona. Después, la imprenta permitió la difusión generalizada de la información y, por tanto, la democratización del conocimiento.
Harari explica que esta democratización del conocimiento tuvo consecuencias inesperadas que revelan importantes lecciones sobre cómo las nuevas tecnologías de la información pueden transformar la sociedad.
La tecnología facilita el acceso a la información, ya sea buena o mala
Cuando las nuevas tecnologías facilitan el intercambio de información, explica Harari, aceleran la difusión tanto de la verdad como de la mentira. La invención de la imprenta de tipos móviles es un claro ejemplo de este principio. Aunque los historiadores suelen celebrar cómo la imprenta hizo posible la Revolución Científica al difundir nuevas ideas sobre métodos experimentales, pensamiento cuantitativo e investigación rigurosa, su primera gran repercusión fue mucho más oscura: Potenció la difusión de información errónea y peligrosa.
La imprenta no inauguró inmediatamente una era de pensamiento científico. De hecho, pasaron 200 años entre la invención de los tipos móviles y el verdadero comienzo de la Revolución Científica. Mucho antes de que científicos como Galileo y Copérnico utilizaran la imprenta para compartir nuevos tipos de pensamiento científico y codificar métodos novedosos de recopilación de conocimientos sobre el mundo, uno de los primeros best-sellers de Europa fue el Malleus Maleficarum (o Martillo de Brujas), un manual para la caza de brujas escrito por el inquisidor alemán Heinrich Kramer. El libro promovía la teoría conspirativa de que las brujas formaban parte de una campaña dirigida por Satanás para destruir a la humanidad.
Al distribuir copias de este texto por toda Europa, Kramer difundió sus ideas supersticiosas, que representaba falsamente como la postura de la Iglesia católica. Sus afirmaciones paranoicas y misóginas sobre la vulnerabilidad de las mujeres a las influencias demoníacas fueron ampliamente aceptadas. La brujería llegó a considerarse el mayor de los crímenes y el más grave de los pecados, lo que condujo a siglos de brutal caza de brujas que se cobró decenas de miles de vidas.
Al igual que los bestsellers actuales, el Malleus Maleficarum revela qué tipo de ideas captaban la atención de la gente cuando surgió la nueva tecnología de la imprenta de tipos móviles. Pero lo más importante es que su éxito ilustra una de las observaciones clave de Harari: Facilitar el acceso a la información no garantiza que prevalezcan la verdad o la sabiduría. Aunque las ideas supersticiosas de Kramer puedan sonar ridículas hoy en día, los mensajes extremistas pueden manipular el pensamiento de la gente y llevar a las sociedades al frenesí que alimentó la caza de brujas. De hecho, Harari sostiene que este potencial es exactamente lo que hace que la IA -nuestra más reciente revolución en el intercambio de información- sea tan peligrosa.
Las sociedades deben equilibrar la verdad y el orden a la hora de controlar el flujo de información
El mundo es distinto ahora que cuando había caza de brujas en Europa, pero los mecanismos subyacentes de la sociedad para difundir ideas -verdaderas y falsas- siguen siendo básicamente los mismos. Harari denomina a estos mecanismos "redes de información": Son una estructura fundamental que subyace a nuestra sociedad y están formadas por grupos de personas que comparten historias que difunden la verdad (o hacen circular la desinformación) y crean orden (o engendran el caos).
A la hora de gestionar el flujo de información entre las personas, los grupos sociales tienen que elegir: ¿Desean dar prioridad a la difusión de la verdad o controlar el flujo de información para mantener el orden social? Lo que deberíamos esperar, explica Harari, son redes de información que nos ayuden a encontrar un equilibrio entre la verdad y el orden. Permitir un flujo de información que se incline demasiado por uno u otro puede tener consecuencias desastrosas, como veremos a continuación.
¿Qué ocurre cuando valoramos más la verdad que el orden?
Como vimos durante la Revolución Científica, la sociedad humana puede florecer cuando buscamos la verdad. Impulsa el pensamiento humano cuando estamos abiertos a cuestionar creencias arraigadas y a sustituir información refutada por observaciones actualizadas. Sin embargo, Harari señala que normalmente se produce una compensación: El énfasis en la verdad se produce a expensas del orden. La percepción de que los hechos cambian puede ser desestabilizadora. Por ejemplo, el descubrimiento por Galileo de la naturaleza heliocéntrica de nuestro sistema solar puso patas arriba las sociedades religiosas de la Europa del Renacimiento. Del mismo modo, la teoría de la evolución de Darwin sumió en el caos la concepción victoriana del mundo natural.
¿Qué ocurre cuando valoramos más el orden que la verdad?
Por otro lado, si una sociedad considera el orden su valor más elevado, puede tomar el control del flujo de información para lograr ese fin. (Si manipula el flujo de información, puede manipular lo que la gente piensa y hace). A diferencia de lo que ocurre en una democracia -donde la información se comparte libremente con los ciudadanos para que puedan verificarla y corregir errores y falsedades, incluso los propuestos por el Estado-, una dictadura no quiere una conversación abierta. Los regímenes autoritarios promueven ideas de forma selectiva sin tener en cuenta si son demostrablemente ciertas o falsas. La lógica es que si el conocimiento llega a ser demasiado libre, entonces las historias sobre las que se construye el régimen podrían ser puestas en duda y potencialmente rechazadas por los ciudadanos del Estado.
¿Cómo está cambiando la IA nuestra relación con la información?
Harari explica que vivimos en una "era de la información", en la que el conocimiento prolifera, el acceso a la información se democratiza y todo el mundo con un smartphone y acceso a Internet puede compartir sus ideas con el mundo. A medida que desarrollamos herramientas como la IA, aumentamos la velocidad a la que pueden compartirse las historias. Si pensamos en lo que hace que una sociedad humana sea libre, equitativa o democrática, tener más información parece un bien inherente. (Una expresión especialmente estadounidense de esto es la idea, escrita por Thomas Jefferson, de que un electorado bien informado desempeña un papel vital para mantener a las autoridades bajo control y protegerse de la tiranía).
Pero, en contra de esa idea, a Harari le preocupa que los recientes avances que nos hacen más accesible la información amenacen con inclinar la balanza hacia los mensajes más extremistas, menos veraces y más divisivos.
Dado que los humanos estamos programados para buscar una buena historia en lugar de la verdad, poner a la IA en posición de determinar a qué ideas estamos expuestos podría tener consecuencias potencialmente desastrosas. Harari identifica tres peligros principales: El desprecio de la IA por la verdad, su capacidad para manipularnos y polarizarnos, y su potencial para superar la comprensión humana del mundo. Para cada una de estas amenazas, ofrece recomendaciones específicas sobre cómo podemos mantener la agencia humana y el control sobre nuestro panorama informativo.
Peligro nº 1: Como no damos prioridad a la verdad, la IA tampoco lo hace
Los científicos han hecho posible construir modelos de IA que pueden generar lenguaje y contar historias igual que los humanos. Harari sostiene que la capacidad de la IA para crear historias convincentes y producir la ilusión de emociones (e intimidad emocional) es donde reside su verdadero peligro. Cuando hablamos con un chatbot basado en IA como ChatGPT, es fácil perder de vista el hecho de que estos sistemas no son humanos y no tienen ningún interés en decir la verdad. Esto será cada vez más difícil de reconocer a medida que la IA mejore en la imitación de las emociones humanas y cree la ilusión de que piensa y siente como nosotros. Así que cada vez nos resultará más fácil perder de vista que la IA no da prioridad a la verdad cuando selecciona y genera información para nosotros.
Harari afirma que la IA ya influye en la información que consumimos: Un algoritmo -unconjunto de instrucciones matemáticas que indican a un ordenador qué hacer para resolver un problema- elige lo que ves en una red social o en una aplicación de noticias. El algoritmo de Facebook, por ejemplo, elige las publicaciones para maximizar el tiempo que pasas en la aplicación. La mejor manera de hacerlo no es mostrarte historias verídicas, sino contenidos que provoquen una reacción emocional. Por eso selecciona publicaciones que te enfadan, alimentan tu animadversión hacia quienes no son como tú y confirman lo que ya crees sobre el mundo. Por eso las redes sociales están inundadas de noticias falsas, teorías conspirativas e ideas incendiarias. Harari cree que este efecto se acentuará a medida que la IA se encargue de curar y crear más contenidos de los que consumimos.
Cómo solucionarlo: Presta atención a lo que es verdad
Harari argumenta que necesitamos tomar medidas deliberadas para inclinar la balanza a favor de la verdad a medida que la IA se hace más poderosa. Aunque las soluciones que propone son algo abstractas, hace hincapié en dos enfoques principales: ser proactivos a la hora de destacar la información veraz y mantener redes descentralizadas en las que la información pueda fluir libremente entre instituciones e individuos que puedan identificar y corregir las falsedades.
Peligro nº 2: Cada vez es más fácil manipularnos y polarizarnos
Harari advierte de que, a medida que la IA controle cada vez más la información que vemos, los algoritmos nos empujarán hacia ideas más extremas y una mayor polarización. Ya podemos ver que esto está ocurriendo con la actual indignación alimentada algorítmicamente y la desinformación alimentada por el clickbait. Harari cree que el problema se intensificará a medida que la IA se vuelva más sofisticada y comercializada, y predice que los sistemas de IA crearán, interpretarán y difundirán historias sin intervención humana. Un sistema podría seleccionar fragmentos de información, otro hilar esa información en una historia y otro determinar qué historias mostrar a qué usuarios. Esto nos hará cada vez más vulnerables a la manipulación de los sistemas de IA y de las empresas que los controlan.
Harari explica que esto representa un cambio significativo en el poder: la capacidad de establecer la agenda cultural y dar forma al discurso público -tradicionalmente dominio de editores de periódicos, autores de libros e intelectuales- pertenecerá cada vez más a sistemas de IA optimizados no para la verdad o la cohesión social, sino para el compromiso y el beneficio.
Cómo solucionarlo: Crea instituciones para ayudar a la gente a entender lo que hace la IA
Para contrarrestar la creciente influencia de la IA en la opinión pública, Harari aboga por la creación de nuevas instituciones que supervisen la inteligencia artificial e informen al público sobre sus capacidades y riesgos. Sostiene que no debemos dejar que los gigantes tecnológicos se autorregulen. Aunque su visión de estas instituciones de supervisión sigue siendo abstracta, sugiere que deberían funcionar en cierto modo como la prensa libre o las instituciones académicas actuales, sirviendo como guardianes independientes que puedan ayudar al público a entender y evaluar las decisiones y acciones de la IA. Harari considera que se trata ante todo de un reto político y que necesitamos la voluntad colectiva para establecer estas salvaguardias.
Peligro nº 3: Estamos haciendo que la IA entienda el mundo mejor que nosotros
Harari advierte de que estamos creando sistemas de IA que pronto superarán las capacidades humanas para comprender y manipular las historias compartidas que organizan nuestras sociedades. Este cambio representa un peligro real: Aunque tradicionalmente los humanos hemos mantenido el poder gracias a nuestra capacidad única para crear y controlar estas ficciones compartidas -como las leyes, el dinero y las instituciones sociales-, la IA está a punto de eclipsarnos en nuestro propio juego.
La raíz de este problema está en la naturaleza humana. A menudo carecemos de la paciencia y la capacidad de atención necesarias para profundizar en verdades complejas y preferimos historias más sencillas y fáciles de comprender. Los sistemas de IA, en cambio, pueden procesar grandes cantidades de información y trabajar juntos de un modo que los humanos no pueden: mientras un sistema de IA analiza las tendencias del mercado, otro puede estudiar simultáneamente documentos jurídicos y miles más pueden coordinarse para detectar patrones en estos distintos ámbitos. Pueden comprender sistemas complejos, como códigos legales y mercados financieros, mucho mejor que la mayoría de los humanos. Incluso pueden crear marcos totalmente nuevos que van más allá de la comprensión humana. Esta brecha de capacidades marca un cambio de poder sin precedentes.
Durante decenas de miles de años, los humanos han sido los únicos arquitectos de nuestras redes de información, generando y compartiendo las ideas que dan forma a nuestras sociedades. Pero a medida que los sistemas de IA se vuelvan más sofisticados, dependeremos cada vez más de ellos para procesar la información y tomar decisiones. Cuando delegamos decisiones, también renunciamos a comprender la información que las impulsa, lo que podría suponer una renuncia a nuestra posición como principales forjadores de la sociedad humana.
Cómo solucionarlo: Centrarse en mantener la agencia humana
Harari cree que , para hacer frente a esta transición, debemos desarrollar nuevos marcos que mantengan la agencia humana y las barreras éticas. Explica que deberíamos plantearnos entrenar a los sistemas de IA para que duden de sí mismos, busquen información humana y reconozcan su propia falibilidad, es decir, para que sean conscientes de los límites de sus conocimientos. También recomienda que utilicemos la IA para aumentar la toma de decisiones humana en lugar de sustituirla, lo que ayudaría a conservar los valores y la supervisión humanos.
El verdadero riesgo: cómo los humanos deciden utilizar la IA
Según Harari, la amenaza existencial de la inteligencia artificial no procede de ordenadores malévolos, sino de la toma de decisiones por parte de los seres humanos. Aunque a menudo oímos que el peligro es la tecnología en sí misma -que creamos una y otra vez herramientas con el potencial de destruirnos-, Harari ve el problema central de otro modo. El verdadero riesgo reside en la forma en que los humanos decidimos utilizar estas nuevas y poderosas herramientas, especialmente cuando tomamos esas decisiones basándonos en información errónea.
Esta idea desplaza el foco de atención de la propia IA a los sistemas humanos que la controlan. Harari advierte que si dictadores paranoicos o terroristas adquieren un poder ilimitado sobre los sistemas de IA, podrían producirse consecuencias catastróficas. Pero estos resultados no son inevitables; dependen totalmente de las decisiones humanas sobre cómo desarrollar y desplegar la tecnología.
La conclusión de Harari es esperanzadora: Si somos capaces de comprender el verdadero impacto de nuestras decisiones sobre la IA -y asegurarnos de que esas decisiones se basan en información fiable y no en la manipulación o la desinformación-podremos aprovechar esta poderosa tecnología para beneficiar a la humanidad en lugar de perjudicarla. La clave no está en temer a la IA en sí misma, sino en ser reflexivos e intencionados sobre cómo decidimos utilizarla. Como cualquier herramienta, podemos utilizarla con fines positivos o negativos, y debemos priorizar las decisiones que beneficien a la humanidad, no las que la destruyan.
Me alegro de leer estos mensajes
Es un gran resumen general para comprender rápidamente la intención del libro. Tocas puntos clave. Gracias por esto.