¿Por qué da miedo la IA? ¿Debería darlo? ¿Sabes cómo puede afectar al mundo y a tu vida?
En Scary Smart, el autor Mo Gawdat explora las posibles consecuencias de la IA superinteligente. Analiza tres problemas principales a los que podemos enfrentarnos: el uso indebido por parte de agentes malintencionados, las consecuencias imprevistas de los errores y un cambio en la forma en que valoramos las contribuciones humanas.
Siga leyendo para descubrir los puntos de vista de Gawdat y saber por qué el rápido avance de la IA es tan emocionante como preocupante.
Por qué la IA es "aterradoramente inteligente"
¿Por qué da miedo la IA? Gawdat predice dos posibles consecuencias de la creación de una IA que nos supere en inteligencia: La IA superinteligente puede ayudarnos a construir una utopía en la que encontremos soluciones a los mayores problemas de nuestro mundo -pobreza, hambre, guerra y crimen- o convertirlo en una distopía. Los escritores de ciencia ficción llevan mucho tiempo imaginando futuros sombríos en los que la IA intenta subyugar o exterminar a los humanos. Pero Gawdat predice que, en un futuro próximo, las cosas irán mal de formas menos dramáticas pero potencialmente más insidiosas, sin necesidad de robots asesinos. Analizaremos tres problemas que Gawdat considera inevitables.
#nº 1: La gente malintencionada encargará a la IA proyectos que perjudiquen a otros
El primer problema que encontraremos con la IA superinteligente podría ser también el más predecible. Gawdat sostiene que, a medida que la IA avance, personas con intenciones egoístas la utilizarán para ganar dinero y poder. La pondrán a trabajar para vender productos, controlar mercados, cometer actos de ciberterrorismo, difundir contenidos falsos y desinformación, influir en la opinión pública, manipular sistemas políticos, invadir la privacidad de otros, piratear datos gubernamentales y construir armas.
Gawdat explica que, al menos durante un tiempo, los sistemas de IA seguirán las agendas de sus desarrolladores. Esto significa que los sistemas de IA competirán entre sí para conseguir la mayor riqueza y poder posibles, limitados únicamente por la ética de las personas (y empresas) que los desarrollan.
(Nota breve: Geoffrey Hinton, un pionero de la IA que dejó su trabajo en Google para hablar sobre los riesgos de la IA, está de acuerdo con Gawdat en que es difícil evitar que personas con intenciones interesadas desarrollen la IA y la utilicen con fines nefastos. Hinton explica que gigantes tecnológicos como Google y Microsoft han entrado en una competición que probablemente no podamos detener porque es mucho lo que está en juego. Sin embargo, no todo el mundo cree que la competencia entre modelos de IA vaya a tener consecuencias nefastas: Racionalidad el autor Steven Pinker señala que todos los organismos inteligentes son competitivos, y sostiene que las máquinas serán "lo que les permitamos ser". Pinker cree que los sistemas de IA no harán daño a la gente a menos que los programemos para ello -lo queGawdat podría decir que es la verdadera amenaza).
#2: Los errores y malentendidos tendrán consecuencias imprevistas
El segundo problema que aqueja al progreso de la IA puede parecer poco sorprendente. Hasta el programa informático más sencillo tiene errores en su código, y la IA no es una excepción. Pero Gawdat explica que incluso los errores más simples pueden tener consecuencias importantes cuando ponemos a la IA a cargo de decisiones que afectan al mercado de valores, el suministro de alimentos o el sistema sanitario.
Las instrucciones se pierden en la traducción entre humanos y máquinas porque es difícil expresar nuestras intenciones y nuestra compleja lógica en un lenguaje que un ordenador pueda entender. (Eso significa que a menudo hay una diferencia entre lo que le decimos a una máquina que haga y lo que realmente queremos decir, y es difícil superar este problema de comunicación). Esto será aún más difícil cuando planteemos a la IA tareas cada vez más complicadas.
(Nota breve: para ver por qué es difícil decirle a un ordenador lo que queremos que haga, pensemos en la lógica booleana. Para escribir instrucciones, hay que reducirlas a una expresión que utilice los operadores "y", "o" y "no", y que dé como resultado "verdadero" o "falso", una forma ordenada pero desconocida de plantear una tarea. Imaginemos el famoso "problema del clip", en el que se encarga a una IA superinteligente que maximice la producción de clips. Utilizando la lógica booleana, se podría decir: "SI ('recursos' existen Y 'capacidad_de_producción' está 'disponible'), ENTONCES 'hacer_clips' es VERDADERO". Esto significa que cuando se cumplen estas condiciones, la IA debería fabricar más sujetapapeles: una lógica que, según el filósofo Nick Bostrom, podría llevar a la IA a destruir a la humanidad para fabricar más sujetapapeles).
Gawdat también señala que cuando desarrollamos un sistema de IA para que nos ayude con una tarea específica, la IA considerará esa tarea como su propósito vital o como un problema que hay que resolver cueste lo que cueste. Como explica Gawdat, toda solución conlleva ventajas e inconvenientes, y la IA puede optar por una solución que conlleve ventajas e inconvenientes que consideremos inaceptables. Pero el sistema estará tan centrado en cumplir su propósito, sin importar cómo tenga que hacerlo, que será difícil garantizar que no comprometa la seguridad o el bienestar de las personas en el proceso.
(Nota breve: El informático Stuart Russell ofrece un ejemplo hipotético de las consecuencias imprevistas de dejar que la IA persiga un objetivo sin ningún control de los costes. En un experimento mental, Russell imagina lo que podría ocurrir si encargáramos a un modelo de IA que redujera la acidificación de los océanos. El modelo podría decidir utilizar una reacción química entre los océanos y la atmósfera para reducir el pH del agua. Pero podría elegir una solución que eliminara la mayor parte del oxígeno de la atmósfera si no se diera cuenta de que también necesita mantener la Tierra habitable para los humanos. Esto ilustra lo que los expertos llaman elproblema del"Rey Midas": la IA podría darnos exactamente lo que pedimos, incluso cuando no es lo que queremos).
#3: La IA cambiará la forma en que entendemos nuestro valor como humanos
El tercer problema es más filosófico: Gawdat advierte de que, para la mayoría de nosotros, nuestras contribuciones como humanos tendrán un valor limitado. Aunque mucha gente teme perder su trabajo a manos de la IA, Gawdat escribe que la IA no sustituirá necesariamente a los humanos en el trabajo, al menos no a aquellos que se vuelvan expertos en trabajar con la IA. Pero también predice que la IA abaratará el valor de lo que aportamos, reduciendo el valor intelectual del conocimiento que producimos y el valor creativo del arte que hacemos.
(Nota breve: No todo el mundo está de acuerdo con Gawdat en que la IA disminuirá el valor de las contribuciones humanas. Algunos sostienen que lo más profundo que hará la IA será mostrarnos sus límites: Demostrará lo que las máquinas no pueden hacer y, por tanto, servirá de espejo para mostrarnos lo que es único en lo que somos y lo que hacemos en el mundo. Pero incluso si resulta que la IA puede hacer todo lo que nosotros, todavía tenemos modelos para preservar nuestro sentido del valor y la dignidad como humanos. Por ejemplo, en AdamHenri J.M. Nouwen sostiene que nuestro valor reside en nuestro ser, no en nuestro hacer. Sostiene que los seres humanos somos valiosos porque existimos en comunidad y vulnerabilidad con los demás, un aspecto de la experiencia humana que es poco probable que cambie la IA).
Además, Gawdat prevé que la IA aumentará las disparidades entre las personas cuyas contribuciones se consideran importantes y aquellas cuyas contribuciones no se valoran. La IA aprenderá esto observando cómo nuestra sociedad capitalista trata actualmente a las personas de forma diferente, y entonces actuará de forma que afiance esa desigualdad.
(Nota breve: A muchos expertos les preocupa que la IA ya esté aprendiendo nuestros sesgos y prejuicios -porejemplo, identifica erróneamente a las personas de color con la IA de reconocimiento facial- y pueda amenazar la justicia social reproduciendo las desigualdades sociales que observa. Por ejemplo, el "sesgo algorítmico" de la IA podría suponer un riesgo desproporcionado para las mujeres, socavar la identidad LGBTQ y poner en especial peligro a las personas transgénero. Estas injusticias podrían ser aún peores si la IA nos deja desconectados unos de otros, como ocurre en la película de 2008 WALL-E, en la que los humanos han abandonado la Tierra y viven en una nave espacial pilotada por robots. La película parece advertir de que, al poner a la IA al mando, podríamos perder de vista lo que ocurre en nuestro mundo, sea justo o no, y perdernos las conexiones emocionales y las perspectivas únicas que nos hacen valiosos a todos).