¿Qué es una alucinación de IA? ¿Por qué alucina la IA? ¿Cuáles son las consecuencias de estos errores?
En su libro Rebooting AI, Gary Marcus y Ernest Davis exploran el fenómeno de las alucinaciones de la IA. Explican por qué se producen estos errores y analizan los riesgos potenciales en situaciones críticas como las torres de control de los aeropuertos o los coches autoconducidos.
Siga leyendo para conocer los retos de la depuración de redes neuronales artificiales.
Por qué alucina la IA
Supongamos que un ordenador de aeropuerto entrenado para identificar aviones que se aproximan confunde un vuelo de gansos con un Boeing 747. En el desarrollo de la inteligencia artificial, este tipo de error se denomina "alucinación" y, en las circunstancias equivocadas -como en la torre de control de un aeropuerto-, los trastornos que puede causar una alucinación pueden ser desde costosos hasta catastróficos.
¿Por qué alucina la IA? Davis y Marcus explican que las redes neuronales se entrenan utilizando grandes cantidades de datos. Cuando esta estrategia se emplea excluyendo cualquier otra herramienta de programación, es difícil corregir la dependencia de un sistema de la correlación estadística en lugar de la lógica y la razón. Por eso, las redes neuronales no pueden depurarse como lo hace el software escrito por humanos, y se dejan engañar fácilmente cuando se les presentan datos que no coinciden con los que se han entrenado.
Cuando las redes neuronales se entrenan únicamente con datos de entrada en lugar de programarse a mano, es imposible decir exactamente por qué el sistema produce un resultado concreto a partir de una entrada determinada. Marcus y Davis escriben que, cuando se producen alucinaciones de IA, es imposible identificar dónde se producen los errores en el laberinto de cálculos dentro de una red neuronal. Esto hace imposible la depuración tradicional, por lo que los ingenieros de software tienen que "reentrenar" ese error específico fuera del sistema, como por ejemplo dando a la IA del ordenador del aeropuerto miles de fotos de pájaros en vuelo que estén claramente etiquetadas como "no aviones". Davis y Marcus sostienen que esta solución no soluciona los problemas sistémicos que causan las alucinaciones.
Alucinaciones y Large Language Models Desde la publicación de Rebooting AI, las alucinaciones de la IA se han hecho más conocidas gracias al lanzamiento público de ChatGPT y otros "chatbots" similares basados en datos. Estas IA, conocidas como Large Language Models (LLM), utilizan grandes cantidades de contenido escrito por humanos para generar texto original calculando qué palabras y frases tienen estadísticamente más probabilidades de seguir a otras palabras y frases. En cierto sentido, los LLM son similares a la función de autocompletar de las aplicaciones de mensajería y los procesadores de texto, pero con más versatilidad y a mayor escala. Por desgracia, son propensos a alucinaciones como contradicciones, falsedades y tonterías aleatorias. Además de comprobar manualmente todo lo que escribe un LLM, existen varios métodos que utilizan la IA para detectar y minimizar sus propias alucinaciones. Uno de ellos es la ingeniería de instrucciones, en la que se guía la producción del LLM dándole instrucciones claras y específicas, dividiendo los proyectos largos en tareas más pequeñas y sencillas, y proporcionando a la IA información objetiva y las fuentes que se desea que consulte. Otros enfoques son la inducción de la cadena de pensamiento, en la que se pide al LLM que explique su razonamiento, y la inducción de pocos disparos, en la que se proporcionan al LLM ejemplos de cómo se desea que esté estructurado su resultado. |
Alucinaciones y Big Data
Las alucinaciones de las IA no son difíciles de producir, como puede atestiguar cualquiera que haya utilizado ChatGPT. En muchos casos, las IA alucinan cuando se les presenta información en un contexto inusual que no es similar al incluido en los datos de entrenamiento del sistema. Pensemos en el popular vídeo de YouTube de un gato disfrazado de tiburón montado en una Roomba. Por extraña que sea la imagen, a un ser humano no le cuesta identificar lo que está viendo, mientras que una IA a la que se encomendara la misma tarea ofrecería una respuesta completamente errónea. Davis y Marcus argumentan que esto es importante cuando el reconocimiento de patrones se utiliza en situaciones críticas, como en los coches autoconducidos. Si la IA que escanea la carretera ve un objeto inusual en su camino, el sistema podría alucinar con resultados desastrosos.
(Nota breve: en el campo del reconocimiento de imágenes, especialmente en lo que se refiere al perfeccionamiento de la "visión" de la IA para que pueda identificar correctamente los objetos, la investigación está en curso. Dado que, como señalan Davis y Marcus, el proceso por el que las redes neuronales procesan cualquier información es opaco, algunos investigadores trabajan para determinar exactamente cómo interpretan las redes neuronales los datos visuales y en qué difiere ese proceso de la forma en que ven los humanos. Entre los posibles métodos para mejorar la visión por ordenador figuran hacer más transparente el funcionamiento interno de la IA, incluir modelos artificiales con entradas del mundo real y desarrollar formas de procesar imágenes utilizando menos datos de los que requieren las IA modernas).
Las alucinaciones ilustran una diferencia entre la cognición humana y la de las máquinas: nosotros podemos tomar decisiones basándonos en información mínima, mientras que el aprendizaje automático requiere enormes conjuntos de datos para funcionar. Marcus y Davis señalan que, para que la IA interactúe con las infinitas variables y posibilidades del mundo real, no existe un conjunto de datos lo bastante grande como para entrenar a una IA para cada situación. Como las IA no entienden lo que significan sus datos, sino sólo cómo se correlacionan, perpetuarán y amplificarán los prejuicios humanos ocultos en su información de entrada. Existe además el peligro de que la IA amplifique sus propias alucinaciones a medida que la información errónea generada por ordenador pase a formar parte del conjunto global de datos utilizados para entrenar a futuras IA.
Bad Data In, Bad Data Out El problema que plantean Marcus y Davis sobre las IA que propagan las alucinaciones de otras IA se conoce comúnmente como colapso del modelo. Este peligro aumenta a medida que más contenidos generados por IA entran en el mercado mundial de las ideas y, por tanto, en la base de datos de la que se nutren otras IA. Este peligro tampoco es teórico: los medios de comunicación que dependen de la IA para sus contenidos ya han sido sorprendidos generando noticias falsas, que luego entran en el flujo de contenidos de datos que alimenta a otros creadores de contenidos de IA. El problema de depender de contenidos puramente humanos no es sólo que gran parte de ellos contengan sesgos humanos, sino también que los sesgos son difíciles de reconocer. En Biasedla psicóloga Jennifer Eberhardt explica que la mayoría de los prejuicios son inconscientes: sino somos conscientes de su existencia, ¿cómo podemos evitar que se filtren en nuestras creaciones digitales? Para complicar más las cosas, el prejuicio es, en el fondo, una forma de clasificación, que Davis y Marcus señalan libremente que es lo que la estrecha IA está haciendo realmente bien. Por tanto, repetir y proyectar los prejuicios humanos es algo natural para la IA basada en datos. Una solución podría ser desarrollar una IA capaz de clasificar datos y extraer conclusiones con pocos o ningún ejemplo de datos de entrenamiento, eliminando por completo los prejuicios humanos y las alucinaciones de otras IA. Conocido como "menos de uno" o "aprendizaje cero", actualmente se están desarrollando técnicas para enseñar a la IA a categorizar imágenes y texto que no están presentes en ninguna parte de sus datos de entrenamiento. A principios de 2024 , el enfoque de "disparo cero" aún está en fase de desarrollo, pero está demostrando su potencial para eliminar algunos de los problemas inherentes a las técnicas de entrenamiento de IA de big data. |