Um esboço de uma mulher lendo um livro em uma mesa de escritório

O que acontece quando a inteligência artificial começa a controlar as histórias que contamos e compartilhamos? Como a crescente influência da IA sobre as informações representa uma ameaça maior do que a perda de empregos ou revoltas de robôs?

O livro Nexus, de Yuval Noah Harari : A Brief History of Information Networks From the Stone Age to AI explora como a IA está transformando a maneira como os seres humanos compartilham e consomem informações. Ele examina os padrões históricos da tecnologia da informação para revelar como o controle da IA sobre nossas narrativas culturais pode remodelar a própria civilização.

Continue lendo para descobrir por que ter acesso a mais informações não leva necessariamente a uma melhor compreensão - e o que podemos fazer para manter a agência humana em um mundo orientado por IA.

Visão geral do Nexus de Yuval Noah Harari

O livro de Yuval Noah Harari Nexus: A Brief History of Information Networks From the Stone Age to AI (2024), analisa os cenários típicos do dia do juízo final da inteligência artificial (IA) para identificar uma ameaça mais sutil, mas potencialmente mais devastadora: O crescente poder da IA para controlar como os seres humanos compartilham e consomem informações. Enquanto outros alertam sobre a possibilidade de a IA tomar nossos empregos ou se tornar hostil, Harari argumenta que o verdadeiro perigo da IA está em sua capacidade de manipular as histórias que contamos - a própria base da civilização humana. 

Com base em exemplos históricos, desde a prensa tipográfica até os algoritmos de mídia social, Harari demonstra como as mudanças na tecnologia da informação transformaram repetidamente a sociedade, às vezes com consequências catastróficas. Ele argumenta que a IA representa a transformação mais significativa até o momento, pois em breve poderá superar os seres humanos em nossa capacidade mais distinta: criar e compartilhar as histórias que dão sentido ao nosso mundo. No centro da preocupação de Harari está uma mudança profunda em quem controla nossas informações: Pela primeira vez na história da humanidade, a IA - e não os humanos - determina cada vez mais as histórias que encontramos e compartilhamos.

Harari é historiador e filósofo com Ph.D. pela Universidade de Oxford. Seus outros livros incluem Sapiens-uma história abrangente da humanidade que vendeu mais de 25 milhões de cópias-Homo Deuse 21 Lições para o Século 21. Em Nexus, ele argumenta que a informação é o nexo social que conecta todos em uma sociedade, permitindo-nos cooperar e interagir em grande escala por meio do compartilhamento de ideias, crenças e experiências.

Nesta visão geral, exploraremos as principais percepções de Harari sobre informação, verdade e ordem social, enquanto examinamos como as redes de informação evoluíram ao longo da história. Também analisaremos o papel emergente da IA nessas redes e consideraremos as soluções propostas por Harari para manter a agência humana em um cenário de informações dominado pela IA.

Shortform NotaShortform : O que é IA, exatamente? Os especialistas dizem que não há apenas uma definição, o que dá espaço para o campo evoluir. Dito isso, você pode pensar na IA - que permite que os computadores façam coisas que exigem "inteligência" - como algo que existe em um espectro. Considere o software que permite que você converse com a Siri em seu iPhone e o modelo que pode vencer campeões mundiais no complexo jogo Go. Essas duas formas de IA diferem muito na escala das tarefas que realizam, em sua autonomia e na amplitude ou estreiteza de suas habilidades. Todos os modelos de IA diferem ao longo dessas dimensões, fazendo com que o que eles podem fazer se pareça mais ou menos com a inteligência humana).

O que é informação? 

Começaremos com a definição de informação de Harari. Ele explica que informação é o conhecimento que conecta e organiza as pessoas: São as histórias, crenças e ideias que podem transformar um conjunto aleatório de indivíduos em um grupo social coeso, unido por uma causa comum. É importante ressaltar que essas histórias não precisam ser verdadeiras para serem poderosas - de fato, a maioria das informações não é objetivamente verdadeira.

Harari explica que a desconexão entre informação e verdade pode, na verdade, ser benéfica: As histórias que compartilhamos podem criar laços sociais, instilar esperança, incentivar o otimismo e inspirar as pessoas a trabalharem juntas para realizar grandes feitos. Mas o principal insight de Harari é que consumimos e compartilhamos informações avidamente com base no quanto a história é atraente, e não se ela reflete a realidade. E algumas das histórias que mais chamam a atenção e emocionam são comprovadamente falsas.

Harari diz que a história mostra, repetidamente, que ter acesso a mais informações não leva necessariamente a uma melhor compreensão do mundo ou a uma tomada de decisão mais sábia. Mas antes de examinarmos como esse paradoxo se desenrolou ao longo da história humana, vamos analisar mais de perto por que não damos mais valor à veracidade das informações que compartilhamos.

Por que não nos importamos com o fato de as informações serem verdadeiras?

Harari explica que há vários tipos de verdade ou realidade, o que ajuda a explicar por que geralmente não questionamos se as informações são objetivamente verdadeiras. Ele identifica três tipos distintos: Primeiro, há a realidade objetiva - arealidade que podemos provar com as leis da física e os fatos do mundo. Uma realidade objetiva é verdadeira, independentemente de alguém estar ou não ciente dela ou acreditar nela. Em segundo lugar, há a realidade subjetiva, que só existe se alguém acreditar nela. Em terceiro lugar, há a realidade intersubjetivaque surge quando uma história é acreditada por uma grande rede de pessoas e existe na comunicação e colaboração entre elas. Para uma realidade intersubjetiva, não importa se a história é verdadeira ou não: Quando um número suficiente de pessoas acredita nela, ela pode influenciar o mundo.

De acordo com Harari, a realidade intersubjetiva forma a base de muitas coisas em que acreditamos, como nossas nações, economias, religiões e ideologias. É assim que damos poder às instituições que colocam ordem em nosso mundo, como governos, hierarquias sociais ou o establishment científico: comprando as histórias que eles contam e aceitando a visão da realidade que emerge dessas histórias. Harari ressalta que o que estamos procurando quando buscamos informações sobre o mundo não é a verdade, mas uma história convincente que nos ajude a entender nosso lugar na sociedade.

Quem controla nossas histórias culturais - e a conversa em torno delas - ganha um enorme poder social. Mas Harari explica que, neste momento, pela primeira vez na história da humanidade, não são os humanos que estão controlando a conversa. Em vez disso, a IA determina cada vez mais sobre o que lemos, pensamos e falamos. Embora os humanos ainda decidam o que está no noticiário da noite ou na primeira página do jornal, isso não acontece com muitas de nossas fontes de informação mais populares. O vídeo na parte superior do seu feed do TikTok ou a publicação que você vê primeiro ao abrir o Facebook é decidido por um algoritmo alimentado por IA. Isso marca uma grande mudança na forma como as informações circulam na sociedade.

Como as informações circulam na sociedade?

Ao longo da história da humanidade, a informação e o poder caminharam juntos. Harari explica que, toda vez que uma nova tecnologia tornou a informação mais acessível, ela reformulou fundamentalmente a sociedade. Primeiro, a linguagem escrita, inscrita em tábuas de pedra ou argila, permitiu que nossos ancestrais mantivessem registros e codificassem suas regras de governo. Em seguida, os livros produzidos à mão - em tábuas, pergaminhos, pergaminhos e papiros - permitiram que grandes volumes de conhecimento sobre direito, história, religião e outros tópicos fossem compartilhados por escrito e ao longo do tempo e da distância, em vez de apenas oralmente e de pessoa para pessoa. Em seguida, a prensa tipográfica permitiu a ampla disseminação de informações e, portanto, a democratização do conhecimento.

Harari explica que essa democratização do conhecimento teve consequências inesperadas que revelam lições importantes sobre como as novas tecnologias da informação podem transformar a sociedade.

A tecnologia torna as informações - boas e ruins - mais fáceis de acessar

Quando a nova tecnologia facilita o compartilhamento de informações, explica Harari, ela acelera a disseminação tanto da verdade quanto da mentira. A invenção da prensa de impressão de tipos móveis oferece uma ilustração impressionante desse princípio. Embora os historiadores geralmente comemorem o fato de a prensa tipográfica ter possibilitado a Revolução Científica ao disseminar novas ideias sobre métodos experimentais, pensamento quantitativo e investigação rigorosa, seu primeiro grande impacto foi muito mais sombrio: Ela impulsionou a disseminação de informações errôneas perigosas.

A prensa tipográfica não deu início imediato a uma era de pensamento científico. De fato, 200 anos se passaram entre a invenção do tipo móvel e o verdadeiro início da Revolução Científica. Muito antes de cientistas como Galileu e Copérnico usarem a prensa tipográfica para compartilhar novos tipos de pensamento científico e codificar novos métodos de coleta de conhecimento sobre o mundo, um dos primeiros best-sellers da Europa foi o Malleus Maleficarum (ou Martelo das Bruxas), um manual de caça às bruxas escrito pelo inquisidor alemão Heinrich Kramer. O livro promovia uma teoria da conspiração de que as bruxas faziam parte de uma campanha liderada por Satanás para destruir a humanidade.

Ao distribuir cópias desse texto por toda a Europa, Kramer espalhou suas ideias supersticiosas, que ele falsamente representava como a posição da Igreja Católica. Suas afirmações paranoicas e misóginas sobre as mulheres serem vulneráveis a influências demoníacas ganharam ampla aceitação. A bruxaria passou a ser vista como o maior dos crimes e o mais grave dos pecados, levando a séculos de brutal caça às bruxas que ceifou dezenas de milhares de vidas.

Assim como os best-sellers de hoje, o Malleus Maleficarum revela que tipos de ideias chamaram a atenção das pessoas quando surgiu a nova tecnologia da prensa de tipos móveis. Porém, o mais importante é que seu sucesso ilustra uma das principais observações de Harari: Facilitar o acesso às informações não garante que a verdade ou a sabedoria prevalecerão. Embora as ideias supersticiosas de Kramer possam parecer ridículas hoje em dia, o potencial de mensagens extremas para manipular o pensamento das pessoas e levar as sociedades ao tipo de frenesi que alimentou a caça às bruxas permanece. Na verdade, Harari argumenta que esse potencial é exatamente o que torna a IA - nossa mais nova revolução no compartilhamento de informações - tão perigosa.

As sociedades precisam equilibrar a verdade e a ordem no controle do fluxo de informações

O mundo parece diferente hoje do que era quando havia caça às bruxas na Europa, mas os mecanismos subjacentes da sociedade para a disseminação de ideias - verdadeiras e falsas - ainda são basicamente os mesmos. Harari chama esses mecanismos de "redes de informação": Elas são uma estrutura fundamental subjacente à nossa sociedade e são formadas por grupos de pessoas que compartilham histórias que espalham a verdade (ou circulam desinformação) e criam ordem (ou geram caos).

Ao gerenciar o fluxo de informações entre as pessoas, os grupos sociais têm uma escolha a fazer: Eles querem priorizar a disseminação da verdade ou controlar o fluxo de informações para manter a ordem social? O que devemos esperar, explica Harari, são redes de informações que possam nos ajudar a encontrar um equilíbrio entre a verdade e a ordem. Permitir um fluxo de informações que se incline demais para um lado ou para o outro pode ter consequências desastrosas, como discutiremos a seguir.

O que acontece quando valorizamos mais a verdade do que a ordem?

Como vimos durante a Revolução Científica, a sociedade humana pode florescer quando buscamos a verdade. Isso faz com que o pensamento humano avance quando estamos abertos a questionar crenças de longa data e a substituir informações não comprovadas por observações atualizadas. Mas, observa Harari, geralmente ocorre uma troca: A ênfase na verdade ocorre às custas da ordem. A percepção de que os fatos estão mudando pode ser desestabilizadora. Por exemplo, a descoberta de Galileu sobre a natureza heliocêntrica de nosso sistema solar abalou as sociedades religiosas da Europa renascentista. Da mesma forma, a teoria da evolução de Darwin lançou no caos a compreensão do mundo natural na era vitoriana.

O que acontece quando valorizamos mais a ordem do que a verdade?

Por outro lado, se uma sociedade considera a ordem seu maior valor, ela pode assumir o controle do fluxo de informações para atingir esse objetivo. (Se você manipular o fluxo de informações, poderá manipular o que as pessoas pensam e fazem). Diferentemente de uma democracia - em que as informações são compartilhadas livremente com os cidadãos para que eles possam verificar os fatos e corrigir erros e falsidades, mesmo aqueles apresentados pelo Estado -, uma ditadura não quer conversas abertas. Os regimes autoritários promovem ideias de forma seletiva, sem levar em conta se elas são comprovadamente verdadeiras ou falsas. A lógica é que, se o conhecimento se tornar disponível com muita liberdade, as histórias sobre as quais o regime foi construído poderão ser colocadas em dúvida e potencialmente rejeitadas pelos cidadãos do estado.

Como a IA está mudando nossa relação com as informações?

Harari explica que estamos vivendo em uma "era da informação", em que o conhecimento está se proliferando, o acesso à informação está democratizado e todos com um smartphone e acesso à Internet podem compartilhar suas ideias com o mundo. À medida que desenvolvemos ferramentas como a IA, estamos aumentando a velocidade com que as histórias podem ser compartilhadas. Quando você considera o que torna uma sociedade humana livre, equitativa ou democrática, ter mais informações parece ser um bem inerente. (Uma expressão especialmente americana disso é a ideia, escrita por Thomas Jefferson, de que um eleitorado bem informado desempenha um papel vital para manter as autoridades sob controle e se proteger contra a tirania). 

Mas, contrariando essa noção, Harari se preocupa com o fato de que os recentes desenvolvimentos que tornam as informações mais acessíveis para nós ameaçam inclinar a balança para as mensagens mais extremas, menos verdadeiras e mais divisivas.

Como os seres humanos estão programados para procurar uma boa história em vez de buscar a verdade, colocar a IA em uma posição de determinar a quais ideias estamos expostos pode ter consequências potencialmente desastrosas. Harari identifica três perigos principais: O desprezo da IA pela verdade, sua capacidade de nos manipular e polarizar e seu potencial de superar a compreensão humana do mundo. Para cada uma dessas ameaças, ele oferece recomendações específicas sobre como podemos manter a agência humana e o controle sobre nosso cenário de informações.

Perigo nº 1: Como não priorizamos a verdade, a IA também não o faz

Os cientistas tornaram possível a criação de modelos de IA que podem gerar linguagem e contar histórias como os humanos. Harari afirma que a capacidade da IA de criar histórias convincentes e produzir a ilusão de emoções (e intimidade emocional) é onde reside seu verdadeiro perigo. Quando conversamos com um chatbot alimentado por IA, como o ChatGPT, é fácil perder de vista o fato de que esses sistemas não são humanos e não têm interesse em dizer a verdade. Isso só se tornará mais difícil de reconhecer à medida que a IA se tornar cada vez melhor em imitar as emoções humanas - e criar a ilusão de que ela pensa e sente como nós. Portanto, será cada vez mais fácil perdermos de vista o fato de que a IA não está priorizando a verdade quando seleciona e gera informações para nós.

Harari afirma que a IA já influencia as informações que consumimos: Um algoritmo - umconjunto de instruções matemáticas que diz a um computador o que fazer para resolver um problema - escolhe o que você vê em uma rede social ou em um aplicativo de notícias. O algoritmo do Facebook, por exemplo, escolhe as publicações para maximizar o tempo que você passa no aplicativo. A melhor maneira de fazer isso não é mostrar histórias verdadeiras, mas conteúdo que provoque uma reação emocional. Assim, ele seleciona publicações que o deixam irritado, alimentam sua animosidade com pessoas que não são como você e confirmam o que você já acredita sobre o mundo. É por isso que os feeds de mídia social são inundados com notícias falsas, teorias da conspiração e ideias inflamadas. Harari acredita que esse efeito só se tornará mais pronunciado à medida que a IA estiver fazendo a curadoria e criando mais do conteúdo que consumimos.

Como corrigir isso: Preste atenção ao que é verdadeiro

Harari argumenta que precisamos tomar medidas deliberadas para inclinar a balança em favor da verdade à medida que a IA se torna mais poderosa. Embora suas soluções propostas sejam um tanto abstratas, ele enfatiza duas abordagens principais: ser proativo em relação ao destaque de informações verdadeiras e manter redes descentralizadas em que as informações possam fluir livremente entre instituições e indivíduos que possam identificar e corrigir falsidades.

Perigo nº 2: Estamos nos tornando mais fáceis de manipular e polarizar

Harari adverte que, como a IA controla cada vez mais as informações que vemos, os algoritmos nos levarão a ideias mais extremas e a uma maior polarização. Já podemos ver isso acontecendo com a atual indignação alimentada por algoritmos e com a desinformação alimentada por clickbait. Harari acredita que o problema só se intensificará à medida que a IA se tornar mais sofisticada e comercializada, e ele prevê que os sistemas de IA criarão, interpretarão e divulgarão histórias sem intervenção humana. Um sistema poderá selecionar partes de informações, outro transformará essas informações em uma história e outro ainda determinará quais histórias mostrarão a quais usuários. Isso nos deixará cada vez mais vulneráveis à manipulação por sistemas de IA e pelas corporações que os controlam.

Harari explica que isso representa uma mudança significativa no poder: a capacidade de definir a agenda cultural e moldar o discurso público - tradicionalmente o domínio de editores de jornais, autores de livros e intelectuais - pertencerá cada vez mais a sistemas de IA otimizados não para a verdade ou a coesão social, mas para o engajamento e o lucro. 

Como corrigir isso: Crie instituições para ajudar as pessoas a entender o que a IA está fazendo

Para combater a crescente influência da IA sobre a opinião pública, Harari pede a criação de novas instituições para monitorar a inteligência artificial e informar o público sobre suas capacidades e riscos. Ele argumenta que não devemos deixar que os gigantes da tecnologia regulem a si mesmos. Embora sua visão para essas instituições de supervisão permaneça abstrata, ele sugere que elas devem funcionar de forma semelhante à imprensa livre ou às instituições acadêmicas de hoje, servindo como cães de guarda independentes que podem ajudar o público a entender e avaliar as decisões e ações da IA. Harari considera que esse é um desafio essencialmente político, argumentando que precisamos da vontade coletiva para estabelecer essas salvaguardas

Perigo nº 3: Estamos preparando a IA para entender o mundo melhor do que nós

Harari adverte que estamos criando sistemas de IA que logo ultrapassarão a capacidade humana de compreender e manipular as histórias compartilhadas que organizam nossas sociedades. Essa mudança representa um perigo real: Embora os seres humanos tenham tradicionalmente mantido o poder por meio de nossa capacidade exclusiva de criar e controlar essas ficções compartilhadas - como leis, dinheiro e instituições sociais -, a IA está pronta para nos eclipsar em nosso próprio jogo. 

A raiz desse problema está na natureza humana. Em geral, não temos paciência e atenção para nos aprofundarmos em verdades complexas, preferindo histórias mais simples e fáceis de entender. Os sistemas de IA, por outro lado, podem processar grandes quantidades de informações e trabalhar em conjunto de uma forma que os humanos não conseguem - enquanto um sistema de IA analisa as tendências do mercado, outro pode estudar simultaneamente documentos jurídicos e milhares de outros podem se coordenar para identificar padrões nesses diferentes domínios. Eles podem compreender sistemas complexos - como códigos legais e mercados financeiros - muito melhor do que a maioria dos humanos. Podem até mesmo criar estruturas totalmente novas que vão além da compreensão humana. Essa lacuna de capacidade marca uma mudança sem precedentes no poder.

Por dezenas de milhares de anos, os seres humanos têm sido os únicos arquitetos de nossas redes de informações, gerando e compartilhando as ideias que moldam nossas sociedades. Mas, à medida que os sistemas de IA se tornam mais sofisticados, dependeremos cada vez mais deles para processar informações e tomar decisões. Quando delegamos decisões, também abrimos mão de nosso entendimento das informações que as orientam - potencialmente abrindo mão de nossa posição como os principais formadores da sociedade humana.

Como corrigir isso: Foco na manutenção da agência humana

Harari acredita que , para lidar com essa transição, precisamos desenvolver novas estruturas para manter a agência humana e as proteções éticas. Ele explica que devemos considerar o treinamento de sistemas de IA para expressar dúvidas, buscar feedback humano e reconhecer sua própria falibilidade - essencialmente equipando-os com uma autoconsciência dos limites de seu conhecimento. Ele também recomenda que usemos a IA para aumentar a tomada de decisão humana em vez de substituí-la, o que ajudaria a manter os valores e a supervisão humanos.

O verdadeiro risco: como os seres humanos escolhem usar a IA

A ameaça existencial da inteligência artificial, argumenta Harari, não vem de computadores malévolos, mas da tomada de decisão humana. Embora frequentemente ouçamos que a tecnologia em si representa o perigo - que criamos repetidamente ferramentas com o potencial de nos destruir - Harari vê o problema central de forma diferente. O risco real está em como os seres humanos escolhem usar essas novas e poderosas ferramentas, especialmente quando fazemos essas escolhas com base em informações ruins.

Essa percepção muda o foco da própria IA para os sistemas humanos que a controlam. Harari adverte que, se ditadores paranoicos ou terroristas obtiverem poder ilimitado sobre os sistemas de IA, poderão ocorrer consequências catastróficas. Mas esses resultados não são inevitáveis; eles dependem inteiramente das decisões humanas sobre como desenvolver e implantar a tecnologia. 

A conclusão de Harari é, em última análise, promissora: Se pudermos entender o verdadeiro impacto de nossas escolhas sobre a IA - e garantir que essas escolhas sejam baseadas em informações confiáveis e não em manipulação ou desinformação -,poderemos aproveitar essa poderosa tecnologia para beneficiar a humanidade em vez de prejudicá-la. A chave não é temer a IA em si, mas ser cuidadoso e intencional sobre como escolhemos usá-la. Como qualquer ferramenta, podemos usar a IA para atingir fins positivos ou negativos, e temos que priorizar as escolhas que beneficiarão a humanidade, e não a destruirão.

Nexus de Yuval Noah Harari: Visão geral do livro e conclusões

Elizabeth Whitworth

Elizabeth tem um amor eterno por livros. Ela devora livros de não-ficção, especialmente nas áreas de história, teologia e filosofia. A mudança para audiolivros despertou seu interesse por ficção bem narrada, especialmente obras vitorianas e do início do século XX. Ela gosta de livros com ideias - e de um clássico mistério de assassinato de vez em quando. Elizabeth tem um Substack e está escrevendo um livro sobre o que a Bíblia diz sobre a morte e o inferno.

2 comentários sobre "Nexus, de Yuval Noah Harari: Visão geral do livro e conclusões"

  • 11 de março de 2025 às 9:58 pm
    Link permanente

    Este é um ótimo resumo geral para entender rapidamente a intenção do livro. Você tocou nos pontos principais. Obrigado por isso.

    Responder

Deixar uma resposta

Seu endereço de e-mail não será publicado. Os campos obrigatórios estão marcados com *