Um esboço de uma mulher a ler um livro numa secretária de um escritório

O que acontece quando a inteligência artificial começa a controlar as histórias que contamos e partilhamos? Como é que a crescente influência da IA sobre a informação representa uma ameaça maior do que a deslocação de empregos ou as revoltas dos robôs?

O livro Nexus de Yuval Noah Harari : A Brief History of Information Networks From the Stone Age to AI explora a forma como a IA está a transformar a forma como os seres humanos partilham e consomem informação. O autor examina os padrões históricos da tecnologia da informação para revelar como o controlo da IA sobre as nossas narrativas culturais pode remodelar a própria civilização.

Continue a ler para descobrir por que razão o acesso a mais informação não conduz necessariamente a uma melhor compreensão - e o que podemos fazer para manter a capacidade de ação humana num mundo orientado para a IA.

Visão geral do Nexus de Yuval Noah Harari

O livro de Yuval Noah Harari Nexus: Uma breve história das redes de informação desde a Idade da Pedra até à IA (2024), atravessa os cenários típicos do dia do juízo final da inteligência artificial (IA) para identificar uma ameaça mais subtil, mas potencialmente mais devastadora: O crescente poder da IA para controlar a forma como os seres humanos partilham e consomem informação. Enquanto outros alertam para o facto de a IA nos tirar o emprego ou se tornar hostil, Harari argumenta que o verdadeiro perigo da IA reside na sua capacidade de manipular as histórias que contamos - a própria base da civilização humana. 

Com base em exemplos históricos, desde a imprensa até aos algoritmos das redes sociais, Harari demonstra como as mudanças na tecnologia da informação transformaram repetidamente a sociedade, por vezes com consequências catastróficas. O autor defende que a IA representa a transformação mais significativa de sempre, uma vez que poderá em breve ultrapassar os humanos na nossa capacidade mais distintiva: criar e partilhar as histórias que dão sentido ao nosso mundo. No centro da preocupação de Harari está uma mudança profunda em quem controla a nossa informação: Pela primeira vez na história da humanidade, a IA - e não os humanos - determina cada vez mais as histórias que encontramos e partilhamos.

Harari é um historiador e filósofo doutorado pela Universidade de Oxford. Os seus outros livros incluem Sapiens-uma história abrangente da humanidade que vendeu mais de 25 milhões de exemplares-Homo Deuse 21 Lições para o Século 21. Em Nexus, defende que a informação é o nexo social que liga todos numa sociedade, permitindo-nos cooperar e interagir em grande escala através da partilha de ideias, crenças e experiências.

Neste resumo, vamos explorar as principais ideias de Harari sobre informação, verdade e ordem social, enquanto examinamos a forma como as redes de informação evoluíram ao longo da história. Analisaremos também o papel emergente da IA nestas redes e consideraremos as soluções propostas por Harari para manter a agência humana num cenário de informação dominado pela IA.

Shortform NotaShortform : O que é exatamente a IA? Os especialistas dizem que não existe apenas uma definição, o que dá ao campo espaço para evoluir. Dito isto, pode pensar-se na IA - que permite aos computadores fazer coisas que requerem "inteligência" - como existindo num espetro. Considere o software que lhe permite falar com a Siri no seu iPhone e o modelo que consegue vencer campeões mundiais no complexo jogo Go. Estas duas formas de IA diferem muito na escala das tarefas que realizam, na sua autonomia e na amplitude ou estreiteza das suas competências. Todos os modelos de IA diferem ao longo destas dimensões, fazendo com que aquilo que conseguem fazer se assemelhe mais ou menos à inteligência humana).

O que é a informação? 

Começaremos com a definição de informação de Harari. Ele explica que a informação é o conhecimento que liga e organiza as pessoas: São as histórias, crenças e ideias que podem transformar um conjunto aleatório de indivíduos num grupo social coeso, unido por uma causa comum. É importante notar que estas histórias não precisam de ser verdadeiras para serem poderosas - de facto, a maior parte da informação não é objetivamente verdadeira.

Harari explica que a desconexão entre informação e verdade pode, de facto, ser benéfica: As histórias que partilhamos podem criar laços sociais, incutir esperança, encorajar o otimismo e inspirar as pessoas a trabalharem em conjunto para alcançarem grandes feitos. Mas a principal conclusão de Harari é que consumimos e partilhamos avidamente informação com base no grau de atração da história e não no facto de esta refletir a realidade. E algumas das histórias que mais chamam a atenção e comovem emocionalmente são comprovadamente falsas.

Harari afirma que a história mostra, uma e outra vez, que ter acesso a mais informação não conduz necessariamente a uma melhor compreensão do mundo ou a uma tomada de decisões mais sensata. Mas antes de examinarmos a forma como este paradoxo se desenrolou ao longo da história da humanidade, vejamos mais de perto por que razão não damos mais valor à verdade da informação que partilhamos.

Porque é que não nos interessa saber se a informação é verdadeira?

Harari explica que existem vários tipos de verdade ou realidade, o que ajuda a explicar porque é que muitas vezes não questionamos se a informação é objetivamente verdadeira. Ele identifica três tipos distintos: Primeiro, há a realidade objetiva - arealidade que podemos provar com as leis da física e os factos do mundo. Uma realidade objetiva é verdadeira, quer alguém tenha ou não consciência dela ou acredite nela. Em segundo lugar, há a realidade subjectiva, que só existe se alguém acreditar nela. Em terceiro lugar, há a realidade intersubjectivaque surge quando uma história é acreditada por uma grande rede de pessoas e existe na comunicação e colaboração entre elas. Para uma realidade intersubjectiva, não importa se a história é verdadeira ou não: Quando um número suficiente de pessoas acredita nela, ela pode influenciar o mundo.

De acordo com Harari, a realidade intersubjectiva constitui a base de muitas coisas em que acreditamos, como as nossas nações, economias, religiões e ideologias. É assim que damos poder às instituições que põem ordem no nosso mundo, como os governos, as hierarquias sociais ou o establishment científico: comprando as histórias que contam e aceitando a visão da realidade que emerge dessas histórias. Harari salienta que o que procuramos quando procuramos informação sobre o mundo não é de todo a verdade, mas uma história convincente que nos ajude a compreender o nosso lugar na sociedade.

Quem controla as nossas histórias culturais - e a conversa à volta delas - ganha um enorme poder social. Mas Harari explica que, neste momento, pela primeira vez na história da humanidade, não são os humanos que estão a controlar a conversa. Em vez disso, a IA determina cada vez mais o que lemos, pensamos e falamos. Embora os humanos ainda decidam o que está no noticiário da noite ou na primeira página do jornal, o mesmo não acontece com muitas das nossas fontes de informação mais populares. O vídeo no topo do seu feed do TikTok ou a publicação que vê primeiro quando abre o Facebook é decidido por um algoritmo alimentado por IA. Isto marca uma grande mudança na forma como a informação circula na sociedade.

Como é que a informação circula na sociedade?

Ao longo da história da humanidade, a informação e o poder têm andado juntos. Harari explica que, de cada vez que uma nova tecnologia tornou a informação mais facilmente acessível, esta alterou fundamentalmente a sociedade. Primeiro, a linguagem escrita, inscrita em tábuas de pedra ou de barro, permitiu aos nossos antepassados manter registos e codificar as suas regras de governo. Em seguida, os livros produzidos à mão - em tábuas, pergaminhos, pergaminho e papiro - permitiram que grandes corpos de conhecimento sobre direito, história, religião e outros tópicos fossem partilhados por escrito e ao longo do tempo e da distância, em vez de apenas oralmente e de pessoa para pessoa. Depois, a imprensa permitiu a disseminação generalizada da informação e, por conseguinte, a democratização do conhecimento.

Harari explica que esta democratização do conhecimento teve consequências inesperadas que revelam lições importantes sobre a forma como as novas tecnologias da informação podem transformar a sociedade.

A tecnologia torna a informação - boa e má - mais fácil de aceder

Quando as novas tecnologias facilitam a partilha de informação, explica Harari, aceleram a disseminação da verdade e da mentira. A invenção da imprensa de tipos móveis é uma ilustração notável deste princípio. Embora os historiadores celebrem frequentemente o facto de a imprensa ter possibilitado a Revolução Científica ao divulgar novas ideias sobre métodos experimentais, pensamento quantitativo e investigação rigorosa, o seu primeiro grande impacto foi muito mais sombrio: Potenciou a disseminação de desinformação perigosa.

A imprensa não inaugurou imediatamente uma era de pensamento científico. De facto, decorreram 200 anos entre a invenção do tipo móvel e o verdadeiro início da Revolução Científica. Muito antes de cientistas como Galileu e Copérnico utilizarem a imprensa para partilhar novos tipos de pensamento científico e codificar novos métodos de recolha de conhecimentos sobre o mundo, um dos primeiros best-sellers da Europa foi o Malleus Maleficarum (ou Martelo das Bruxas), um manual de caça às bruxas escrito pelo inquisidor alemão Heinrich Kramer. O livro promovia uma teoria da conspiração segundo a qual as bruxas faziam parte de uma campanha liderada por Satanás para destruir a humanidade.

Ao distribuir cópias deste texto por toda a Europa, Kramer difundiu as suas ideias supersticiosas, que falsamente representava como a posição da Igreja Católica. As suas afirmações paranóicas e misóginas sobre a vulnerabilidade das mulheres a influências demoníacas ganharam aceitação generalizada. A bruxaria passou a ser vista como o mais elevado dos crimes e o mais grave dos pecados, levando a séculos de brutal caça às bruxas que custou dezenas de milhares de vidas.

Tal como os bestsellers actuais, o Malleus Maleficarum revela que tipo de ideias chamou a atenção das pessoas quando surgiu a nova tecnologia da imprensa de tipos móveis. Mas, mais importante ainda, o seu sucesso ilustra uma das principais observações de Harari: Tornar a informação mais fácil de aceder não garante que a verdade ou a sabedoria prevaleçam. Embora as ideias supersticiosas de Kramer possam parecer ridículas hoje em dia, o potencial das mensagens extremas para manipular o pensamento das pessoas e levar as sociedades ao tipo de frenesim que alimentou a caça às bruxas mantém-se. De facto, Harari argumenta que este potencial é exatamente o que torna a IA - a nossa mais recente revolução na partilha de informação - tão perigosa.

As sociedades têm de equilibrar a verdade e a ordem no controlo do fluxo de informação

O mundo parece agora diferente do que era quando havia caça às bruxas na Europa, mas os mecanismos subjacentes da sociedade para difundir ideias - verdadeiras e falsas - continuam basicamente os mesmos. Harari chama a estes mecanismos "redes de informação": São uma estrutura fundamental subjacente à nossa sociedade e são constituídas por grupos de pessoas que partilham histórias que espalham a verdade (ou fazem circular a desinformação) e criam ordem (ou geram o caos).

Ao gerir o fluxo de informação entre as pessoas, os grupos sociais têm uma escolha a fazer: Querem dar prioridade à difusão da verdade ou controlar o fluxo de informação para manter a ordem social? O que devemos esperar, explica Harari, são redes de informação que nos possam ajudar a encontrar um equilíbrio entre a verdade e a ordem. Permitir um fluxo de informação que se incline demasiado para um lado ou para o outro pode ter consequências desastrosas, como discutiremos mais adiante.

O que acontece quando valorizamos mais a verdade do que a ordem?

Como vimos durante a Revolução Científica, a sociedade humana pode florescer quando procuramos a verdade. O pensamento humano progride quando estamos abertos a questionar crenças antigas e a substituir informação não comprovada por observações actualizadas. Mas, nota Harari, ocorre normalmente um compromisso: A ênfase na verdade vem à custa da ordem. A perceção de que os factos estão a mudar pode ser desestabilizadora. Por exemplo, a descoberta de Galileu sobre a natureza heliocêntrica do nosso sistema solar abalou as sociedades religiosas da Europa renascentista. Do mesmo modo, a teoria da evolução de Darwin lançou no caos a compreensão do mundo natural na era vitoriana.

O que acontece quando valorizamos mais a ordem do que a verdade?

Por outro lado, se uma sociedade considera a ordem o seu valor mais elevado, pode assumir o controlo do fluxo de informação para atingir esse fim. (Se manipularmos o fluxo de informação, podemos manipular o que as pessoas pensam e fazem). Ao contrário de uma democracia - em que a informação é partilhada livremente com os cidadãos para que estes possam verificar os factos e corrigir erros e falsidades, mesmo os apresentados pelo Estado - uma ditadura não quer uma conversa aberta. Os regimes autoritários promovem seletivamente as ideias sem ter em conta se são comprovadamente verdadeiras ou falsas. A lógica é que, se o conhecimento se tornar demasiado livre, então as histórias em que o regime se baseia podem ser postas em causa e potencialmente rejeitadas pelos cidadãos do Estado.

Como é que a IA está a mudar a nossa relação com a informação?

Harari explica que vivemos na "era da informação", onde o conhecimento prolifera, o acesso à informação é democratizado e qualquer pessoa com um smartphone e acesso à Internet pode partilhar as suas ideias com o mundo. Ao desenvolvermos ferramentas como a IA, estamos a aumentar a velocidade a que as histórias podem ser partilhadas. Quando se considera o que torna uma sociedade humana livre, equitativa ou democrática, ter mais informação parece ser um bem inerente. (Uma expressão especialmente americana disto é a ideia, escrita por Thomas Jefferson, de que um eleitorado bem informado desempenha um papel vital na manutenção das autoridades sob controlo e na proteção contra a tirania). 

Mas, contrariamente a esta noção, Harari preocupa-se com o facto de os recentes desenvolvimentos que tornam a informação mais acessível ameaçarem fazer pender a balança para as mensagens mais extremas, menos verdadeiras e mais divisivas.

Uma vez que os seres humanos estão programados para procurar uma boa história em vez de perseguir a verdade, colocar a IA numa posição que determine as ideias a que estamos expostos pode ter consequências potencialmente desastrosas. Harari identifica três perigos principais: O desrespeito da IA pela verdade, a sua capacidade de nos manipular e polarizar, e o seu potencial para ultrapassar a compreensão humana do mundo. Para cada uma destas ameaças, Harari apresenta recomendações específicas sobre a forma como podemos manter a agência humana e o controlo sobre o nosso panorama informativo.

Perigo #1: Como não damos prioridade à verdade, a IA também não dá

Os cientistas tornaram possível a construção de modelos de IA capazes de gerar linguagem e contar histórias tal como os humanos. Harari afirma que a capacidade da IA para criar histórias convincentes e produzir a ilusão de emoções (e intimidade emocional) é onde reside o seu verdadeiro perigo. Quando falamos com um chatbot alimentado por IA como o ChatGPT, é fácil perder de vista o facto de que estes sistemas não são humanos e não têm interesse em dizer a verdade. Isso só se tornará mais difícil de reconhecer à medida que a IA se torna cada vez melhor a imitar as emoções humanas - e a criar a ilusão de que pensa e sente como nós. Por isso, será cada vez mais fácil perdermos de vista o facto de que a IA não está a dar prioridade à verdade quando seleciona e gera informação para nós.

Harari afirma que a IA já influencia a informação que consumimos: Um algoritmo - umconjunto de instruções matemáticas que dizem a um computador o que fazer para resolver um problema - escolhe o que se vê numa rede social ou numa aplicação de notícias. O algoritmo do Facebook, por exemplo, escolhe as publicações para maximizar o tempo que o utilizador passa na aplicação. A melhor forma de o fazer não é mostrar histórias verdadeiras, mas conteúdos que provoquem uma reação emocional. Assim, seleciona publicações que o deixam zangado, alimentam a sua animosidade para com pessoas que não são como você e confirmam o que já acredita sobre o mundo. É por isso que os feeds das redes sociais estão inundados de notícias falsas, teorias da conspiração e ideias inflamatórias. Harari considera que este efeito só se irá acentuar à medida que a IA estiver a fazer a curadoria e a criar mais conteúdos que consumimos.

Como resolver o problema: Prestar atenção ao que é verdadeiro

Harari argumenta que precisamos de tomar medidas deliberadas para inclinar a balança a favor da verdade à medida que a IA se torna mais poderosa. Embora as soluções propostas sejam um pouco abstractas, Harari enfatiza duas abordagens principais: ser proactivo no destaque de informações verdadeiras e manter redes descentralizadas onde a informação possa fluir livremente entre instituições e indivíduos que possam identificar e corrigir falsidades.

Perigo #2: Estamos a tornar-nos mais fáceis de manipular e polarizar

Harari avisa que, à medida que a IA controla cada vez mais a informação que vemos, os algoritmos vão empurrar-nos para ideias mais extremas e uma maior polarização. Já podemos ver isto acontecer com a atual indignação alimentada por algoritmos e a desinformação alimentada por clickbait. Harari acredita que o problema só se vai intensificar à medida que a IA se torna mais sofisticada e comercializada, e prevê que os sistemas de IA vão criar, interpretar e divulgar histórias sem intervenção humana. Um sistema pode selecionar pedaços de informação, outro transformar essa informação numa história e outro ainda determinar que histórias mostrar a que utilizadores. Isto deixar-nos-á cada vez mais vulneráveis à manipulação por parte dos sistemas de IA e das empresas que os controlam.

Harari explica que isto representa uma mudança significativa no poder: a capacidade de definir a agenda cultural e moldar o discurso público - tradicionalmente o domínio dos editores de jornais, autores de livros e intelectuais - pertencerá cada vez mais a sistemas de IA optimizados não para a verdade ou a coesão social, mas para o envolvimento e o lucro. 

Como resolver o problema: Criar instituições para ajudar as pessoas a compreender o que a IA está a fazer

Para contrariar a crescente influência da IA sobre a opinião pública, Harari apela à criação de novas instituições para monitorizar a inteligência artificial e informar o público sobre as suas capacidades e riscos. Defende que não devemos deixar que os gigantes da tecnologia se regulem a si próprios. Embora a sua visão para estas instituições de supervisão permaneça abstrata, sugere que devem funcionar um pouco como a imprensa livre ou as instituições académicas actuais, servindo como cães de guarda independentes que podem ajudar o público a compreender e avaliar as decisões e acções da IA. Harari considera que este é sobretudo um desafio político, argumentando que precisamos da vontade colectiva para estabelecer estas salvaguardas

Perigo #3: Estamos a preparar a IA para compreender o mundo melhor do que nós

Harari alerta para o facto de estarmos a criar sistemas de IA que em breve ultrapassarão as capacidades humanas na compreensão e manipulação das histórias partilhadas que organizam as nossas sociedades. Esta mudança representa um perigo real: Embora os humanos tenham tradicionalmente mantido o poder através da nossa capacidade única de criar e controlar estas ficções partilhadas - como as leis, o dinheiro e as instituições sociais - a IA está prestes a eclipsar-nos no nosso próprio jogo. 

A raiz deste problema reside na natureza humana. Muitas vezes, não temos a paciência e a atenção necessárias para aprofundar verdades complexas, preferindo histórias mais simples e fáceis de compreender. Os sistemas de IA, pelo contrário, podem processar grandes quantidades de informação e trabalhar em conjunto de uma forma que os humanos não conseguem - enquanto um sistema de IA analisa as tendências do mercado, outro pode estudar simultaneamente documentos jurídicos e milhares de outros podem coordenar-se para detetar padrões nestes diferentes domínios. Conseguem compreender sistemas complexos - como códigos legais e mercados financeiros - muito melhor do que a maioria dos humanos. Podem mesmo criar estruturas inteiramente novas que ultrapassam a compreensão humana. Este fosso de capacidades marca uma mudança de poder sem precedentes.

Durante dezenas de milhares de anos, os seres humanos foram os únicos arquitectos das nossas redes de informação, gerando e partilhando as ideias que moldam as nossas sociedades. Mas, à medida que os sistemas de IA se tornam mais sofisticados, dependeremos cada vez mais deles para processar informação e tomar decisões. Quando delegamos decisões, também renunciamos à nossa compreensão da informação que as orienta - potencialmente desistindo da nossa posição como principais modeladores da sociedade humana.

Como resolver o problema: Concentrar-se em manter a agência humana

Harari acredita que , para lidar com esta transição, temos de desenvolver novas estruturas para manter a agência humana e as barreiras éticas. Ele explica que devemos considerar treinar os sistemas de IA para expressarem dúvidas, procurarem feedback humano e reconhecerem a sua própria falibilidade - essencialmente equipando-os com uma auto-consciência dos limites do seu conhecimento. Recomenda também que utilizemos a IA para aumentar a tomada de decisões humanas em vez de a substituir, o que ajudaria a manter os valores e a supervisão humanos.

O verdadeiro risco: a forma como os seres humanos optam por utilizar a IA

A ameaça existencial da inteligência artificial, argumenta Harari, não vem de computadores malévolos, mas da tomada de decisões humanas. Apesar de ouvirmos frequentemente que a tecnologia em si representa o perigo - que criamos repetidamente ferramentas com o potencial de nos destruir - Harari vê o problema central de forma diferente. O verdadeiro risco reside na forma como os humanos escolhem utilizar estas novas e poderosas ferramentas, especialmente quando fazem essas escolhas com base em informações erradas.

Esta visão muda o foco da própria IA para os sistemas humanos que a controlam. Harari avisa que, se ditadores paranóicos ou terroristas ganharem poder ilimitado sobre os sistemas de IA, poderão ocorrer consequências catastróficas. Mas estes resultados não são inevitáveis; dependem inteiramente das decisões humanas sobre a forma de desenvolver e utilizar a tecnologia. 

A conclusão de Harari é, em última análise, esperançosa: Se conseguirmos compreender o verdadeiro impacto das nossas escolhas sobre a IA - e garantir que essas escolhas se baseiam em informação fiável e não em manipulação ou desinformação -podemos aproveitar esta poderosa tecnologia para beneficiar a humanidade em vez de a prejudicar. A chave não está em temer a IA em si, mas em sermos ponderados e intencionais na forma como escolhemos utilizá-la. Como qualquer ferramenta, podemos utilizar a IA para atingir fins positivos ou negativos, e temos de dar prioridade a escolhas que beneficiem a humanidade e não a destruam.

Nexus de Yuval Noah Harari: Visão geral do livro e conclusões

Elizabeth Whitworth

A Elizabeth tem um amor eterno pelos livros. Devora livros de não-ficção, especialmente nas áreas da história, teologia e filosofia. A mudança para os audiolivros despertou-lhe o gosto pela ficção bem narrada, especialmente as obras vitorianas e do início do século XX. Aprecia livros com ideias - e um clássico mistério de assassinato de vez em quando. Elizabeth tem um blogue e está a escrever um livro sobre o início e o fim do sofrimento.

2 reflexões sobre "O Nexus de Yuval Noah Harari: Resumo do livro e conclusões"

  • 21 de fevereiro de 2025 às 4:14 am
    Permanente

    É ótimo ler estas mensagens

    Responder
  • 11 de março de 2025 às 21:58
    Permanente

    Este é um ótimo resumo geral para compreender rapidamente a intenção do livro. Toca em pontos-chave. Obrigado por isto.

    Responder

Deixar uma resposta

O seu endereço de correio eletrónico não será publicado. Os campos obrigatórios estão marcados com *