Inteligência Artificial - Simulação: um duro ataque à ciência e ao pensamento crítico



Há um mês, o reputado pensador e linguista Noam Chomsky co-assinou um artigo no New York Times em que condena a “falsa promessa do ChatGPT”, criticando o rumo que o desenvolvimento da inteligência artificial (IA) levou. Ao Ípsilon, numa videochamada, o especialista do MIT reforçou o desassossego com a forma como a tecnologia está a evoluir, com algoritmos que nos dão conteúdo à nossa medida e chatbots que simulam a comunicação humana e contribuem para a inércia analítica e criativa.

“Este é o ataque mais radical ao pensamento crítico, à inteligência crítica e particularmente à ciência que eu alguma vez vi”, diz o pensador, com 94 anos, apontando a forma como as ferramentas assumem cada vez mais uma dimensão “corporativa”. “A ideia de que podemos aprender alguma coisa com este tipo de IA é um erro”, atira.

Questionado sobre o que fazer com esta mudança tecnológica, que aconteceu de forma tão brusca, destaca o papel da educação. “É impossível travar os sistemas”, avisa Chomsky, que não assinou a carta em que especialistas de todo o mundo pediram uma moratória no desenvolvimento de IA. Explica porquê: “A única maneira [de controlar a evolução tecnológica] é educar as pessoas para a autodefesa. Levar as pessoas a compreender o que isto é e o que não é.” Atribui um significado político a ferramentas como o ChatGPT: “É basicamente como qualquer outra ideologia ou doutrina. Como é que se defende alguém contra a doutrina neofascista? Educando as pessoas.”

O especialista, que tem várias obras traduzidas em Portugal, como As Consequências do Capitalismo, Requiem para um Sonho Americano e Quem Governa o Mundo?, diz que o cenário actual representa “a longa luta de classes”. “É outro caso em que se tenta subordinar, marginalizar as pessoas, ao levá-las a olhar para o Instagram, ou falar com um chatbot sem pensar no que está a acontecer no mundo”, defende.

Quando nos confirmou a disponibilidade para esta entrevista, fomos ao ChatGPT, que se tornou uma das ferramentas mais associadas à IA, e perguntámos que questões colocar a Noam Chomsky. Vamos, então, começar com uma dessas perguntas. Seria possível criar uma inteligência artificial capaz de compreender e utilizar a linguagem humana da mesma forma que os seres humanos o fazem?
Há um campo de estudo que se liga a essas questões: é a ciência cognitiva. A IA não lida com isso, centra-se noutros aspectos. Actualmente é um dos elementos do movimento anticiência. Preocupa-se, sobretudo, com simulação e não com o entendimento. O ChatGPT é, assim, um exercício inteligente de simulação. Percorre quantidades astronómicas de dados, através de programas inteligentes, para produzir resultados semelhantes à informação que encontra. Não diz nada sobre linguagem, aprendizagem, inteligência. E isso é muito fácil de provar.

Como é que se mostra que o ChatGPT é só um simulador?
Estes sistemas, se olharmos para eles, funcionam para linguagens impossíveis. Funcionam com linguagens que as crianças não conseguem aprender, assim como as linguagens existentes. Seria o mesmo que um físico chegasse e dissesse: está aqui um conjunto de possibilidades que podem acontecer e outras que não podem acontecer e não identifico qualquer diferença entre elas. Isto não é ciência.

O que vê então como inteligência artificial?
Se olharmos para o que Alan Turing [1912-1954] disse, há já muito tempo, a IA é descrita como a capacidade para utilizar computadores e programação para ver se conseguimos alguma compreensão sobre o que é a inteligência humana. Isso é ciência pura. Só que a IA, tal como é entendida actualmente, é um projecto corporativo que visa reunir conteúdos para serem usados por sistemas de simulação em grande escala. A ideia de que podemos aprender alguma coisa com este tipo de IA é um erro. Elas [as tecnologias de IA] criam uma atmosfera onde a explicação e a compreensão não têm qualquer valor. O que se faz é tentar simular um ataque profundo à natureza não só da ciência, mas também da investigação racional no seu conjunto.

Como é que os especialistas deveriam estar a tratar de questões relacionadas com a IA?
Não há nada de errado no que estão a fazer, se o interesse for a simulação. Pode ser positivo. Eu uso [programas de inteligência artificial] nas legendas durante as entrevistas porque já tenho dificuldades auditivas. Mas a investigação de IA acontece, por exemplo, nos estudos sobre a forma como os bebés pensam. O livro What Babies Know, de Elizabeth Spelke, inclui uma análise detalhada sobre a forma como os bebés adquirem a linguagem e a compreensão do ambiente que os rodeia durante o primeiro ano de vida. Isto é feito usando experimentação científica e outros métodos, como análises estatísticas dos exemplos disponíveis para as crianças [aprenderem]. Estes métodos de investigação convergem para se descobrir como é que os humanos desenvolveram as capacidades intelectuais. É como estudar uma colónia de formigas para perceber como operam. Para isso, é preciso ciência, não simulação.

O desenvolvimento das plataformas de IA generativa, como o ChatGPT ou o Dall-E, tem suscitado receios devido à desinformação. Há umas semanas, uma imagem, em que o Papa aparecia vestido com roupa diferente da que habitualmente usa, foi partilhada por muitos como se fosse verdadeira. A mente humana está preparada para lidar com o que é falso ou verdadeiro?
Vamos pegar num caso concreto e possível, com o qual estamos bastante familiarizados há centenas de anos: um hábil estudante de Arte vai ao museu e cria uma cópia muito sofisticada do auto-retrato de Rembrandt. É preciso um historiador de arte sofisticado para dizer a diferença entre o original e a cópia. Hoje em dia, os historiadores de arte utilizam alta tecnologia para tentar distinguir as cópias das obras originais. E é muito difícil.

Isso é a natureza da simulação. Pode ser tão sofisticada que uma pessoa que não esteja tão bem preparada não nota a diferença. É o caso da imagem do Papa. Isso abre portas a outras questões.

Como roubo de identidade ou difamação.
Exactamente. Estes novos sistemas são uma ferramenta fantástica para a difamação e serão certamente utilizados para isso. O exemplo [do Papa] que mencionou é uma espécie de piada e pretendia, certamente, ser uma piada. Mas muito em breve, podem ter a certeza, haverá uma utilização maciça da simulação de vozes, de rostos, de elementos, que, combinados, pretenderão atribuir algo a uma pessoa que, na verdade, não tem responsabilidade nisso. Podem ser criados conteúdos, atribuídos a pessoas credíveis, dando credibilidade aos maiores disparates imagináveis.

Os desenvolvimentos na inteligência artificial são “o mais radical ataque ao pensamento crítico, à inteligência crítica e à ciência que alguma vez" Chomsky viu

Partilhar citação

Mas há outro tipo de riscos. Como as pessoas que olham para estes programas como reais. E fazem perguntas como: devo deixar a minha mulher? As pessoas são extremamente ingénuas. Já há casos [em que foram feitas perguntas como estas] com sistemas como a Alexa ou a Siri… As pessoas desenvolvem relações [com as máquinas] e até se podem apaixonar. Isto é muito perigoso. Há casos de suicídio em que as pessoas seguiram os conselhos dos dispositivos de simulação.

A capacidade de danos é extraordinária. Há algumas semanas, um grande número de especialistas de todo o espectro pediu uma moratória no desenvolvimento desta tecnologia, devido aos enormes danos que podem ser causados.

Há forma de travar o desenvolvimento de uma tecnologia deste tipo?
[A desinformação] já acontecia com a Internet. Há artigos publicados online em que eu apareço como autor principal e não foram escritos por mim. E depois de chegarem à Internet, é impossível parar a sua propagação. E, depois, há outra pergunta: o que resulta desse esforço tecnológico é tão útil, como acontece com as legendas desta entrevista? Isso não é assim tão óbvio.

Então concorda com as pessoas que assinaram a petição pedindo calma na evolução da tecnologia de IA?
Eu não assinei a petição.

Pois. De facto, estávamos à espera de ver lá o seu nome.
Não assinei por duas razões. Primeiro, porque exagerou muito o que os sistemas de facto estão a fazer e são capazes de fazer – e, portanto, contribui para estas ilusões e mal-entendidos. A outra razão é que é impossível travar os sistemas. Não se pode impedir os actores maliciosos de inundar a Internet com todo o tipo de lixo.

A única maneira de ajudar é educar as pessoas para a autodefesa. Podemos levar as pessoas a compreender o que IA é e o que não é. Acabar com a euforia e olhar para a realidade como ela é. É basicamente como qualquer outra ideologia ou doutrina. Como é que se defende alguém contra a doutrina neofascista? Educando as pessoas. Não há maneira de a impedir, não vai acabar nem desaparecer. Pode educar-se a população para compreender como realmente são as coisas.



E como é que se deve educar? Pode dar exemplos mais concretos?
Pegue num demagogo como Trump. É um actor muito hábil. Ele sabe como carregar nos botões certos. Sabe falar para as pessoas com um cartão numa mão a dizer “amo-te” enquanto as apunhala nas costas com a outra.

Não podemos dizer às pessoas: "Olha, ele não te ama." É preciso dizer: "Olha, estão a apunhalar-te pelas costas." Deve-se apontar para o programa legislativo [destes políticos] e mostrar o que realmente é – um serviço abjecto à riqueza privada e ao poder empresarial. Mas a verborreia [de Trump] não fala disso. Pelo contrário, diz que é do partido das pessoas, das pessoas que trabalham. E safa-se. Basta olhar para as sondagens. Falta educação, e essa educação, essa protecção, era o que se fazia quando se tinham organizações que representavam as pessoas.

Os movimentos sindicais.
Ronald Reagan e Margaret Thatcher, quando inauguraram o assalto neoliberal, tiveram, eles ou os assessores, uma primeira ideia-chave: acabar com os sindicatos. Porque é o meio de defesa que as pessoas têm para se reunir, deliberar, e trabalhar em conjunto. Portanto, o primeiro passo das administrações de Reagan e Thatcher foi destruir os sindicatos e abrir a porta para que o sector empresarial avançasse com todo o tipo de meios, na sua maioria ilegais, de trabalho.

Os neoliberais, como Milton Friedman, odiavam os sindicatos. O próprio Mussolini foi elogiado por ter destruído os sindicatos em Itália porque interferiram com a economia. Este é o cerne da ideologia. Se está a servir grandes riquezas ou poder, assegure-se de que não há oposição.

Acredita que as novas ferramentas de IA também podem contribuir para uma realidade ainda mais polarizada?
Vão certamente ser usadas com esse propósito, basta olharmos para o mundo em que vivemos. Estes movimentos anticiência começaram há várias gerações. A indústria do tabaco, há 70 anos, foi uma das propulsoras, com um amplo programa de desinformação. Quando se descobriu que o tabaco era letal, a indústria do tabaco não se limitou a negar esses factos: tentou negar as provas científicas, explicando que a ciência não é definitiva. Mais recentemente, temos a indústria dos combustíveis fósseis. A estratégia é influenciar o público a ponto de negar a objectividade da ciência, ao semear dúvidas, ao dizer que a ciência não é fiável, ao alertar para o desemprego.

E penso que a chamada inteligência artificial enquadra-se muito bem nisto. [As ferramentas de IA] estão a induzir no público uma sensibilidade que nega fundamentalmente o objectivo da ciência. De que vale compreender o que quer que seja quando se pode analisar um sem fim de dados e prever o que vai acontecer? Este é o mais radical ataque ao pensamento crítico, à inteligência crítica e particularmente à ciência que eu alguma vez vi.

A azáfama em torno da IA faz com que as pessoas também comecem a estar dessensibilizadas em relação aos riscos. Como é que se luta contra isto?
Pensemos nos direitos das mulheres. Se perguntassem à minha avó, quando ela estava na cozinha a tomar conta da família, “Estás privada dos teus direitos?”, ela não saberia do que estavam a falar. As mentalidades começaram a mudar por causa de mulheres jovens em movimentos activistas que começaram a questionar-se: “Porque é que temos de fazer isso? Porque é que temos de estar subordinadas?” Essas dúvidas propagaram-se e conduziram àquele que é provavelmente o principal movimento da história moderna em termos de consequências e resultados.

Não há forma de parar estas coisas, excepto pela forma como foi feito ao longo da História por pessoas que se organizam e lutam por direitos, conquistando-os ao longo dos anos.

Alguns países começaram a avançar com legislação nesta área. Concorda com este modus operandi?
A legislação não ajuda. Não podemos proibir o Mein Kampf [livro de Adolf Hitler]. O que se tem de fazer é encorajar as pessoas a lê-lo e a descobrir o que é. Quer viver neste tipo de mundo? Isso é o que se faz.

Não nos podemos esquecer de uma coisa: há imenso capital investido nestas tecnologias. Há instituições e organizações poderosas que se vão envolver nestas tecnologias e encontrarão inúmeras formas de contornar a legislação. Especialmente se as pessoas realmente quiserem isto [IA], criando uma lógica de procura e oferta. Aí as grandes organizações vão, certamente, encontrar uma forma de contornar a lei.

E há alguma forma de mitigar essa procura? Vivemos numa sociedade inteiramente digital. Já não deve faltar muito tempo para termos os nativos digitais em órgãos de decisão.
A verdadeira forma de controlar o processo é acabar com a procura. Fazer com que as pessoas compreendam que há mais coisas no mundo além das fantasias na Internet. Há situações cada vez mais preocupantes. Recentemente foi publicado um estudo, aqui nos EUA, sobre a Geração Z, crianças que nasceram depois de 1997, e a forma como encontram informação sobre o mundo. Quase ninguém lê jornais ou vê televisão. Muito poucos vão ao Facebook, porque já é antiquado. Imaginem o que é ter uma geração inteira a criar a sua visão do mundo através do que se vê no TikTok? Estamos a falar da possibilidade de perdermos uma geração. E a legislação aqui não vai ter grande poder. Não se pode banir o Instagram ou o TikTok.

Gostávamos de voltar atrás, ao facto de as pessoas confiarem e procurarem respostas em tecnologias de IA, como os chatbots, mesmo não se tratando de humanos, o chamado “efeito Eliza”. Porque é que as pessoas confiam nas máquinas?
Porque é que uma criança de três anos fala para os seus brinquedos? Há algo nestas tecnologias que lembra a nossa infância e todos podemos ser apanhados nisso.

A confiança que damos à IA vem de uma necessidade de continuarmos a ter amigos imaginários?
Há uma possibilidade de desenvolvermos o nosso próprio mundo, como se fossemos avatares. Pode ser um acto de criatividade. Outro exemplo é a literatura. Se passar grande parte do tempo a ler romances, vai conhecer melhor as pessoas desses romances do que as pessoas que realmente conhece. Porque sabe aquilo em que acreditam. Não temos esse tipo de informação sobre os nossos melhores amigos. Não há nada de errado [com a criatividade], é uma das mais importantes conquistas da inteligência do ser humano. Mas se alguém se apaixona verdadeiramente por uma personagem de um romance, então isso é um problema.

Esse é um dos problemas da IA? A ideia de que nos pode dar a verdade que queremos?
Pode dar algo tranquilizante, confortável, alguma coisa de que o utilizador gosta e encaminhá-lo para este tipo de mundo. Dar essa ilusão. E isto vai ser utilizado por actores maliciosos.

Se continuarmos a desenvolver estes simuladores, corremos o risco de estar presos em visões distintas do mundo com máquinas que repetem aquilo que queremos ouvir?
É como doutrina e ideologia. Pensemos em Itália: durante o período fascista, as pessoas aceitavam, acreditavam e apoiavam ideologia fascista. Não vale a pena fingir que não o fizeram. Mussolini era muito popular e, na Alemanha, Hitler era ainda mais popular. As pessoas acreditavam neles e queriam-nos.

O que se faz, nestes casos, é criar meios de autodefesa. E, como disse, algo que Mussolini, Hitler e também Thatcher compreendiam todos muito bem é que se tem de destruir a principal forma de as pessoas se defenderem – é preciso eliminar os sindicatos, impedir as pessoas de falarem umas com as outras. É preciso deixá-las separadas. Isto é o mercado ideal. Todos estão sozinhos, a perseguir as suas próprias fantasias, sejam elas quais forem. É o sistema ideal para controlar as pessoas. A longa luta de classes está sempre em curso. O cenário actual, com a tecnologia e a IA, é outro caso em que se tenta subordinar, marginalizar as pessoas, ao levá-las a olhar para o Instagram ou a falar com um chatbot sem pensar no que está a acontecer no mundo.

Já vimos alguns comentadores e políticos de direita a dizer que a IA generativa é enviesada e privilegia opiniões de esquerda e que precisam de criar a “sua” versão das ferramentas. É o começo de um novo tipo de guerra cultural?
Bom, a direita adora falar sobre como é vitimizada. São donos de tudo, gerem tudo, mas argumentam que são vítimas. Lembra a teoria da Grande Substituição. É a ideia de que a raça branca, que tem todas as vantagens, é a vítima porque sente que está a ser substituída. Que o dono dos escravos é a vítima se o escravo não consegue fazer o seu trabalho. E, provavelmente, o dono dos escravos acredita mesmo nisso.

Muitos economistas dizem que não vai demorar muito tempo para que estas máquinas substituam os trabalhadores humanos em algumas actividades.
Actualmente há uma grande preocupação quanto a escritores, arquitectos e engenheiros perderem os seus empregos. Isso é bastante interessante. A classe operária tem vindo a perder os postos de trabalho há muito tempo devido à automação. Quem se preocupa com isso? Mas se os trabalhos de colarinho branco, detidos por homens, estiverem em risco, então é uma catástrofe... Desde o século XVII que a automatização eliminou empregos, com o fim dos tecelões na Índia.

Acredita que as máquinas vão mesmo substituir as pessoas no trabalho?
Não creio que seja provável que muitas destas pessoas percam o emprego. Mas, se o fizerem, bem, isso tem sido o curso da História durante muito tempo. Agora está apenas a atingir algumas pessoas privilegiadas, em vez das vítimas habituais.

E será que as grandes empresas tecnológicas como o Google e a Meta terão mais poder político porque estão por detrás da tecnologia que as pessoas começam a precisar de usar?
As grandes empresas têm poder político por uma razão muito simples: dinheiro, capital. Podem comprar congressistas, podem comprar senadores, podem comprar eleições. Chama-se a isso poder. Não é nada de novo.

Suponha que é eleito para o Congresso nos Estados Unidos. A primeira coisa que faz é telefonar aos financiadores para se certificar de que eles o ajudarão nas próximas eleições. Quando o congressista desliga o telefonema, vai ao seu escritório e assina a nova legislação sobre aquilo que precisam. Estou a fazer uma caricatura, mas é basicamente assim que o sistema legislativo funciona. Com isto, cerca de 70% da população dos Estados Unidos não é representada. Não há uma correlação entre as suas atitudes e preferências e a legislação que é aprovada pelo seu representante no Congresso. Ou seja, eles não estão representados. São os poderosos que escrevem a legislação. Isto é um problema que existe nas sociedades capitalistas.

 ------------------------

Entrevista conduzida por Ivo Neto e Karla Pequenino (Fonte: Jornal O Público – Lisboa, 28 de abril de 2023)

Postagens mais visitadas deste blog

Sistema Mundial, transição de hegemonia e o futuro que nos aguarda: quebrar as correntes, colher a flor da vida

Manifesto Popular Brasileiro (M.P.B)

Nos 16 anos da ausência-presença de João Francisco de Souza