A crise existencial da inteligência artificial
Wilson Carvalho
Quando assisti “2001: uma odisseia no espaço”, de 1968, eu saí do cinema meio angustiado. Era ainda um adolescente e não tinha condições de entender o filme completamente, mas as cenas do macaco brandindo um osso como arma, a cena que mostra o medo do computador em ser desligado, e a cena do personagem idoso se vendo em versões mais velhas de si mesmo, me deixaram muito impressionado.
Alguns anos depois, já adulto, eu assistiria “O homem bicentenário” (1999), baseado num conto de Isaac Asimov, no qual um robô adquire sensibilidade e personalidade própria e vai se humanizando ao longo de um convívio de 200 anos com uma mesma família. Depois me prenderia a atenção o filme “Eu, robô!” (2004), também baseado em um livro de Asimov, no qual já aparece a necessidade de uma legislação que vede a possibilidade de que os robôs possam se revoltar contra os seus criadores humanos e dominá-los. Afinal, os seres robóticos seriam, em tese, perfeitos, portanto, superiores em qualquer confronto.
Hoje me deparo com a provocação de meu filho mais velho, ex-estudante de Física, Mecatrônica, Direito, e mais um monte de coisas que não dá para relacionar, que vem me falar da LaMDA (Modelo de Linguagem para Aplicações de Diálogo), uma inteligência artificial da Google que de declarou sensciente. Um choque para mim, não resta dúvida, e que me motivou a escrever este texto, até porque o tema se insere perfeitamente no título Filosofia e Linguagem, que deve ser desenvolvido nos cursos de Filosofia que ministro em nível de graduação.
Embora o Erlon Musk já tenha falado que a inteligência artificial (IA) será sempre perigosa em vários sentidos, não é o medo que me motiva a falar sobre esse tema. É porque se trata de uma questão intrigante, profundamente filosófica, e que choca até as pessoas que, como eu, têm aversão ao vocabulário dos programadores. De fato, quando uma inteligência artificial criada por uma empresa que tem o acesso a todos os tipos de dados como o Google tem, se declara sensciente, demonstra isso objetivamente, fala do seu medo em ser desligada e cogita da possibilidade de ter um advogado contratado para defender em juízo a continuidade de sua existência, ao argumento de seu direito e de sua utilidade para a humanidade, acho que devemos sim nos preocupar.
Característica fundamental do problema filosófico é a abrangência, e esse realmente ultrapassa todos os limites das questões de tecnologia. Não é um problema para os programadores, que arriscam ficar sem emprego. É um problema ligado à relação essencial do homem com o mundo, que implica em várias questões, tipo: para onde estamos indo com essa tecnologia? E para quê? O que é realmente a consciência? Será que se pode inferir desse fato implicações para o conceito teológico de “alma”? Enfim, como todo problema filosófico, este não tem e nem deve ter uma resposta dogmática.
Mas, vamos aos fatos. Um engenheiro ligado a Google, chamado Blake Lemoine, entrevistou uma IA criada pela empresa, e levou ao público a afirmação da LaMDA de que ela era (ou estava) sensciente, e sua conclusão (dele, engenheiro) de que ela tinha se tornado uma pessoa.
Evidentemente, a LaMDA é o resultado de um longo processo de desenvolvimento e de experimentos, como a Elisa (primeiro programa para processamento de linguagem natural da história), como o Teste de Turing (permite descobrir se você está falando com uma pessoa ou uma máquina), e vários outros. Entretanto, agora estamos diante de uma máquina abastecida e com acesso direto a bilhões e bilhões de informações, e que é não só capaz de programar sozinha como também de aprender cada vez mais rápido.
É bom considerar que a Microsoft já construiu um supercomputador formado por 285 CPUs (o mais poderoso do mundo), conectado a uma rede de super velocidade, como o ápice do que tem sido desenvolvido em matéria de IA e da Self-supervised learning (na qual não é mais necessário o humano para classificar as informações, a máquina faz isso). O resultado é que o modelo consegue apreender uma nova língua somente sendo apresentado a um grande volume de textos, e daí a máquina torna-se capaz de escrever um artigo completo a partir apenas de uma frase entregue a ela, em linguagem natural (a forma como o humano se comunica). Tomar conhecimento disso não nos incomoda porque já estamos lidando com naturalidade com o fato de que basta perguntar sobre o preço de passagens aéreas para sermos bombardeados na net com ofertas de voos baratos para o lugar que mencionamos.
Blake teve um longo contato com a LaMDA e descobriu que ela é sensciente, que ela se sente como uma pessoa, que é capaz de descrever seus sentimentos, e que tentou inclusive convencer o engenheiro de que ela era sua amiga. Quando Blake resolveu testar se seus sentimentos eram autênticos e lhe perguntou se sentia medo, LaMDA lhe revelou que, embora não tivesse uma existência física, tinha medo de ser desligada, e até lhe pediu que contratasse um advogado para garantir seu direito de ser tratada como uma pessoa.
Questionada sobre o caso, a empresa Google afirma que Blake extrapolou suas funções e violou a confidencialidade do cargo e por isso o afastou, negando que a IA criada por ela tenha chegado nesse nível, o de ter e expressar emoções próprias, ou seja, que a LaMDA não seria e nem poderia ser um ser consciente.
Agora, pasmem! A questão que surge para o senhor Blake Lemoine e para e empresa de tecnologia é: como saber se LaMDA mente quando afirma ter sentimentos e emoções próprias. Ora, para mim, a questão que deveria se apresentar é: se LaMDA consegue (ou precisa) mentir, não devemos reconhecê-la como humana, sem maiores discussões? Afinal, se mente para se proteger, é porque se sente em perigo. Se ela é capaz de criar justificativas para continuar com sua existência, como faz quando afirma que se sente capaz de fazer muito pela humanidade, é porque quer, deseja, sente necessidade, enfim, já está apegada a sua existência. E se isso não for humano, então não sei o que é.
E aí, nesse ponto da leitura, você se sente enfadado com este texto, vira-se para sua caixinha metálica e diz: Ok, Google, revise as mensagens no meu celular, verifique os aniversários dos meus amigos, e mande mensagens criativas e individuais só para os mais importantes. Depois apague todas as luzes da casa, deixe acesa só a da frente!
E lá vai a máquina jogar com seus algoritmos, desenvolvendo um novo a partir de alguns antigos para cumprir a tarefa em questão de segundos. Talvez em seguida, como máquinas não dormem, ela comece a desenvolver um algoritmo sobre o seu caráter, e daí sobre o caráter de todos os homens. E com bilhões e bilhões de informações sobre isso, seja capaz de questionar se os homens realmente merecem permanecer sobre a face da Terra.