É a grande discussão dos nossos dias, mas os principais países do mundo e as próprias universidades pouco ou nada têm feito para, respetivamente, regular e refletir, sobre os impactos das tecnologias de ponta nas suas múltiplas dimensões. A opinião é defendida por Luís Moniz Pereira. O português, um dos maiores especialistas nesta temática, defende que a «IA devia ser utilizada em proveito de todos e não em proveito só de alguns.»
Foi uma das personalidades que rubricou uma carta aberta pedindo uma moratória de seis meses nos sistemas avançados de IA. Que preocupações é que estão subjacentes a este grito de alerta?
Para além desse abaixo-assinado, já subscrevi outro, em que o sentido é o mesmo: a possibilidade de a IA criar um novo risco para a Humanidade. Entendo que é importante dispor de mais tempo para avaliar as aplicações e implicações relacionadas com a IA. Por exemplo, se colocarmos no mercado um novo avião sem a avaliação competente. Foi o que aconteceu com os Boeing 737-Max, que por não terem sido convenientemente testados provocaram dois acidentes. Havia um “software” de IA que fazia com que os aparelhos tomassem uma posição inadequada de voo e os próprios pilotos tentavam contrariar a trajetória e não conseguiam. No caso deste abaixo-assinado defende-se que o “ChatGPT5” aguarde, pelo menos, seis meses para que se discuta, de forma ponderada, este lançamento. Por isso, a empresa que põe cá fora esse “software” – neste caso, a OpenAI – é como se disponibilizasse um novo avião que não foi avaliado e certificado. Ou, para dar outro exemplo que todos percebem, se a indústria farmacêutica pusesse no mercado uns novos comprimidos sem serem testados. Isto acontece porque parte-se do princípio que o “software” não precisa disso. E precisa. Corre-se o risco de se lançar um vírus cognitivo com consequências importantes e não avaliadas previamente.
Está pessimista com o rumo que esta tecnologia de ponta está a tomar e até fala em «tsunami» de consequências imprevisíveis…
O lançamento destes instrumentos cognitivos é um “tsunami” que nos vai inundar a todos, deixando-nos debaixo de água. Com a particularidade de, como em quase tudo da informática, se espalhar pelo mundo de forma imediata e por toda a parte.
Contudo, o mundo está a responder de forma distinta. O G-7 acaba de criar um grupo de trabalho sobre a IA, a União Europeia adiou por seis meses a legislação sobre esta tecnologia de ponta e a Microsoft acabou com a sua seção de ética em IA. Não estamos perante sinais contraditórios?
Há diversas hipocrisias e contradições na abordagem a este tema. No caso da Microsoft decidiu-se abolir a seção de ética em IA porque se defende que o cumprimento ético é transversal a todos os seus departamentos. São várias as agências que estimam o desemprego massivo que a IA vai provocar e os primeiros sinais começam a surgir. A Vodafone já anunciou o despedimento de 11 mil trabalhadores e em Silicon Valley – no coração destas empresas de tecnologia de ponta – muitos técnicos qualificados foram dispensados. Relacionado com isto, três bancos que operavam na zona estiveram em sério risco de colapso e só se salvaram pela intervenção do governo norte-americano.
A carta que subscreveu defende que se pare uns meses para avaliar. Isto no mundo ocidental. Mas se assim fosse, existiriam garantias que um regime como o chinês iria cumprir essa determinação, paralisando o processo?
Não é possível parar a IA. Até porque para que tal acontecesse seria necessário que existisse legislação para tal e que invocasse o princípio da precaução. Contudo, há o lado positivo que o alerta feito que a IA pode constituir um risco para a sobrevivência da Humanidade já gerou a discussão na sociedade, com a preciosa ajuda dos meios de comunicação social, com repercussões nas próprias empresas. No entanto, fico preocupado que as universidades estejam algo alheadas deste processo, quando deviam ser o córtex da sociedade neste debate.
E qual é a sua justificação para que isso aconteça?
Os investigadores e os professores não estão habituados a este nível de avaliação de impactos sociais da tecnologia. Pelo contrário, até entendem que isto é uma oportunidade para arrecadarem mais dinheiro e mais projetos, abstendo-se de formular opiniões negativas. Há temas tabu, como a questão do desemprego, o contrato social, quem ganha e quem perde com a tecnologia de ponta, etc. No seio das universidades há, cada vez mais, uma subjugação ao poder económico. Um conhecido professor do Instituto Superior Técnico (IST) e presidente do INESC-ID (Instituto de Engenharia de Sistemas e Computadores, Investigação e Desenvolvimento), que regularmente publica artigos na imprensa sobre esta temática, tem desvalorizado os impactos negativos da IA. Ele pode ter essa opinião, a questão é que quando assina os artigos ou emite opiniões nunca é identificado como membro do conselho de administração da Caixa Geral de Depósitos (CGD).
Só para contextualizar, e para que os leitores entendam, refere-se ao ex-presidente do IST, Arlindo Oliveira?
Exatamente. Mas para concluir o meu raciocínio, a CGD tem interesse na IA, porque, à semelhança de outras entidades bancárias, usa essas tecnologias de vanguarda para aceitar ou rejeitar créditos. Já agora, não é também de estranhar, que seja a própria CGD a entidade bancária que concede projetos e emprego aos alunos do…IST e do INESC-ID? Nas universidades existe também o fenómeno que muitas se vezes se fala que existe na política, o das «portas-giratórias», em que as pessoas vão circulando entre cargos nas empresas e funções nas universidades, muitas vezes em simultâneo. Em suma, estamos perante uma colisão entre interesses económicos e o papel de liberdade de expressão que as universidades deviam ter.
Há uma capa recente da prestigiada revista “The Economist”, em que a IA é vista, ao mesmo tempo, como santo e diabo. O criador pode ter perdido o controlo sobre uma criatura que, se nada for feito, pode virar monstro?
Essa capa está muito bem feita. Contudo, continua a esconder-se o problema debaixo da carpete. E a pergunta é: quem é que utiliza e quem é que beneficia com a IA? Esse problema não é trazido à superfície para discussão. Na minha opinião, a IA devia ser utilizada em proveito de todos e não em proveito só de alguns. A IA está ainda a gerar impactos em níveis cognitivos inferiores, o problema é que muito rapidamente evoluirá para novos patamares. Estou em crer que estamos em cerca de 10 por cento relativamente ao que será possível fazer, em matéria de disciplina científica e ligação com a robótica.
Um estudo recente da Goldman Sachs estima em cerca de 300 milhões de desempregados o impacto da IA. Podemos estar perante um “exército” de pessoas de braços cruzados e sem nada para fazer?
Caminhamos nessa direção. Os empregos menos qualificados serão completamente arrasados e substituídos pela IA. O impacto será tremendo na base da pirâmide, impossibilitando a criação de novos empregos no topo dessa mesma pirâmide. E a discussão política e ideológica sobre o impacto social da IA continua por fazer. E até país por país, como devia acontecer. A IA é uma espécie de vírus cognitivo que se propaga sem estudo prévio sobre o seu impacto. O “ChatGPT” está a ser usado e «ensinado» pela utilização dos seres humanos. Foram 100 milhões de pessoas que nos primeiros dois meses, beneficiando da sua gratuitidade, estiveram em contacto com esta tecnologia. Dito de outra forma, para que se perceba melhor: estamos a ser «usados» para ensinar o “ChatGPT” a, mais tarde ou mais cedo, melhor nos substituir. Eu próprio, diariamente, procuro testar os limites do “ChatGPT” e conhecer até onde vão as suas fronteiras. Mas uma coisa é certa: esta tecnologia não esta feita para resolver problemas lógicos, porque os problemas lógicos não são problemas estatísticos.
Noam Chomsky e Yuval Harari, dois dos principais pensadores do nosso tempo, pronunciaram-se, recentemente, sobre a IA. O primeiro diz que «é o ataque mais radical ao pensamento crítico». Por seu turno, o israelita defendeu que a «IA será a primeira tecnologia que consegue tomar decisões por si própria». Concorda com estas visões algo apocalípticas?
Concordo com ambos, com a particularidade de Harari enfatizar que a IA é um ataque ao sistema operativo humano que, no fundo, e trocando por miúdos, é o que nos permite funcionar uns com os outros. Chomsky aponta a questão do pensamento crítico, mas eu iria mais longe ao dizer que se tornará mais difícil distinguir entre informação falsa e informação verdadeira nas respostas dadas por instrumentos tecnológicos. Na educação isso vai ser crucial. O aluno vai preferir fazer o seu trabalho consultando essas plataformas, em vez de utilizar o seu pensamento crítico próprio para fundamentar a sua opinião. Outra tentação é “colar” essa informação nos seus “posts” nas redes sociais que, no fundo, são opiniões “fabricadas” por estas tecnologias emergentes. Em consequência, os nossos seguidores ou amigos nas redes sociais vão também usar esses mesmos instrumentos para responder a esse “post” inicial, através do seu avatar, o “ChatGPT”. E há outro problema: esta questão dos algoritmos permite perceber o que os utilizadores gostam ou não gostam, personalizando e customizando esta plataforma ao perfil dos seus utilizadores.
O “ChatGPT” surgiu em novembro e, em pouco tempo, conquistou meio mundo, com a simplicidade de raciocínios estatísticos e probabilísticos. Uma IA simples pode ser mais perigosa do que uma IA complexa?
Sim, por ser meramente estatística. Se a pergunta que lhe fizermos for sobre um documento, ele vai verificar as sequências de palavras mais prováveis. Ou seja, é um sistema que mede as coisas em termos estatísticos e que acaba por nos transmitir que o futuro é igual ao passado. Em suma, isto é considerado o nível mais baixo da IA. Mas esta simplificação tem, necessariamente, o seu lado perigoso e ao mesmo tempo perverso. Porquê? Porque o ser humano tem cada vez menos pensamento crítico e a própria capacidade de avaliar a credibilidade da informação está diminuída. Num nível superior de IA teríamos as hipóteses e os cenários possíveis, bem como um patamar já confrafactual. O melhor exemplo para este último patamar é o ser humano perguntar-se: «O que aconteceria se eu no passado tivesse feito de outra maneira?»
Para já, a falta de qualidade da informação disponibilizada e que acaba por contribuir para a desinformação é o pecado original destas tecnologias?
Exatamente. O que acaba de referir faz parte do “tsunami” que mencionei no início da nossa conversa. Por não nos ser dada a fonte de informação que o “ChatGPT” divulga torna-se inviável verificar e atestar a sua veracidade.
Foi divulgada, na semana passada, a notícia que “Albertina” é o nome com que foi batizado o novo modelo de linguagem português, resultante dos esforços da Faculdade de Ciências da Universidade de Lisboa e da Faculdade de Economia da Universidade do Porto. Em que nível está a IA no nosso país?
Estão a ser dados os primeiros passos e é fundamental que exista um modelo de linguagem em português. Mas a supremacia da língua inglesa é enorme. Numa conferência “online” recente em que participei chegou a falar-se de estarmos perante um “neocolonialismo cultural” que invade as populações.
Voltando a Yuval Harari, o pensador israelita sustentou, na sua recente passagem por Portugal, que a IA será «uma bomba atómica para a política e os sistemas democráticos». No atual contexto geopolítico, quem é que está mais à frente nesta corrida pela IA?
Uma conferência, há 5 ou 6 anos, em que estive presente, em São Francisco, já estava “invadida” por investigadores chineses e foram imensos os “papers” apresentados. É um país muito populoso, é certo, mas o interesse por esta área é imenso. Pode parecer curioso, mas os chineses estão à frente de qualquer outro país em matéria de regulação, porventura por terem um regime político controlador e ainda estarem muito ligados à corrente de pensamento confucionista. Por isso, a regulação deles é vertical: cada novo “software” de IA que for registado tem de ser descrito de forma exaustiva. Por seu turno, a classificação europeia é horizontal, definindo-se apenas o grau de perigosidade de cada sistema de IA, não sendo obrigatório definir regras de prevenção. O que existe são recomendações horizontais. Nos Estados Unidos o nível de regulação é ainda mais inexistente. Primeiro avança-se e depois logo se vê se há problema. O que sucede, é que um dia pode já ser tarde demais. Esta nova vaga de sistemas de IA é de tal maneira invasiva e global que um dia pode não se conseguir regular. Por isso, alerto, que esta deve ser a grande discussão dos nossos dias.
A IA vai transfigurar os métodos de ensino, da forma como sempre os conhecemos?
Sim, de certeza. E será por aí que este fenómeno vai chegar às novas gerações. Com menos sentido critico e menos necessidade de verificar as fontes. O recurso a esta informação estatística para a formulação das suas próprias opiniões nas redes sociais converterá estes espaços em diálogos entre os “GPT” configurados de forma pessoal e os tais avatares que nos vão substituir. E estes são os ingredientes perfeitos para que exista um crescente afunilamento concetual e de opiniões. Podemos vir a experienciar o que George Orwell descreveu no seu livro “1984”, com sociedades que controlam e fiscalizam a sua própria história, eliminando de circulação determinados conceitos.
E em que ponto fica a relação entre professor e aluno?
Os professores têm de fazer um esforço para promover o sentimento crítico e a procura pela certificação das informações. Visto que será impossível proibir um aluno de consultar fontes como o “ChatGPT”, os professores ao atribuírem determinado trabalho devem incentivar os estudantes a consultarem e a cruzarem diversas fontes, sejam elas quais forem – mas nunca menos de três, para desta forma conciliá-las da melhor forma para produzir a sua opinião. Em suma, acredito que o cruzamento de fontes será o único caminho para restaurar o pensamento crítico.
A Imprensa, a Internet e a IA são marcos incontornáveis da evolução da civilização dita ocidental. O que é que as afasta e o que é que as aproxima?
A Imprensa é a capacidade de imprimir aquilo que se pretende, em várias línguas. Na Internet existe informação disponibilizada pelos seres humanos e é um espaço aberto à discussão. Finalmente, na IA o sistema dispõe de um “tesouro” quase infinito de informação que está documentada em suporte digital e ao ser questionado pelas pessoas responde com aquilo que é probabilisticamente mais provável. É o próprio sistema que mistura as fontes de informação. Perante isto, estou convicto que, num futuro não muito distante, os seres humanos serão cada vez mais previsíveis e formatados nas respostas que vão dar.
Cara da Notícia
Um dos fundadores da programação em lógica
Nascido em 1947, em Lisboa, Luís Moniz Pereira é unanimemente reconhecido como um dos grandes especialistas e investigadores mundiais em IA. É o português com mais publicações científicas e projetos de IA, numa carreira que já leva mais de 40 anos. Professor emérito da Universidade Nova de Lisboa, dirigiu o Centro de Inteligência Artificial e lecionou na Faculdade de Ciências e Tecnologia na mesma entidade, sendo considerado um dos fundadores da programação em lógica. Fundou e presidiu à Associação Portuguesa para a Inteligência Artificial. Recebeu o Prémio Ciência da Fundação Gulbenkian, em 1984, o Prémio Boa Esperança, em 1994, e o Prémio Estímulo à Ciência, em 2005, e é “fellow” do Comité Coordenador Europeu para a Inteligência Artificial. Foi distinguido, em 2006, com o título de “doutor honoris causa” pela Universidade Técnica de Dresden, na Alemanha. Atualmente, é membro cooptado do Conselho Geral da Universidade de Évora.