O impacto da Inteligência Artificial (IA) e dos algoritmos está a transformar o mundo em que vivemos, social e politicamente. Adolfo Mesquita Nunes defende que «a tecnologia é um meio e não o centro da vida democrática». O professor universitário e ex-deputado, alerta ainda que se a dimensão educativa perder tempo e espaço no ensino do pensamento crítico, da literacia digital e da responsabilidade cívica, «a polarização que começa nos ecrãs acabará por contaminar a própria cultura escolar.»
«Algoritmocracia - Como a IA está a transformar as nossas democracias», o título do seu mais recente livro, é um contributo cívico para o que considera ser uma ameaça às instituições e ao sistema democrático das sociedades modernas?
É um contributo cívico e também político. Penso que este é um dos maiores desafios, senão mesmo o maior, que as democracias liberais hoje enfrentam: a forma como o debate público e o próprio processo deliberativo estão filtrados e mediados por algoritmos que ninguém elegeu, ninguém supervisiona e que respondem sobretudo a métricas de retenção, não a critérios de verdade ou de qualidade democrática. Quando as emoções passam a valer mais do que os factos e quando cada cidadão é empurrado para a sua própria bolha informacional, o espaço comum onde a democracia respira começa a desaparecer. O livro é um alerta e um convite a reconstruirmos esse espaço comum.
Quando se fala de IA é muito comum ouvirmos dizer que comporta «desafios e oportunidades». No seu caso refere que temos um «problema». Qual é?
O problema é que a IA passou a desempenhar um papel direto na formação das opiniões públicas. Já não estamos apenas a lidar com ferramentas que organizam informação. Estamos a lidar com sistemas que decidem o que cada pessoa vê, o que cada pessoa não vê e com que intensidade é exposta aos temas. Esta filtragem, orientada para maximizar a atenção, favorece sempre conteúdos mais extremos, mais indignados e mais polarizadores. Isso cria públicos mais irritados, menos disponíveis para o compromisso e mais permeáveis a soluções fáceis e populistas. Quando a opinião pública se forma nestas condições, as instituições democráticas perdem autoridade, perdem confiança e tornam-se vulneráveis a ataques coordenados. É este o problema de fundo.
Para além de lhe pedir uma definição sintética (e o mais coloquial possível) do que é um «algoritmo», gostaria de questioná-lo em que medida é que este contexto potencia o robustecimento dos fenómenos populistas e da mentira?
Um algoritmo é um conjunto de instruções que permite a uma máquina decidir o que mostrar, em que ordem e com que intensidade. Na prática, organiza o fluxo de informação antes de qualquer escolha consciente do utilizador. Neste contexto, a mentira e a meia-verdade têm vantagem porque são mais sumarentas, mais emocionais e geram mais cliques. O algoritmo não sabe o que é verdadeiro ou falso. Apenas favorece o que obtém maior reação. E o que obtém maior reação tende a ser o que indigna, provoca ou simplifica. Isto cria um ambiente ideal para o populismo, que vive de mensagens rápidas, culpados claros e promessas fáceis. Quanto mais polarização gerar, mais visibilidade obtém. O resultado é um espaço público distorcido, onde a política se radicaliza e a confiança nas instituições se degrada.
Estamos a assistir ao advento de uma nova era dos extremos e de uma gigantesca indústria de manipulação?
Sim, estamos a entrar numa nova era dos extremos. Não por força de uma súbita mudança cultural, mas porque os mecanismos que distribuem informação passaram a amplificar tudo o que divide e a afogar tudo o que exige atenção crítica. É uma dinâmica de condicionamento, com impacto direto na qualidade da democracia.
Com um processo de polarização em curso, os moderados (na política e noutros domínios) serão, em breve, uma espécie de vias de extinção?
Os moderados não estão a desaparecer. O que está a desaparecer é a sua visibilidade. Num ecossistema digital que recompensa o choque e a indignação, as posições moderadas ficam sistematicamente enterradas porque geram menos cliques e menos emoção imediata. O resultado é uma perceção pública distorcida: parece que só existem extremos, quando na verdade a maioria continua a situar-se no centro. O perigo é que, se esta dinâmica se mantiver, o espaço moderado deixa de conseguir organizar-se politicamente. As soluções de compromisso tornam-se suspeitas, o diálogo é visto como fraqueza e o debate democrático perde capacidade de construir consensos. Não é a extinção dos moderados, mas é a erosão do espaço que precisam para influenciar a vida pública. E isso, para uma democracia liberal, é um risco real.
São os próprios especialistas das neurociências que garantem que as redes sociais geram adição, difícil de abandonar. Estamos reféns de uma ardilosa teia da chamada «economia da atenção» criada pelas grandes plataformas digitais?
Estamos dentro de um modelo económico que depende de captar e reter atenção durante o máximo de tempo possível. As plataformas foram desenhadas para isso e usam conhecimentos da psicologia e das neurociências para tornar cada gesto repetível, estimulante e difícil de largar. Não é um acidente; é o modelo de negócio. Quanto mais tempo permanecermos ligados, mais dados são recolhidos e mais eficaz se torna o sistema em prever reações e moldar comportamentos. Esta dependência não é apenas individual, é coletiva. Condiciona o debate público, altera prioridades políticas e dá às plataformas um poder que nenhuma empresa alguma vez teve. «Reféns» é uma palavra forte, mas descreve bem a assimetria: as plataformas sabem muito sobre cada utilizador; cada utilizador sabe quase nada sobre o que acontece por detrás do ecrã. É essa opacidade que transforma a economia da atenção num desafio à autonomia e à qualidade da democracia.
A IA tem associada múltiplos desafios jurídicos e legais. Como advogado especializado nesta área do direito da IA, como analisa o enquadramento legal, regulamentar e de proteção dos utilizadores que existe neste momento?
O enquadramento legal começou finalmente a ganhar forma, sobretudo na Europa com o «AI Act», que cria regras claras para sistemas de risco elevado e obrigações de transparência e supervisão humana. É um passo importante, mas ainda insuficiente. A tecnologia evolui mais depressa do que a lei e isso gera desequilíbrios óbvios.
Neste domínio, também vivemos num mundo a várias velocidades?
Vivemos, de facto, num mundo a várias velocidades. A União Europeia regula; os Estados Unidos deixam o mercado avançar e reagem caso a caso; a China integra a IA num modelo político centralizado e de controlo. Estas diferenças criam assimetrias na proteção dos utilizadores e na própria concorrência global. Enquanto alguns sistemas são escrutinados e auditados, outros chegam ao mercado sem garantias mínimas de segurança ou de respeito pelos direitos fundamentais.
Os algoritmos sabem tudo sobre nós e alguns já tomam decisão por nós. Tarde ou cedo, pode acontecer o que o livro distópico «1984» de George Orwell, sobre um governo totalitário que controla todos os aspetos da vida dos cidadãos através de vigilância constante, manipulação da verdade e supressão da individualidade, seja uma inquietante realidade?
A ameaça não é uma repetição literal de «1984», com um Estado central a controlar tudo. A inquietação é outra: é o facto de um conjunto de plataformas já deter informação suficiente para antecipar comportamentos, influenciar escolhas e condicionar preferências individuais sem escrutínio democrático. Não é vigilância totalitária clássica; é uma atenção comercial com efeitos políticos. Quando algoritmos definem prioridades, filtram informação e orientam decisões, mesmo que não tenham qualquer vontade de condicionar politicamente, a autonomia individual fica fragilizada e o espaço de liberdade encolhe. Não porque alguém imponha uma verdade oficial, mas porque cada pessoa passa a viver num ambiente informativo moldado sem se aperceber. É um controlo difuso.
Nunca tivemos tanto conhecimento à nossa disposição e a ciência está desacreditada e sob fogo cruzado como nunca esteve. Este paradoxo é revelador do atual ar dos tempos?
Os algoritmos privilegiam o que gera reação rápida e não o que exige análise. A ciência, que se funda em passos lentos, verificação e dúvida metódica, perde terreno num ambiente que recompensa certezas instantâneas. Ao mesmo tempo, a fragmentação do espaço público faz com que cada grupo procure fontes que confirmem as suas convicções, mesmo quando contradizem evidências científicas sólidas. Isto enfraquece o consenso mínimo necessário para lidar com problemas coletivos, da saúde pública ao clima. O paradoxo é, por isso, um retrato fiel do presente: nunca tivemos tanto conhecimento, mas nunca estivemos tão vulneráveis à desinformação. O desafio das democracias liberais será reconectar a ciência com a confiança pública.
Para concluir, gostaria de centrar estas questões na dimensão educativa, visto que também é professor convidado na Nova School Of Law. Sendo os jovens consumidores/utilizadores massivos de redes sociais, de que forma é que os discursos enviesados, apelando ao ódio e ao conflito, podem ser nocivos para o próprio ambiente das salas de aula e na relação entre alunos e professores?
Muitos jovens chegam às escolas e universidades já expostos a narrativas simplificadoras, agressivas e profundamente polarizadas. Isso altera a forma como escutam, debatem e lidam com a autoridade. A escola deixa de ser um espaço de confronto saudável de ideias e passa a ser um prolongamento das dinâmicas digitais, onde a velocidade e a agressividade têm mais peso do que o argumento. Para os professores, isto significa lidar com alunos que muitas vezes não partilham o mesmo conjunto básico de factos e que veem a discordância como ataque pessoal. Para os alunos, significa crescer num ambiente onde o diálogo se empobrece e a confiança mútua se desgasta. A educação precisa de recuperar tempo e espaço para ensinar pensamento crítico, literacia digital e responsabilidade cívica. Sem isso, a polarização que começa nos ecrãs acaba por contaminar a própria cultura escolar.
Os agentes de IA têm proliferado em diferentes aplicações, nomeadamente na educação. A IA já está a mudar a forma como se leciona e também como se aprende. Defende uma mudança nos padrões de avaliação?
A IA obriga a repensar a avaliação, porque já não faz sentido medir apenas a capacidade de produzir textos ou resolver exercícios que uma máquina executa em segundos. A avaliação terá de deslocar o foco para competências que a IA não substitui facilmente: pensamento crítico, capacidade de formular boas perguntas, análise de fontes, argumentação e responsabilidade no uso das ferramentas digitais.
Concorda que este ambiente tecnológico contribuirá para formar estudantes mais preguiçosos, menos criativos e com menor propensão para pensar e resolver problemas?
Quanto ao risco de tornar os estudantes mais preguiçosos, ele existe se a escola adotar a IA como atalho e não como instrumento. Se a IA for usada para evitar o esforço, os efeitos serão claros: menos autonomia intelectual, menos criatividade e menor capacidade de resolver problemas. Mas o contrário também é possível. Bem integrada, a IA pode libertar tempo para atividades mais exigentes, permitir aprendizagens personalizadas e ajudar a aprofundar temas que antes ficavam fora do alcance. A tecnologia não determina o resultado. O que o determinará é a cultura pedagógica que construirmos: uma cultura que incentive a exigência, a integridade académica e a capacidade de pensar para além das respostas prontas.
Identifica as elites e as gerações mais jovens como setores da sociedade capazes de mobilizar as comunidades para que se apreenda a tecnologia como um meio e não um fim para a evolução e o progresso. Vislumbra esse impulso ou nota-se uma certa letargia?
Vêem-se sinais dos dois lados. Há jovens profundamente conscientes, politizados e atentos aos riscos da tecnologia, capazes de organizar debates, movimentos e iniciativas de literacia digital. Mas há também uma enorme massa de utilizadores que vive num regime de consumo automático, sem tempo nem disposição para questionar a arquitetura das plataformas onde passa grande parte do dia. Quanto às elites, muitas compreendem o problema, mas hesitam em agir porque beneficiam do status quo ou temem o impacto económico de uma regulação exigente. Falta liderança, capaz de dizer que a tecnologia é um meio e não o centro da vida democrática.
O ministro da Reforma do Estado, Gonçalo Matias, prometeu que cada aluno português terá acesso a um tutor de IA, salientando que o aumento da literacia digital e o acesso das PME à IA estão incluídos nesta estratégia. Admite, como algumas vozes logo se levantaram, que a concretizar-se esta medida acabará por tornar irrelevante o papel do professor em todos os graus de ensino, bem como do próprio conhecimento?
Garantir que todos os alunos têm acesso a tutores de IA é uma medida ambiciosa e, se bem executada, pode reduzir desigualdades e personalizar a aprendizagem de forma inédita. Mas esta inovação não substitui o professor nem torna o conhecimento irrelevante. Um tutor de IA pode explicar conteúdos e ajustar o ritmo ao perfil de cada aluno, mas não cria sentido crítico, não transmite valores e não estabelece a relação humana que sustenta a autoridade pedagógica. Pode ser um excelente complemento, nunca um substituto. O verdadeiro desafio será integrar estes tutores sem cair na tentação de automatizar a educação. A tecnologia deve reforçar o papel do professor, libertando-o para tarefas mais complexas e exigentes, e não confiná-lo a um mero vigilante digital. Se esta visão for respeitada, a medida pode marcar positivamente o futuro da escola portuguesa.
A CARA DA NOTÍCIA
Advogado, deputado e uma passagem pelo governo
Adolfo Mesquita Nunes nasceu a 29 de novembro de 1977, na Covilhã. Professor convidado na Nova SBE e na Nova School of Law, foi deputado à Assembleia da República, entre 2011 e 2013, eleito pelo CDS, e secretário de Estado do Turismo (2013-2015). Advogado, com mais de 20 anos de experiência, é sócio da área de Direito Público e Regulação na Pérez-Llorca, em Lisboa. É pioneiro em Portugal na análise dos desafios, riscos e dilemas legais que a IA levanta, trabalhando com dezenas de empresas na criação de políticas orientadas pelo conceito «Legal by design». Depois de ter escrito, em 2020, «A grande escolha - mundo global ou países fechados?», volta a editar novo livro, «Algoritmocracia - Como a IA está a transformar as nossas democracias», ambos editados pela Dom Quixote.