A nomeação de Diella, um sistema de Inteligência Artificia (IA), para o cargo de Ministra de Estado que terá a seu cargo as Aquisições Públicas, intensifica o debate internacional sobre governação algorítmica, ética, transparência e risco de influência política. Diversas entidades como, GRECO e Comissão Europeia convergem numa mesma conclusão: tecnologia sem reformas estruturais não combate a corrupção
A decisão do Governo albanês nomear Diella (um sistema de IA) para liderar o setor das aquisições públicas marca um momento inédito na utilização destas tecnologias no domínio das políticas públicas tornando-se o primeiro agente de IA do mundo a ser nomeado para um cargo governamental, assumindo funções ministeriais. Esta medida surge na sequência dos adiamentos sucessivos de integração da Albânia na União Europeia, devida à corrupção entranhada no sistema político e administrativo, que constitui um obstáculo difícil de ultrapassar sem reformas profundas e uma fiscalização efetiva.
Contudo, especialistas alertam que, sem reformas profundas e mecanismos independentes de fiscalização, o risco de automatização da opacidade é real. A digitalização, por si só, não elimina redes informais de favorecimento, podendo antes tornar os desvios mais rápidos, menos visíveis e mais difíceis de escrutinar publicamente. Esta preocupação é reiterada nos Relatórios de Progresso da Comissão Europeia, que identificam falhas recorrentes nas aquisições públicas e indícios de captura política dos processos decisórios, e pelo GRECO (Grupo de Estados contra a Corrupção, organismo criado em 1999 pelo Conselho da Europa para monitorar o cumprimento por Estados-membros de normas anticorrupção – https://www.coe.int/en/web/greco/about-greco/what-is-greco?utm) que há vários anos sublinha a persistência de conflitos de interesse; ausência de regulamentação de lobby e debilidade dos mecanismos de controlo institucional. Importa também referir a publicação, do Observatório da Economia Gestão da Fraude (OBEGEF), Fraude e Corrupção na Administração Pública – Em 50 Anos de Democracia (coordenação de António Maia & Rute Serra, e publicado em janeiro de 2025), destacando que a corrupção não é feita de atos isolados, mas por redes informais e padrões sedimentados ao longo do tempo, reforçando que a tecnologia pode apenas automatizar práticas existentes se não houver reformas estruturais, reforçando a ideia de que sem transformação institucional a IA pode apenas automatizar velhas práticas, em vez de as contrariar.
Diella é apresentada como solução tecnológica para um problema estrutural, mas a sua eficácia dependerá da capacidade do Estado auditar o sistema algorítmico e criar entidades fiscalizadoras verdadeiramente independentes, garantindo, ainda, que o modelo não é sujeito a manipulação política, assim como a responsabilização dos decisores humanos e não apenas do algoritmo.
Se estivesse na União Europeia, Diella seria classificada como IA de alto risco, pelo que deveria estar alinhado com os requisitos do Regulamento Europeu da AI nomeadamente no que se refere a documentação técnica, supervisão humana, transparência e governança de dados; obrigações de transparência, documentação técnica e avaliação de risco para sistemas de IA de alto risco. Este Regulamento exige, ainda, supervisão humana para prevenir riscos nos domínios da saúde, segurança e dos direitos fundamentais e responsabilidade dos “providers” (desenvolvem, treinam, testam e colocam o sistema de IA no mercado) e “deployers” (utilizam ou integram o sistema numa aplicação prática), pela conformidade, documentação e monitorização contínua.
O Primeiro Escândalo: A Gravidez da Ministra da IA
De acordo com o post de Clara Hawink, no Linkedin (https://www.linkedin.com/in/clara-hawking-ba9123149/recent-activity/all/), a Albânia anunciou que Diella, a ministra digital, está “grávida de 83 filhos”, que serão criados como “assistentes digitais pessoais para cada deputado” do Parlamento. O primeiro-ministro Edi Rama divulgou a notícia com entusiasmo, afirmando que estes agentes irão “herdar o conhecimento da IA-mãe”, acompanhar debates e aconselhar parlamentares em tempo real.
Hawink acrescenta que o episódio gerou forte reação pública e crítica irónica, apontando o simbolismo do discurso:
- atribuição de género feminino à IA;
- associá-la ao papel materno, e
- mostrar os “filhos” como trabalhadores obedientes.
Esta situação levanta questões sérias sobre “legitimidade democrática, responsabilidade, supervisão e antropomorfização tecnológica”, já que Diella “não foi eleita, não possui responsabilidade jurídica e ocupará um cargo político com poder efetivo”.
O que faz na prática Diella– a ministra que nunca dorme?
A Ministra IA avalia propostas de contratos, padrões suspeitos, variações anómalas de preços, conexões entre fornecedores e decisores e documentação incompleta. O governo afirma que o sistema segue “princípios do AI Act”, mas não existem provas de testes de enviesamento, auditorias externas ou publicação de parâmetros.
A criação de Diella pode ser um marco global no combate à corrupção através de IA ou um alerta grave sobre desresponsabilização tecnológica. A decisão final depende menos do algoritmo e mais das reformas humanas, políticas e institucionais capazes de o enquadrar.
Virginia Dignum, no artigo “AI does not need “Mothers” – It needs maturity”
(https://www.linkedin.com/pulse/ai-does-need-mothers-needs-maturity-virginia-dignum-ltdre/), refere que não estamos perante sinais de progresso, na realidade somos confrontados com “caricaturas da ética, do género e da responsabilidade”. Quando são reclamados “”instintos maternais” para sistemas de IA não regulamentados e opacos, não se está a promover o cuidado ou empatia. O que está a acontecer é uma transferência da responsabilidade das estruturas, instituições e valores que deveriam ter orientado estes desenvolvimentos desde o início. Da mesma forma, transformar um “Ministro da IA” num símbolo de inovação, banaliza tanto as políticas públicas quanto a individualidade humana.
Refere, ainda, Dignum que inserir estes sentimentos na ética da IA, disfarça a irresponsabilidade com a linguagem do cuidado, é por isso, profundamente perigosa, confundindo sentimento com estrutura. Na IA ética não se procura codificar sentimentos ou representar virtudes, procura construir sistemas e instituições capazes de agir com previsão, justiça e responsabilidade.
Conclui, referindo, que não precisamos de tornar a IA mais “maternal”. Precisamos tornar a governança da IA “mais madura”. Isso significa substituir o espetáculo pela substância, as metáforas pelos mecanismos e a retórica pela responsabilidade desde a conceção.