Economia

Pedro Domingos.“Os algoritmos já tomaram conta do mundo e são demasiado estúpidos”

A Inteligência Artificial controla cada vez mais aspetos da vida em sociedade. O problema, diz o especialista, é os algoritmos não serem ainda suficientemente inteligentes

Existem cinco grandes paradigmas na Inteligência Artificial: os algoritmos conexionistas aprendem emulando o cérebro humano ao nível dos neurónios; os evolucionários simulam a seleção natural; os simbolistas formalizam os processos de raciocínio indutivo dos cientistas; os Bayesianos calculam sistematicamente as probabilidades das várias hipóteses; e os analogizantes raciocinam por analogia, procurando semelhanças entre os novos problemas que encontram e os problemas previamente resolvidos. O algoritmo mestre - tema do mais recente livro de Pedro Domingos, que já se tornou uma referência internacional - seria a unificação de todos estes cinco princípios. Professor de Ciências da Computação em Seattle (EUA) e um dos grandes especialistas mundias em inteligência artificial (IA), Domingos fala ao i sobre os perigos, reais ou imaginários, os desafios para a sociedade e o futuro da humanidade, na sua relação com a IA.

A Inteligência Artificial (IA) será sempre controlável pelo ser humano?

A IA são algoritmos cujo objetivo é estabelecido pelos seres humanos. Deve-se-lhes dizer qual é o objetivo. A maneira como depois alcançam o objetivo é dentro de um espaço que também é definido pelos seres humanos. O controlo mais alto é nosso. Mas depois o controlo a nível dos seus objetivos pode ser definido pela IA em si.

Nunca há o risco de a inteligência artificial ter o controlo mais alto?

Há o risco, mas é preciso que alguém a programe para ter o controlo mais alto. O que seria má ideia, mas neste mundo há sempre alguém com más ideias.

Nunca é possível um algoritmo programar outro algoritmo para fazer isso?

É possível… Os algoritmos de aprendizagem são sempre algoritmos que criam outros algoritmos. Mas criam-nos para atingir os mesmos objetivos que foram programados nos próprios objetivos dos algoritmos de aprendizagem. Suponhamos que o algoritmo de aprendizagem está a criar programas e há um que destoa. Não sendo um dos objetivos do algoritmo de aprendizagem, será apagado.

Que leis de informática é que vigoram?

Nesta aprendizagem o que nós damos tipicamente aos algoritmos é uma função qualquer para eles otimizarem. Por exemplo na Google, maximizar os cliques das pessoas mas ponderados pelo dinheiro que se ganha com os cliques. Depois o algoritmo maximiza de facto com todo o seu poder. O problema é que às vezes quando maximiza umas coisas está a fazer mal a outras e é com isso que é preciso ter cuidado.

Esta congregação dos cinco grandes algoritmos é calendarizável? 

Há estes cinco grandes paradigmas na aprendizagem, inspirados por diferentes áreas da ciência. E o processo de unificação dos cinco numa teoria unificada da aprendizagem está bastante avançado. Dentro de poucos anos vamos lá chegar. Mas isso não significa que esteja o problema da aprendizagem resolvido. Mesmo quando tivermos esse tal algoritmo mestre haverá ainda muita coisa a descobrir até sermos capazes de fazer um algoritmo que aprenda todas as coisas que aprendem os seres humanos.

Esse é o objetivo do algoritmo mestre?

Em última análise é. Quanto tempo é que vai demorar a lá chegar é difícil de prever porque o progresso da ciência não é linear. IA é dotar os computadores das capacidades que só os seres humanos têm atualmente. Uma destas é a compreensão da linguagem, da fala, a visão, a tomada de decisões, o raciocínio e planeamento. Uma outra muito importante é a aprendizagem. A partir da aprendizagem podem-se fazer muitas outras coisas. Com aprendizagem o computador pode aprender a falar, pode aprender a ver, pode aprender a raciocinar. Sem aprendizagem, e inicialmente foi o que se tentou fazer, através de programação, foi extremamente difícil e provadamente nunca se conseguirá.

Como é que esta aprendizagem começa, como é que se tem desenvolvido, que obstáculos se têm encontrado?

A ideia vem dos primeiros anos da informática, dos anos após a Segunda Guerra. A ideia da aprendizagem automática é que em vez de nós programarmos os computadores sejam eles a programarem-se a si próprios, apreendendo a partir dos dados. E logo nessa altura apareceram os grandes paradigmas, os mesmos que existem hoje. Houve alguns sucessos iniciais, e depois uma fase de pouco progresso e agora estamos outra vez numa fase de grande progresso.

Essa fase de pouco progresso foi devido a quê?

Os algoritmos iniciais tinham grandes esperanças mas depois percebeu-se que eram muito limitados e as pessoas abandonaram a investigação nesta área porque pensaram que não era possível chagar à inteligência artificial com este tipo de algoritmos de aprendizagem. Depois houve uma série de coisas que se resolveram com estes algoritmos e nos últimos anos as coisas arrancaram com mais dados, com mais poder, com computação com algoritmos ainda melhores e isto está a ver-se nestas aplicações todas.

É possível hierarquizar os paradigmas ou eles acompanham todos a evolução uns dos outros?

Os paradigmas, de certa forma, preocupam-se com coisas diferentes. Mas o que se tem passado até agora é que em cada década algum paradigma está em ascendente. E depois morre e vem outro paradigma. O que nós precisamos é de duas coisas: uma é unificação dos cinco paradigmas e depois de unificarmos, que já não falta muito, vamos precisar de novos paradigmas. Estes cinco paradigmas não chegam. São precisos outros.

É um grande crítico das pessoas que estão sempre a apontar os riscos da IA. Porquê?

Há os riscos reais e os riscos imaginários. O problema que os especialistas em IA veem é as pessoas preocuparem-se com os imaginários e não com os reais. O objetivo também é desmitificar a IA para as pessoas perceberem onde é que estão os perigos. Um perigo que é muito falado por certas pessoas é o de as máquinas se revoltarem contra os seres humanos. Mas esse é um perigo, de facto, muito pouco real. As máquinas só podem prosseguir os objetivos que foram definidos pelos seres humanos. Se eu criar um programa para maximizar cliques, este não vai decidir de repente guiar um carro e atropelar pessoas. Esse perigo é mais de ficção científica do que real. Mas há outro perigo que é de facto muito real e menos óbvio que é as máquinas, apesar de estarem a tentar ajudar-nos, cometerem erros por falta de senso comum. Os algoritmos de aprendizagem, por um lado, apreendem coisas e aprendem a partir de uma determinada quantidade de dados completamente inatingível para os seres humanos, mas por outro lado têm uma completa falta de senso comum e fazem erros que um ser humano nunca faria. Mas já hoje os algoritmos tomam uma série de decisões importantes ao nível de por exemplo quem é que é um potencial criminoso, quem é que é entrevistado para um emprego, que pessoas é que se recomendam para um encontro e que depois dão em crianças que não teriam nascido se não houvesse os algoritmos de aprendizagem e muitas vezes esses algoritmos tomam as decisões erradas. Muitas vezes o problema não é tanto tornarem-se demasiado inteligentes e tomarem conta do mundo, é que já tomaram conta do mundo e são demasiado estúpidos.

Como se combate essa estupidez?

Como o grande perigo são os estúpidos e não os inteligentes, a maneira de combater esse perigo é tornar os algoritmos mais inteligentes. Se o algoritmo é programado, a pessoa tem de explicar tudo tim-tim por tim-tim, o que muitas vezes nem sequer é possível. Ninguém sabe programar um carro para se conduzir. Nós sabemos conduzir mas não sabemos explicar como conduzir. Por um lado é uma questão de esses algoritmos serem melhores, como o algoritmo mestre, mas também é uma questão de dados. O poder dele vem dos dados. Quantos mais e melhores forem os dados, melhor o algoritmo. Se o algoritmo for ótimo e não houver grandes dados, também não se vai longe. É preciso haver um grande poder de computação para aplicar esses dados a esses algoritmos. 

Com cada vez mais dados disponíveis, é difícil escolher quais são os mais relevantes ou os próprios algoritmos podem fazê-lo com aprendizagem?

Uma das coisas que os algoritmos de aprendizagem podem fazer é escolher os dados mais relevantes. A pessoa dá-lhes os objetivos e dá-lhes os dados e este vê quais os dados que afetam os objetivos e os que não afetam.

É verdade que são os algoritmos a escrever as “fake news”?

O problema das ‘fake news’ é real e existe porque o Facebook tem uma série de algoritmos de aprendizagem que escolhem que notícias, e atualizações vão mostrar às pessoas. É objetivo que esses algoritmos estão a maximizar o engagement. O Facebook quer manter as pessoas na rede social o mais tempo possível porque quanto mais tempo uma pessoa lá estiver mais anúncios mostra e mais dinheiro ganha. O problema é que ao perseguir esse objeivo não está a perseguir outros. As notícias falsas em geral são mais chocantes, mais sensacionalistas que as verdadeiras e, portanto, em termos de engagement funciona melhor. Daí serem precisos outros objetivos além de maximizar o engagement. 

A IA gera automatização. No emprego, será primeiro nos serviços? 

Depende das coisas. As coisas que são mais fáceis de automatizar são as de rotina, quer seja na indústria quer seja nos serviços, quer seja trabalho manual, quer seja trabalho intelectual. As coisas mais de rotina vão ser as que são automatizadas primeiro. Vai haver empregos que desaparecem mas também empregos que aparecem, como tem sido até agora. Mas aquilo que se vai passar não são empregos que desaparecem nem empregos que aparecem, a maior parte dos empregos vão mudar. A forma como fazemos o nosso trabalho, quer seja um médico, um professor, um advogado. Vamos usar os algoritmos de aprendizagem para fazer as partes mais rotineiras do trabalho. É preciso as pessoas compreenderem como podem utilizar a aprendizagem automática e a IA para depois poderem fazer o seu trabalho melhor. Não é tanto uma questão do homem contra a máquina, é uma questão do homem com máquina contra o homem sem máquina.

Que tipo de empregos há na IA?

Há aqui vários níveis. Há os investigadores de aprendizagem que desenvolvem os algoritmos de aprendizagem. Depois há os data scientists, que usam esses algoritmos parta modelizar os problemas, em qualquer área. E depois há quem tenha de perceber o que os modelos são e quais são os pressupostos de que dependem, que dados utilizaram, como é que se modificam modelos para atingir os objetivos. Essas pessoas podem ser os gestores de grupos de data sicentists, porque os clientes de data scientists, em última análise, somos nós todos. 

Há uma discussão grande sobre se as máquinas que vão colaborar com o homem devem pagar impostos na perspetiva de sustentabilidade da segurança social. Qual é a sua opinião?

A ideia das máquinas pagarem impostos é uma ideia um bocado peregrina. Quem deve pagar impostos são os donos das máquinas. Esta é uma das grandes confusões na IA que aparecem muito. As máquinas não são entidades autónomas com vontade própria, com benefícios próprios. As máquinas são sempre extensões de quem as criou, portanto quem deve pagar impostos não é a máquina, é a pessoa. Por exemplo, uma pessoa que usa uma máquina de escrever não é a máquina de escrever que paga impostos por aquilo que a pessoa escreveu. É a mesma coisa com o computador, quer seja mais inteligente ou menos. 

Não vai haver destruição de emprego com a IA?

Vai haver de facto alguns empregos que desaparecem, ou que pelo menos diminuem muito e por isso é preciso nós preocuparmo-nos com o que vai acontecer com essas pessoas. E nós próprios estamos nesses empregos. A pergunta que as pessoas devem fazer é: o meu emprego é fácil de automatizar? Que partes do meu emprego são fáceis de automatizar? E depois deve ser o próprio a automatizá-las. A maneira de a pessoa se proteger da automatização é ser ela própria a fazê-la. Mas depois também vão aparecer muitos empregos novos. Hoje em dia há um emprego que é o web developer ou o app developer. Há milhões de pessoas que têm esse emprego, que há dez anos não existia. Devemos estar preparados para se o nosso emprego desaparecer encontrarmos um desses novos ou se o nosso emprego mudar sermos dos primeiros a mudar com a tecnologia. 

Para além dos empregos, quando a IA tiver poder de decisão vão colocar-se problemas de ética… 

Sem dúvida. E a questão é como é que eles se resolvem. Um exemplo atual: um carro sem condutor vai a passar uma ponte estreita e de repente verifica que vai atropelar cinco pessoas. Tem a opção de as atropelar ou de desviar-se para o rio e matar o condutor. Dever matar o condutor ou matar as cinco pessoas? Eticamente vale mais sobreviver cinco pessoas do que uma. A gente pode programar o carro para fazer isso. Têm sido feitas sondagens e as pessoas concordam com isso. Mas se estiverem no carro preferem que o carro lhes salve a vida. Penso que esta uma daquelas áreas nas quais terá de haver leis que dizem que o carro tem de salvar o maior número de vidas. Mas depois as pessoas vão arranjar software pirata que modifica o carro para atropelar os outros e não as atropelar a elas. 

Esse é um dos principais riscos, não é? 

Sim. A partir do momento em que começarmos a pensar que o problema não é o autocontrolo da inteligência artificial mas quem está a controlar. Se são pessoas com boas intenções é bom, desde que sejam competentes. Mas se são pessoas com más intenções é mau. A IA de certa forma é um superpoder como todas as tecnologias. E quando temos um superpoder este pode ser bem utilizado ou mal utilizado e há algumas pessoas que com certeza vão utilizar para o mal. E se os bandidos têm IA a polícia também tem de ter. 

A IA poderá tomar decisões médicas ou ajudar na tomada de decisões médicas? 

Pode fazer qualquer uma das duas. Isso já acontece em muitas áreas. Pode ser o sistema a tomar a decisão final, mas frequentemente, tipicamente, pelo menos nas decisões importantes a decisão final é tomada pelas pessoas. E o caso da medicina é um caso muito claro: o médico nunca deve tomar a decisão final, deve ser o paciente. O que o médico deve dizer é: são estes os riscos, você tem provavelmente esta doença, se for operado acontece isto, se não for operado acontece tal e depois a pessoa escolhe. E depois corre bem ou corre mal. E o algoritmo deve fazer o mesmo. E deve dizer qual é a probabilidade de ter cancro e dizer que agora é a sua decisão de ser operado ou não. 

E se for num caso judicial ou jurídico? O algoritmo deverá ter a capacidade de decretar se uma pessoa deve ir ou não para a prisão ou decretar a pena de morte?

Hoje em dia, pelo menos nos EUA, os juízes podem consultar algoritmos. Uma coisa que já está muito difundida é que um dos fatores a considerar na sentença é a probabilidade de uma pessoa voltar a cometer um crime. E isso é difícil de nós sabermos mas é uma boa tarefa para a aprendizagem. Para estes programas que a partir de uma série de dados sobre o criminoso preveem a probabilidade de ele cometer estes crimes e depois o juiz pode tomar isso em consideração e dizer se a pena vai ser de dois anos, cinco anos ou seja o que for. E uma das tais questões éticas para o futuro é: será permitido aos algoritmos tomarem as decisões finais? E aí as opiniões dividem-se: há quem diga nem pensar, a ideia de um algoritmo tomar uma decisão de vida ou de morte sobre pessoas é uma ideia horrível. Mas eu acho que o que nós temos de fazer é: se o algoritmo tem tendência a tomar decisões melhores que o ser humano, é melhor que seja o algoritmo a tomá-las.

O algoritmo tem informação que o ser humano nunca conseguirá ter…

Exatamente. E o ser humano tem uma série de vícios cognitivos que os algoritmos não têm. Houve um estudo feito há algum tempo que dizia que os juízes de manhã e depois de almoço davam penas mais baixas aos mesmos crimes do que ao fim da manhã e ao fim da tarde. E eram penas de cinco anos, em vez de dois ou três. Porque perto do almoço como estavam a ficar com fome e de mau humor davam penas maiores. Isto não poder ser. Um algoritmo não tem esse problema. O algoritmo faz sempre as coisas de uma forma consistente.

E numa situação de conflito militar. Em princípio o algoritmo saberá sempre qual é a melhor estratégia mas a decisão de declarar guerra terá de pertencer sempre do ser humano…

Essa é uma questão muito importante que está já hoje em debate. Por exemplo na ONU está-se a debater a possibilidade de se fazer um tratado que proíbe a utilização de armas inteligentes por analogia com os tratados que proíbem armas nucleares, químicas, biológicas, etc. O argumento básico das pessoas que acham que se devem banir as armas inteligentes é que nunca uma máquina deve tomar decisões de vida e morte sobre as pessoas. O contraponto é que se as máquinas vão tomar decisões mais corretas do que as pessoas, mais vale serem as máquinas a tomar. Se um dia tiver um drone com uma arma apontada a mim, não quero saber se está a ser controlado por uma pessoa ou por inteligência artificial. Quero é que tome a decisão mais correta.

Vamos deixar de tomar as decisões? 

Eu penso que as decisões importantes, em última análise, vamos querer ser sempre nós a tomá-las. Pode ser que em muitos casos nós cheguemos à conclusão que uma decisão é sempre melhor se tomada pelo algoritmo, nós deixemos o algoritmo tomar a decisão desde que possamos voltar atrás. É uma daquelas questões que depende da competência relativa da pessoa e do algoritmo.

Deveria haver limites à informação que um algoritmo pode ter? 

Em princípio quanto mais informação o algoritmo tiver, melhores decisões pode tomar. O grande problema é que há mais informação do que aquela que as pessoas podem utilizar. E há também mais escolha. O que os algoritmos fazem não é tirar escolhas às pessoas, é permitir às pessoas fazer escolhas que se tornaram possíveis com a Internet que não eram possíveis antes. Antes uma pessoa queria comprar um livro ia à livraria e podia escolher entre milhares de livros. E hoje vai à Amazon e pode escolher entre milhões. E ninguém consegue absorver essa informação toda. O que o algoritmo de recomendação faz é escolher entre esses milhões os dez ou 100 ou seja o que for que sejam mais prováveis a pessoa ir ler. E depois entre esses a pessoa toma a decisão final.

Deverá haver um controlo político dos algoritmos ou deverá ser o mercado?

Há vários. Há o autocontrolo por parte das empresas e até é bom que elas se autocontrolem. Mas a maior parte do controlo vai ser dos indivíduos, que vão dizer “eu quero isto” ou “não quero aquilo”. Tal como outras coisas na sociedade, terá de haver algum controlo ao nível das leis, ao nível do Governo, ao nível das decisões que a sociedade toma.

A questão da IA e dos algoritmos inteligentes é irreversível? 

A tecnologia, em teoria, é sempre reversível. Mas na prática, em geral, não é. A curto prazo é possível parar a tecnologia, mas a longo prazo não é. O que é importante é canalizar a tecnologia para as boas aplicações e não para as más.