Arlindo Oliveira: “Poderá chegar o momento em que seremos os macacos dos computadores”

Um dia, um concílio papal vai ter que se pronunciar se as máquinas têm alma. Há só uma certeza, antes terá de pronunciar-se se as cópias humanas a têm

“Mentes Digitais, A Ciência Redefinindo a Humanidade” foi editado primeiro nos EUA que em Portugal. É um livro indispensável, saído sem as luzes dos holofotes e que nos fala das implicações de um futuro que se está a decidir agora. O autor, Arlindo Oliveira, que preside à universidade de engenharia com mais nome em Portugal (IST), coloca ao conhecimento dos leigos as investigações de ponta que se fazem sobre o cérebro, a Inteligência Artificial e a sua evolução sem barreiras aparentes. 

Simmel, um conhecido sociólogo alemão, tem um texto em que reflete sobre a influência da tecnologia no pensamento, em que compara um sino, que toda a gente percebe como funciona, com uma campainha elétrica, que implica uma certa opacidade. Pode dizer-se que muitas vezes a tecnologia condiciona e estrutura a nossa maneira de pensar?

Seguramente muita coisa afeta a forma como vemos o mundo. Basta pensar no Facebook e nas outras redes sociais. Vive-se muito focado naquilo.

Qual a razão que o levou, quando foi estudar engenharia informática para os EUA, a interessar também por estudar o funcionamento do cérebro?

Desde muito novo que cresci com esta ideia de Inteligência Artificial (IA). Eu já ia com ambição de trabalhar em coisas relacionadas com IA. A minha tese de mestrado foi sobre machine learning [máquinas que aprendem] e, no processo, aproveitei e tirei uma especialização complementar em neurociências. A minha universidade era muito boa nessa área, o que me permitiu aprender com as melhores pessoas do ramo, não só IA como inteligência natural. Embora ainda não se saiba ainda muito. A gente já sabe como funcionam os mecanismo básicos do cérebro. Já se conhece muito bem como funciona um neurónio. Tem-se uma ideia como são as ligações globais do cérebro. O que não se percebe ainda é a escala intermédia. 

A certa altura descreve uma experiência em que vão retalhando e estudando partes do cérebro, mas segundo as atuais possibilidades técnicas, para perceber a totalidade do cérebro seria preciso mais tempo do que o tempo que demorou o universo a chegar até aqui. Onde apanhou esse gosto pela IA?

A IA é uma coisa muito antiga, já se falava do assunto na década de 50.

Com o Turing?

Começou com Turing em 1947, ele foi influente, mas depois não desenvolveu muito. Até porque foi fazer outras  coisas. Quando eu acabei o curso em 1986, a IA já estava muito desenvolvida. Mas era algo muito diferente daquilo que se trata hoje. Era uma IA que se concentrava em problemas de planeamento. Era a chamada inteligência simbólica; que aquilo que nós fazíamos era manipular símbolos, e que o expoente mais elevado da inteligência era conseguido por essa manipulação de símbolos: por exemplo, a demonstração de um teorema matemático. A IA trabalhava nisso ou no planeamento de um conjunto de ações: como a feitura de um horário complexo. Mas nos últimas dezenas de anos, percebemos que grande parte da inteligência é subsimbólica. É a manipulação de padrões, como quando olhamos e reconhecemos uma cadeira. A maior parte da nossa inteligência exerce-se de uma forma subsimbólica, quando reconhecemos a cadeira já é a parte fácil. A parte difícil é olhar para uma fotografia e dizer: isto é uma cadeira, uma mesa e ou um carro. A IA mais recente  é justamente a subsimbólica e essa desenvolveu-se, principalmente, a partir da década de 70, mas sobretudo nos últimos anos. 

No seu “Mentes Digitais” fala-se de três casos de máquinas que demonstram grande capacidade em tarefas específicas: o computador que ganhou o jogo ao Kasparov, a máquina que permite ordenar a indexação e procura das páginas do Google e um computador que ganhou um concurso de perguntas na televisão. Sobre esse último caso coloca a questão da máquina ter ganho um concurso com perguntas difíceis, trocadilhos e nuances, através da manipulação dos símbolos, mas será que ela percebeu os símbolos que manipulou?   

A questão é se além de manipular símbolos e responder de forma inteligente não há mais nada além disso, que nós tendemos a associar à consciência e a sabermos que sabemos. Isso tradicionalmente tem saído da zona da IA, embora haja vários artigos sobre isso, costuma ser mais uma área da reflexão filosófica. Neste momento, acho que começa a haver uma maior ligação destas questões aos trabalhos sobre a IA. Daniel Dennet é filósofo, mas há cada vez mais gente, que trabalha na IA e nas neurociências, que tem teorias sobre o que isso significa. O que é isso de uma inteligência tipo humana? Como é que isso pode aparecer no funcionamento da IA subsimbólica? Como é que a consciência pode aparecer nas máquinas, a partir de um conjunto de moldes que em si mesmos não são particularmente inteligentes? 

O complicado é que se eu quiser encontrar uma coisa tenho que a definir e saber exatamente o que é. Se procuro a “consciência” nas máquinas tenho de saber o que isso é nos humanos, se é que existe.

Não é verdade. E essa foi a grande contribuição de Alain Turing. A questão que coloca para a consciência, também é possível ser colocada para a inteligência: a gente também não sabe o que ela é. Temos uma ideia. Mas se perguntarmos diretamente é difícil. Um cão é inteligente? Uma formiga é inteligente?

No entanto, inventamos os testes de QI (quociente de inteligência) em que padronizamos e medimos um certo tipo de inteligência. 

Se pusermos um computador a fazer os testes de QI, ele bate todos os recordes.

Mesmo na interpretação das manchas de Rochard (manchas de tinta simétricas em que se pede às pessoas para imaginarem o que veem)?

Sim, já há computadores que as conseguem interpretar e responder a isso. É preciso que embora a análise de QI tenha vários testes, eles acabam por medir uma dimensão limitada da inteligência, e é possível programar computadores para lhes responder e passar em qualquer destes testes. Não é muito complicado. O que é complicado é isso tudo junto. Mas, voltando atrás, Turing conseguiu responder à questão da inteligência da seguinte forma: eu não sei o que é a inteligência, mas vou fazer da seguinte maneira, meto aqui um ser humano, que eu sei que por definição é inteligente; meto um computador, coloco a máquina e o humano por detrás de uma parede, falo com um e falo com outro, se não os conseguir distinguir, é porque são ambos inteligentes. Essa é a teoria do Turing: evita que eu tenha que definir o que é inteligência. Para a consciência é a mesma coisa, pressupõe-se que um ser humano é consciente; mete-se aqui um ser humano e um computador, escondidos por detrás de uma parede, se a consciência serve para alguma coisa, tem que conseguir distingui-los. Se não conseguir, é porque o computador é consciente.

É a chamada prova pelo contrário

Este é que foi o grande passo de Turing: a gente pode nunca saber o que é a consciência, mas se, daqui a 20 anos, tiver um robot em casa, chega e cumprimenta-o. Um dia, ele está triste e pergunta-lhe: então o que aconteceu? E ele responde-lhe, soube que o meu colega morreu num acidente e fiquei triste e preocupado sobre se me pode acontecer o mesmo. Se não conseguir distinguir o comportamento de um ser humano de um robot, tem que reconhecer que ele é consciente. Acho que a consciência não é uma coisa tão profunda assim. Há muitas experiências que fazemos que mostram que a consciência é algo de muito enganador. 

No livro tem uma passagem em que mostra uma experiência quando alguém diz para se fazer conscientemente uma coisa, a coisa é desencadeada no cérebro antes mesmo de estarmos conscientes de o fazer: como se a consciência viesse do ato e não o ato fosse desencadeado pela consciência. 

A minha teoria – se calhar não devia avançar tanto, até porque estou a escrever uma coisa sobre isto – é que a consciência é um módulo que cria um sentido a posteriori a todas as coisas que a gente fez, inclusive até algumas que fizemos sem querer. A consciência cria isso tudo e acaba por ser uma espécie de relator da nossa própria história. Não só a “reescreve”, como a projeta no futuro, porque isso acaba por constituir a base das nossas motivações. Essa teoria originariamente não é minha, é de Bennet.

Sim, descreve-a no seu livro. É mais ao menos como quando alguém tem uma paixão. Nesse estado, a pessoa, de alguma forma, também reconstitui o seu passado e o primeiro encontro que teve com o outro, como algo que tinha desde o início uma imensa intencionalidade…

Exatamente. 

O teste de Voight-Kampff , no filme “Blade Runner” e no livro “Do Androids Dream of Electric Sheep?”, de Philip K. Dick, é baseado no teste de Turing e é aquilo que permite distinguir os humanos dos replicants. 

Por acaso não vi o mais recente. O filme inicial é baseado no excelente livro do Philip K. Dick, e aí faz-se uma espécie de teste de Turing e o homem, que o executa, é um especialista, porque consegue não ser enganado. 

No fim do filme nota-se que os replicants são mais humanos do que se esperava ou que muitos humanos. Mas o que lhe estava a perguntar é se esta questão da consciência pode ser inútil: se as máquinas fazem todas as funções e existem, para que precisam de ser conscientes?

Elas não precisam, aquilo acaba por ser um inside effect, como para nós a consciência acabou por ser um inside effect da evolução. Quanto tiver uma máquina que toma conta da sua casa, leva os miúdos à escola, trata do jantar e faz tudo por si,  tenderemos a atribuir-lhe uma consciência. Começamo-nos a preocupar por ela. A consciência é essa ideia de criar continuidade num conjunto de ações. Se tiver uma assistente pessoal que se esquece de tudo o que fez no dia anterior, isso não é muito útil. Você quer é uma assistente pessoal que se lembre da história toda antiga, quando é que são os anos da sua mulher, o que vai fazer amanhã. É esse conjunto de conhecimentos que depois acaba por ser a consciência. Vista por dentro é que a consciência parece uma coisa muito sofisticada. Até porque se cruza com ideias de alma e imortalidade, mas provavelmente consciência é uma ideia de conseguirmos manter um todo coerente. 

Vai colocando no livro o conceito de singularidade tecnológica e ele é aplicado de várias maneiras: abordando, por um lado, um momento de rutura e descontinuidade tecnológica em que se atinge um nível superior de tecnologia, mas também podemos entender a singularidade tecnológica com uma espécie de criação de uma subjetividade quase humana?

Talvez haja uma certa coincidência, pode corresponder a um momento que a sociedade se altera profundamente. Desse ponto de vista, as duas coisas podem ocorrer ao mesmo tempo: se houver uma altura em que os computadores atingirem um nível muito grande de sofisticação, primeiro, passarão a fazer todos os tipos de trabalho e, provavelmente, serão a escolha mais óbvia dos patrões. Passarão a fazer entrevistas como esta, e todo o tipo de trabalhos. Essas máquinas naturalmente poderão reproduzir-se, são digitais, é sempre possível fazer cópias. Se tiver entre elas um Prémio Nobel pode sempre fazer cópias. No momento em que atingirmos essa sofisticação, poderemos atingir esse ponto de que fala.

Não deveríamos estar a destruir as máquinas, como os luditas (operários que inventaram um herói Ned Ludd e que destruíam as máquinas de tear, com receio que lhes ficassem com o trabalho) tentaram fazer?

Não sei. Nessa parte eu não me pronuncio muito. Em minha opinião, não. Mas talvez a melhor resposta será a que nunca iremos conseguir destruir as máquinas todas. Haverá sempre o governo chinês ou um miúdo numa garagem na Lapónia a tentar construir uma máquina.

Vamos para a teoria da conspiração: a partir desse momento de singularidade tecnológica em que atingem um grau de inteligência muito grande e, como hoje, estão todas ligadas, não sabe o que elas podem decidir fazer. 

Neste momento ainda temos uma ideia. Depois, é verdade, que vamos ter menos controlo.  

Já agora é assim: tem os drones que fazem reconhecimento, monitorização de comunicações, vigilância, cálculos de padrão de comportamento e que podem em função disso liquidar suspeitos.

É verdade. É preciso uma profunda meditação. Mas não me parece viável proibir as pessoas de investigarem e trabalharem nestas áreas. Dizer que ninguém mais trabalha em IA ou tecnologias digitais não me parece muito viável. Nunca conseguimos ter esse tipo de proibições. É impossível impedir as máquinas de virem a ser inteligentes. Agora, há um conjunto de coisas, pelo menos enquanto não percebemos mais disso, que devíamos parar, nomeadamente a existência de armas letais autónomas. Deviam ser proibidas imediatamente. O que não impede que o Irão as possa desenvolver.

Pelos vistos, quem as tem desenvolvido são os EUA.

O problema é que isso embora seja uma tecnologia de ponta, pode vir a estar ao alcance de muita gente.

Mas isso também é aquilo que se argumenta com a genética, para ultrapassar de forma pragmática todas as discussões éticas: se houver uma forma de melhorar o genoma humano, por muitas questões éticas complicadas que haja, alguém irá fazê-lo. 

Na genética é mais fácil: primeiro, porque a tecnologia é um pouco menos acessível que a da IA. Só preciso de um computador portátil – eu com isso, teoricamente, posso desenvolver a tecnologia mais avançada do mundo. A DeepMind, que é uma pequena empresa no Reino Unido, desenvolveu as tecnologias mais avançadas no campo das learning machines. Mas a genética é mais fácil de regulamentar, porque implica pessoas: Portugal pode dizer que não faz experiências e manipulações genéticas de seres humanos.

Mas se houver possibilidade tecnológica pode ser feita numa ilha.

Mas a nós não nos afeta ou afeta as pessoas que lá vão, ao passo que a IA vem pelo ar. 

O seu argumento inicial era que se não o fizermos, outros irão fazê-lo. O mesmo pode ser dito em relação à manipulação genética, se for produzida uma “raça superior”, isso vai ter implicações do ponto de vista do poder mundial. Não basta proibir em Portugal. 

Percebo que esse argumento – se não fizermos, alguém faz – conduz-nos a uma mesma resposta: é melhor fazermos, para não ficarmos de fora e ficarmos em igualdade em relação aos outros. Apesar disso, penso que é diferente a situação na genética e na IA. 

Num capítulo fala do perigo que se corre no desenvolvimento das supermáquinas. Se considerarmos que há um risco de autonomização total das máquinas, o mínimo que nos pode acontecer é uma imagem que usa, de passarmos a ser os macacos das máquinas. 

Nós podemos passar a ser os macacos das máquinas. O problema é: qual é a solução? Não consegue proibir que se continue a investigar nesse domínio. Como é que impede os chineses de continuarem a investigar, mesmo que na Europa se resolva parar de o fazer?

Isso também se coloca com o ambiente, é possível fazer um acordo e os EUA rompê-lo. Mas a questão é tomar a melhor decisão e lutar por ela. 

O ambiente é de qualquer forma diferente. Se vários países deixarem de queimar carvão, isso tem um efeito, mesmo que outros não o façam. E podemos lutar por isso e, qualquer dia, deixam de se utilizar combustíveis fósseis. A diferença é que na IA, se alguém fizer uma fogueira incendeia o mundo inteiro: uma aplicação com sucesso expande-se para além das fronteiras. Basta haver uma pessoa que tenha sucesso. No ambiente, basta que 99% cumpram, na IA tinham que ser 100%. Logo a proibição não vai resultar.

Portanto, estamos condenados a acelerá-la? Tenha isso as implicações que tiver, desde virmos a ser dominados por máquinas até a ser liquidados por elas?

Eu também não disse isso. Acho que pode ter muitas saídas boas e estou convencido disso. O interessante é que o pessoal que trabalha nisto e os governos têm um bocadinho consciência das consequências. Acho que as consequências mais rápidas serão que vai haver muitas funções humanas a passar a ser desempenhadas por máquinas. Neste momento isso já é verdade. Embora a gente não saiba se vão aparecer outros empregos melhores como resultaram da Revolução Industrial – há até economistas muito otimistas que afirmam que é isso que vai acontecer. Mas, se isso não acontecer, basta ver na vossa profissão para perceber que não é líquido, há uma grande pressão causada pelas novas tecnologias – nem estamos a falar da IA – como as redes sociais e a Internet. 

Trata-se de produzirmos uma mercadoria que, embora tenha valor de uso, como é feita por todo o lado por não profissionais, passa a não ter valor de troca e caminhar para um custo marginal zero.

É isso e a IA vai contribuir para isso. Uma série de coisas que são desempenhadas por pessoas, e muito bem, mas se tiverem que ser desempenhadas por computadores ou robots, terão um valor muito mais baixo. E temos que pensar nisso. Pode ser que corra tudo muito bem e os empregos aumentem noutros setores, mas pode ser que não. E, neste último caso, o que vamos fazer? Há várias soluções: vamos ter semanas de trabalho mais curtas para os empregos poderem abranger mais gente, vamos ter que dar a quase toda a população Rendimentos Básicos Incondicionais. Na Europa do Norte, há muita gente a trabalhar menos que cinco dias por semana. 

Consta que no Paleolítico trabalhavam menos que nós.

[Risos] Parece que a Revolução Agrícola terá sido boa para a espécie em geral, mas péssima para os indivíduos em particular, que como caçadores recoletores trabalhavam muito menos. E, desde aí, só tem vindo a piorar. 

Um dos aspetos mais curiosos no  seu “Mentes Digitais” é com que estatuto legal nós passaremos a caracterizar máquinas que têm inteligência e que pensam por si.  Do ponto de vista da declaração dos direitos do homem e da máquina. Como é possível dar individualidade a algo que é reproduzível até ao infinito e como é que não é possível dar, se vai passar a pensar e a sentir?

É de facto um problema complexo. Nós não estamos habituados a que os seres humanos possam ser reproduzidos facilmente e em grande quantidade, mas podia acontecer que fosse, que houvesse uma máquina de fotocopiar seres humanos como uma máquina de teletransporte. Que direitos teria o original e que direitos teria a cópia? Esses problemas são novos, ainda não se aplicam.

Se chegarmos à duplicação e teletransporte, podemos garantir que vai tudo de um lado para outro, não há um excedente de “alma”, que nos caracteriza, que pode não ir?

Tenho a minha opinião, se a cópia for de átomo por átomo e molécula por molécula, conseguia-se um indivíduo igual, e aqui volto ao Turing, com consciência e com alma, o quer que elas sejam. Há pessoas que não acreditam na possibilidade de fazer esta cópia perfeita, essas pessoas têm umas respostas complicadas a dar: se as duas pessoas se comportam todas da mesma maneira, são indistinguíveis de todos os pontos de vista: então como é que uma tem alma e a outra não? Uma vai para o céu e a outra não? 

Falta ainda o Concílio Papal para decretar se as máquinas têm alma.

Daqui a pouco, sim. Mas até podemos fugir às máquinas. A Igreja nunca teve que se pronunciar se uma cópia de um ser humano tem ou não tem alma.