Karim Lakhani: ‘A Inteligência Artificial é um parceiro de pensamento’

Um dos grandes especialistas mundiais em gestão tecnológica, inovação, transformação digital e inteligência artificial, professor na Harvard Business School, Karim Lakhani fala ao Nascer do SOL sobre as vantagens e os riscos dessa realidade que é a IA.

Para começar, sabemos que estudou Engenharia e Gestão, Tecnologia e Políticas e concluiu um Doutoramento em Inovação, Tecnologia e Gestão. Pode-nos descrever brevemente as suas escolhas académicas?

Claro. Sempre estive interessado na aplicação da tecnologia aos negócios. A minha licenciatura no Canadá, na Universidade McMaster, foi principalmente sobre um currículo central em Engenharia Elétrica e depois um “Bachelor´s of Commerce” também. Licenciei-me em 1993, quando a internet surgiu e o browser foi inventado. Já foi há mais de 30 anos, no último século (risos). Logo após a licenciatura, tive a sorte de arranjar um trabalho numa das melhores empresas, à época, dos Estados Unidos, a General Electric. A GE ainda é muito grande, mas na altura estava no topo de todas as tabelas de desempenho empresarial, de valor de ações e tudo mais. A GE era o sítio para te tornares um bom líder, um bom gestor, etc. Eu estava num programa técnico de liderança, onde fiz rotações dentro da GE, no ramo do equipamento de saúde, na ligação entre a tecnologia e a comercialização, trabalhos de vendas, marketing e desenvolvimento de projetos. Trabalhei lá quatro anos e depois comecei a ver a difusão da internet na altura, ninguém tinha e-mails e de repente todos tinham e-mails. Os websites começaram a surgir. O melhor emprego, à data, era o de programador de web, bastante caro e difícil de obter. Depois, fui para os EUA, para o MIT, para estudar realmente esta interseção da tecnologia e das políticas, tanto as políticas em termo de regulação e de sistemas de larga escala, mas também as políticas em termos de estratégia dentro das empresas. Foi aqui que desenvolvi o gosto pela investigação. Vi também, na altura, nos anos 90, o começo dos softwares de fonte aberta, os quais não me faziam qualquer sentido, uma vez que era suposto os softwares serem desenvolvidos por empresas, e aqui tinhas um leque de indivíduos que colaboravam na Internet, nos primórdios da Internet, a criar softwares que eram tão bons quanto os que a Microsoft produzia. E isso era um verdadeiro quebra-cabeças. Então, fiz uma pouco de investigação sobre isso para a minha tese de mestrado. Ainda não tinha a certeza da direção que queria seguir. Então, fui trabalhar no Boston Consulting Group por um par de anos, mas depois tive muita sorte: o meu orientador de tese viu em mim potencial para ser investigador, também neste tópico de fonte aberta. Realmente procurou-me para que eu voltasse a estudar e fizesse um doutoramento, que acabei por fazer em 2001 no MIT em gestão. Mas em gestão especializas-te em economia, sociologia ou psicologia. Acabei por fazer tanto sociologia quanto economia para perceber como, à época, o mundo estava a mudar. Então, comecei a pensar em abrir comunidades e em encontrar formas de inovar onde permites a participação de pessoas do mundo inteiro, porque não havia qualquer teoria clara sobre isso nem respostas claras sobre se iria ser eficaz ou se seria permanente.

Tornou-se um dos indivíduos mais vocais no campo tecnológico, tornando-se professor na Harvard Business School com bastante trabalho académico no processo, como já referiu. O que o motiva?

O que me motiva? Primeiro, tenho muita sorte. Nunca imaginei ser professor em Harvard. Nasci em Karachi, no Paquistão e emigrámos para o Canadá, por isso sinto-me bastante afortunado por estar onde estou. Mas foi o meu orientador no MIT, Eric von Hippel, que realmente me incutiu esta paixão pela investigação, de descobrir coisas novas e tentar perceber com as coisas funcionam. É essa a minha motivação, há todos estes quebra-cabeças na economia e no mundo empresarial. Sou guiado pela curiosidade em saber o porquê de as coisas funcionarem como funcionam. Perguntava sistematicamente “porquê?”, “porquê?”, “porquê?”, “porquê?”, “porquê?”. E esse é o melhor trabalho para um académico, ser sempre curioso e chegar sempre às raízes das questões. Então, a primeira coisa que me motiva é a investigação.

Depois, quando estive na HBS, desenvolvi uma paixão… sabes, investimos bastante na forma como se ensina na Harvard Business School. E depois descobri que não gosto apenas de fazer investigação, mas também de explicar o porquê de as coisas funcionarem aos nossos alunos de mestrado e aos nossos executivos. Então, a outra motivação para a minha paixão pela tecnologia e gestão tecnológica no mundo empresarial nesta história transitória, é esta habilidade de explicar isto, de certa forma, às pessoas. E há outra coisa, eu acredito que sou um otimista, e acredito que a tecnologia teve um impacto no mundo e na nossa sociedade, não apenas hoje, mas ao longo da história. Os humanos chegaram mais longe e de forma mais rápida porque inventámos novas tecnologias. A agricultura foi uma invenção tecnológica dos nossos antepassados. Assim, sinto mesmo que estudando isso, percebendo como funciona e lecionando conseguimos também ter um impacto maior no mundo.

Entrando um pouco mais no campo da inteligência artificial, conceito que surgiu em meados do século XX com a vontade de conectar as máquinas com os seres orgânicos, pode-nos contar brevemente este processo evolutivo?

Sim, há quase 70 anos… claro, até o termo inteligência artificial foi basicamente inventado numa conferência na Universidade de Dartmouth, a norte de Boston, nos anos 50, e a era conhecida como cibernética, foi criada. E a cibernética foi realmente muito importante na Segunda Guerra Mundial. Naquele tempo havia uma ideia dos cientistas informáticos de que o ser humano nos dá um modelo de como realmente construir sistemas que se baseiam em circuitos elétricos. O cérebro humano é a inteligência natural, e a que se baseia em computadores é inteligência artificial. Então era mais ou menos essa a visão. E, de facto, algum trabalho desenvolvido nos anos 50 e 60 sobre redes neuronais e coisas do género, não se concretizaram até aos tempos mais recentes. Essa foi a era da cibernética. Depois, nos anos 70 e 80, havia um mundo de sistemas especializados e de especialistas treinados, que foram maioritariamente aplicados nos âmbitos militar e de defesa. Já no início dos anos 2000, com o crescimento da Internet e com todos nós possuindo dispositivos e a consumir e a emitir dados, juntamente com todas estas grandes empresas a ter acesso a estes mesmos dados, começámos como que a ver os gigantes tecnológicos a adotar uma forma de pensar sobre os dados. E como poderiam os dados e a inteligência artificial escalar para centenas de milhões de utilizadores sem haver uma enorme quantidade de pessoal a conduzir essas empresas? E enquanto isso decorria, houve realmente alguns avanços bastante importantes nos algoritmos, com uma perceção científica de como a matemática é aplicada aos dados, a queda do custo do armazenamento de dados e a queda também do custo de cálculo. Todas estas coisas se fundiram e resultaram na emergência do que hoje em dia denominamos de aprendizagem automática.

A aprendizagem automática é algo que todos usamos no nosso quotidiano e que não sabemos que se trata de sistemas de IA. Quando usas o telemóvel e tens o Face ID que reconhece a tua cara e apenas te dá acesso a ti, isso é uma aprendizagem automática com inteligência artificial porque memorizou a tua cara. O sistema não foi desenhado para saber a tua cara, mas tu ensinaste-o, treinaste-o. Lembras-te de tirar várias selfies, verdade? Isso foste tu a ensinar à máquina que aquilo era a tua cara e que apenas a tua cara pode ter acesso.

Quando ouves música online, quando fazes compras online e quando recebes recomendações de direções, isso são todos sistemas baseados aprendizagem automática. Mas esses sistemas permitiram uma larga escala, certo? Alguns ainda não devem ser suficientemente velhos para lembrar que quando começámos a usar o e-mail no final da década de 90, início da de 2000, o spam era um grande, grande problema. Tinhas todas estas mensagens não solicitadas e não percebias o que se estava a passar. Bem, a Google basicamente descobriu uma forma de usar sistemas de aprendizagem automática para detetar o spam e depois, como por magia, o spam desapareceu. Então, todos usamos estes sistemas que são necessários para as bases de utilizadores em larga escala que estas empresas de tecnologia estão a usar. E é neste ponto em que nos encontramos agora, e nos últimos dois, três anos tivemos este novo avanço que foram os sistemas de inteligência artificial generativa. E é no mundo do Chat GPT, do Midjourney, do DALU que agora vivemos, é a era atual.

E o que espera do futuro, seja a curto ou a longo prazo? Acredita que a IA se está a expandir de uma forma demasiado rápida?

Há muitas perguntas aí (risos). Vou responder a uma de cada vez. Primeiro, creio que é sempre bom olhar para a História e ver como ela é. A História ensina-nos sobre a tecnologia atual. Eu diria que 1993 é um momento a ter em consideração, porque antes de 1992 não havia utilização da Internet pelos consumidores. Tínhamos a Internet, mas era usada maioritariamente nos departamentos de Defesa e nas Universidades com fins de investigação. Aconteceram duas coisas: no Reino Unido, Sir Tim Berners-Lee, inventou a linguagem de marcação de hipertexto, dando a capacidade aos servidores de servir as páginas web. Depois, Marc Andreessen, à época um estudante de licenciatura na Universidade de Illinois Urbana-Champaign, perto de Chicago, inventa o browser. Isto dá uma visão bastante clara do que a internet podia fazer, e o browser com um servidor web e HTLM fez baixar os custos da transmissão de informação. Agora temos isto. Esta entrevista está a ser gravada na TV e depois vai ser colocada noutros websites, permitindo que qualquer pessoa em qualquer parte do mundo tenha acesso a esta gravação a qualquer hora. Há 30 anos isto era uma impossibilidade, certo? Não eras capaz de gravar algo e torná-lo mundialmente acessível.

O que o browser, o servidor web e o HTML fizeram foi que, de maneira coletiva, baixaram o custo da transmissão de informação. Basicamente, permitiu que nos tornássemos nestes tremendos distribuidores e criadores de conteúdo, certo? E o mundo atual em que viemos tem-se baseado na gratuitidade da transmissão de informação. Pensa quando usas o telemóvel e fazes uma videochamada enquanto passeias pelas ruas de Lisboa para uma pessoa que está em Londres. É mágico, não é? Isto porque há vinte anos, ou até há dez, ninguém imaginaria que seria possível este tipo de conectividade. Isto, mais uma vez está baseado nesta noção da gratuitidade da transmissão de informação.

Então, o que fez a IA? Vamos agora a isso, foi há cerca de três anos. A IA, inicialmente os sistemas de aprendizagem automática, tornou-se boa em três coisas: previsões – juntas um conjunto de dados, como por exemplo de uma fraude com cartões de crédito, e depois as máquinas tornam-se bastante boas em detetar fraudes com cartões de crédito no futuro -, reconhecimento de padrões – o que fazem e o que preferem os diferentes consumidores do meu negócio, podes fazer um reconhecimento de padrões muito bom com isso- e o terceiro aspeto é a automatização de processos. Há uma série de passos manuais que são dados para fazer algo na sua empresa. Agora pode automatizar esses processos. E tudo isto é feito pelos sistemas de aprendizagem automática.

Atualmente, com os sistemas de IA generativa e o chat GPT, etc., fizemos algo diferente. A primeira coisa é que estamos a viver o mesmo momento que a Internet viveu há 30 anos. Agora temos acesso dos consumidores. Agora temos aplicações de IA. Antes, eram todas aplicações industriais. Agora temos aplicações de IA para os consumidores. Essa é a primeira coisa. Mas o custo que está a ser reduzido com a investigação que estamos a fazer em Harvard e outros colegas em todo o mundo, é que o custo da cognição, o custo do pensamento, o custo da criatividade, o custo da resolução de problemas está a diminuir, está a diminuir cada vez mais. E isto é fundamental. Isto, de muitas formas, é o que nós, enquanto humanos, fazemos e o que fazemos nas nossas empresas, certo? Pensamos, resolvemos problemas, tornamo-nos criativos. E é isso que a IA está a fazer. E, por um lado, está a democratizar o acesso a competências e capacidades que nunca tivemos antes, que não eram possíveis antes. Por exemplo, sou um péssimo artista, mas agora posso usar sistemas de IA generativa como Midjourney ou Dali e criar belos retratos de qualquer tipo, de qualquer género.

Como um Rembrandt…

 Exatamente, como um Rembrandt. Exatamente. Posso fazer isso para qualquer pessoa, certo? É incrível o facto de eu poder fazer isso sem qualquer formação em arte. Quase chumbei na disciplina de arte na secundária, na escola primária, no oitavo ano.

E essa redução do custo do pensamento, da criatividade e da resolução de problemas é incrível, porque agora, de repente, todos nós teremos estes superpoderes para fazer mais coisas do que já fazíamos. E é isso que a IA é capaz de fazer antes. Mas também há um lado negativo. O lado negativo é que algumas profissões ficarão ameaçadas, certo? Podemos imaginar um mundo em que, e há muitos estudos que apontam nesse sentido, os enfermeiros poderiam ser tão bons como os médicos, certo? Com a ajuda da inteligência artificial. De facto, a inteligência artificial demonstrou ter mais empatia do que os médicos quando se trata de interagir com os pacientes. Imaginem o que acontece aos médicos. Ou imaginem o que acontece aos advogados.

Por exemplo, os auxiliares jurídicos podem tornar-se tão bons quanto os advogados se tiverem à sua disposição as ferramentas certas. Assim, por um lado, assistimos a este grande e espantoso aumento de capacidades para todos. Ao mesmo tempo, diferentes sectores da nossa economia, diferentes sectores das nossas ocupações e profissões sentir-se-ão ameaçados. E teremos de estar atentos a isso.

Quanto à tua pergunta sobre se está a avançar demasiado depressa, penso que não podemos saber qual é a velocidade certa. Por exemplo, existe um limite de velocidade na sociedade para a velocidade a que a Internet deve andar? Haverá um limite de velocidade na sociedade para a velocidade a que a agricultura deveria ter avançado? Haverá um limite de velocidade na sociedade para a velocidade a que a eletricidade deveria ter avançado? O que sabemos é que todas as tecnologias são uma espécie de motor do progresso humano. Todas as tecnologias permitem novas capacidades às pessoas. Sim, está a haver uma transição nos empregos. Há uma transição na forma como nos imaginamos a trabalhar, mas também se abrem novas oportunidades. Por isso, penso que, no caso da IA, ainda estamos numa fase muito inicial para a compreender, ou mesmo ter uma opinião, sobre se está a avançar muito depressa ou muito devagar.

 Sim, e acredito que atualmente as plataformas de IA nos dão informações demasiado básicas, como informações que poderíamos facilmente consultar na Wikipédia, por exemplo. Acha que existe potencial para estes dispositivos pensarem de forma diferente? E se a resposta for sim, como é que podemos garantir que não entram num território perigoso?

Sim, ótimas, ótimas perguntas. Em primeiro lugar, penso que parte do problema que as pessoas estão a ter com estes sistemas de IA é que estão a utilizá-los como uma ferramenta de pesquisa em vez de uma ferramenta de pensamento. Por isso, quando usamos algo como ferramenta de pesquisa, o que acontece é que esperamos a resposta certa num formato baseado numa lista, porque é a isso que estamos habituados quando usamos o Google, o Yahoo, o Baidu ou qualquer outro. Ou mesmo quando pesquisamos no website de uma empresa, esperamos uma lista e queremos que a lista seja exata. Se se trata de uma ferramenta de pensamento, então é um caso de utilização muito diferente, porque, de repente, o que se pretende é que nos ajude a pensar. É um parceiro de pensamento, e os parceiros de pensamento podem não ter um modelo de exatidão. Pode ter um modelo de criatividade. Pode ter um modelo de inovação. Por isso, o que estamos a observar neste momento são três coisas importantes: a primeira é que estas tecnologias ainda são bastante jovens. De facto, o ChatGPT foi lançado há 14 meses. Por isso, ainda vai demorar algum tempo até ficarem cada vez melhores. Qualquer versão de modelos de IA que se esteja a utilizar, qualquer ferramenta que se esteja a utilizar atualmente, são as piores versões disponíveis, porque o crescimento ainda é exponencial. Essa é a primeira coisa. Por isso, vão continuar a melhorar. A segunda é que os estudos que eu, os nossos laboratórios, os colegas e outros fizemos mostraram que, de facto, para a criatividade, para a inovação, estas ferramentas são muito boas. Por isso, temos de descobrir como as utilizar para os nossos objetivos. Agora, a questão do perigo é como, mais uma vez, qual é a nossa referência para o perigo? E o que é que queremos dizer com isso? Por exemplo, as pessoas dizem “sabes, alguém pode fazer coisas más com estas capacidades”. Bem, as pessoas fazem coisas más com a tecnologia a toda a hora, certo? As pessoas usam os telefones para coordenar o assalto a um banco. Não proibimos o sistema telefónico porque está a ser usado para assaltar um banco, certo? As pessoas usam mensagens de texto para…

Mas não acha que isto pode ir um pouco mais longe?

Não tenho tanta certeza. Mais uma vez, penso que a questão que se nos coloca é que há benefícios e custos para nós. E como sociedade, precisamos de determinar quais são os custos e quais são os benefícios, e será que os benefícios compensam os custos? E quais são as formas de minimizarmos os custos? E, neste momento, estamos numa espécie de terra hipotética do tipo, bem, isto pode acontecer, isto pode acontecer. Ainda não vimos essas coisas acontecerem. Mas é bom sermos cautelosos. É bom ser cauteloso em relação a essas coisas. Mas eu também acrescentaria que o que está a acontecer hoje é que os custos hipotéticos estão, de facto, a ofuscar os benefícios reais que podem ocorrer na economia com esta ferramenta. Penso que é esse o debate que todos vamos ter de enfrentar.

Sim. Li que temos três movimentos de pensamento distintos sobre obre a IA, como os otimistas, os pessimistas e os realistas. Corrija-me se estiver errado. Em que categoria se insere? E considera que o debate entre estes movimentos é benéfico para o desenvolvimento controlado da IA?

Sim. Portanto, estou no sentido realista. Vejo os benefícios e também vejo os custos. Sabe, um bom colega meu, Ethan Mollick, que é professor na Universidade da Pensilvânia, na Wharton Business School, é coautor de alguns trabalhos sobre IA. Ele diz que se utilizarmos estas ferramentas de IA com seriedade, devemos estar a ter uma crise existencial. E a razão pela qual ele diz isso é que essas ferramentas são realmente boas. E, em muitos aspetos, vão desafiar o que significa para nós sermos humanos e quais as nossas competências necessárias. E é inevitável que estas ferramentas continuem a melhorar. Por isso, sou da opinião de que, sim, existem enormes benefícios, mas também existem desvantagens significativas. E não tenho a certeza, como tem havido todos estes apelos a moratórias no desenvolvimento da IA, abrandando-o. Não tenho a certeza do que é que isso nos traz.

O que é que abrandar significa realmente, para começar? O que é que isso nos compra? Se fizermos uma pausa, o que é que vamos fazer? E, para começar, o que é que vamos fazer com todo este tempo? Essa é a primeira coisa. A segunda é que, em muitos aspetos, é demasiado tarde. As ferramentas já foram democratizadas, certo? Todas as inovações que estão a acontecer, por exemplo, vemos em França, a Mistral, com modelos muito mais pequenos e requisitos de computação muito menores, estão a ficar tão bons como os modelos de grande escala que a OpenAI produz ao longo do caminho. O Facebook lançou o Llama, e o Llama é basicamente de código aberto. Por isso, em muitos aspetos, penso que os apelos a uma pausa ou a um abrandamento não são realistas. Estas tecnologias estão disponíveis e as pessoas estão a tirar muito partido delas. Penso que é isso que vai continuar a impulsioná-las.

Muito bem, e agora falando do novo escândalo do Gemini, já vimos o conteúdo, que pode ser muito perturbador. Até a Google pediu desculpa mais tarde. Elon Musk foi o principal crítico, acusando a Google de ter, e estou a citar, «uma bolha burocrática woke». Qual é a sua opinião sobre este assunto?

Olha, eu não me envolvo em política ou wokeness (risos). Acho que, mais uma vez, o que estamos a ver é que, no final, estes modelos são sistemas estatísticos baseados em dados humanos. E, em muitos aspetos, refletem a sociedade humana. Sabes, deveria haver barreiras de proteção no topo destes modelos para que não sejam demasiado misóginos ou racistas, etc., etc.? Claro que sim. Não é? Claro que sim. Isso impede Elon Musk de construir a sua própria ferramenta da forma que ele quer? Não, de todo. Ele pode fazer o que quiser pelo caminho. O que eu diria é que a realidade é que hoje é muito difícil para nós proibir casos de utilização ou casos de utilização regulares porque, na verdade, é muito difícil porque não conhecemos a fronteira em que os humanos a vão utilizar. E de que forma? Uma das coisas que faço é gostar muito de música hip hop. Tenho muitos artistas favoritos. E, muitas vezes, pego no meu trabalho que escrevi, um trabalho muito académico e nerd, e depois coloco-o no ChatGPT, no Quad ou no Microsoft Copilot e digo: “converte este artigo numa canção rap que seria cantada por Kendrick Lamar ou Chuck D.”. Ora, este caso de utilização é ridículo. Porque é que um académico da Universidade de Harvard, que ouve hip hop, converteria os seus artigos em hip hop? Porque eu quero. Quero ter a liberdade criativa de poder ver o que faz e assim por diante. E, de facto, a estrutura das rimas, as batidas que recomenda são realmente muito boas. E eu até gosto disso. Esse caso de utilização nunca foi imaginado pelos proprietários do ChatGPT, do Cloud, da Microsfot ou do Mistrial, por exemplo. Mas não faz mal, porque todos nós, enquanto humanos, estamos a explorar esta nova capacidade cognitiva. E alguns de nós podem acabar por fazer coisas que são más. E vamos atrás dos maus atores e resolver isso em vez de pôr um fim ou proibir este tipo de coisas.

Sim, e isso leva-nos à próxima pergunta. Ou seja, podemos ver que algumas destas plataformas apresentam informações falsas, mesmo no domínio da justiça. O que é que se pode fazer para impedir isso?

Sim, penso que se trata de uma utilização ingénua, certo? Mais uma vez, se a utilizarmos para procurar informações e para sermos exatos, então todos colocam avisos de isenção de responsabilidade dizendo que isto pode ser impreciso, talvez…

Devíamos verificar os factos.

Sim, devemos verificar os factos. E isso faz parte de algumas das pesquisas que estamos a fazer. Estamos a descobrir, e isto faz parte da humanidade, nós como humanos, a usar estas ferramentas, a aprender a usá-las. Porque foram concebidas para serem sistemas estatísticos. São plausivelmente corretos, certo? Por isso, quando comecei a usar o ChatGPT, como qualquer bom académico faz, fazemos ego surfing. Por exemplo, o que é que ele sabe sobre mim? Então pus o meu nome. Perguntei-lhe o que sabia sobre Karim Lakhani da Harvard Business School. Criou um ótimo resumo da minha carreira. 95% estava errado. Mas era muito plausível, certo? Porque dizia que eu andei no MIT e que fui professor em Harvard. Dava-me uma série de prémios que nunca ganhei. Porque, com base no tipo de pessoa que sou, devia estar a receber estes prémios. Pensei: “Se calhar, não estou a trabalhar o suficiente para receber estes prémios” (risos). Gerou uma série de artigos que, na verdade, me fizeram pensar: “São ideias muito boas para artigos, certo? E casos da Harvard Business School que eu devia ter escrito. Portanto, era plausivelmente correto, mas não era de todo exato. Na verdade, estava tremendamente errado em termos de exatidão. Agora, com o tempo, estas ferramentas estão a melhorar tanto a plausibilidade quanto a precisão. Isso está a acontecer, o que se passa é que essa é a natureza da coisa, a natureza destas ferramentas. E não podemos ter utilizadores ingénuos a utilizar estas ferramentas. Temos de formar o nosso pessoal, formar os nossos trabalhadores para compreenderem, formar os nossos estudantes, certo? Para dizer, por exemplo, que é preciso não parar de pensar. Na verdade, é preciso pensar ainda mais. Porque estas ferramentas são muito poderosas. Podem ajudar-nos imenso. Mas é preciso manter o cérebro ativo.

 É um dos autores do famoso livro “Competing in the Age of AI: how Machine Intelligence Changes the Rules of Business”, juntamente com Marco Iansiti. O livro foi publicado em 2020, um pouco antes deste boom recente da IA. Acha que estavam à frente do seu tempo?

Deixarei que outras pessoas julguem se estava à frente do nosso tempo ou não (risos). Olha, o Marco Iansiti também é professor na Harvard Business School. Um amigo e colega muito próximo. Um grande colaborador meu. O que vimos a partir de 2011 e 2012 foi o surgimento de uma nova empresa, antiga empresa, que tinha dados, algoritmos e máquinas no seu centro, e não pessoas. E um dos privilégios de estar na Harvard Business School é que vamos, escrevemos casos sobre empresas, entrevistamos executivos e engenheiros e empresários, e percebemos o que está a acontecer. Assim, de 2011 a 2017, investigámos ativamente empresas e vimos o que estava a acontecer. E essa foi a base do nosso livro. E o que conseguimos ver foi o surgimento de um mundo onde a forma empresarial, porque estudámos as formas empresariais na escola de gestão, estava a mudar radicalmente. E foi por isso que nos interessámos e escrevemos o livro como uma forma de mostrar às pessoas que estas plataformas tecnológicas de grande escala estavam a tornar-se empresas que priorizavam a IA. Os seus modelos de negócio e os seus modelos operacionais estavam a mudar radicalmente devido a estas ferramentas, às tecnologias digitais, às plataformas e à IA. Assim, em muitos aspetos, antecipámos este momento. Não antecipámos a IA generativa, nem sequer mencionámos isso. Temos toda uma noção de fábrica de IA. Mas não falámos disso, já o tínhamos visto, mas não pensámos que fosse progredir tão depressa como estava a acontecer ou que fosse tão grande e impactante como foi. Por isso, o livro diz que o foco é que as empresas se vão transformar por causa da IA, por causa das ferramentas de aprendizagem automática. Penso que isto se tornou ainda mais urgente agora com a IA generativa, porque a IA generativa vai forçar ainda mais esta questão, e a transformação do modelo de negócio e do modelo operacional vai ser bastante significativa.

E o que é que se pode esperar quando se compra o livro?

Bem, o livro é realmente um projeto para executivos, para os líderes empresariais, para os líderes organizacionais fazerem duas coisas: uma é obter uma boa base sobre como a tecnologia, esta tecnologia, está a mudar os negócios. E, especificamente, analisamos o seu modelo de negócio e o seu modelo operacional e, em seguida, as considerações estratégicas que o acompanham. Mas traduz-se, não é um livro de aprendizagem automática. Não é para dizer que se vai tornar num cientista de dados lendo um livro. Mas, enquanto executivo, vai perceber como a tecnologia o está a afetar, mas também o que precisa de fazer nas suas empresas para que isso aconteça.

Muito bem. E fale-nos um pouco sobre os prós e os contras da IA para a espécie humana e diga-nos se é possível que os humanos acabem por ser “comidos” pela IA.

Eu leio muita ficção científica. De facto, inspiro-me em histórias de ficção científica para nos dizer quais serão os vários futuros. E há uma visão muito distópica que, no final, todos nos tornamos clips de papel. Há toda uma história sobre como todos nós nos tornámos clipes de papel. Ou que vai haver um novo renascimento, novas utopias para os humanos. Provavelmente estaremos algures no meio deste lado. A minha opinião é que existem problemas significativos de desigualdade na nossa sociedade. Há problemas significativos de acesso aos cuidados de saúde, de saúde mental, de alterações climáticas, etc., etc, e a IA pode fornecer soluções muito boas para esses problemas. Para mim, o futuro é ser humano mais IA. E aprendi isto com cientistas informáticos. De facto, Peter Domingos, da Universidade de Washington em Seattle, disse que as máquinas não vão substituir os humanos, mas que os humanos com máquinas vão substituir os humanos sem máquinas. Portanto, vejo que, nas linhas de tempo plausíveis que temos hoje, a chave vai ser a forma como os humanos adotam a IA e mudam a forma como trabalham. Ao fazê-lo, colocar-se-ão questões sérias sobre a forma como aprendemos, como adquirimos competências. Será que as nossas competências se atrofiam? Quais são os novos tipos de competências que precisamos de ter? Já tivemos esta crise antes, em dois domínios. És demasiado jovem para isto, mas uma das coisas que aprendemos é que, quando eu estava a crescer no século passado, as calculadoras foram proibidas nas aulas de matemática porque eram vistas como algo do género: não podemos ter uma máquina a dar-nos a resposta certa, o aluno tem de aprender a fazê-lo. Agora, quando a minha filha estava a frequentar a escola primária e secundária, as calculadoras eram permitidas porque a educação matemática se adaptou ao advento da calculadora que nos dava todas as respostas. E o que vimos foi que se podia ensinar mais matemática, ir mais fundo na matemática. Muito antes, o tipo de coisas que a minha filha estava a fazer na secundária era o que eu estava a fazer no segundo ano de álgebra no curso de engenharia 30 anos antes. Assim, com estas ferramentas, é possível ir mais fundo e mais depressa. O mesmo aconteceu num domínio da engenharia eletrotécnica onde fiz a minha licenciatura em conceção de circuitos. O projeto de circuitos costumava ser feito com caneta e papel, e à mão. E agora temos estas ferramentas, um circuito integrado, um chip, pode ter um trilião de circuitos. Nenhum ser humano consegue guardar esse tipo de conhecimento. Precisamos das máquinas para nos ajudarem a conceber os circuitos. Portanto, agora podemos fazer mais. Por isso, a minha opinião é que, em vez de sermos devorados por estas ferramentas, a minha opinião é uma opinião que tomo emprestada de Steve Jobs. Quando os computadores foram lançados, ele disse que os computadores são como a bicicleta para a mente. Vamos mais depressa e mais longe graças à bicicleta para a mente. E penso que estamos agora na fase em que estas ferramentas são a bicicleta. Podemos ir mais longe e mais depressa com estas ferramentas incorporadas na nossa forma de fazer as coisas. Mas agora todos precisamos de aprender a usar esta bicicleta, certo? E se nos lembrarmos, quando aprendemos a andar de bicicleta, caímos, batemos com a cabeça, raspamos os cotovelos, sangramos os joelhos. Todas essas coisas acontecem quando aprendemos a andar de bicicleta. Mas agora não se pode desaprender, certo? Só sabes andar de bicicleta. Portanto, a minha sensação é que esta é uma nova bicicleta para a mente e que todos nós precisamos de aprender a usá-la, e ao aprender a usá-la, vamos cometer erros. Vamos cair. Vamos ter desastres. Não é verdade? Mas isso faz parte do processo de aprendizagem dos humanos com a tecnologia.

Sei que os negócios e a gestão são a sua área preferida, claro, mas não posso deixar de lhe fazer algumas perguntas sobre a relação da IA com a geopolítica e como acha que vai mudar a forma de abordar a própria política…

Não tenho qualquer experiência neste domínio, mas posso falar sobre isso. Bem, quer dizer, acho que há geopolítica e há política. Na política, vamos ter um grande conjunto de crises em todos os sistemas políticos, porque as falsificações profundas vão ser reveladas. E, sabem, esses vídeos podem ajudar-nos, podem ajudar-me a falar português fluentemente, mas também fazer-me dizer coisas que nunca disse antes. Isso vai acontecer. Já está a acontecer, e as sociedades vão ter de se tornar muito mais céticas em relação a quaisquer afirmações sobre, oh, encontrei este novo vídeo “apanhei-te”.

Acha que é uma ameaça à democracia nesse sentido?
Bem, tanto pode ser um grande fator de reforço da democracia como uma ameaça à democracia, depende da forma como lidamos com ele. Penso que já tínhamos ameaças à democracia muito antes da IA. Certo? E a história da Europa e da América mostra que a democracia é um privilégio e que cada geração precisa de a reaprender sempre, mesmo antes de acrescentarmos a complicação da IA. Por isso, quando as pessoas perguntam se a IA é uma ameaça para a democracia, penso que não. A democracia é uma coisa frágil que os europeus e os americanos desenvolveram ao longo do tempo. E travámos guerras por causa dela, certo? Tanto na América como na Europa, em todo o mundo, houve guerras por causa da democracia antes da IA. Portanto, a democracia é uma coisa frágil. E dizer que a democracia vai acabar por causa da IA é uma atitude ingénua e não é historicamente correta. Vai causar problemas? Sim. Os nossos políticos vão ter de reagir? Sim. Será que vão reagir corretamente? Não sei. Mas a questão geopolítica é interessante porque a IA também se está a tornar um bem do Estado. Bem, vejam o que está a acontecer em França, o que os chineses estão a fazer, o que os americanos estão a fazer, e tanto para os chips quanto para os algoritmos e por aí adiante, pelo que veremos que a vantagem estratégica para as nações também virá com a IA e os países terão de investir nela.

Voltando um pouco atrás na sua resposta, acha que os governos devem controlá-la, devem
regulá-la?

Em primeiro lugar, não sei se o que se pode controlar e regular, para ser sincero, estou a ser muito franco consigo, não sei, em segundo lugar, penso que há duas coisas: deve haver penalizações para a utilização indevida e devemos criar um consenso nas nossas sociedades sobre o que é uma utilização indevida e, em seguida, devemos aplicar as penalizações pela utilização indevida.
Não sei qual é a situação aqui na europa, mas todos os meses recebo um e-mail de algumas empresas a dizer “oops, todos os seus dados desapareceram, os seus dados de saúde os seus dados financeiros”, “oops fomos pirateados, os seus registos telefónicos foram pirateados”. Não sei se recebe isso ou não, uma vez por mês recebo um email e depois dizem “Vamos dar-vos serviços gratuitos de monitorização de crédito durante o próximo ano” e eu penso: “Porque é que esses executivos não são presos?”.
Acreditamos nestas coisas e acreditamos que os dados devem ser protegidos, isto é, antes da era da IA, porque é que os executivos que causam essas violações prejudiciais não estão a ser responsabilizados, a ser destituídos dos seus títulos executivos e a ir para a prisão por estas violações? Os meus dados de saúde estão à vista do público, os meus registos telefónicos estão à vista do público, os meus dados financeiros foram violados vezes sem conta e não por minha causa, mas por causa de maus sistemas informáticos e assim por diante, mas essas pessoas não são processadas, de facto, até podem ser promovidas ou fazer outra coisa qualquer.
Por negligência ou por vontade própria, fizeram coisas erradas.

Por isso acha que os governos devem regular…

Não, o que estou a dizer é que há um grande papel para a regulação, mas onde se aplica
a torna-se uma parte interessante, porque não acho que regular os casos de utilização faça sentido, mas acho que regular as práticas, regular os maus resultados e depois persegui-los com os atores estatais adequados que podem impedir a utilização indevida, claro, ou é uma dissuasão, porque não podemos impedir a mensagem.

 Exatamente, e 2024 será um ano de decisão, com as eleições em todo o mundo, especialmente nos EUA e aqui na União Europeia. Que papel representa a IA na interferência de uma eleição?

Tal como a IA pode gerar todo este conteúdo benéfico, também pode, à escala, gerar conteúdos nocivos, pelo que é uma forma de ajudar a detetar potenciais problemas com o conteúdo que está a ser gerado. Mas também pode ajudar a gerar todo esse conteúdo.

Sim e para terminar, tocou um pouco neste ponto na resposta anterior, nas ameaças à democracia. Vivemos num mundo digital onde esta informação já é uma coisa importante, e do ponto de vista de como é fácil criar notícias falsas, com disse, como disse com esta ferramenta, espalhar ainda mais desinformação é, obviamente, uma ameaça substancial à democracia…

Não, por isso, quero dizer, acho que estou a tentar compreender esta questão e não consigo responder à sua pergunta, sabe? O genocídio no Ruanda baseou-se na desinformação entre os dois grupos étnicos do Ruanda e isso foi feito através da rádio. Proibimos a rádio? Parámos o progresso da rádio? Não. A minha sensação é que se trata de uma diferença de grau e não de género. Os nossos políticos e as nossas sociedades precisam de fazer um trabalho melhor para defender a democracia. É essa a grande questão. E a IA pode ajudar-nos a fazer isso, mas também pode prejudicar-nos. Por isso, dizer que a IA é uma ameaça existencial é, na minha perspetiva, uma forma errada de abordar o problema. A democracia é tudo, a Europa sangrou bastante pela democracia. Agora temos uma guerra na Ucrânia por causa da democracia. Isso não é IA, é democracia, é pura política. Por isso, nós, enquanto nações, enquanto pessoas que acreditam na democracia, temos de investir na construção de uma visão correta da cidadania e garantir que os cidadãos compreendem a importância das democracias e que os nossos políticos têm de nos servir em vez de se servirem a si próprios.

Sim, e a IA pode mudar o modo de fazer guerra em si.

Sim, 100%, 100%. Por isso, penso que é uma mistura e o que continuo a dizer é que existem algumas questões de princípio que precisamos de abordar nas nossas sociedades sobre estas ferramentas. E para nos empenharmos nesses primeiros princípios, devemos compreender tanto as vantagens como as desvantagens. Mas, em muitos aspetos, as ameaças à nossa democracia e
as ameaças aos nossos empregos sempre existiram, certo? E os seres humanos sempre encontraram uma maneira de resolver essas ameaças. E espero que continuemos a fazer isso. E que essas ferramentas sejam úteis tanto quanto prejudiciais nesse caminho.

Muito bem. Sr. Karim, muito obrigado.

Muito obrigado por me receber.