Antes de ter ingressado no doutoramento, concluiu um Mestrado em Engenharia Informática em 2020 e um Bacharelato na mesma área em 2018 pela Universidade da Beira Interior. A sua tese de Mestrado centrou-se na investigação e implementação de técnicas de Deep Learning para a previsão de Fibrilação Atrial. Recebeu o "Outstanding Young Professional Member Award" da secção portuguesa do IEEE em 2022 e um "Certificate of Appreciation" da secção da Região 8 e Malta do IEEE em 2023.
Atualmente, é assistente de educação na Universidade de Genebra e Vice-Presidente do Comité AdHoc de Infraestruturas Educativas da Região 8 do IEEE. É também o atual Coordenador de Atividades Educativas da Secção de IEEE de Portugal. A sua investigação de doutoramento centra-se no desenvolvimento e teste de uma abordagem inovadora ao pré-diagnóstico da doença de Alzheimer, a principal causa da Demência em todo o mundo, através da análise de rotinas da vida diária, sinais de saúde, e outros métodos, no sentido de uma solução assente em tecnologias móveis, tais como um smartphone e wearables, que possa prever a condição décadas antes do diagnóstico clínico.
Quais são os prós da utilização do ChatGPT e da IA, no geral, na saúde?
O ChatGPT é a versão user friendly do modelo GPT (Generative Pre-trained Transformer em Inglês), um modelo de linguagem autorregressivo que recentemente se popularizou bastante pela sua capacidade de produção de texto de elevada semelhança ao produzido por um ser humano. É assim mais uma das inúmeras aplicações de inteligência artificial (IA) no nosso dia a dia, que se encontra em quase tudo o que fazemos hoje.
Das mais básicas até às mais avançadas formas, a IA pode, por exemplo, ser responsável por identificar mensagens indesejadas (SPAM), identificar o caminho mais rápido de casa ao trabalho tendo em conta o trânsito em múltiplas opções de caminho, ou até mesmo de recomendar possíveis tratamentos a um médico que por sua vez os prescreve ao paciente.
Especificamente na saúde, a IA pode ser bastante vantajosa ao permitir, por exemplo, recomendar as medicações certas para um dado paciente que possui diversas reações alérgicas ou outras condicionantes. A IA permite também a deteção de, por exemplo, tumores em imagens de raios X, imagens de ressonâncias magnéticas, etc., muitas das vezes com maior precisão do que inteiras equipas médicas (graças à sua capacidade de prestar atenção a pequeníssimos detalhes e padrões entre as imagens). Por fim, a IA é ainda aplicada, ainda que atualmente apenas em pesquisa na maioria dos casos, à identificação de padrões em dados que nos podem levar a prever o surgimento de doenças anos antes, olhando para dados que à partida não mostrariam qualquer modificação suficientemente grande para um médico a considerar o início de algo maior a longo prazo.
E os contras?
No entanto, ainda que as aplicações de IA na saúde sejam bastante diversas e vantajosas, a utilização de IA em todas as áreas traz perigos.
É preciso notar que a IA, no seu estado mais simples, é apenas uma série de condições lógicas que são testadas pelo algoritmo sobre os dados que lhe damos. Por exemplo, um classificador de mensagens indesejadas irá procurar palavras-chave no assunto, texto e outras partes da mensagem recebida. Desta forma, porque o caminho até à decisão de classificar uma mensagem como SPAM ou não é lógico e conhecido dos programadores, é possível perceber porquê e quando é que uma mensagem é mal classificada como SPAM (ou vice-versa), e posteriormente proceder ao ajuste do algoritmo para evitar futuras classificações erróneas como aquela.
Os contras da utilização de tais formas simples de IA na saúde residem no facto de eles não serem perfeitos. Isto é, se na teoria um algoritmo é 100% eficaz (coisa que não o é praticamente nunca), na vida real essa eficácia será mais baixa. E porquê? Porque o que acontece na vida real não é possível de replicar totalmente nos dados em que o algoritmo de IA foi treinado. Dessa forma, o algoritmo “vê” um dado completamente diferente do que ele “viu” nos dados de treino e apenas especula o que esse novo dado pode significar, sem nunca “ter a certeza” do que ele é (por exemplo, mensagens SPAM que não são identificadas como tal por serem diferentes do que as SPAM costumam ser). Mas tais algoritmos simples podem ser manualmente ajustados de forma a serem mais “perfeitos” a cada dia, pois os programadores entendem completamente o processo lógico das suas decisões.
Contrariamente, algoritmos de IA bastante avançados como o GPT ou de deteção de tumores através de imagens de ressonância magnética fazem uso de uma técnica avançada de IA chamada redes neuronais. Essas redes foram inspiradas na forma como se pensa que o cérebro humano funciona, e incluem as chamadas camadas ocultas (hidden layers em Inglês), que são humanamente impossíveis de entender na sua íntegra. Isto é, por exemplo, quando um algoritmo avançado com camadas ocultas é usado para detetar manchas características de um tumor pulmonar numa imagem de raios X, na verdade é impossível perceber na totalidade porque é que o algoritmo decide que uma imagem A apresenta tais manchas e a imagem B não. Ainda que haja diversas técnicas que tentam extrair essas decisões que o algoritmo faz dentro de si, a verdade é que não é (ainda) totalmente possível entender tudo o que acontece nele. Daí que esses modelos são apelidados de “caixas negras”, pois não se pode entender totalmente e com 100% de certeza o seu “raciocínio” (ainda que um modelo computacional não consiga elaborar um raciocínio como um ser humano consegue, por enquanto).
Ora então, o contra de tais algoritmos avançados serem usados na saúde é óbvio. Passo a explicar: ainda que tais algoritmos consigam atingir taxas de sucesso na ordem dos 99% (ou até mais), se aplicados numa população real irão sempre produzir erros. E o que se faz quando esse 1% de erros significa que, por exemplo, 100 utentes de uma clínica foram informados pelo algoritmo que estavam livres de cancro pulmonar quando na verdade não estavam? Ainda que esses casos possam vir a ser todos identificados (ainda que tarde e com consequências graves) e o algoritmo possa vir a ser “teoricamente” ajustado a esses novos casos, quem consegue garantir que outros 100 utentes com formas de imagens de tumores diferentes não vão continuar a ser mal classificados?
Na teoria, não é possível chegar aos 100% de sucesso de um algoritmo aplicado ao mundo real na área da saúde, mas uma equipa médica também comete erros, certo? É aí mesmo que reside o ponto de discussão quanto à aplicabilidade e respetiva ética de aplicação de IA avançada (aquela em que não compreendemos verdadeiramente o seu processo lógico) na área da saúde, em que um minuto ou um mês de atraso/erro num diagnóstico conta.
Recorrer à IA na saúde, por exemplo, pode descredibilizar algum processo? Por exemplo, de diagnóstico ou de decisão?
Tal como exemplifiquei formas em que a IA avançada pode ajudar de forma tremenda a maioria dos processos médicos atuais, ela pode também ajudar a descredibilizar os mesmos.
Um diagnóstico atual efetuado por uma equipa médica não está livre de erro, nunca esteve e nunca estará. Um diagnóstico baseado na resposta de um algoritmo de IA avançada também não o está nem se avizinha de estar num futuro próximo, mas pode sem dúvida alguma superar as taxas de sucesso que equipas médicas têm atualmente. Mas a que preço? Quanto valem as vidas humanas que se perderão e/ou prejudicarão nos casos em que a IA avançada vai errar?
A utilização de IA avançada num processo de diagnóstico pode facilmente ser melhorada com tempo, e alcançar métricas de sucesso nunca pensadas num ambiente médico. Se combinada com o poder de lógica de uma equipa de médicos, então a taxa de sucesso conjunta aumentará muito provavelmente: um médico aprenderá com as resultados do algoritmo, e o algoritmo será corrigido tendo em conta o feedback do médico. Mas quando estaremos nós preparados para deixar essa IA ter poder de decisão quanto ao diagnóstico (e consequente medicação, tratamento e, acima de tudo, esperança de vida indicada ao paciente)?
A sua utilização desmedida na decisão médica representa um passo bastante significativo na área da saúde: simboliza o remover do raciocínio humano (e o seu poder de autocorreção e reflexão crítica) de um processo onde uma vida humana está diretamente em jogo. E quando for feito, que mais cedo ou mais tarde será (basta a legislação o permitir), rapidamente a resposta à seguinte pergunta será procurada: quem é o responsável ético pelos erros de decisão de tal algoritmo, isto é, quem é responsável pela vida humana que se perdeu ao efetuar a decisão errada?
Se sim, como é que podemos modificar esse panorama?
A meu ver, tal como o ChatGPT tomou de assalto a sociedade em quatro meses e deixou-nos sem meios de entender todos os perigos e vantagens do seu uso no dia a dia, também a legislação referente ao uso de IA na saúde está sem meios a medir.
Ora reflita-se: as leis que hoje regem o código da estrada surgiram anos após os primeiros carros começarem a circular e os primeiros acidentes mortais com tal invenção; as leis cibernéticas surgiram após grandes danos financeiros e de privacidade terem sido feitos; as leis que gerem o espaço aéreo para o uso de drones vieram anos atrasadas face aos primeiros prejuízos (financeiros e humanos) de tais usos.
E o mesmo está a acontecer com a IA avançada na saúde. Apenas com uma pequena (enorme) diferença: tal como uma cicatriz, os automóveis, a internet e os drones evoluíram a uma velocidade humanamente possível de acompanhar; de forma contrária e tal como um cancro maligno, a IA avançada sofre mutações e evolui a cada dia, a cada hora, a cada segundo. E isso traz novos desafios e oportunidades.
Desafios, pois significa que as necessidades do espaço de decisão e formulação de leis de um país já não são saciadas por um conjunto de legisladores.
Oportunidades, pois representa a carência de mais e mais elementos da comunidade científica nos órgãos de decisão de uma nação. Só assim a legislação poderá acompanhar a rápida evolução de tais tecnologias numa área como a da saúde, e assim poder traçar os limites do cientificamente possível e eticamente aceitável. Além disso, tal como um cancro progride de uma forma conhecida (ainda que não se saiba exatamente para onde), também a IA avançada mostra aos especialistas as suas possíveis formas no futuro – o que permite a tal comunidade científica antever e legislar antes das necessidades se tornarem urgentes.
É possível conjugar harmoniosamente as ferramentas tradicionais da saúde com a IA? Se sim, como? Existem exemplos?
Sim, é.
Casos de IA simples são já usados atualmente, por exemplo, na identificação de anomalias em exames de eletrocardiografia, identificando padrões representantes de arritmias, fibrilações ou outros.
Casos mais avançados também já estão em prática. Por exemplo, ferramentas de identificação de manchas de tumores em imagens de raios X ou de ressonância magnética estão já em uso em inúmeros hospitais, mas com uma condição: servem apenas de sistemas de recomendação médica, pois é a equipa médica que decide se a avaliação de tais algoritmos de IA avançada está cientificamente correta ou não. Dessa forma, a decisão médica cabe (ainda), em última instância, ao raciocínio humano.
O ChatGPT pode comprometer o desenvolvimento de skills ou pode ser uma ajuda preciosa e andar de mãos dadas com as capacidades humanas?
O ChatGPT, e o seu modelo GPT subjacente, servem hoje muitas funções, mas também prejudicam algumas delas em muitos aspetos.
Por exemplo, a utilização do ChatGPT para perguntas genéricas pode tanto apresentar uma resposta totalmente baseada em factos disponíveis na internet, mas também pode ser baseada em pseudo factos, isto é, informações falsas.
E tais falsidades podem ter, pelo menos, duas fontes.
Por um lado, como o GPT é treinado em milhares de milhões de linhas de informação textual, as suas respostas e o seu “conhecimento” baseia-se meramente no que ele “leu” quando foi treinado. Isso significa que quaisquer fake news em redes sociais podem ser “absorvidas” pelo GPT e assim assumidas como informação verídica erroneamente.
Por outro lado, como já discutido em inúmeros documentários e artigos científicos, o GPT tem um enorme problema: as suas “alucinações”. Elas são sinónimo de ocorrências em que o modelo “escreve” algo sobre um assunto com informação “criada por ele”, isto é, informação resultante de alguma “confusão” no seu processo de síntese.
No entanto, nem só de desvantagens o ChatGPT é feito.
Ferramentas tais como o ChatGPT são excelentes para diversas tarefas “humanamente aborrecidas” tais como a síntese de informação, a execução de tarefas repetitivas ou até mesmo a escrita de rascunhos de documentos importantes tais como cartas de recomendação, reclamações, leis, etc.
Aliado a isso está o facto de modelos como o GPT terem a capacidade de “saberem” muita coisa ao mesmo tempo. Aquando solucionada a questão das “alucinações”, isso pode ajudar e até alavancar o desenvolvimento científico e da sociedade. Um investigador poderá facilmente pedir uma síntese de todos os trabalhos mais relevantes numa área científica e assim evitar dias (ou meses) de pesquisa só para estar atualizado com o que já foi feito (altura em que estará meses atrasado de novo). Um advogado poderá recorrer a tais ferramentas para construir o rascunho de um raciocínio legal que irá levar à absolução do seu cliente. Uma secretária poderá usar tais modelos para escrever e enviar mensagens personalizadas para cada um dos membros de uma equipa de trabalho. Um programador poderá recorrer a ele para uma primeira versão funcional de uma aplicação móvel ou mesmo de um software inteiro. As aplicações são infinitas, pois também a imaginação humana assim o é. Um futuro imprevisível e impressionante está mesmo à nossa frente, e agora é o tempo de arrumarmos a casa e nos prepararmos (ética e legalmente) para o que aí vem!
O que gostaria de acrescentar?
Na sequência da carta aberta que já conta com mais de 26 mil assinantes, a pedir uma pausa no desenvolvimento de modelos de IA “gigantes” (e.g., GPT).
Eu concordo que o desenvolvimento de tais algoritmos deve sempre ter em conta as vantagens e desvantagens que estes trazem para o mundo. Nesse sentido, eu concordo em parte com essa carta aberta.
No entanto, a minha assinatura não consta em tal documento, pois não concordo com uma forçada pausa no desenvolvimento. A meu ver, o poder e utilidade total de tais ferramentas é bastante difícil de antever (assim como os seus perigos).
De tal forma, como podemos nós hoje ter a certeza de que uma pausa de 6 meses não irá “forçar” centenas ou milhares de vidas a perecer? Quem nos garante que as próximas versões de tais modelos não irão ser uma contribuição crucial para o desenvolvimento, por exemplo, de uma cura ou de um tratamento altamente eficaz para doenças que hoje continuam a ser uma sentença de morte lenta e dolorosa (por exemplo, a doença de Alzheimer)? Se tal vier a acontecer, como poderemos nós “recuperar” as vidas perdidas e/ou radicalmente alteradas devido à falta de tratamento eficaz? A resposta é simples: não poderemos, pois ainda não há quem volte atrás no tempo, nem sequer o GPT.
Portanto, não faz para mim sentido um desmedido pedido de pausa no desenvolvimento de modelos “gigantes” de IA, quer para o que eles podem trazer de novo à área da saúde quer para qualquer outra área por nós hoje conhecida.