Investigadores da Unidade de Dinâmica de Rede Cerebral do MRC e do Departamento de Ciência da Computação da Universidade de Oxford estabeleceram um novo princípio para explicar como o cérebro ajusta as conexões entre os neurónios durante a aprendizagem. “Esta nova visão pode orientar futuras pesquisas sobre aprendizagem em redes cerebrais e inspirar algoritmos de aprendizagem mais rápidos e robustos em inteligência artificial. A essência da aprendizagem é identificar quais componentes do pipeline de processamento de informações são responsáveis por um erro na saída. Na inteligência artificial, isso é conseguido por retropropagação: ajuste dos parâmetros de um modelo para reduzir o erro na saída”, lê-se em comunicado, sendo que muitos investigadores acreditam que o cérebro emprega um princípio de aprendizagem semelhante. No entanto, o cérebro biológico é superior aos atuais sistemas de aprendizagem de máquina.
Por exemplo, podemos aprender novas informações apenas vendo-as uma vez, enquanto os sistemas artificiais precisam de ser treinados centenas de vezes com as mesmas informações para aprendê-las. Além disso, podemos aprender novas informações enquanto mantemos o conhecimento que já temos, enquanto aprender novas informações em redes neurais artificiais muitas vezes interfere no conhecimento existente e degrada-o rapidamente. Essas observações motivaram os investigadores a identificar o princípio fundamental empregado pelo cérebro durante a aprendizagem. Segundo o comunicado, “analisaram alguns conjuntos existentes de equações matemáticas que descrevem mudanças no comportamento dos neurónios e nas conexões sinápticas entre eles”, sendo que “simularam esses modelos de processamento de informações e descobriram que os mesmos empregam um princípio de aprendizagem fundamentalmente diferente daquele usado pelas redes neurais artificiais”.
Isto é, nas redes neurais artificiais um algoritmo externo tenta modificar as conexões sinápticas para reduzir o erro, enquanto os investigadores propõem que o cérebro humano primeiro estabeleça a atividade dos neurónios numa configuração ideal e equilibrada antes de ajustar as conexões sinápticas. “Os investigadores postulam que esta é, de facto, uma característica eficiente da forma como o cérebro humano aprende. Isto porque reduz a interferência ao preservar o conhecimento existente, o que por sua vez acelera a aprendizagem”, é explicitado. Escrevendo na revista Nature Neuroscience, os investigadores descrevem este novo princípio de aprendizagem, que denominaram “configuração prospectiva”. Demonstraram em simulações de computador que os modelos que empregam esta configuração prospectiva podem aprender de forma mais rápida e eficaz do que as redes neurais artificiais em tarefas que normalmente são enfrentadas por animais e humanos na natureza.
Os autores usam o exemplo da vida real de um urso a pescar salmão. O urso pode ver o rio e aprendeu que se também puder ouvir o rio e sentir o cheiro do salmão, é provável que pesque um. Mas um dia o urso chega ao rio com a orelha danificada e não consegue ouvir. Num modelo de processamento de informação de rede neural artificial, esta falta de audição também resultaria numa falta de olfacto (porque enquanto aprende que não há som, a retropropagação mudaria múltiplas ligações, incluindo aquelas entre os neurónios que codificam o rio e o salmão) e o urso iria concluir que não há salmão e passar fome. Mas no cérebro do animal, a falta de som não interfere no conhecimento de que ainda existe o cheiro do salmão, portanto é provável que o salmão ainda esteja lá para ser capturado.
“Os investigadores desenvolveram uma teoria matemática que mostra que deixar os neurónios estabelecerem-se numa configuração prospectiva reduz a interferência entre as informações durante a aprendizagem. Demonstraram que a configuração prospectiva explica melhor a atividade e o comportamento neural em vários experiências de aprendizagem do que as redes neurais artificiais”. Por isso, o investigador principal, Rafal Bogacz, da Unidade de Dinâmica de Redes Cerebrais do MRC e do Departamento de Neurociências Clínicas de Nuffield de Oxford, diz: “Existe atualmente uma grande lacuna entre modelos abstratos que realizam configurações prospectivas e o nosso conhecimento detalhado da anatomia das redes cerebrais. Pesquisas futuras do nosso grupo visam preencher a lacuna entre modelos abstratos e cérebros reais, e compreender como o algoritmo de configuração prospectiva é implementado em redes corticais anatomicamente identificadas”. O primeiro autor do estudo, Yuhang Song, acrescenta: “No caso da aprendizagem de máquina, a simulação da configuração prospectiva em computadores existentes é lenta, porque operam de maneiras fundamentalmente diferentes do cérebro biológico. É necessário desenvolver um novo tipo de computador ou hardware dedicado inspirado no cérebro, que seja capaz de implementar configurações prospectivas rapidamente e com pouco consumo de energia”, como é possível ler em comunicado.
O artigo, ‘Inferindo a atividade neural antes da plasticidade: uma base para aprender além da retropropagação’, foi publicado na Nature Neuroscience.