As redes sociais podem ser condenadas por ajudar o terrorismo?

No princípio do mês o Supremo Tribunal Federal dos EUA anunciou ter em mãos dois novos casos relacionados com “a responsabilidade que as grandes empresas de tecnologia têm no conteúdo publicado pelos seus usuários nas redes sociais”. Será possível que uma rede social desencadeie um ataque terrorista? Como se deve mediar essa situação e o…

Fizeram nascer um novo processo de socialização, com tudo aquilo que traz de positivo, mas também com o lado mais negro desse “universo digital”. Se por um lado têm permitido uma voz mais ativa de qualquer indivíduo, têm facilitado as relações à distância e o acesso e a circulação de informação, por outro lado as redes sociais têm sido alavanca para muitos comportamentos “desviantes”. Mas como? E de que forma devem ser responsabilizadas pelo conteúdo dos seus utilizadores?

No princípio do mês, a Suprema Corte dos EUA lançou um processo judicial carregado de casos importantes que afetam “a discriminação positiva no acesso às universidades, meio ambiente, regras eleitorais e discriminação contra homossexuais”, entre muitos outros assuntos. E, segundo o El País, no momento em que começaram as audiências – que são retomadas presencialmente pela primeira vez desde o início da pandemia -, o Supremo Tribunal Federal anunciou admitir novos casos.

Entre eles, destacam-se dois que vão medir “a responsabilidade que as grandes empresas de tecnologia têm no conteúdo publicado pelos seus usuários nas redes sociais” – uma questão que tem gerado polémica e está a ser alvo de diferentes regulamentações nos EUA. A Google, o Facebook, o Twitter, a Amazon e outras empresas passarão por “um grande teste judicial sobre a moderação dos seus conteúdos”.

O caso do Bataclan De acordo com o jornal espanhol, “Gonzalez, Reynaldo e outros contra a Google” é o nome de um dos casos que examinará até que ponto a Google pode ser responsabilizada pelo massacre no Bataclan, em 2015, na capital francesa, por alegadamente ter permitido a divulgação na sua plataforma do YouTube de vídeos que “incitavam a violência islâmica”.

Quem interpôs o processo contra a Google foram os familiares de Nohemi Gonzalez, uma estudante universitária americana de 23 anos, que foi uma das 131 pessoas mortas por terroristas do Estado Islâmico na série de ataques que chocou o mundo, no dia 13 de novembro desse ano – Gonzalez foi morta num restaurante onde estava a jantar.

Segundo o El País, os tribunais inferiores rejeitaram o pedido da família, mas a família de Gonzalez recorreu ao Supremo Tribunal, que agora concorda em assumir o caso. Apesar de a lei norte-americana afirmar que as empresas de Internet não são responsáveis ​​pelo conteúdo publicado pelos seus utilizadores, o assunto acabou por se tornar controverso, já que vários autores dos múltiplos homicídios transmitiram as suas ações ao vivo.

Há, por isso, quem defenda que os conteúdos das redes “acabaram por se tornar um objeto de propaganda política”.

Enquanto os democratas denunciam a propaganda de extrema direita e teorias da conspiração que se difundem nas redes, os republicanos reclamam da política de moderação de conteúdos praticada por algumas Big Tech – nome dado aos cinco gigantes da indústria de tecnologia da informação dos EUA (Google, Amazon, Facebook, Apple e Microsoft). 

Como escreve o jornal espanhol, a família de Nohemi Gonzalez acusa o YouTube de não se limitar a um papel passivo (ao permitir que os usuários pesquisem o que ver), e direcionar conteúdos até os seus usuários – o algoritmo recomenda vídeos com base no histórico de cada um. Sob este prisma, “quem assistiu a vídeos de propaganda islâmica recebeu mais conteúdo desse tipo, facilitando a sua radicalização”.

Ou seja, a Google, que é agora controlada pela Alphabet, “permitiu a divulgação de vídeos de propaganda radical que incitaram a violência”: “Se a Secção 230 do Communications Decency Act 1996 – que diz que nenhum provedor ou usuário de um serviço de computador interativo deve ser tratado como o editor ou orador de informações fornecidas por outro provedor de conteúdo de informações – se aplica a essas recomendações geradas por algoritmos é de enorme importância prática”, argumenta a família no recurso.

“Serviços de computação interativos direcionam constantemente essas recomendações, de uma forma ou de outra, para praticamente todos os adultos e crianças nos EUA que usam a rede”, explica ainda a família, que acredita que a Google “violou a lei antiterrorismo ao permitir a divulgação desses vídeos”.

Censura vs liberdade de expressão O tema do “discurso de ódio” está na ordem do dia nos media e na academia. Muito se tem falado sobre o tema e discutido medidas para debelar o problema. “Sem entrar por questões que se prendem ao conceito de ‘comunidade’ e como ele tem evoluído e acompanhado as transformações sociotécnicas, podemos, sim, problematizar sobre o acesso e a legitimidade de determinados discursos em ambiente online”, afirma ao i Nuno Correia de Brito.

Segundo este professor de Ciências da Comunicação no Instituto Politécnico de Leiria e na Universidade Autónoma de Lisboa, o que hoje vigora é a responsabilidade e responsabilização dos provedores destes serviços, através da adoção de instrumentos de verificação e moderação dos conteúdos veiculados: “Mas, existem sempre dois lados da mesma moeda, e podemos também falar de censura e limitação da liberdade de expressão”, alerta, acrescentando que, entre um extremo e outro, “há toda uma zona cinzenta que é preciso clarificar e discutir junto da sociedade civil, de forma a encontrar responsabilidades e regular um sistema que é relativamente recente e para o qual os legisladores não estão preparados”. 

O outro caso afeta o Twitter, a Google e o Facebook e está relacionado com o ataque de 2017, na boîte Reina, famosa casa noturna de Istambul, do qual resultaram 39 mortes. Segundo o El País, os tribunais de primeira instância decidiram que as empresas deveriam assumir alguma responsabilidade pelo conteúdo divulgado relacionado com a tragédia.

Intitulado “Twitter contra Taamneh”, o caso também foi admitido pela Suprema Corte e, desta vez, não tem nada a ver com o conteúdo recomendado pelo algoritmo. A família de Nawras Alassaf, vítima do ataque realizado pelo Estado Islâmico, alega que as empresas “forneceram apoio material ao terrorismo e não fizeram o suficiente para controlar a presença do grupo nas suas plataformas”.
 
Quais os limites? Segundo o sociólogo e professor Bruno Reis, a discussão que se levanta em torno do papel de controle que devem ter as grandes corporações que detém as redes sociais acerca dos conteúdos gerados pelos utilizadores “retoma uma questão primeira do debate democrático”.

“Não é de uma forma de governo de que falamos, mas sim de um tipo de sociedade que se configura”, começa por explicar ao i. E convoca o exemplo do pensador político francês Alexis de Tocqueville, que, ao colocar nestes moldes o debate, “equaciona a necessidade de escrutinarmos que formas de participação e mobilização se efetivam num contexto que se concebe como um espaço de liberdades”.

“A conceção de uma sociedade democrática pressupõe a existência de um diálogo ‘entre iguais’, aqueles que partilham um conjunto de normas e valores semelhantes, de forma lata, não ferindo com o princípio do exercício de liberdade a manutenção da própria vida democrática”, continua o sociólogo. Daqui decorre um princípio tácito, que as democracias “devem conter os seus próprios limites”. “O que importa discutir é quais são esses limites e quem os deve estabelecer”, reflete.

As redes sociais (em conjunto com um rodopio de crises sociais e políticas que vivemos na última década) “vieram reequacionar estes pressupostos basilares das sociedades liberais, por efeito de um princípio estruturante do próprio exercício de liberdade, a horizontalidade da participação na vida pública”, constituindo-se como “zonas francas para a circulação de informações contrárias aos próprios princípios democráticos”. Essa matriz “colocou de forma mais premente a necessidade de se equacionar uma regulação mais severa das informações que circulam na rede”: “Neste momento as corporações digitais já podem banir conteúdos que considerem ofensivos”, lembra o sociólogo. 

Segundo Bruno Reis, o princípio de fundo é “tentar evitar a difusão de informações contrárias ao ‘modo de vida democrático’, transferindo essa tarefa para as próprias operadoras”. “O que encerra um princípio altamente subjetivo de restrição da liberdade de expressão (atendendo que cada corporação poderá considerar diferentes critérios para banir conteúdos)”, explica.

Mediante estas críticas, “vai ganhando força uma necessidade real de se construir um articulado legal que estabeleça critérios mais claros para o exercício da própria liberdade de expressão no ciberespaço”. “No fundo, esta necessidade não se constitui como uma mera discussão legal, mas sim voltarmos à questão primordial que nos colocava Tocqueville na Democracia na América: ‘Que tipo de sociedade é que queremos num cenário de crescente polarização (desinformação, manipulação, difamação)?’”, conclui.

‘É uma questão de ética e moral? Sim, é!’ Felizmente, lembra Nuno de Correia de Brito, ferramentas de verificação através da Inteligência Artificial têm sido adotadas e aplicadas às redes sociais online. Reuniões entre representantes dos Estados, das companhias tecnológicas, das empresas de telecomunicações e de comunidades específicas – muitas vezes alvo destes discursos anti-semitas, homofóbicos, racistas, islamofóbicos, entre outros -, “têm feito um esforço por encontrar medidas”, refere o especialista.

“Por exemplo as Best Pratices for Challenging Cyberhate, de 2014, resultado de um encontro promovido pela The Anti-Defamation League (ADL), uma organização que tem vindo a trabalhar sobre estas temáticas e que publica regularmente estudos acerca do tema, tendo em conta que a maioria das empresas prestadoras deste tipo de serviço têm origem nos EUA, como a Google ou a Meta”, exemplifica.

Correia de Brito sublinha ainda que o problema do discurso de ódio levou a que algumas empresas multinacionais, como a Johnson&Johnson, tenham cancelado contratos publicitários naquelas plataformas, ao verem os seus conteúdos muitas vezes colocados próximos ou contíguos a conteúdos que veiculavam este tipo de discursos. “É necessário que as infraestruturas tecnológicas e que os algoritmos possuam filtros e instrumentos automáticos para detetar e evitar este problema”, defende. 

“Se é uma questão de ética e moral? Sim, é! O problema é que cada vez mais a forma de construirmos comunidades passa por processos reais e virtuais, que muitas vezes se misturam e não permitem a distinção do ‘trigo e do joio’”, lamenta, acrescentando que “os processos digitais/virtuais estão, hoje, colocados no mesmo plano dos processos físicos, o que muitas vezes tem implicações entre os dois mundos”. “Com o metaverso estas questões acerca das liberdades e garantias dos cidadãos vão ser ainda mais presentes”, remata. 

A lei portuguesa De que forma é visto o problema em Portugal? Segundo a advogada Sofia Matos, um pouco por todo o mundo os Estados têm vindo a ter uma crescente preocupação sobre conteúdos de propaganda terrorista divulgados através de plataformas digitais que pela sua própria forma de divulgação estão ao alcance de qualquer um, bastando para o efeito ter acesso à internet.

A questão é saber se em Portugal os gigantes digitais – cerca de 30 -, como o Google, Twitter, Youtube e Facebook, poderiam vir a ser condenados como cúmplices na prática de atos terroristas por não impedirem a divulgação e acesso a tais conteúdos.

“A resposta é não, já que não existe qualquer lei que permita obter tal resultado”, lamenta ao i a jurista. Mas, “ao contrário de países que assentam o seu sistema judiciário denominado Common law (um sistema jurídico utilizado em países de língua inglesa), tal poderá vir a ser possível já que a principal característica deste sistema é ser baseado em precedentes criados a partir de casos jurídicos – e não em códigos”, esclarece. “Por isso, o papel dos juízes e dos advogados é importante para o desenvolvimento do mesmo e criar o precedente de condenações nestes casos”.

Ciente deste “vazio legislativo sobre o funcionamento dos mercados digitais”, a União Europeia (UE) alcançou, em abril de 2022, um acordo sobre o Regulamento dos Sistemas Digitais, de aplicação imediata a todos os Estados membros, “o qual entre outras matérias efetua um enquadramento claro e transparente de responsabilização das plataformas online”. Mas, até que o Regulamento sobre Serviços Digitais entre em vigor, “não podemos associar qualquer responsabilidade civil às plataformas que atuam nos mercados europeus e que por falta de zelo/segurança permitem a divulgação de conteúdos de propaganda terrorista, entre outros”, explica.

A jurista lembrou ainda algumas das medidas previstas para a generalidade dos prestadores, tais como: medidas para combater a disponibilização de bens, serviços ou conteúdos ilegais online; medidas para capacitar os utilizadores e a sociedade civil (possibilidade de contestar as decisões de moderação de conteúdos das plataformas e de obter reparação dos danos); medidas de transparência para as plataformas online sobre uma série de questões, incluindo os algoritmos utilizados para recomendar conteúdos ou produtos aos utilizadores e ainda medidas para avaliar e atenuar os riscos (mecanismos de adaptação rápida e eficiente em resposta a crises que afetem a segurança pública ou a saúde pública e novas salvaguardas para a proteção dos menores e limites à utilização de dados pessoais sensíveis para fins de publicidade direcionada).

Além disso, Sofia Matos salienta que estas empresas estarão sujeitas à supervisão da Comissão Europeia, “que terá poderes exclusivos para garantir o cumprimento das obrigações aplicáveis às plataformas e motores de pesquisa de muito grande dimensão”. “Será ainda criado um mecanismo de imposição de taxas anuais a estes intervenientes que permitirá precisamente o financiamento dessas atividades de supervisão”, revelou.

No que toca à generalidade das empresas abrangidas pelo Regulamento, mas não incluídas no grupo anterior, “responderão perante autoridades reguladoras nacionais a designar por cada Estado-membro”. Para a advogada, relevante será ainda constatar que os prestadores de serviços digitais estabelecidos fora da UE que ofereçam serviços na UE, “serão obrigados a nomear um representante legal na União para assegurar uma supervisão eficaz e, se necessário, a sua execução coerciva”.

O acordo político alcançado está agora sujeito a confirmação formal por parte do Conselho e do Parlamento Europeu.

Assim que aprovado, o Regulamento será diretamente aplicável no ordenamento jurídico português, assim como nos restantes Estados-Membros, entrando em vigor 15 meses após a sua publicação, mas nunca antes de 1 de janeiro de 2024. Relativamente às plataformas online e aos motores de pesquisa online de muito grande dimensão, explica Sofia Matos, o RSD será aplicável a partir de uma data anterior – quatro meses após a sua designação.

A violação das regras estabelecidas pelo RSD implicará a aplicação de multas que poderão ir até 6% do volume de negócios a nível mundial ou mesmo à proibição de operar no mercado único da UE, em caso de violações graves e repetidas.

Desta forma, o RSD pretende consagrar o princípio de que “o que é ilegal offline deve também ser ilegal online” e, sendo certo que há ainda um percurso considerável a percorrer, este acordo foi, com certeza, “um importante passo nesse sentido e um marco relevante na transição digital da União Europeia”.