Web: Conteúdos terroristas migram e são mais difíceis de monitorar

Mundo Lusíada
Com Lusa

A vigilância cada vez mais apertada das grande plataformas provoca uma migração de conteúdos terroristas para redes mais pequenas e mais difíceis de monitorar, alertaram nesta terça-feira, na Web Summit, vários especialistas, enfatizando a necessidade de regulação eficaz.

Durante um painel que abordou o extremismo online, Julian King, o comissário para a Segurança da Comissão Europeia assinalou a “ameaça real” que a radicalização online representa para a Europa.

“Houve um elemento online em todos os ataques terroristas que tivemos na Europa nos últimos dois anos. Temos um problema verdadeiro que temos de resolver agora. Temos 14 ou 15 plataformas que se comprometeram verdadeiramente, mas a Europol trabalha com 200 plataformas com conteúdo terrorista. Temos um grande problema”, disse.

Por isso, a Comissão Europeia propõe que a regulação, que apresentou recentemente, permita banir legalmente a difusão destes conteúdos, impondo não apenas obrigações para as plataformas, mas também para os próprios Estados membros.

“Os estados-membros têm de levar esta questão a sério, quando encontram algo que é claramente conteúdo terrorista ilegal devem poder notificar a plataforma em causa e a plataforma deve avaliar e agir”, sustentou.

Adam Hadley, diretor da Tech Against Terrorism, uma organização que trabalha com as Nações Unidas na resposta à disseminação de ideias terroristas na Internet, alertou para as mudanças na forma como os grupos e organizações terroristas estão a passar as suas mensagens, em resposta a uma maior vigilância a que estão sujeitos nas grandes plataformas.

“O que notamos é que nestes últimos anos estes conteúdos estão a migrar para pequenas plataformas e são agora muito mais difíceis de detectar”, disse, considerando que pouco “tem sido feito” para alcançar a regulação “bem feita”.

O diretor da Tech Against Terrorism entende que a regulação ao nível de cada país ou área não será eficaz, defendendo em contrapartida uma regulação do sistema.

Adam Hadley apontou como um exemplo do muito que ainda falta fazer para chegar à regulação eficaz, apontando por exemplo, organizações como as Nações Unidas e a União Europeia terem listas de organizações terroristas diferentes.

Por outro lado, alertou para os cuidados a ter definição do que são conteúdos terroristas, para não ultrapassar a linha que define a liberdade de expressão.

Segundo Julian King, para funcionar, a regulação terá de abranger pelo menos a Europa e os Estados Unidos. Mas, enquanto esse acordo não é alcançado, defendeu que é preciso “abordar o problema” e “fazer o possível” com os instrumentos atuais.

Robôs com “acreditação ética”

Robôs poderão no futuro ter uma espécie de “acreditação ética”, segundo uma especialista em ética na inteligência artificial. Aimee van Wynsberghe, que preside à Fundação para uma Robótica Responsável, afirmou que em meados do ano que vem deverá haver um “protótipo” de uma “marca de qualidade” a aplicar a produtos robóticos.

Falando na Web Summit, em Lisboa, afirmou que a ética é já uma preocupação de empresas da área da inteligência artificial e robótica, à medida que robôs vão sendo criados para áreas que dependem tradicionalmente de uma “relação empática” entre seres humanos, como os cuidados de saúde e gratificação sexual.

À medida que a tecnologia avança, é preciso colocar questões como: “queremos mesmo idosos ou crianças com companheiros robóticos em vez de companheiros humanos?” ou “queremos providenciar a idosos ou deficientes apoio na forma de gratificação sexual” usando robôs?

Para Aimee van Wynsberghe, professora de Ética e Robótica na universidade Técnica de Delft, na Holanda, “é o momento perfeito para investigar outros interesses, aspectos, imagens e preferências” sexuais na concepção de robôs destinados ao sexo, que atualmente são dominados por uma cultura “pornográfica que usa o corpo feminino”.

Defendeu que introduzir a ética na robótica não visa “banir a tecnologia” ou “estrangular a inovação”.

Minutos antes, no mesmo palco instalado num dos pavilhões da FIL, uma empresa sueca tinha apresentado a milhares de pessoas na audiência o Furhat, um chamado “robô social” com uma programação que lhe permite interagir com seres humanos com caras diferentes para funções diferentes.

Do tamanho de um busto, o Furhat demonstrou em palco como consegue ensinar línguas ou servir para dar indicações a passageiros num aeroporto.

A falar japonês ou a pedir uma cerveja, o Furhat muda de “personalidade”, de gênero e de cara. O robô pode até ter cara de cão e falar como uma personagem de desenho animado, bastando trocar a capa que lhe cobre a parte da frente da cabeça e na qual é projetada a cara adequada à função que está a cumprir.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Veja também