Home»ATUALIDADE»NOTÍCIAS»Discurso de ódio online pode ser contido como um vírus de computador

Discurso de ódio online pode ser contido como um vírus de computador

Pesquisadores da Universidade de Cambridge estão a desenvolver um protótipo que permite condicionar a exposição aos virais discursos de ódios que surgem nas redes sociais, através de uma solução que dá ao utilizador o poder de aceitar ou não ver determinado conteúdo previamente identificado.

Pinterest Google+

A disseminação do discurso de ódio através das redes sociais pode ser combatida usando a mesma abordagem de combate ao software malicioso, de acordo com pesquisadores da Universidade de Cambridge, Inglaterra.

 

As definições do discurso do ódio variam de acordo com a nação, a lei e a plataforma, e apenas o bloqueio de palavras-chave é ineficaz: descrições gráficas da violência não precisam conter insultos étnicos óbvios para constituir ameaças de morte racistas, por exemplo. Como tal, o discurso de ódio é difícil de detetar automaticamente. Ele deve ser relatado por aqueles expostos a ele, depois que o “dano psicológico” pretendido for infligido, com exércitos de moderadores necessários para julgar todos os casos.

 

Esta é a nova linha da frente de um debate antigo: liberdade de expressão versus linguagem venenosa. Agora, um engenheiro e um linguista publicaram uma proposta na revista’ Ethics and Information Technology’, que utiliza técnicas de cibersegurança para dar controlo aos alvos, sem recorrer à censura. Os especialistas de Cambridge estão a usar bancos de dados de ameaças e insultos violentos para criar algoritmos que podem fornecer uma pontuação para a probabilidade de uma mensagem online conter formas de discurso de ódio.

 

VEJA TAMBÉM: BULLYING POR ESTIGMA RACIAL OU DE ORIENTAÇÃO SEXUAL É O MAIS DEMOLIDOR

 

À medida que esses algoritmos são refinados, o discurso de ódio em potencial pode ser identificado e “colocado em quarentena”. Os utilizadores recebem um alerta de aviso com um “Hate O’Meter” – a pontuação de gravidade do discurso de ódio – o nome do remetente e uma opção para exibir o conteúdo ou excluí-lo sem ser visto.

 

Essa abordagem é semelhante aos filtros de spam e malware, e os pesquisadores do projeto ‘Dando voz às democracias digitais’ acreditam que isso poderia reduzir drasticamente a quantidade de discursos de ódio que as pessoas são forçadas a ver. Os especialistas pretendem ter um protótipo pronto no início de 2020. «O discurso de ódio é uma forma de dano intencional online, como malware, e pode, portanto, ser tratado por meio de quarentena», diz a coautora e linguista, Stefanie Ullman. «De facto, muitos discursos de ódio são realmente gerados por softwares como os bots do Twitter».

 

«Empresas como Facebook, Twitter e Google geralmente respondem reactivamente ao discurso de ódio», disse o coautor e engenheiro, Marcus Tomalin. «Isso pode ser bom para quem não o encontra com frequência. Para outros, é muito pouco, é tarde demais».

 

VEJA TAMBÉM: BULLYING E CYBERBULLYNG NO TOPO DAS PREOCUPAÇÕES DOS PAIS

 

Os pesquisadores dizem que a sua proposta não é uma solução mágica, mas situa-se entre as «abordagens liberais e a as autoritárias extremas». Aqui o utilizador torna-se no árbitro. «Muitas pessoas não gostam da ideia de uma corporação não eleita ou de uma entidade a decidir o que podemos e o que não podemos dizer», disse Tomalin. «O nosso sistema sinaliza quando é preciso tomar cuidado, mas é sempre uma decisão sua. Não impede que as pessoas publiquem ou visualizem o que gostam, mas fornece o controlo necessário para aqueles que são inundados por discursos de ódio», remata o especialista.

 

No artigo, os pesquisadores se referem que os algoritmos de deteção atingem 60% de precisão – não muito melhor que o acaso. Esta solução consegue chegar aos 80%, sendo que os especialistas antecipam uma melhoria contínua da modelagem matemática. Um exemplo básico pode envolver uma palavra como ‘cadela’: um insulto misógino, mas também um termo legítimo em contextos como a criação de cães. É a análise algorítmica de onde essa palavra se encontra sintaticamente – os tipos de palavras circundantes e as relações semânticas entre elas – que indica a pontuação do discurso de ódio.

 

VEJA TAMBÉM: ONU LANÇA ESTRATÉGIA E PLANO DE AÇÃO CONTRA DISCURSO DE ÓDIO

 

«Identificar palavras-chave individuais não é suficiente, estamos a analisar estruturas de frases inteiras e muito mais além. Informações sociolinguísticas nos perfis de utilizadores e históricos de postagem podem ajudar a melhorar o processo de classificação», disse Ullman.

 

No entanto, os pesquisadores, que trabalham no Centro de Pesquisa de Artes, Humanidades e Ciências Sociais de Cambridge (CRASSH), afirmam que, assim como com os vírus de computador, haverá sempre uma corrida de armas entre o discurso de ódio e os sistemas que o tentam limitar.

 

 

Artigo anterior

Alimentos afrodisíacos: para aumentar a temperatura neste inverno

Próximo artigo

Ano novo, novo penteado? Veja estas ideias