A Mente Por Trás Do Discurso De Ódio Nas Redes Sociais
- Lidi Garcia
- 6 de ago.
- 5 min de leitura

As redes sociais vêm sendo cada vez mais usadas para espalhar discurso de ódio e desinformação, o que pode afetar negativamente a saúde mental das pessoas e até influenciar comportamentos violentos. Um estudo recente analisou milhares de postagens no Reddit com ajuda de inteligência artificial e descobriu que padrões de linguagem associados ao ódio e à desinformação se parecem com os de comunidades com certos transtornos mentais, como transtorno de personalidade antissocial ou ansiedade. Isso pode ajudar a entender melhor as causas desses comportamentos online e como enfrentá-los.
Nos últimos anos, as redes sociais se tornaram parte importante do nosso dia a dia. No entanto, ao mesmo tempo, elas passaram a ser motivo de preocupação por espalharem mensagens de ódio. Esse tipo de discurso é caracterizado por falas ofensivas direcionadas a grupos de pessoas que têm algo em comum, como etnia, religião ou orientação sexual.
Esse conteúdo, além de alimentar preconceitos, pode influenciar a sociedade fora da internet, aumentando comportamentos discriminatórios e até violência. Um exemplo grave disso foi quando a ONU acusou o Facebook de ter ajudado, mesmo que indiretamente, em atos de genocídio por não conter discursos de ódio.
Outro problema das redes sociais é a desinformação, ou seja, a divulgação de informações falsas ou enganosas, muitas vezes contrárias ao que a ciência comprova. Esse tipo de conteúdo já causou danos em áreas importantes da saúde, como no caso de vacinas, pandemias e tratamentos médicos convencionais, como exemplo, os contra o cancer.

A desinformação pode fazer com que as pessoas desconfiem da medicina ou adotem hábitos perigosos. Além disso, acredita-se que tanto o discurso de ódio quanto a desinformação possam surgir da falta de empatia ou da dificuldade de se colocar no lugar do outro.
Pesquisas recentes começaram a estudar se existe uma relação entre esse tipo de comportamento online e certos traços de personalidade, especialmente aqueles ligados à chamada Tríade Sombria: narcisismo (excesso de ego), maquiavelismo (tendência à manipulação) e psicopatia (falta de empatia e impulsividade).
Esses traços têm semelhanças com alguns transtornos de personalidade já reconhecidos pela psiquiatria. Por isso, os cientistas querem entender melhor se pessoas que espalham ódio ou mentiras online podem estar lidando com algum transtorno mental mais profundo.
Essa relação, porém, ainda não está totalmente clara. Mesmo que alguns traços de personalidade se pareçam com transtornos mentais diagnosticáveis, eles não são a mesma coisa. Além disso, a saúde mental é um campo muito amplo, e ainda existem muitas outras condições mentais que podem ter relação com esses comportamentos online, mas que ainda não foram totalmente estudadas.
Por isso, os pesquisadores querem entender melhor como a saúde mental geral das pessoas pode estar ligada ao que elas publicam na internet, especialmente quando se trata de ódio ou desinformação.

Para ajudar nessa tarefa, os cientistas estão usando ferramentas de inteligência artificial, como o ChatGPT. Esse tipo de tecnologia é capaz de analisar grandes volumes de texto de forma rápida e inteligente.
Por exemplo, o modelo GPT3 pode transformar textos em vetores, ou seja, em representações numéricas, que ajudam os computadores a entender o significado por trás das palavras. Assim, mesmo sem ter sido treinado especificamente para uma tarefa, o sistema pode “adivinhar” o que um texto está querendo dizer, se ele contém discurso de ódio, desinformação ou algum padrão que remeta a transtornos mentais.

Mapeamento topológico de todos as areas destilados, coloridos por categoria. Os nós amarelos dentro do espaço denominado são de transtornos psiquiátricos.
Neste estudo, os pesquisadores da University of Alabama at Birmingham, USA, coletaram milhares de postagens publicadas em comunidades do Reddit, um site muito usado para discussões online. Eles escolheram comunidades específicas, algumas ligadas a temas como discurso de ódio, outras voltadas à desinformação, e também grupos que discutem saúde mental e transtornos psiquiátricos. Usando o GPT3, eles transformaram esses textos em vetores e analisaram os padrões de linguagem.
Depois disso, eles aplicaram uma técnica chamada análise topológica de dados, que ajuda a criar mapas visuais que mostram como os diferentes tipos de discurso estão relacionados entre si. Com esse método, os cientistas conseguiram ver como o discurso de ódio e a desinformação se aproximam de certos transtornos psiquiátricos quando se observa a forma como as pessoas se expressam nessas postagens.
Os resultados mostraram que o discurso de ódio tem mais semelhança com o padrão de fala encontrado em comunidades de pessoas com Transtorno de Personalidade Antissocial, Transtorno Borderline, Transtorno Narcisista, Transtorno Esquizoide e Transtorno de Estresse Pós-Traumático Complexo.

Mapeamento Topográfico coloridos pela porcentagem de ocorrência em areas cerebrais relacionadas ao discurso de ódio: (A) Transtorno de Personalidade Narcisista. (B) Transtorno de Personalidade Esquizoide. (C) Transtorno de Personalidade Anti-Social. Amarelo = Sem ocorrência de Transtornos, Vermelho = Totalmente composto por ocorrência de Transtornos.
Já os padrões de fala em comunidades que espalham desinformação eram mais parecidos com os de comunidades neutras, mas ainda assim apresentavam alguma semelhança com grupos que discutem transtornos de ansiedade.
Essas descobertas ainda estão no início, mas ajudam a entender como o que dizemos online pode estar conectado com nossa saúde mental. Além disso, mostram que a inteligência artificial pode ser uma aliada importante para mapear essas relações e, quem sabe, ajudar no futuro a criar estratégias mais eficazes para combater o ódio e a desinformação na internet.

LEIA MAIS:
Topological data mapping of online hate speech, misinformation, and general mental health: A large language model based study
Andrew William Alexander and Hongbin Wang
PLOS Digit Health, 4(7): e0000935, July 29, 2025
Abstract:
The advent of social media has led to an increased concern over its potential to propagate hate speech and misinformation, which, in addition to contributing to prejudice and discrimination, has been suspected of playing a role in increasing social violence and crimes in the United States. While literature has shown the existence of an association between posting hate speech and misinformation online and certain personality traits of posters, the general relationship and relevance of online hate speech/misinformation in the context of overall psychological wellbeing of posters remain elusive. One difficulty lies in finding data analytics tools capable of adequately analyzing the massive amount of social media posts to uncover the underlying hidden links. Machine learning and large language models such as ChatGPT make such an analysis possible. In this study, we collected thousands of posts from carefully selected communities on the social media site Reddit. We then utilized OpenAI’s GPT3 to derive embeddings of these posts, which are high-dimensional real-numbered vectors that presumably represent the hidden semantics of posts. We then performed various machine-learning classifications based on these embeddings in order to identify potential similarities between hate speech/misinformation speech patterns and those of various communities. Finally, a topological data analysis (TDA) was applied to the embeddings to obtain a visual map connecting online hate speech, misinformation, various psychiatric disorders, and general mental health.



Comentários