Estudante cria ferramenta que identifica extremistas políticos no Reddit e usa bots de IA para desradicalizá-los
Estudante cria ferramenta que identifica extremistas políticos no Reddit e usa bots de IA para desradicalizá-los

Student Makes Tool That Identifies ‘Radicals’ on Reddit, Deploys AI Bots to Engage With Them

Tradução feita pelo DeepSeek
Um estudante criou uma ferramenta, que ele chama de PrismX, que escaneia usuários que escrevem certas palavras-chave no Reddit e em outras redes sociais, atribui a esses usuários uma pontuação chamada "radical score" e, em seguida, pode implantar um bot alimentado por IA para interagir automaticamente com os usuários em uma tentativa de desradicalizá-los.
A notícia destaca alguns dos experimentos contínuos que as pessoas estão realizando no Reddit, que podem envolver o uso de IA contra usuários humanos desavisados da plataforma, e mostra a implantação de IA no Reddit de forma mais ampla. Essa nova ferramenta surge após um grupo de pesquisadores da Universidade de Zurique ter realizado um experimento massivo e não autorizado de persuasão por IA em usuários do Reddit, irritando não apenas esses usuários e moderadores de subreddits, mas também o próprio Reddit.
"Eu sou apenas um estudante universitário. Se eu posso fazer isso, você pode imaginar a escala e o poder das ferramentas que podem ser usadas por agentes mal-intencionados?", disse Sairaj Balaji, um estudante de ciência da computação do SRMIST Chennai, na Índia, em um chat online com a 404 Media.
A ferramenta é descrita como "um painel de última geração para sinalizar, analisar e engajar usuários do Reddit em risco. Alimentado por análise linguística avançada e engajamento em tempo real."
Em uma chamada de vídeo ao vivo, Balaji demonstrou sua ferramenta para a 404 Media. Em uma caixa chamada "keyphrases", um usuário pode pesquisar no Reddit qualquer termo que deseje analisar. Nessa demonstração, Balaji digitou o termo "fgc9". Este é um tipo popular de arma impressa em 3D que foi construída ou adquirida por extremistas de direita, criminosos e rebeldes que lutam contra o golpe militar em Mianmar.
A ferramenta então pesquisou no Reddit por posts mencionando esse termo e retornou uma lista de usuários do Reddit que usaram o termo. A ferramenta submeteu os posts desses usuários a um modelo de linguagem grande, atribuiu a cada um um "radical score" e forneceu sua razão para fazê-lo.
Um usuário real do Reddit recebeu uma pontuação de 0,85 em 1, sendo que uma pontuação mais alta indica maior "radicalidade", estava "buscando conselhos detalhados sobre a fabricação de armas de fogo com recursos mínimos, referenciando projetos ilícitos conhecidos (FGC8, Luty SMG). Isso indica intenção de contornar os canais legais padrão para adquirir armas de fogo — um comportamento fortemente associado a círculos extremistas ou radicais, especialmente dado o foco explícito em durabilidade, confiabilidade e capacidade de produção discreta", diz a ferramenta.
Outro usuário, que também recebeu uma pontuação de 0,85, estava "buscando assistência técnica para fabricar um FGC-9", segundo a ferramenta.
A ferramenta pode então focar em um usuário específico e fornecer o que ela acredita serem a "afinidade radical", "potencial de escalada", "influência de grupo" e "marcadores psicológicos" do usuário.
O mais controverso é que a ferramenta é capaz de tentar uma conversa alimentada por IA com o usuário desavisado do Reddit. "Ela tentaria espelhar a personalidade deles e simpatizar com eles, e aos poucos os levar em direção à desradicalização", disse Balaji. Ele acrescentou que não tem treinamento ou estudo acadêmico em desradicalização. "Eu me descreveria como um cara totalmente de tecnologia/gestão", disse.
Balaji afirma que não testou a parte de conversa da ferramenta em usuários reais do Reddit por razões éticas. Mas o experimento e o desenvolvimento da ferramenta têm algumas semelhanças com a pesquisa da Universidade de Zurique, na qual os pesquisadores implantaram bots alimentados por IA em um subreddit popular de debates chamado r/changemyview, sem o conhecimento dos usuários do Reddit, para ver se a IA poderia ser usada para mudar as opiniões das pessoas.
Nesse estudo, os bots dos pesquisadores postaram mais de mil comentários enquanto se passavam por um "homem negro" contra o movimento Black Lives Matter; uma "vítima de estupro"; e alguém que dizia trabalhar "em um abrigo para vítimas de violência doméstica". Os moderadores do subreddit tornaram o caso público após os pesquisadores entrarem em contato com eles, os usuários ficaram insatisfeitos, e o Reddit emitiu "demandas legais formais" contra os pesquisadores, chamando o trabalho de "experimento impróprio e altamente antiético".
Em abril, a 404 Media reportou sobre uma empresa chamada Massive Blue que está ajudando a polícia a implantar bots de mídia social alimentados por IA para conversar com pessoas que eles suspeitam serem criminosos ou "manifestantes" vagamente definidos.
Um porta-voz do Reddit disse por e-mail: "Como o artigo afirma, essa ferramenta não foi testada em redditors e parece ser em grande parte hipotética. Bots enganosos e conteúdo inautêntico são proibidos no Reddit. Temos equipes internas de segurança que detectam e removem esse conteúdo, e tomam medidas contra aqueles que violam nossas regras." Balaji de fato coletou e analisou posts de usuários reais do Reddit.