Ferramenta conecta usuários a 1,6 mil redes de apoio humano em 180 países após sinais de risco
O avanço no combate ao extremismo online ganha um novo capítulo com testes de uma ferramenta que pode identificar sinais de risco em usuários do ChatGPT.
A iniciativa está em desenvolvimento na Nova Zelândia e combina inteligência artificial com atendimento humano para encaminhar usuários a serviços especializados.
Como funciona
O sistema é desenvolvido pela ThroughLine, que atua em parceria com empresas como OpenAI, Anthropic e Google.
A tecnologia entra em ação quando identifica sinais de risco, como possíveis comportamentos ligados à violência, automutilação ou outras situações críticas.
Nesses casos, o usuário pode ser direcionado a serviços de apoio com atendimento humano.
Pressão por segurança
O projeto surge em meio ao aumento da pressão sobre plataformas de inteligência artificial para prevenir episódios de violência.
Recentemente, a OpenAI enfrentou questionamentos após um caso envolvendo um ataque escolar no Canadá, o que intensificou o debate sobre responsabilidade das plataformas.
Rede global de apoio
Atualmente, a ThroughLine mantém uma rede com cerca de 1.600 linhas de apoio distribuídas em 180 países, conectando usuários a serviços locais.
A proposta é ampliar o sistema para incluir ações específicas de prevenção ao extremismo, em parceria com iniciativas internacionais como o The Christchurch Call.
acompanhe as notícias pelo canal do whatsapp
Sem prazo definido
Apesar dos testes em andamento, ainda não há data para implementação definitiva da ferramenta.
A expectativa é que o modelo avance como uma nova camada de proteção digital, combinando tecnologia e suporte humano para reduzir riscos e ampliar a segurança nas plataformas.





