Uso de inteligência artificial, automação e mais especialistas na revisão das denúncias estão entre as medidas implementadas pela rede social

O Facebook anunciou nesta segunda-feira novas medidas para reforçar a prevenção de suicídio globalmente. O comunicado vem em um momento que cresce o índice de suicídio entre jovens. Para isso, a rede social usará inteligência artificial, além de mais especialistas e melhorias na equipe de revisores de conteúdo.

Guy Rosen, vice-presidente de Gerenciamento de Produto da rede social, afirma que a inteligência artificial, antes restrita aos usuários dos Estados Unidos, ajudará a reconhecer padrões de comportamento de quem está enfrentando dificuldades emocionais, seja em vídeos ou posts, em todo o mundo.

Desse modo, a identificação de possíveis sinais de alerta não depende mais apenas de denúncia de usuários. Frases como “Queria desaparecer” ou “Queria acabar com isso” ou comentários como “Você está bem?” e “Posso ajudar?” são alguns dos termos que podem ser monitorados, e um aprimoramento na identificação do contexto dessas frases também foi trabalhado.

“Usamos a tecnologia também para acelerar o tempo de resposta às denúncias mais sérias que possam envolver risco à vida de pessoas, casos que merecem uma ação prioritária: em situações assim, autoridades locais são notificadas até duas vezes mais rápido do que em outras denúncias”, diz o executivo, que explica que recursos de automação estão sendo usados nesses casos.

Rosen ressalta que o papel dos internautas continua importante na identificação de conteúdos que possam indicar comportamentos suicidas o de automutilação. “Quando alguém publica algo que faz você ficar preocupado com o bem-estar dessa pessoa, você pode entrar em contato com ela diretamente ou denunciar o post para nós. Temos equipes trabalhando em todo o mundo, 24 horas por dia, 7 dias por semana, que analisam as denúncias”, diz ele.