Rede social promove positividade ao esconder comentários tóxicos e discursos de ódio
Segunda maior plataforma de microblog mundial, o Koo anunciou o lançamento de novos recursos proativos de moderação de conteúdo desenvolvidos para fornecer aos usuários uma experiência mais segura nas mídias sociais. Os recursos, desenvolvidos in-house, são capazes de detectar proativamente e bloquear qualquer tipo de material de nudez ou de abuso infantil em menos de cinco segundos, taxando ainda a desinformação, escondendo comentários tóxicos e discursos de ódio da plataforma.
Sendo uma plataforma inclusiva construída com a abordagem da linguagem em primeiro lugar, o Koo está comprometido em fornecer uma experiência segura e positiva para todos os seus usuários. Ao oferecer uma comunidade saudável e com engajamento significativo, algumas áreas que possuem alto impacto na segurança do usuário foram identificadas como, por exemplo, materiais de abuso sexual de crianças e nudez, comentários tóxicos e discurso de ódio, desinformação ou informação equivocada, bem como cópias de personalidades. Assim é possível remover essas ocorrências da plataforma e os novos recursos de moderação são um passo importante em direção a esse objetivo.
Recursos de segurança:
Nudez: O ‘No Nudity Algorithm’, desenvolvido in-house pelo Koo, detecta proativamente e instantaneamente, bloqueando qualquer tentativa de um usuário por carregar uma foto ou vídeo contendo materiais de abuso sexual infantil ou nudez. Essas detecções e bloqueios levam menos de cinco segundos. Os usuários que postam esses conteúdos são imediatamente bloqueados de postar conteúdo; serem descobertos por outros usuários; aparecerem em trending posts, ou poderem se engajar com outros usuários de qualquer maneira.
Comentários tóxicos e discurso de ódio: detecta ativamente, escondendo ou removendo comentários tóxicos e discursos de ódio em menos de dez segundos para que não sejam visualizados pelo público.
Violência: conteúdo contendo sangue/ sangramento excessivos ou atos de violência são recobertos por um aviso aos usuários.
Cópias: o ‘MisRep Algorithm’ in-house do Koo escaneia constantemente a plataforma procurando por perfis que usem conteúdo, fotos, vídeos ou descrições de personalidades conhecidas para detectar perfis que os copiam e, assim, os bloqueiam. Ao serem detectados, as fotos e os vídeos das personalidades são imediatamente removidos e tais contas são sinalizadas para monitoria por mal comportamento no futuro.
Desinformação: o ‘Misinfo & Disinfo Algorithm’ in-house do Koo ativamente, e, em tempo real, escaneia todos os relatórios de fake news baseados em fontes públicas e privadas, para detectar e rotular como desinformação sobre um post, minimizando que se espalhe ou viralize na plataforma.
Mayank Bidawatka, cofundador do Koo, diz: “Nossa missão é unir o mundo e criar um espaço de mídia social para discussões saudáveis. Estamos comprometidos em fornecer uma plataforma social pública mais segura para nossos usuários. Moderamos o conteúdo de maneira proativa. Enquanto a moderação é uma jornada contínua, estamos sempre à frente nessa área, enfocando nela. Nosso objetivo é manter o desenvolvimento de novos sistemas e processamentos para detectar e remover proativamente conteúdo danoso da plataforma, restringindo de se espalhar como desinformação viral. Nossos processos de moderação de conteúdo proativos são, provavelmente, os melhores no mundo”, afirma ele, acrescentando que a plataforma encoraja a troca gratuita de pensamentos e ideias entre usuários, enquanto aderem às leis locais para remover conteúdo que violam as diretrizes.