Como TikTok e Meta ignoraram segurança para ganhar disputa
Nocivo nos feeds dos usuários, mesmo depois que pesquisas internas sobre os seus algoritmos mostraram que a indignação impulsionava o engajamento, disseram à BBC pessoas que são ou foram ligadas a essas empresas.
Empresas expuseram à BBC como essas companhias assumiram riscos de segurança em questões como violência, chantagem sexual e terrorismo, enquanto disputavam a atenção dos usuários.
Facebook e Instagram, descreveu como recebeu orientação da direção da empresa para permitir mais conteúdo nocivo "limítrofe", que inclui misoginia e teorias conspiratórias, nos feeds dos usuários para competir com outra rede social, o TikTok.
Painéis internos da empresa com reclamações de usuários, além de outras evidências de como funcionários foram instruídos a priorizar vários casos envolvendo políticos em detrimento de uma série de denúncias de publicações nocivas envolvendo crianças.
Com figuras políticas e evitar ameaças de regulação ou proibições, e não por causa dos riscos aos usuários, disse o funcionário do TikTok.
BBC Inside the Rage Machine (Dentro da Máquina de Raiva, em tradução livre) oferecem uma visão detalhada de como o setor reagiu após o crescimento explosivo do TikTok, cujo algoritmo altamente envolvente de recomendação de vídeos curtos transformou as redes sociais, deixando rivais correndo para tentar acompanhar.
Concorrente do TikTok criado pela empresa, o Instagram Reels, foi lançado em 2020 sem proteções suficientes. Pesquisas internas compartilhadas com a BBC mostraram que os comentários no Reels apresentavam prevalência significativamente maior de bullying e assédio, discurso de ódio e violência ou incitação à violência do que em outras partes do Instagram.
Funcionários para expandir o Reels, enquanto equipes de segurança tiveram negada a contratação de dois especialistas para lidar com a proteção de crianças e de mais dez profissionais para ajudar na integridade das eleições, disse outro ex-funcionário sênior da Meta.
Descreveu como "documentos de pesquisa de alto nível mostrando todo tipo de danos aos usuários nessas plataformas". Entre eles, havia evidências que mostravam que o Facebook estava ciente de problemas causados por seu algoritmo.
Criadores de conteúdo um "caminho que maximiza os lucros às custas do bem-estar de sua audiência", e "o atual conjunto de incentivos financeiros que nossos algoritmos criam não parece estar alinhado com nossa missão" de aproximar as pessoas ao redor do mundo.
Escolher permanecer inativo e continuar alimentando os usuários com conteúdo de qualidade duvidosa, mas isso só funciona por algum tempo".
Qualquer sugestão de que ampliamos deliberadamente o conteúdo nocivo para ganho financeiro é incorreta." O TikTok afirmou que essas são "alegações fabricadas" e que a empresa investe em tecnologia que impede que o conteúdo nocivo seja visualizado.

Comentários
Postar um comentário