22 de Abril de 2026

NOTÍCIAS
Política - 13/05/2023

PL das Fake News: especialistas defendem moderação humana para excluir (ou não) posts

Compartilhar:
Foto: Reprodução

Desinformação e contexto são os principais desafios para moderação de conteúdo nas plataformas, segundo especialistas ouvidos pela CNN

Entre os pontos mais discutidos do projeto de lei 2630/2020, conhecido como PL das Fake News, está a moderação de conteúdo nas plataformas digitais – que incluem aplicativos de mensagem, redes sociais e mecanismos de busca.

 

Quem decide quais conteúdos seriam permitidos e quais passariam a ser proibidos? Retirar um post do ar fere a liberdade de expressão? Moderar conteúdo é trabalho de robô ou ser humano?

 

Apesar de o PL das Fake News continuar sem data para ser votado na Câmara, a presidente do Supremo Tribunal Federal (STF), Rosa Weber, marcou para 17 de maio o julgamento de ações que discutem a responsabilidade das redes sociais e aplicativos de mensagem na moderação de conteúdo.

 

Veja também

 

Anderson Torres é recepcionado por vizinha com bandeira do PT

Caso das joias: Polícia Federal faz busca e apreensão na casa do ex-chefe de setor de presente de Bolsonaro

 

PL das Fake News: especialistas defendem moderação humana para excluir (ou  não) posts

 

A CNN conversou com especialistas para entender como as empresas fazem a moderação de conteúdo em suas plataformas, atualmente, e o que poderia mudar.

 

A legislação atual estabelece que as plataformas digitais não são obrigadas a moderar o conteúdo que elas hospedam, mas também não estão isentas de decisões judiciais que determinem a remoção ou outro tipo de ação de algum conteúdo.

 

Moderação baseada em inteligência artificial

 

PL 2630: Leia íntegra do texto do PL das Fake News - 27/04/2023 - Poder -  Folha


O artigo 19 do Marco Civil da Internet regula o tema: “Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.”

 

Cada plataforma pode decidir como moderar seu conteúdo, pois cada uma funciona de um jeito – o Instagram, que é focado em fotos e vídeos, tem regras específicas para estes conteúdos, enquanto o Twitter, que hospeda pequenos textos, tem regras diferentes do que é permitido ou não.

 

Independentemente do formato, especialistas ressaltam que a moderação da grande maioria dos conteúdos é feita de forma automatizada, por meio de inteligência artificial.

 

“Precisamos das máquinas para fazer esse trabalho porque o volume de conteúdos postados nas grandes plataformas requereria um verdadeiro exército de profissionais para revisar tudo”, diz Carlos Affonso, diretor do Instituto de Tecnologia e Sociedade (ITS) e um dos idealizadores do Marco Civil da Internet.

 

Ele aponta que as aplicações de inteligência artificial estão cada vez mais preparadas para identificar conteúdos específicos, como cenas de nudez, pornografia infantil e obras protegidas por direitos autorais.

 

PL 2630: Leia íntegra do texto do PL das Fake News - 27/04/2023 - Poder -  Folha

 

“Nesses casos, existem bases de dados compartilhadas globalmente de conteúdos ilícitos que facilitam o treinamento dos sistemas”, afirma Affonso. “Muitas vezes, esses conteúdos são identificados e bloqueados antes mesmo de subir na plataforma.”

 

Segundo ele, a inteligência artificial é eficiente para reconhecer padrões, mas ainda falha ao entender o contexto em que uma mensagem se insere.

 

Ela funciona apenas em casos objetivos. O Instagram, por exemplo, não permite nudez na plataforma, então qualquer conteúdo que apresente nudez é automaticamente retirado do ar. Para o robô, não faz diferença se é pornografia de vingança ou nudez artística.

 

Victor Durigan, coordenador de relações institucionais do Instituto Vero e membro da Coalizão Direitos na Rede, explica que a moderação humana é necessária para os conteúdos que precisam de contexto na hora de decidir sobre a exclusão ou não de uma publicação.

 

Ele cita, como exemplo, a expressão “golpe de Estado”. “Se essas palavras estão sendo faladas por um cientista político, é uma coisa; se são manifestantes pedindo um golpe de Estado, é outra.”

 

Bolsonaristas querem substituir PL das Fake News por outro projeto; saiba o  que tem no texto - Estadão

 

Para ele, toda a questão que envolve moderar desinformação nas plataformas está dentro dessa área pouco objetiva. “Muitas vezes, é um conteúdo que é parte verdade, e a outra parte é exagerada ou distorcida”, diz Durigan.

 

“Qual é o limiar entre a desinformação e um momento tenso de polarização política? Quando a gente entrega para uma plataforma a responsabilidade de retirar esse tipo de conteúdo, a gente acaba entregando para ela um poder de decisão entre o que é verdade ou mentira.”

 

Por isso, para Durigan, a transparência é o “fio condutor” das leis que tratam de regulamentação das plataformas, já que atualmente os algoritmos usados pelas empresas não são públicos.

 

Segundo ele, essa é a única forma de entender detalhes sobre funcionamento, políticas e métodos de moderação das plataformas – conhecendo, inclusive, a equipe que analisa o conteúdo.

 

O que o PL das Fake News propõe para a moderação de conteúdo?

 

Google inclui texto contra PL das fake news na página inicial do buscador


Para Carlos Affonso, o diferencial do projeto proposto é incentivar a moderação de conteúdo.

 

“Esse esforço é importante, porque algumas empresas – como o Twitter, recentemente – diminuíram sensivelmente seus investimentos na área, prejudicando a forma pela qual os conteúdos danosos são identificados e removidos da plataforma.”

 

Victor Durigan pontua que o investimento na área é de extrema importância.

 

“A pessoa que faz a revisão disso é brasileira, que entende o contexto político brasileiro? Ou é, por exemplo, um estrangeiro que às vezes nem fala português e tem que analisar uma questão de contexto político-eleitoral brasileiro para fazer a moderação de conteúdo? Isso é muito importante e causa muito impacto”, ressalta.

 

Para Durigan, há uma confusão sobre o que o PL realmente propõe. “O Projeto de Lei não trata de conteúdos individuais, mas de conteúdos de forma coletiva. Quando existe, por exemplo, muitos conteúdos que estão indicando um mesmo tipo de objetivo, como a plataforma vai atuar sobre isso?”

 

Facebook reformula processo de moderação de conteúdo para VIPs

 

As plataformas digitais ainda poderão decidir sobre a própria moderação de conteúdo, mas elas também serão obrigadas a prevenir os riscos que o seu serviço pode oferecer. Durigan explica que o PL 2630 traz um “dever de cuidado” sobre conteúdos específicos, que não significa, necessariamente, a obrigação de excluir conteúdos.

 

“É um dever de prevenção em cima de alguns conteúdos que são crimes; é o caso, por exemplo, de crimes de indução a terrorismo, contra crianças e adolescentes e contra o estado democrático de direito. Não é que a plataforma tem o dever de excluir um conteúdo que fale sobre o crime, mas ela tem um dever geral de não permitir que conteúdos sobre crimes circulem amplamente nas redes sociais.”

 

Para ele, mais importante que moderar conteúdos é pensar no serviço que as plataformas oferecem, quais são os riscos envolvidos e como elas devem atuar para mitigar esses riscos.

 

“Esperamos que a moderação de conteúdo não seja vista como um efeito colateral do sucesso de uma plataforma, mas sim como um elemento integral do seu desenvolvimento”, conclui Carlos Affonso.

 

Mudanças na moderação do Youtube

 

YouTube lança página para defender suas políticas de remoção de conteúdo |  Tecnologia | G1


No mês passado o YouTube anunciou uma série de mudanças na moderação de conteúdo, nos Estados Unidos, sobre um assunto específico: distúrbios alimentares. O YouTube afirmou que vai implementar a política globalmente nas próximas semanas e planeja usar o mix de moderação humana e automatizada para revisar vídeos desse assunto e seu contexto.

 

Nesse caso, a plataforma consultou a National Eating Disorder Association e outras organizações sem fins lucrativos que indiquem a criação de um “espaço para recuperação e recursos da comunidade, enquanto continua a proteger nossos espectadores”, disse o chefe global de assistência médica do YouTube, Garth Graham, à CNN.

 

Quando o vídeo de um criador é removido por violar sua política de distúrbios alimentares, Graham afirmou à CNN que o YouTube enviará a eles recursos sobre como criar conteúdos com menor probabilidade de prejudicar outros usuários.

 

Nova política de conteúdo do YouTube já derrubou mais de 17 mil canais -  Canaltech

Fotos: Reprodução

 

Curtiu? Siga o Portal Mulher Amazônica no FacebookTwitter e no Instagram.
Entre no nosso Grupo de WhatApp e Telegram.
 

Em março foi a vez da Meta, empresa controladora do Facebook, anunciar ua reformulação de seu sistema de moderação de “verificação cruzada”, após enfrentar críticas por dar tratamento especial a usuários VIPs – como políticos, celebridades, jornalistas e parceiros de negócios da Meta como anunciantes –, aplicando diferentes processos de revisão para postagens para eles, em comparação com usuários comuns.

 

O programa de verificação cruzada foi criticado em novembro de 2021, depois que um relatório do Wall Street Journal indicou que o sistema protegeu alguns usuários VIP do processo normal de moderação de conteúdo da empresa, em alguns casos permitindo que eles postassem conteúdos que violassem as regras, sem consequências.

 

Fonte: com informações do Portal CNN

DEIXE SEU COMENTÁRIO

Nome:

Email:

Mensagem:

LEIA MAIS
Fique atualizada
Cadastre-se e receba as últimas notícias da Mulher Amazônica

Copyright © 2021-2026. Mulher Amazônica - Todos os direitos reservados.