Notícias
AUDIÊNCIA PÚBLICA
Especialistas e sociedade civil querem regras para plataformas digitais
- Foto: Emanuelle Sena/AscomAGU
Trinta e quatro especialistas e representantes da sociedade civil participaram da audiência pública promovida pela Advocacia-Geral da União (AGU), na quarta-feira (22/01), para debater o enfrentamento à desinformação, a promoção e a proteção de direitos fundamentais nas plataformas digitais. Pesquisadores, acadêmicos, agências de checagem de fatos e organizações sociais representando os mais diversos setores apresentaram estudos e dados, debateram cenários e apontaram caminhos para regular plataformas e redes.
O debate foi mediado pelo adjunto do advogado-geral da União, Flavio Roman. Os resultados da audiência serão sistematizados e disponibilizados ao público, e darão subsídios ao Supremo Tribunal Federal (STF) em julgamentos sobre o tema. Também serão enviados ao Congresso Nacional, onde tramitam projetos sobre a regulação do setor, e contribuirão em eventuais atos administrativos do governo federal sobre o tema. Até o dia 24, a AGU recebe contribuições e subsídios sobre o tema por meio deste link na plataforma Participa + Brasil.
Confira a seguir algumas das contribuições apresentadas pelos debatedores.
Marie Santini, professora da Escola de Comunicação da Universidade Federal do Rio de Janeiro, representando o NET LAB
Destacou que a falta de moderação adequada nas plataformas digitais “compromete gravemente a segurança dos usuários”, apresentando dados sobre o aumento de golpes financeiros aplicados em meio digital.
Virgílio Fernandes Almeida, professor emérito da Universidade Federal de Minas Gerais (UFMG/Oxford)
Abordou as possíveis consequências da política de moderação anunciada pela Meta, avaliando que alguns grupos podem dominar a moderação nos meios digitais com impactos negativos, por exemplo, no aumento da violência contra minorias e em relação a políticas de saúde, como o tratamento de doenças e vacinas.
Ricardo Campos, professor assistente da Goethe Universidade de Frankfurt
Explicou que a introdução da Inteligência Artificial trouxe soluções, mas também impôs novos desafios na forma de atuação das plataformas. “A IA passou a ser curadora da liberdade de expressão”, disse.
Veridiana Almonti, diretora associada da Electronic Frontier Foundation (EFA)
Considerou que as novas políticas anunciadas pela Meta oferecem risco preocupante para a sociedade ao permitir a circulação de discurso de ódio e discriminação, por exemplo, contra imigrantes. “É preciso potencializar instrumentos de controle e avançar nas políticas de regulação das plataformas digitais”.
Bia Barbosa – jornalista do Repórteres Sem Fronteira
Observou que a alteração nos mecanismos de checagem anunciada pela Meta “promove uma estratégia global de marginalização do jornalismo”. Citou ainda como ameaça à atividade jornalística a recente política adotada pelo Google de reduzir o conteúdo jornalístico na plataforma.
Pedro Hartung, diretor de Políticas e Direitos das Crianças do Instituto Alana
Afirmou que os problemas da atuação das plataformas digitais no Brasil vão além da possibilidade de mudança na moderação de conteúdo. Para ele, a questão a ser tratada é o modelo de negócio baseado na exploração do público com objetivos comerciais.
Tai Nalon, da agência de checagem Aos Fatos
Explicou como funciona o sistema de checagem de notícias e afirmou que, mesmo antes da mudança da política de checagem da Meta, o modelo das plataformas digitais em vigor já permitia agressões, especialmente a grupos vulneráveis como negros e gays.
Bia Kira, professora de Direito na Universidade de Sussex
Explicou que, ao priorizar o engajamento, os algoritmos das plataformas contribuem para a disseminação de conteúdos que de outra forma não alcançariam a mesma escala, nocivos a grupos e indivíduos vulneráveis. O que, segundo ela, permite a amplificação de desigualdades e violências presentes na sociedade, como a violência de gênero com conteúdos sexistas e misóginos. "É urgente que o Estado tenha um papel mais ativo na regulação das plataformas digitais. Decisões cruciais sobre a gestão do discurso online e o exercício de liberdades fundamentais não podem continuar sendo tomadas de forma unilateral pelas empresas impulsionadas por interesses econômicos ou políticos", afirmou.
André Boselli, coordenador de ecossistemas de informação da organização Artigo 19
"Esse reposicionamento das big techs é uma tentativa de resistência corporativa ao controle democrático desses meios de comunicação digital, que vem sendo empreendido por meio de regulações, implementadas ou em discussão, e que estão sendo impropriamente tachadas de mecanismo de censura por essas grandes empresas", disse. "Então, trata-se de algo que tem mais a ver com interesses econômicos do que com uma genuína defesa da liberdade de expressão.".
Alana Mamchineri, Articulação Brasileira de Indígenas Jornalistas (Abrinjor)
Relatou que a desinformação nas plataformas digitais durante a pandemia de Covid-19 prejudicou diretamente a vida dos povos indígenas. “As redes sociais desempenham um papel crucial na informação, na mobilização, na defesa dos direitos para os povos indígenas, mas com essa metodologia nova de programação da Meta a violência vai crescer ainda mais e a gente vai vivenciar ainda mais uma crescente desinformação nesses espaços.”
Victor De Wolf, presidente da Associação Brasileira de Lésbicas, Gays, Bissexuais, Travestis, Transexuais e Intersexos (ABGLT)
Afirmou que muitas pessoas travestis e transexuais têm sido banidas das redes sociais a partir de denúncias feitas por usuários da plataforma sob a alegação de que aquela pessoa estaria se passando por outra e sua identidade não corresponderia à realidade. "Essa discussão de como se bane uma pessoa ou não da rede social é algo importante e precisa ser controlado de forma externa. Não dá para deixar na mão de um empresário, de um dono de rede, dizer qual o direito à identidade de quem", disse.
Pablo Nunes, coordenador do Panóptico, projeto do Centro de Estudo de Segurança e Cidadania (CESeC) que monitora a adoção da tecnologia de reconhecimento facial pelas instituições de segurança pública do Brasil
Relatou que as equipes do Panóptico mostraram como páginas hiperlocais do Facebook, dedicadas a bairros da região metropolitana do Rio de Janeiro, foram utilizadas para disseminar acusações inverídicas sobre determinadas pessoas, na maioria negras, “o que levou a linchamentos e perseguições públicas, especialmente em territórios de favelas e periferias”. Segundo ele, a arquitetura algorítmica das plataformas amplifica conteúdos sensacionalistas, reforçando estereótipos raciais e contribuindo para a criminalização da população negra.
Tiago Emmanuel Nunes Braga, representando o Instituto Brasileiro de Informação em Ciência e Tecnologia
Elencou preocupações surgidas a partir das mudanças anunciadas na política de moderação de conteúdo da Meta. "A primeira, de que cabe a uma empresa, suportada pela legislação de um único país, definir o que é ou não liberdade de expressão, e o que pode ou não ser publicado nos ambientes digitais", disse. "Outra está relacionada à possível redução das estruturas de enfrentamento a comportamento condenáveis e criminosos nas plataformas digitais. Há ainda uma preocupação crescente sobre o uso de recursos automatizados por grupos organizados com vistas à manipulação dos debates públicos realizados em ambientes digitais, sem a possibilidade de auditorias independentes sobre essa utilização."
Katia Brembatti, presidente da Associação Brasileira de Jornalismo Investigativo (Abraji)
Afirmou que a manifestação da Meta ao anunciar a descontinuidade de seu programa de checagem de fatos contribui para o cenário de ataques digitais às agências de checagem. "Agências de checagem e checadores já são alvo frequentes de violência, especialmente digital. As declarações da Meta, que colocam em dúvida o trabalho de checadores sem apresentar provas e insinuando a prática sistemática de vieses, representam uma tendência de piora nesse cenário de ataques", disse.
Renata Mielli, Comitê Gestor da Internet no Brasil (CGI.br)
Defendeu a regulação das plataformas, considerando que é necessário “avançar num arcabouço legal que olhe de forma mais abrangente a prestação dos serviços, com obrigações de transparência, maior explicabilidade das empresas sobre a intervenção no conteúdo dos seus usuários”. Defendeu ainda transparência das plataformas em relação ao funcionamento dos algoritmos e mecanismos efetivos para a contestação dessas intervenções com possibilidade de recursos e reparação. Propôs ainda novas responsabilidades sobre os conteúdos para além das previstas no artigo 19 do Marco Civil. “Essas seriam algumas das iniciativas necessárias para termos um ambiente comunicacional mais saudável e democrático", afirmou.
Tarcízio Silva, consultor em tecnologia e direito da Associação Brasileira de ONGs (Abong)
Citou artigo publicado em 2014, por pesquisadores do próprio Facebook, apontando que seria possível manipular as emoções dos usuários da plataforma a partir de um desenho de pesquisa no qual centenas de milhares de pessoas receberam notícias e conteúdos a partir da moderação e da recomendação de conteúdo. Verificou-se que as pessoas que receberam conteúdos positivos fizeram mais conteúdos e publicações positivas, e aqueles que receberam mais conteúdos negativos fizeram mais publicações negativas. "Eu trago esse estudo aqui pois foi um estudo que o próprio Facebook decidiu publicar para provar o seu poder de manipulação, e foi publicado 11 anos atrás", afirmou.
Sergio Ludtke, editor do projeto Comprova
Explicou que a desinformação é um fenômeno antigo, mas que ganhou impulso com a tecnologia. "As técnicas de persuasão, de produção de narrativas, de apelos ao estado emocional das pessoas são usadas há muito tempo", disse. "Só não havia antes um conjunto de tecnologias que permitisse a disseminação de conteúdos com a velocidade e o impacto como as que agora estão disponíveis para os agentes de desinformação, e esse quadro deve piorar ainda mais com o uso de recursos de IA para a criação de peças e campanhas de desinformação", afirmou o jornalista.
Laura Schertel, presidente da Comissão Especial de Direito Digital da OAB
Ressaltou que há pouca transparência sobre o poder das plataformas de definir os conteúdos que terão maior visualização e também aqueles que serão alvo de moderação e eventual retirada de circulação. "Nesse mundo surgem novas formas de censura. O risco não é mais apenas o estado censor, risco clássico quando a gente falava de censura. O risco é também das próprias plataformas, de censurarem o conteúdo quando a gente não sabe sequer o que está circulando e o que foi retirado", disse.
Jonas Valente, Coalizão Direitos na Rede
Sustentou que as plataformas digitais exercem um grande controle sobre o debate público. “Suas regras e seus modelos de negócio estimulam a difusão de desinformação, discurso de ódio, ameaças à democracia, violações de direitos humanos, discriminação de gênero, raça, classe, contra populações LGBTQIA+, entre outros", disse. “Mesmo diante disso, as medidas adotadas por essas empresas têm sido insuficientes. E esses monopólios digitais têm atuado no Brasil e em outros países para barrar regulações democráticas.”
Igor Britto, diretor-executivo do Instituto de Defesa do Consumidor
Afirmou que as plataformas digitais, como fornecedoras de serviços, estão submetidas ao Código de Defesa do Consumidor, e destacou que têm proliferado nas redes anúncios fraudulentos para aplicar golpes nos usuários. "A decisão da Meta [sobre moderação] é mais uma decisão das grandes plataformas que prestam serviços a usuários brasileiros que coloca em risco a nossa segurança como consumidores e o nosso direito de sermos protegidos contra golpes, fraudes e mensagens abusivas, contra ataques e toda espécie de crimes e violações praticados contra consumidores nas redes sociais", disse.
Humberto Ribeiro, diretor jurídico e de pesquisas do Sleeping Giants Brasil
Defendeu a importância da transparência na moderação de conteúdos realizada pelas plataformas. Segundo ele, os usuários não dispõem de informações suficientes sobre a atividade. "É importante que se tenha em mente a centralidade da transparência para a liberdade de expressão, já que é apenas através de mecanismos de transparência que se pode saber o que, como, quando e onde a moderação, recomendação, curadoria de conteúdos acontece, sejam conteúdos pagos ou não", disse.
Marco Ruediger, diretor da Escola de Comunicação, Mídia e Informação da Fundação Getulio Vargas (FGV Comunicação Rio)
Afirmou que as principais plataformas e empresas de tecnologia estão alinhadas na defesa da não regulamentação do setor. "As mudanças que a Meta anuncia, na verdade, podem se tornar, e vão se tornar provavelmente, um novo normal na relação das plataformas com as diferentes sociedades nas quais elas estão hoje operando", disse.
Gustavo Henrique Justino de Oliveira, professor de direito administrativo na Faculdade de Direito da USP
Destacou relatório do Fórum Econômico Mundial que apontou a desinformação como um dos maiores fatores de risco geopolítico para os próximos dois anos, e apontou que uma das possibilidades de modelo regulatório para as plataformas digitais seria a instituição de uma comissão de monitoramento do setor com membros da sociedade e do governo.
Afonso de Albuquerque, coordenador do Instituto de Ciência e Tecnologia em Disputas e Soberanias Informacionais
Afirmou que as plataformas digitais representam um desafio e uma possível ameaça à soberania nacional, não apenas do Brasil, mas também dos demais países. "Isso porque agentes estrangeiros têm a capacidade de distribuir de maneira desigual visibilidade para agentes que atuam em nosso e em outros países", ressaltou.
Mariana Valente, diretora do Internet Lab e autora do livro Misoginia na Internet
Apresentou dados de seu trabalho no Internet Lab, junto ao observatório de violência política de gênero nas plataformas digitais, que indicam a prevalência da violência contra a mulher no ambiente digital. A pesquisa apontou que no segundo turno das eleições municipais de 2024 as mulheres, que eram 15% das candidatas, receberam mais de 68% das ofensas durante os debates de televisão para a campanha municipal. O monitoramento também encontrou um alto índice de transfobia nas redes durante as eleições de anos anteriores. Em 2020, a candidata Erika Hilton foi a que recebeu o maior número de ofensas de todos os perfis monitorados na pesquisa.
Natália Leal, diretora-executiva da agência de checagem Lupa
Reforçou que o trabalho das agências de checagem de fatos é feito de forma independente da atividade de moderação de conteúdo das plataformas digitais. "O trabalho dos verificadores de fatos, como é o trabalho da Lupa, não tem relação direta com a moderação de conteúdo ativa praticada pelas equipes internas ou terceirizadas da Meta. Nós não temos nem buscamos ter qualquer poder para excluir postagens, para punir usuários, ou mesmo para limitar o alcance de conteúdos em redes sociais", disse. "O nosso objetivo é puramente esclarecer informações falsas com base numa metodologia certificada pela International Fact-Checking Network, que preza principalmente pela transparência, pela imparcialidade, pelo apartidarismo e pela precisão.”
Fernanda Rodrigues, coordenadora de pesquisa no Instituto de Referência Internacional de Sociedade
Apresentou dados de pesquisa realizada pela entidade em 2024 sobre as principais queixas dos usuários em relação à atividade de moderação pelas plataformas digitais. O estudo apontou que mais da metade das reclamações analisadas (54,34%) giravam em torno do próprio procedimento de moderação, no caso de remoção de postagens e suspensão ou bloqueio de contas. A reclamação de maior volume foi sobre fundamentação inadequada de decisões de moderação, seguida de contestações não respondidas e ausência de notificação ao usuário sobre a decisão de remoção ou suspensão.
Carlos Affonso, diretor do ITS-Rio
Sustentou que a moderação de conteúdo não deve ser compreendida apenas como uma decisão isolada sobre determinado conteúdo, mas sim como um processo constituído por três fases: antes da tomada de decisão sobre o ato de moderação, a fase da tomada de decisão sobre a moderação e, por fim, a fase posterior à decisão. Para Carlos Affonso, é preciso que as plataformas deem maior transparência aos procedimentos utilizados nessas três etapas.
Fabiano Garrido, diretor-executivo do Instituto Democracia em Xeque
Afirmou que a discussão sobre regulação das redes e moderação de conteúdo é uma questão de soberania nacional, e defendeu a criação de uma autoridade nacional voltada à defesa da integridade da informação e segurança digital. "Porque, sem isso, nós não teremos um órgão que possa dar sistematicidade ao acompanhamento desse debate, e as mudanças tecnológicas são muito rápidas", disse.
Natália Viana, diretora-executiva da Agência Pública de Jornalismo Investigativo
Destacou que a distribuição de conteúdo jornalístico tem sido reduzida pelo Facebook. Segundo Viana, a audiência do site da Pública com origem em publicações no Facebook caiu de 21% para 1% entre os anos de 2021 e 2024. Ela atribuiu o fato à decisão da rede social de reduzir o alcance das postagens de páginas de notícia.
Ivar Hartmann, professor associado do Insper e doutor em direito público pela Uerj
Defendeu que a discussão no Supremo Tribunal Federal (STF) sobre a aplicação do artigo 19 do Marco Civil da Internet, que isenta as plataformas de responsabilidade por conteúdos postados pelos usuários, deve levar em consideração as mudanças pelas quais passou o ambiente digital desde a publicação da lei, em 2014. Hartmann afirmou que hoje a atividade das plataformas de recomendação de conteúdo tem muito mais impacto e consequências sobre o debate público do que o ato individual de postar um conteúdo. E que o modelo de recomendação algorítmica está no centro do modelo de negócios das empresas digitais. "A publicação de um vídeo, por exemplo, que ninguém assiste, é praticamente irrelevante, virtualmente inexistente, o que importa é quantas pessoas assistem, visualizam, leem, é a atividade editorial da plataforma de direcionar a atenção", explicou.
Nina da Hora, diretora-executiva e fundadora do Instituto da Hora
Defendeu maior transparência na moderação de conteúdo pelas plataformas e ressaltou que a atividade tem atingido principalmente grupos mais vulneráveis da sociedade. "Muitas vezes essas decisões de moderação são feitas sem nenhuma transparência nos critérios e muito menos nos resultados, e majoritariamente as pessoas atingidas já são oriundas de violência no mundo não virtual", disse.
Thiago Tavares, diretor-presidente da SaferNet
Apresentou o trabalho da organização, que tem foco na defesa dos direitos humanos na internet no Brasil, e ressaltou que a Constituição garante os direitos das crianças e adolescentes nas redes. "[Nosso trabalho] é um esforço de contribuição, de implementação do artigo 227 da Constituição Federal, que diz que é dever da família, da sociedade e do Estado, portanto um dever compartilhado, assegurar à criança ou adolescente, ao jovem, com absoluta prioridade, direito à vida, saúde e uma série de outros direitos, incluindo a mantê-los a salvo de toda forma de negligência, discriminação, violência, crueldade e opressão", afirmou Tavares.
Bruna Benevides – Associação Nacional dos Travestis e Transexuais – ANTRA
Avaliou que, com as mudanças recentes na política de moderação, a Meta se desresponsabiliza em agir diante das denúncias que violam normas, terceirizando a segurança de usuários das plataformas, que são obrigados a buscar a justiça. “Pessoas trans são hoje o grupo mais atacado nas plataformas de redes sociais. É importante que a Meta seja responsabilizada pelo aumento da violência que já foi notado desde o anúncio das mudanças.
Assessoria Especial de Comunicação Social da AGU