Exposição do secretário João Brant - Audiência Pública no STF sobre Marco Civil da Internet
Excelentíssimos Senhores Ministros,
Trago aqui algumas considerações que têm por fim discutir exatamente como este modelo de responsabilidade, definido pelo artigo 19 do Marco Civil da Internet, vem afetando direitos individuais e coletivos. E, essencialmente, como é que ele vem afetando a nossa democracia, que é um tema especialmente caro à Presidência da República neste momento. Nos casos relatados, as plataformas, ao se recusar a atuar sobre os conteúdos, causaram possivelmente prejuízos de diferentes tipos às duas mulheres que ingressaram com as ações.
Esse comportamento das plataformas ocorreu justamente por conta desse sustentáculo legal que dá a elas segurança para que possam proceder dessa forma. O que pode ocorrer quando essa mesma forma de atuação não fica restrita a um indivíduo, mas ganha uma dimensão coletiva e se repete em relação a grupos de pessoas? Essa é a essência do que eu gostaria de tratar aqui.
Pensemos, por exemplo, nas crianças e nos adolescentes. A comunidade EKO divulgou, neste mês de março, um estudo que realizou na plataforma TikTok. Os pesquisadores criaram perfis informando que pertenciam a adolescentes de 13 anos. Em apenas dez minutos de interações, esses perfis começaram a receber conteúdos que explicitamente promoviam suicídio e violência.
Ainda segundo o estudo, apenas seis hashtags relacionadas a suicídio reúnem nessa plataforma quase 1,5 milhão de postagens com quase 9 bilhões de visualizações. Ou seja, nesse caso, não apenas a plataforma está permitindo a circulação de um material explicitamente nocivo a crianças e adolescentes, mas como ainda reforça a distribuição desse material. Qual é o impacto desse material na vida dos adolescentes? Ainda que não possamos saber com precisão, há, nos últimos 15 anos, em várias partes do mundo, o aumento de casos de suicídio entre adolescentes - como citado pelo ministro Alexandre de Moraes. Ainda que não haja necessariamente relações de causalidade direta, essa correlação entre a intensidade de uso dessas redes sociais e o aumento desses casos deveria nos fazer alertas.
Esse é apenas um exemplo que justifica a preocupação de entidades diversas em todo o mundo com a exposição de crianças e adolescentes a conteúdos nocivos nas redes sociais. O problema central aqui, excelentíssimos Ministros, é que o modelo atual autoriza a omissão das plataformas digitais. Elas são desobrigadas de agir contra conteúdos ilegais e nocivos, justamente num ambiente no qual apenas elas têm condições de atuar. Ou seja, no modelo atual, não há obrigação de cuidado, de zelo ou de devida diligência sobre um ambiente no qual gastamos horas por dia, compartilhamos informações, trocamos mensagens privadas e fazemos debates públicos.
Veja, eu não estou aqui deixando de reconhecer todos os esforços citados pelos advogados do Facebook e do Google em relação à moderação de conteúdo. Estou dizendo que o modelo atual gera incentivos que devem ser reconhecidos e enfrentados. Além disso, vale lembrar que as plataformas não são meras espectadoras das postagens e dos acontecimentos. Elas moderam conteúdo, definem seus algoritmos, definem recomendações, o que significa que, ao fim e ao cabo, são as responsáveis por definir o que cada um de nós recebe e visualiza. Ora, se elas já são responsáveis pela publicidade que aceitam e pelo que nós vemos em nossos perfis, não deveriam se eximir totalmente da responsabilidade por cuidar de evitar a ampliação da circulação de conteúdos considerados ilícitos pela legislação brasileira.
À época da discussão do Marco Civil da internet, essa opção foi feita pela preocupação em proteger a liberdade de expressão, porque, se as plataformas fossem responsáveis pelos conteúdos de terceiros, adotariam uma política de restrição de discursos por cautela e por temor de serem responsabilizadas. Ainda que esse temor deva ser considerado, é preciso reconhecer que a proteção de um direito fundamental - na sua dimensão individual - não se deu de forma equilibrada com diversos outros direitos, que ficaram desguarnecidos. Com o passar do tempo, acumularam-se casos de violação - não apenas a direitos individuais, como nos casos aqui tratados -, mas direitos coletivos e a pilares do nosso sistema democrático.
O que tem acontecido quando as plataformas digitais lidam com conteúdos políticos falsos e que primam pela desinformação? Todos nós acompanhamos, nos últimos anos, essa situação, mas vale trazer aqui alguns exemplos. Em agosto de 2022, a Meta, empresa responsável pelo Facebook, Instagram, WhatsApp, mudou sua política de publicação de conteúdos patrocinados em relação ao processo eleitoral. Mas, naquele mês, o NetLab da UFRJ apontou ao menos 14 anúncios com notícias falsas sobre esse tema e ataques ao processo eleitoral brasileiro publicados nas plataformas da empresa. As publicações custaram quase R$ 2 mil e foram veiculadas por sete perfis de candidatos, gerando um total de pelo menos 100 mil impressões. Mesmo depois das mudanças, o NetLab voltou a reportar vídeos com as mesmas características. E é importante perguntar: é justo e razoável que a empresa que lucra com processo de desinformação não tenha qualquer responsabilidade legal que determine obrigações de diligência no processo de moderação de conteúdos? Acreditamos que não.
As eleições de outubro terminaram, mas não para quem queria promover a desinformação. O mesmo NetLab publicou um estudo apontando que, entre novembro de 2022 e janeiro deste ano de 2023, ao menos 185 conteúdos com contestação do resultado das eleições e ataques às instituições foram publicados naquelas plataformas. Em 151 deles, sequer havia um aviso de que se tratava de conteúdo sensível, possivelmente com informações falsas. Como reconhecimento dos problemas de moderação, o próprio Comitê de Supervisão da Meta anunciou, há poucas semanas, que discutiria o estudo de um caso brasileiro que havia sido denunciado sete vezes na plataforma e que foi mantido por revisores humanos.
O caso tratava de um vídeo postado no dia 3 de janeiro e que conclamava as pessoas a sitiar o Congresso Nacional como a última alternativa em relação ao que se considerava uma fraude eleitoral. Esse conteúdo foi reproduzido mais de 18 mil vezes e também, obviamente, levantava uma série de dúvidas e questionamentos sobre o próprio sistema eleitoral. Esses conteúdos circularam livremente pelas plataformas digitais e nós conhecemos o resultado dessa história.
Apenas como último exemplo em relação aos acontecimentos do dia 8 de janeiro: enquanto o país ainda estava em choque com essa tragédia, a entidade inglesa Global Witness simulou a publicação de 16 novos anúncios no Facebook e apenas dois deles foram rejeitados. Os anúncios incluíam textos que diziam "precisamos tirar os ratos que tomaram o poder e matá-los"; "morte aos filhos dos eleitores de Lula"; "eles deveriam estar presos ou mortos e enterrados e não no Palácio do Planalto". Vale dizer aqui, como nota lateral, que, em julho de 2022, essas plataformas foram alertadas por mais de 100 entidades da sociedade civil, que elas não tinham políticas adequadas para agir contra a sublevação em relação à ordem democrática brasileira. Ou seja, esta dimensão e a ausência desses elementos na sua política já estavam documentadas e havia previsão de que isso poderia acontecer.
Então é preciso destacar aqui que nós estamos tratando, neste momento, de conteúdos ilegais e de conteúdos nocivos. Nós sabemos que a gravidade maior está na presença de conteúdos ilegais, mas sabemos também que conteúdos com desinformação atentam contra a dimensão coletiva da liberdade de expressão e o acesso à informação, que está reconhecida pela Corte Interamericana de Direitos Humanos desde 1985, numa opinião consultiva da Costa Rica, que reconhece o direito de a sociedade estar bem informada para sua tomada de decisões. Essa jurisprudência tem sido reforçada pela Corte e tem sido usada, inclusive, em casos brasileiros, por exemplo quando sustentou a decisão do Google de suspender o perfil Terça Livre. Uma das justificativas foi a importância de se defender a dimensão coletiva da liberdade de expressão e o acesso à informação.
Então, como conclusão, eu diria que, para além da discussão da constitucionalidade do artigo 19 do MCI, todos esses exemplos revelam que o modelo de responsabilização da lei atual cria distorções e incentivos problemáticos. Talvez o mais ilustrativo deles é o fato de que direitos autorais, uma das poucas exceções previstas nesse dispositivo, estão hoje mais protegidos que a ordem democrática no Brasil. No sistema atual, por vezes, indivíduos foram vítimas. Em outras tantas, a vítima foi a sociedade como um todo. Enquanto esses conteúdos eram e são propagados, as plataformas digitais lucraram e lucram valores inimagináveis.
A internet representa um avanço significativo para a humanidade, mas traz também riscos a direitos e à democracia, em parte, pela omissão das grandes empresas. É preciso, portanto, repensar um modelo que preserve liberdades e direitos, propague ciência e conhecimento, mas que não seja omisso em relação à desinformação e conteúdos ilegais.
Queria, por fim, ainda destacar que não nos parece um bom caminho adotar um entendimento que inverta em 180 graus o regime atual. Estabelecer uma plena responsabilidade objetiva às plataformas poderia trazer consequências problemáticas e igualmente negativas. Não podemos tratar todos os conteúdos de terceiros como conteúdos editorializados, porque isso traria prejuízos à liberdade de expressão e ao acesso à informação dos cidadãos brasileiros. O temor de silenciamento, ou chilling effect, tem, sim, fundamento, mas esse não deveria se tornar um fantasma que impede qualquer caminho alternativo ao modelo atual, que legitima graves omissões. Então, entre o modelo atual, de responsabilidade praticamente nula, e o modelo de total responsabilidade objetiva, há uma gradação de tonalidades que podem garantir arranjos capazes de produzir um melhor equilíbrio entre direitos, a partir do estabelecimento de deveres de cuidado e de devida diligência para as plataformas, especialmente contra conteúdos ilegais e nocivos que afetem direitos coletivos.
É esse caminho, senhores Ministros, que, como sociedade brasileira, deveríamos perseguir. Muito obrigado.