O julgamento será retomado com o voto do presidente Luís Roberto Barroso, que pediu vista na semana passada. Os relatos concluíram que as plataformas digitais já podem responder às postagens de seus usuários mesmo antes de uma ordem judicial para a remoção dos conteúdos. O Supremo Tribunal Federal (STF) volta a julgar, nesta quarta-feira (18), a responsabilidade das redes sociais pelos conteúdos postados por seus usuários. Já confirmou seus votos aos relatores dos dois casos em discussão – os ministros Dias Toffoli e Luiz Fux. Ambos concluem que as plataformas digitais já podem responder pelas postagens de seus usuários mesmo antes de uma ordem judicial para a remoção dos conteúdos (entenda mais abaixo). O STF vai retomar o julgamento sobre a regulamentação das redes sociais O próximo a apresentar seu posicionamento é o presidente Luís Roberto Barroso, que tinha pedido vista (mais tempo de análise) na última quarta-feira (11). Veja abaixo os detalhes dos votos dos relatores dos dois processos – os ministros dias Toffoli e Luiz Fux. Voto de Luiz Fux Na última quarta-feira (11), o ministro Luiz Fux apresentou seu voto. Para o ministro, os provedores são responsáveis pelos conteúdos gerados por terceiros quando tiveram ciência “inequívoca” dos atos ilícitos. Isto é, foram informados por meios adequados e, mesmo assim, não removeram a postagem imediatamente. De acordo com Fux, podem ser considerados conteúdos ilegais os que tratam de discurso de ódio, crime, racismo, pedofilia, incitação à violência, apologia à abolição violenta ao Estado de Direito e ao golpe de Estado. Nestas situações, considerando o ministro, há um dever de monitoramento ativo das redes sociais, ou seja, elas precisam agir para evitar os danos causados por estas publicações. Quando a postagem para agressão à honra, à imagem e à privacidade (caracterizadores de crimes previstos na lei penal – injúria, calúnia e difamação), a responsabilidade civil destes provedores pode ocorrer se, tendo notificação prévia por eles por parte das vítimas e seus advogados , eles não tomarão providências para retirar o material do ar. Fux estabelece que as redes sociais “têm o dever de disponibilizar meios eletrônicos eficientes, funcionais e sigilosos para a recepção de denúncias e reclamações de seus usuários que se sintam prejudicados”. Voto de Dias Toffoli O primeiro a votar foi o ministro Dias Toffoli. O magistrado considerando que é inconstitucional a regra que prevê a responsabilidade por danos das redes sociais apenas quando não cumpre a ordem judicial de remoção de conteúdo. O ministro propôs que as plataformas sejam consideradas responsáveis por uma publicação a partir do momento em que recebam uma notificação solicitando a retirada do conteúdo, por ser falso ou ofensivo. Toffoli previu ainda algumas situações em que não será necessária a notificação extrajudicial para que as plataformas tomem providências. Ou seja, nestas situações, as big techs têm o dever de agir para evitar os danos. Desta forma, se não fizerem isso, estão sujeitos à responsabilidade objetiva. Esta é uma modalidade de responsabilidade aplicada em alguns casos específicos previstos na legislação, em que não é preciso comprovar que houve dolo ou culpa da empresa no episódio. Uma vez com a questão em discussão na Justiça, no caso concreto, a empresa pode provar que não teve participação, ou que não há relação de causa e efeito entre a irregularidade e suas atitudes. São situações em que os provedores agem devem, mesmo sem notificação extrajudicial: ▶️quando recomendam, impulsionam (de forma remunerada ou não) ou moderam o conteúdo considerado irregular. Neste caso, a empresa responde junto com o anunciante (quando o conteúdo é patrocinado). ▶️quando o dano foi causado por perfis falsos, perfis anônimos ou automatizados; ▶️quando a irregularidade envolve direitos autorais. Também nesta situação, a empresa responde junto com uma pessoa que fez uma publicação ilegal. ▶️quando a postagem ilícita envolve uma série de atos e crimes graves: crimes contra a democracia, terrorismo, instigação ao suicídio ou automutilação, racismo, violências contra a criança, o adolescente e as pessoas vulneráveis, violência contra a mulher, infrações contra medidas de saúde pública em situações de emergência em saúde, tráfico de pessoas, incitação ou ameaça à violência física ou sexual, divulgação de notícias falsas para incentivo à violência física, divulgação de notícias falsas sobre o processo eleitoral. O ministro corrigiu que, se a empresa tiver dúvidas sobre a ocorrência dessas situações, deverá remover o conteúdo quando tiver notificação extrajudicial. Toffoli deixou claro que estas regras não se aplicam a: ▶️serviços de email (Gmail, Outlook, etc); ▶️aplicativos de realização de reuniões fechadas por vídeo ou voz (Zoom, Google Meet, etc) ▶️aplicativos de mensagens instantâneas, quando o diálogo envolve pessoas determinadas, com o resguardo de sigilo das comunicações (Whatsapp, Telegram, etc); Em relação aos marketplaces (páginas de vendas de produtos), o ministro fixou que as empresas responderam junto com os anunciantes por propaganda de produtos de venda proibida, sem certificação ou aval dos órgãos competentes. Por fim, o magistrado distribuiu uma série de requisitos para os provedores de internet deve: ▶️atuar de forma responsável, transparente e cautelosa, a fim de garantir um ambiente digital seguro, previsível e confiável, baseado nos princípios gerais da boa-fé, da boa-fé, função social e de prevenção e redução de danos; ▶️manter atualizações e dar publicidade aos “termos e condições de uso” (ou documento equivalente); também devem elaborar códigos de conduta; ▶️criar mecanismos para garantir a segurança das contas e a correta identificação dos usuários, adotando as medidas possíveis para impedir a criação de perfis falsos e automatizando, garantindo para bloqueá-los assim que foram identificados; ▶️estabelecer regras claras e procedimentos padronizados para a moderação de conteúdo, assim como divulgar estas informações; ▶️atualizar constantemente critérios e métodos empregados para moderação de conteúdo; ▶️combater a difusão de desinformação nos ambientes virtuais, adotando as providências possíveis para a neutralização de redes artificiais de distribuição de conteúdo irregular, assim como identificar o perfil que originou a notícia falsa; ▶️monitorar riscos de seus ambientes digitais, elaborando relatórios de transparência; ▶️devem oferecer canais específicos de notificação, preferencialmente eletrônicos, para a recepção de denúncias quanto à existência de conteúdo considerado ofensivo ou ilícito, que terá purificação prioritária; Estes canais devem permitir o acompanhamento das reclamações. ▶️devem atuar para prevenir e reduzir práticas prejudiciais no seu âmbito de atuação; ▶️provedores de internet com sede no exterior e atuação no Brasil devem ter representante no país, cuja identidade e informações para contato devem ser divulgadas; Responsabilidade por danos Os ministros julgam dois recursos que discutem a possibilidade de que as redes sociais sejam responsabilizadas por danos criados pelos conteúdos de usuários publicados nestas plataformas, mesmo sem terem recebido antes de uma ordem judicial para a retirada das postagens irregulares. Ou seja, a questão é saber se estes aplicativos serão condenados ao pagamento de indenização por danos morais por não terem retirado do ar ataques, com discursos de ódio, notícias falsas ou ofensivas a terceiros, mesmo sem uma ordem prévia da Justiça neste sentido . Marco Civil da Internet Os casos envolvem a aplicação de um trecho do Marco Civil da Internet. A lei, que entrou em vigor em 2014 funciona como uma espécie de Constituição para o uso da rede no Brasil – estabelece princípios, garantias, direitos e deveres para usuários e empresas. Em um de seus artigos, ela estabelece que as plataformas digitais só serão responsabilizadas por danos causados por conteúdos ofensivos se, depois de uma ordem judicial específica, não tomarem providências para retirar o material do ar. A questão envolve como as plataformas devem agir diante de conteúdos criados por usuários que ofendem direitos, incitam ao ódio ou disseminam desinformação. A Corte deverá aprovar uma tese, a ser aplicada em processos sobre o mesmo tema nas instâncias inferiores da Justiça. Segundo dados do Conselho Nacional de Justiça, há pelo menos 345 casos com o mesmo conteúdo aguardando um desfecho no Supremo.
Deixe o Seu Comentário