Condenações bilionárias e avanço de leis como o ECA Digital ampliam debate sobre proteção de crianças na internet

Da Redação
Decisões recentes da Justiça dos Estados Unidos colocaram em evidência um debate que ultrapassa fronteiras: até que ponto as redes sociais podem ser responsabilizadas pelos impactos que causam na vida dos usuários, especialmente crianças e adolescentes.
Em um dos casos, um júri em Santa Fe, no estado do Novo México, entendeu que a Meta — responsável por plataformas como Facebook, Instagram e WhatsApp — falhou ao não adotar medidas suficientes para proteger menores de conteúdos inadequados, incluindo material de abuso. A empresa foi condenada a pagar cerca de US$ 375 milhões.
No dia seguinte, em Los Angeles, outro julgamento responsabilizou plataformas da Meta e do Google (YouTube) por utilizarem mecanismos considerados viciantes. A decisão determinou o pagamento de US$ 6 milhões em indenização a uma jovem que desenvolveu problemas de saúde mental associados ao uso intensivo das redes.
O foco muda: do conteúdo ao funcionamento
As decisões indicam uma mudança de perspectiva na forma como o tema vem sendo tratado judicialmente. Em vez de responsabilizar apenas o conteúdo publicado por usuários, os julgamentos passaram a olhar para a estrutura das plataformas.
Mecanismos como rolagem infinita, notificações constantes e sistemas de recompensa — como curtidas — são apontados como estratégias deliberadas para manter o usuário conectado por mais tempo.
Especialistas descrevem esse modelo como parte da chamada “economia da atenção”, em que o tempo de permanência nas plataformas se converte diretamente em lucro, mesmo que isso implique impactos emocionais e comportamentais.
Repercussão no Brasil
O tema dialoga diretamente com mudanças recentes no Brasil. A entrada em vigor do chamado ECA Digital, regulamentado em março, estabelece novas obrigações para plataformas digitais na proteção de crianças e adolescentes.
A legislação prevê que empresas devem agir de forma preventiva, reduzindo riscos e oferecendo ferramentas de controle parental, além de adaptar conteúdos e experiências à faixa etária dos usuários.
Além disso, decisões recentes do Supremo Tribunal Federal ampliaram a responsabilidade das plataformas sobre conteúdos ilegais, reduzindo a proteção jurídica que antes limitava punições.
Responsabilidade compartilhada
Apesar do avanço das legislações e das decisões judiciais, especialistas apontam que o desafio não se restringe às empresas.
A responsabilidade pela segurança no ambiente digital também envolve o Estado e as famílias. O acompanhamento do uso das redes por crianças e adolescentes é considerado um fator essencial, especialmente em um cenário em que o volume de conteúdo disponível é cada vez maior.
Outro ponto destacado é que, diferentemente do passado, em que o consumo de mídia era mais controlado, hoje o acesso é contínuo — e muitas vezes também envolve os próprios adultos, que enfrentam dificuldades semelhantes no uso das plataformas.
Debate em curso
As decisões nos Estados Unidos ainda podem gerar efeitos em outras jurisdições e fortalecer iniciativas regulatórias em diferentes países.
O que está em jogo, mais do que o conteúdo em si, é o modelo de funcionamento das plataformas — e os limites entre inovação, liberdade de expressão e responsabilidade sobre os impactos gerados.





