Customize Consent Preferences

We use cookies to help you navigate efficiently and perform certain functions. You will find detailed information about all cookies under each consent category below.

The cookies that are categorized as "Necessary" are stored on your browser as they are essential for enabling the basic functionalities of the site. ... 

Always Active

Necessary cookies are required to enable the basic features of this site, such as providing secure log-in or adjusting your consent preferences. These cookies do not store any personally identifiable data.

No cookies to display.

Functional cookies help perform certain functionalities like sharing the content of the website on social media platforms, collecting feedback, and other third-party features.

No cookies to display.

Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics such as the number of visitors, bounce rate, traffic source, etc.

No cookies to display.

Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.

No cookies to display.

Advertisement cookies are used to provide visitors with customized advertisements based on the pages you visited previously and to analyze the effectiveness of the ad campaigns.

No cookies to display.

DestaqueTecnologia

Big Techs ficam de fora de debate sobre regulação de redes; Caso vai ao STF

A Advocacia-Geral da União (AGU) realizou, na última quarta-feira (22), uma audiência pública para debater a regulação das redes sociais no Brasil, mas as big techs – grandes empresas de tecnologia – como Meta, Google e TikTok, não enviaram representantes. O evento contou com a presença de especialistas e membros da sociedade civil, e as sugestões levantadas serão encaminhadas ao Supremo Tribunal Federal (STF).

A ausência das big techs era esperada pelo governo. Em entrevista ao blog do Valdo Cruz, o ministro da AGU, Jorge Messias, afirmou que já antecipava que as empresas não participariam da discussão. De acordo com Messias, o objetivo do governo era garantir que, caso tomassem decisões sobre a regulação, pudessem demonstrar que ouviram todos os lados envolvidos.

A audiência gerou uma lista de 14 sugestões de regulação, divididas em três categorias: propostas de regulação, modelos de regulação e desafios e considerações. As ideias sugeridas serão encaminhadas ao STF, que já está julgando diversas ações sobre a regulação das redes sociais no país.

Entre as propostas de regulação, destaca-se a exigência de maior transparência das plataformas, como a divulgação das políticas de moderação, algoritmos e práticas de coleta de dados. Também se sugere que as plataformas assumam responsabilidade pelo conteúdo hospedado, incluindo a remoção de conteúdos prejudiciais ou ilegais.

Outros pontos abordados incluem a proteção da privacidade dos usuários, a implementação de medidas de segurança para prevenir ameaças cibernéticas, além de estratégias no combate à desinformação e à propaganda, com foco na verificação de fatos e identificação de fontes confiáveis. A proteção de menores e o direito de resposta também são questões levantadas como essenciais.

Em relação aos modelos de regulação, a AGU propôs três opções: autorregulação, onde as próprias plataformas estabelecem as regras com a orientação do governo; regulação governamental, com o estabelecimento de regras específicas por parte do Estado; e corregulação, onde governo e plataformas colaboram na criação de normas.

Além das propostas de regulação e modelos, a AGU também mencionou os desafios que a regulação das redes sociais pode trazer. A liberdade de expressão, o impacto econômico nas plataformas e a complexidade das tecnologias envolvidas foram apontados como pontos críticos a serem considerados. A cooperação internacional também foi destacada como um fator importante para a eficácia da regulação.

O debate sobre a regulação das redes sociais no Brasil ganhou um novo capítulo no STF, que começou a analisar em novembro de 2024 a constitucionalidade do artigo 19 do Marco Civil da Internet. Este artigo define que as plataformas só podem ser responsabilizadas por danos causados por terceiros após uma ordem judicial para remoção de conteúdo, e o julgamento sobre sua constitucionalidade deve ser retomado em fevereiro.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *