Brasil processa Google por uso de notícias em ferramentas de IA
Órgãos reguladores investigam o uso de conteúdo jornalístico para treinar e alimentar sistemas de inteligência artificial da Big Tech.

A briga entre o jornalismo e as Big Techs acaba de ganhar um capítulo explosivo em solo brasileiro.
O governo federal decidiu enfrentar o Google em uma disputa que envolve bilhões de reais.
O motivo é o uso de notícias para alimentar sistemas de Inteligência Artificial.
Mas será que a tecnologia pode atropelar os direitos autorais?
Essa é a pergunta que os órgãos reguladores tentam responder agora.
Por que o Brasil decidiu agir agora?
> "O uso de conteúdo jornalístico sem compensação ameaça a sustentabilidade da imprensa profissional no país."
O processo foi aberto após denúncias de que a gigante de buscas utiliza textos de jornais brasileiros.
Essas informações servem para treinar modelos como o Gemini, a IA generativa da empresa.
De acordo com informações do portal cmjornal.pt, os órgãos reguladores investigam a legalidade dessa prática.
O foco está no possível abuso de poder econômico e na violação de propriedade intelectual.
A investigação liderada pelo CADE
O Conselho Administrativo de Defesa Econômica (CADE) é o principal órgão à frente do caso.
Ele apura se o Google está criando uma vantagem injusta no mercado de publicidade e informação.
A investigação quer entender como o algoritmo seleciona e processa as notícias.
O papel do Ministério da Justiça
Além do CADE, a Secretaria Nacional do Consumidor também acompanha o processo.
O órgão quer saber se o usuário está sendo enganado ao receber respostas geradas por IA.
Muitas vezes, essas respostas não citam a fonte original da informação.
A pressão das associações de imprensa
A Associação Nacional de Jornais (ANJ) tem sido uma voz ativa nessa disputa.
Eles defendem que a remuneração é essencial para manter as redações funcionando.
Sem o jornalismo, a própria IA ficaria sem dados confiáveis para aprender.
Como a IA do Google utiliza seus dados?
Para entender a polêmica, precisamos olhar para o funcionamento técnico dos LLMs (Modelos de Linguagem Grandes).
O Google utiliza rastreadores automáticos, conhecidos como *crawlers*, para varrer a internet.
Esses robôs coletam bilhões de palavras em sites de notícias todos os dias.
Confira como esse processo funciona na prática:
- Scraping: A captura automática de textos e imagens em portais de notícias.
- Tokenização: A quebra dos textos em unidades menores que a IA consegue processar.
- Treinamento: O modelo aprende padrões de linguagem e fatos históricos com esses dados.
- Inferência: Quando você faz uma pergunta, a IA usa o conhecimento acumulado para responder.
O problema é que o Google não pede autorização para realizar esse "treinamento".
O que o Google diz sobre as acusações
Em comunicados anteriores, a empresa defendeu que o uso de dados públicos é legal.
Segundo o Google Brasil, suas ferramentas ajudam a enviar tráfego para os sites de notícias.
A Big Tech argumenta que a IA é apenas uma evolução da busca tradicional.
> "Nossos sistemas conectam as pessoas a fontes de informação confiáveis e geram valor para o ecossistema."
No entanto, os editores afirmam que as respostas da IA desencorajam o clique no link original.
Se o usuário já tem a resposta na tela, ele não precisa visitar o site do jornal.
Isso causa uma queda drástica na receita publicitária dos veículos de comunicação.
O cenário global: O Brasil não está sozinho
Essa disputa não é exclusividade brasileira.
Países como Austrália e Canadá já aprovaram leis que obrigam as Big Techs a pagar por notícias.
Na França, o Google já foi multado em centenas de milhões de euros pelo mesmo motivo.
O exemplo da Austrália
A Austrália foi a pioneira ao criar o Código de Negociação de Mídia de Notícias.
Lá, o governo forçou as plataformas a sentarem na mesa de negociação com os jornais.
O resultado foi a injeção de milhões de dólares nas redações locais.
A reação no Canadá
No Canadá, a resposta das Big Techs foi mais agressiva.
O Google e a Meta chegaram a bloquear o compartilhamento de notícias em suas plataformas.
Eles alegaram que o custo de operação se tornaria inviável com a nova lei.
O impacto técnico e ético na Inteligência Artificial
Do ponto de vista técnico, a IA precisa de dados de alta qualidade.
Notícias jornalísticas são consideradas o "padrão ouro" para o treinamento de modelos.
Isso porque são textos revisados, com gramática correta e baseados em fatos reais.
O risco das alucinações
Se a IA parar de aprender com jornais, ela passará a treinar com dados de redes sociais.
Isso aumenta drasticamente o risco de alucinações e desinformação.
O sistema pode começar a inventar fatos ou reproduzir preconceitos sem filtro.
A questão da transparência
Outro ponto crítico é a falta de transparência sobre quais dados foram usados.
O governo brasileiro exige que o Google abra a "caixa-preta" de seus algoritmos.
É preciso saber exatamente quais veículos estão alimentando a inteligência da máquina.
O que esperar nos próximos meses
O desfecho desse processo pode mudar a internet brasileira para sempre.
Se o Google for condenado, ele terá que criar um sistema de licenciamento de conteúdo.
Isso pode significar o pagamento de royalties para cada notícia processada pela IA.
Por outro lado, existe o risco de a empresa limitar seus serviços no país.
O veredito
O equilíbrio entre inovação tecnológica e direitos autorais é o grande desafio da década.
O Brasil está mostrando que não aceitará o uso gratuito de sua produção intelectual.
As Big Techs terão que entender que o conteúdo de qualidade tem um preço.
Qual dessas mudanças você acha que vai impactar mais o seu dia a dia?
Redação SWEN
Equipe Editorial
A equipe SWEN é formada por especialistas em Inteligência Artificial e tecnologia, trazendo as notícias mais relevantes do setor com análises aprofundadas e linguagem acessível. Nossa missão é democratizar o conhecimento sobre IA para todos os brasileiros.
