Sob pressão de prazos e problemas pessoais, dois colunistas diferentes recorreram ao mesmo atalho: pedir a uma inteligência artificial que escrevesse suas colunas. O resultado, publicado no domingo em jornais rivais, foi um espelho — textos que coincidiam em estrutura, argumentos e até em trechos semelhantes. O episódio provocou um escândalo imediato nas redes sociais e levantou perguntas óbvias sobre autoria e verificação editorial.
Mais do que uma curiosidade técnica, trata‑se de um sintoma de falhas operacionais. Prazos apertados, rotinas de produção estafantes e a cultura do ‘entrega a qualquer custo’ transformam a IA em uma tentação legítima, mas inseparável de riscos quando entra sem controle nas rotinas de edição. Chegar ao leitor sem checar origem, autoria e originalidade compromete o valor que o jornalismo vende: confiança e distinção em relação a conteúdos automatizados.
As consequências são práticas e econômicas. Assinantes que pagam por curadoria e voz própria podem sentir que recebem um produto padronizado; anunciantes e parceiros observam sinal de fragilidade editorial. Além disso, abre‑se um campo nebuloso para disputas sobre direitos autorais, responsabilidade por conteúdo e distinção entre auxílio tecnológico e substituição de autoria humana. Sem políticas claras, redações transferem riscos para credibilidade institucional.
A solução passa por medidas concretas: transparência sobre o uso de ferramentas automáticas, protocolos de verificação obrigatórios, limites ao uso direto de textos gerados e treinamento de editores para detectar automatismos. Não se trata de proibir tecnologia, mas de regular seu emprego em defesa da qualidade e da confiança. Se veículos não tomarem essa direção, a conta política e econômica virá pelo lado mais previsível: perda de leitores e de autoridade pública.