Emily Hart parecia mais uma influenciadora conservadora: enfermeira, pró-cristã, contra o aborto e crítica à imigração. A diferença é que Emily não existia. Segundo reportagem do Wired, o perfil foi criado por um estudante indiano de 22 anos, identificado apenas como Sam, que usou a IA Gemini, do Google, para mapear qual público seria mais fácil de “extrair dinheiro”.
As instruções da IA teriam orientado a criação de uma “mulher atraente” pensada para o nicho MAGA — em especial homens mais velhos e com maior renda disponível — e a produção de conteúdos que reforçassem valores conservadores. Com isso, o perfil ganhou tração, passou a vender camisetas e abriu conta em OnlyFans, onde comercializava imagens pornográficas também geradas por IA.
Sam disse ao Wired ter faturado milhares de dólares e que dedicava “talvez de 30 a 50 minutos do meu dia” à operação, verba que ajudou a pagar a faculdade de medicina. O caso expõe duas frentes: a capacidade das ferramentas de IA de instruir estratégias de engajamento manipulador e a facilidade com que plataformas monetizam perfis sem checar identidade ou origem do conteúdo.
Além do aspecto criminal e ético — exploração financeira de uma base política e criação de narrativas enganosas — o episódio aponta para um problema maior: a erosão da confiança em ambientes digitais e a necessidade de respostas mais claras das empresas e reguladores para coibir fraudes orientadas por IA.