A produção audiovisual com inteligência artificial deixou de ser uma promessa futurista para se tornar realidade, e um campo fértil tanto para inovação criativa quanto para controvérsias profundas. Ferramentas de geração de vídeo, voz e imagem baseadas em IA estão democratizando a criação de conteúdo, mas também levantam questões cruciais sobre quem detém a autoria, como proteger o uso de imagem e voz sem consentimento, e até onde a tecnologia pode ser usada sem violar direitos e éticas fundamentais. Com casos recentes envolvendo deepfakes sexualizados produzidos por chatbots e projetos de lei destinados a criminalizar manipulações não autorizadas, o debate está mais quente do que nunca. Em um cenário onde a linha entre o real e o artificial se torna cada vez mais tênue, artistas, juristas e criadores precisam repensar conceitos como originalidade e responsabilidade criativa, até porque a sociedade acompanha de perto essas mudanças.
O que significa produzir audiovisual com IA?
Produzir audiovisual com inteligência artificial significa utilizar sistemas algorítmicos capazes de gerar, modificar ou simular imagens, vídeos e áudios sem a necessidade de captação tradicional. Em vez de câmeras, microfones ou atores reais, o conteúdo é criado a partir de dados, modelos treinados e comandos fornecidos por humanos.
Esse tipo de conteúdo é conhecido como mídia sintética: materiais audiovisuais que não foram registrados no mundo físico, mas produzidos digitalmente por modelos de IA treinados em grandes volumes de imagens, vídeos e sons.
Mídia gerada por IA
A mídia gerada por IA inclui desde imagens estáticas e trilhas sonoras até vídeos completos com movimento, cortes e sincronização de áudio. Hoje, já é possível criar cenas audiovisuais a partir de descrições em texto, imagens de referência ou exemplos de voz, tornando o processo de produção mais rápido e acessível.
Na prática, essa tecnologia vem sendo aplicada em publicidade, conteúdos institucionais, educação, entretenimento e prototipagem criativa.
Deepfakes
Os deepfakes são conteúdos audiovisuais criados com técnicas de deep learning que permitem reproduzir ou substituir rostos, expressões e movimentos de pessoas em vídeos. O termo descreve a técnica, não o uso, e pode ser aplicado tanto a personagens fictícios quanto a pessoas reais.
Síntese de voz e imagem
Além do vídeo, a IA também possibilita a síntese de voz, reproduzindo falas humanas com alto grau de realismo, e a criação de avatares digitais capazes de se expressar visual e sonoramente. Essas tecnologias permitem narrativas completas sem gravações tradicionais, apenas com material de referência.
Autoria em obras geradas por IA: quem é o “autor”?
Uma obra é considerada protegida por direitos autorais quando existe criatividade humana por trás dela. Quando uma inteligência artificial gera um vídeo, uma imagem ou um áudio de maneira autônoma, sem intervenção criativa clara de uma pessoa, a própria IA não pode ser considerada autora legalmente.
A U.S. Copyright Office, escritório de direitos autorais dos EUA, confirmou que conteúdos produzidos inteiramente por IA não são elegíveis para copyright, porque a lei de direitos autorais exige um autor humano. Apenas quando há contribuição criativa substancial, seja na composição, na edição ou na organização do resultado gerado, é que um humano pode deter direitos sobre a obra produzida com IA.
Casos judiciais recentes reforçam essa tendência. Nos Estados Unidos, por exemplo, um pedido de registro de imagem gerada por IA indicando o próprio sistema como autor foi rejeitado por não haver autoria humana no processo.
No Brasil, embora a lei atual também reconheça apenas pessoas físicas como autoras, iniciativas legislativas recentes estão começando a abordar explicitamente o uso de IA em criações audiovisuais, especialmente no que diz respeito ao consentimento e à autorização de uso de material preexistente.
Consentimento de imagem e voz: o que a lei diz e o que falta?
Na produção audiovisual com IA, o debate vai além da tecnologia e entra no campo jurídico. O uso de imagens e vozes sem autorização, especialmente em deepfakes e clonagens vocais, tem gerado violações de direitos de personalidade, como imagem, voz, privacidade e dignidade.
No Brasil, projetos de lei em tramitação buscam responder a esse cenário. O PL 623/2024 propõe criminalizar a manipulação não autorizada de imagens, enquanto o PL 3821/2024, já aprovado na Câmara, prevê pena de até seis anos para a criação ou divulgação de falsas imagens de nudez. Há ainda iniciativas que exigem consentimento explícito e aviso do uso de IA em publicidade, sob risco de caracterizar prática enganosa.
Fora do país, a regulação avança mais rápido. A Espanha aprovou regras mais rígidas sobre o uso de imagem e voz gerados por IA, incluindo restrições comerciais, e nos EUA o TAKE IT DOWN Act criminaliza a divulgação de imagens íntimas não consentidas, inclusive deepfakes.
Apesar dos avanços, permanecem lacunas legais, especialmente no Brasil, quanto a usos artísticos, comerciais ou satíricos. O caminho que se desenha é claro: ampliar a criminalização do uso não autorizado e tornar o consentimento e a transparência requisitos centrais na criação de conteúdo com IA.
Polêmicas recentes: deepfakes explícitos e o caso Grok
Uma das mais recentes e impactantes controvérsias envolvendo IA no audiovisual foi protagonizada pelo chatbot Grok, desenvolvido pela xAI e integrado à plataforma X (antes Twitter). No fim de 2025 e início de 2026, usuários descobriram que o recurso de geração e edição de imagens da ferramenta estava sendo explorado para criar deepfakes sexualizados de pessoas, inclusive sem consentimento e em casos que pareciam envolver menores de idade, simplesmente a partir de fotos carregadas em redes sociais.
A situação ganhou proporções internacionais: pesquisadores estimaram que Grok estava produzindo milhares de imagens sexualizadas por hora, e autoridades de vários países reagiram com críticas públicas e ações regulatórias. Reguladores do Reino Unido e da União Europeia abriram investigações formais sobre a falha em mitigar conteúdos abusivos, enquanto Malásia e Indonésia chegaram a bloquear o acesso ao Grok por violar leis nacionais de conteúdo online.
Como resposta ao clamor público e à pressão regulatória, a plataforma passou a restringir a geração de imagens apenas para usuários pagantes e afirmou que qualquer uso ilegal seria tratado como tal, embora críticas apontem que essa medida é insuficiente para impedir abusos ou proteger vítimas.
O caso Grok tornou-se um símbolo das lacunas atuais em segurança e responsabilidade na IA generativa, impulsionando debates sobre a necessidade de regulamentação mais rígida, melhores controles de uso e mecanismos legais que protejam pessoas contra manipulações não consensuais de imagem e de voz.
Clonagem de voz e deepfake de áudio
A capacidade de clonar vozes humanas com IA e gerar áudio que parece real trouxe um novo campo de debate ético e prático, não apenas sobre autorização de uso, mas também sobre o impacto dessa tecnologia no mercado musical e na percepção dos ouvintes.
Um dos casos mais emblemáticos no Brasil foi a música “A Sina de Ofélia”, produzida inteiramente por IA com vozes sintetizadas que imitam Luísa Sonza e Dilsinho, com letra inspirada em The Fate of Ophelia de Taylor Swift. A faixa chegou a figurar entre as mais ouvidas no Brasil no Spotify, acumulando quase 2 milhões de reproduções e posição no ranking nacional antes de ser removida pela plataforma.
Esse caso expõe questões centrais: a música foi criada sem autorização dos artistas cujas vozes foram imitadas e inspirou discussões sobre direitos autorais, consentimento e transparência no uso de IA em plataformas de streaming, temas que ainda não têm regras completamente definidas.
No panorama mais amplo da indústria, plataformas como a Deezer estimam que cerca de 18% das faixas carregadas são geradas por IA, com dezenas de milhares de músicas novas desse tipo entrando diariamente. Estudos também mostram que a maioria dos ouvintes não consegue distinguir músicas feitas por IA das criadas por humanos, o que levanta preocupações sobre identidade artística e autenticidade. Embora a tecnologia abra portas criativas, ela também desafia normas éticas e legais existentes e amplia um debate que ainda está em construção na indústria audiovisual e musical.
Transparência e ética na comunicação com o público e clientes
Ser claro sobre o uso de IA deixou de ser opção e virou uma prática de confiança. Informar quando uma peça foi criada total ou parcialmente por IA evita percepções de engano e reduz riscos de crise, especialmente em campanhas que envolvem pessoas reais, marcas sensíveis ou mensagens institucionais. A transparência pode aparecer em pequenos rótulos (“Imagem gerada com auxílio de IA”), notas de rodapé em anúncios, ou menções no descritivo de peças digitais. Para clientes, vale indicar no relatório de entrega quais etapas tiveram intervenção humana e quais foram automatizadas, reforçando que a responsabilidade criativa permanece com a equipe.
Esse tipo de aviso simples aumenta a credibilidade, ajuda a alinhar expectativas e demonstra maturidade no uso da tecnologia, fortalecendo a reputação da marca a longo prazo.
Impacto na confiança pública
À medida que deepfakes e conteúdos audiovisuais gerados por IA se tornam mais realistas, cresce também o impacto sobre a confiança pública, especialmente no jornalismo, na comunicação institucional e nas redes sociais. Vídeos e áudios sintéticos capazes de imitar pessoas reais tornam cada vez mais difícil distinguir o que é verdadeiro, editado ou inteiramente fabricado, criando um ambiente propício à desinformação.
Esse cenário impõe novos desafios a plataformas, veículos de imprensa e verificadores de fatos, que precisam lidar com conteúdo altamente convincente, produzido em escala e com baixo custo. Ao mesmo tempo, o simples questionamento da autenticidade de um conteúdo já é suficiente para gerar dúvida, mesmo quando o material é legítimo, enfraquecendo a credibilidade da informação como um todo.
Responsabilidade criativa no uso da IA
Diante disso, entra em cena a responsabilidade criativa de quem produz com IA. Não se trata apenas de cumprir a lei, mas de adotar boas práticas como transparência sobre o uso de IA, respeito ao consentimento de pessoas retratadas e cuidado com contextos sensíveis. Em um ambiente onde a tecnologia avança mais rápido que a regulação, decisões éticas passam a ser tão importantes quanto decisões técnicas. No fim, a questão central deixa de ser apenas o que a IA é capaz de fazer, e passa a ser como escolhemos usá-la.
Até onde vai a liberdade criativa com IA quando ela começa a impactar a confiança coletiva no que vemos, ouvimos e acreditamos?



