Jovem viraliza ao denunciar uso de deepfake de seu rosto por marca para fins promocionais: ‘Muito assustador’
Especialistas explicam consequências para empresas que usem imagens de terceiros sem permissão Uma mulher viralizou nas redes sociais após compartilhar um alerta sobre o uso de deepfakes, que são imagens e vídeos digitais que simulam a realidade com inteligência artificial (IA). No início de outubro, uma internauta chamada Sam postou um vídeo no TikTok em que relata como uma marca teria usado IA para criar uma réplica de seu rosto, promovendo produtos sem sua permissão. A publicação já tem mais de 3 milhões de visualizações.
No vídeo, Sam mostra uma captura de tela do deepfake, afirmando: “Sou eu, mas não sou eu. Eles usaram IA para fazer um deepfake do meu rosto.” Segundo ela, a marca manipulou um vídeo original de sua própria conta no TikTok, editando-o para parecer que ela estava promovendo o produto.
Initial plugin text
A experiência gerou um debate sobre segurança online e privacidade. “A internet é um lugar assustador, e é por isso que as pessoas perguntam: ‘Por que você não posta mais seus filhos?”, disse Sam, refletindo sobre os perigos potenciais do uso de IA em vídeos pessoais.
Apesar de ter conseguido contato com a marca e ter o vídeo removido em 30 minutos, o episódio serviu como um alerta. “Isso é para promover a segurança online. Se isso está acontecendo comigo, imagine o que pode estar acontecendo com outros vídeos, especialmente de crianças.”
Nos comentários, vários internautas manifestaram indignação com o caso, questionando a prática da empresa, mantida em sigilo, e o uso de deepfakes.
Quais as consequências de usar imagens de terceiros sem autorização?
A criação de deepfakes por uma marca, utilizando IA, especialmente ao envolver o rosto de uma pessoa real, pode infrigir leis como a de proteção de dados pessoais e o direito à imagem.
Segundo Larissa Pigão, advogada especializada em direito digital e proteção de dados pessoais, afirma que, no Brasil, a imagem é direito de personalidade protegida pelo Código Civil, pela Constituição Federal e pela Lei Geral de Proteção de Dados Pessoais (LGPD).
“A utilização da imagem de uma pessoa sem o devido consentimento configura a violação de um direito fundamental, expondo a marca a consequências legais. Esse dano pode se agravar ao associar a imagem da pessoa com um conteúdo que não representa suas crenças ou valores, o que pode acarretar ainda mais prejuízos morais”, comenta Pigão.
Fora isso, a utilização de deepfakes pode induzir o público ao erro sobre quem de fato está associado à marca, principalmente se a imagem gerar impressão de vínculo por parte da pessoa retratada. Esse fato pode configurar não só uma violação de imagem, mas também falsidade ideológica e publicidade enganosa, estando a empresa sujeita a sanções legais e administrativas.
Quais cuidados as marcas precisam ter ao usar IA?
Segundo Rodrigo d’Ávila Mariano, sócio da área de contratos e de propriedade intelectual do escritório Chiarottino & Nicoletti, as empresas precisam se atentar que a IA gera os seus resultados a partir de inúmeras bases de dados existentes. “O resultado do trabalho da IA pode não necessariamente ser algo totalmente inédito e, com isso, acabar violando direitos de terceiros”, comenta.
Para Pigão, é fundamental implementar práticas de due diligence para assegurar que a utilização das ferramentas de IA respeitem os direitos dos indivíduos. “É imprescindível observar os princípios de proteção de dados pessoais, especialmente os de finalidade, necessidade e adequação, bem como os regramentos do Marco Civil da Internet”, comenta.
Ele diz ainda que o monitoramento constante das tecnologias emergentes e a consultoria com especialistas em proteção de dados são passos fundamentais para mitigar riscos e garantir que o uso de IA seja alinhado aos valores da empresa e às regulamentações jurídicas.
Saiba Mais