Introdução
A tecnologia do deepfake, caracterizada pela criação de conteúdos audiovisuais manipulados por meio de técnicas avançadas de aprendizado profundo, tem se tornado um fenômeno de grande relevância na contemporaneidade, suscitando debates sobre suas implicações éticas, sociais e epistemológicas. Deepfakes referem-se a vídeos ou áudios fabricados que utilizam redes neurais para sobrepor a imagem ou voz de uma pessoa em conteúdos preexistentes, criando representações realistas, mas falsas, de indivíduos em situações que nunca ocorreram (Harris, 2021).
Os ganhos associados à tecnologia de deepfake são notáveis, especialmente em setores como entretenimento, educação e até mesmo na preservação cultural. No campo do entretenimento, deepfakes permitem a criação de conteúdos criativos, como filmes que recriam figuras históricas ou celebridades em novos contextos, possibilitando narrativas inovadoras sem a necessidade de atores reais. Por exemplo, a tecnologia pode ser usada para inserir atores falecidos em novas produções cinematográficas, mantendo sua presença artística viva. Além disso, em contextos educacionais, deepfakes podem ser empregados para criar simulações realistas, como vídeos interativos que recriam eventos históricos com figuras proeminentes, oferecendo uma experiência imersiva para estudantes. Outra aplicação positiva inclui a possibilidade de usar deepfakes para promover mensagens sociais positivas, como campanhas contra preconceitos, ao criar representações que desafiem estereótipos de maneira visualmente impactante. Harris (2021) destaca que, embora a tecnologia seja frequentemente associada a usos negativos, ela também pode ser empregada para gerar associações psicológicas benéficas, como reforçar mensagens de inclusão e diversidade, desde que utilizada de forma ética e responsável.
Apesar dos seus potenciais benefícios, as perdas associadas ao uso de deepfakes são significativas, especialmente no que diz respeito à erosão da confiança em evidências audiovisuais. Historicamente, vídeos e gravações têm servido como uma ferramenta confiável para verificar testemunhos e resolver disputas, funcionando como um “anteparo epistêmico”, conforme descrito por Rini (2020, citado em Harris, 2021). A possibilidade de criar vídeos falsos altamente realistas ameaça essa função regulatória, pois indivíduos podem alegar que gravações genuínas são deepfakes, minando a sua credibilidade. Essa desconfiança generalizada pode levar a uma desorientação epistêmica, na qual as pessoas se tornam céticas em relação à veracidade de qualquer conteúdo audiovisual, dificultando a distinção entre fato e ficção. Contudo, Harris (2021) argumenta que os temores de uma “catástrofe epistêmica” podem ser exagerados, uma vez que a credibilidade de um vídeo não depende apenas de seu conteúdo, mas também da confiança na fonte que o divulga. Ele sugere que padrões apropriados de confiança em fontes confiáveis, como meios de comunicação responsáveis, podem mitigar os impactos negativos dos deepfakes no campo epistêmico.
Os danos causados pelos deepfakes, no entanto, vão além das questões epistemológicas e atingem dimensões psicológicas, sociais e éticas. Um dos usos mais problemáticos da tecnologia é a criação de pornografia deepfake, na qual imagens de indivíduos, muitas vezes sem seu consentimento, são inseridas em conteúdos sexualmente explícitos. Esse tipo de manipulação pode causar danos significativos à reputação e à saúde mental das pessoas retratadas, mesmo quando o público reconhece que o conteúdo é falso. Harris (2021) observa que, mesmo em casos de deepfakes não enganosos, como aqueles explicitamente rotulados como fictícios, o impacto psicológico pode ser profundo, pois esses vídeos podem criar associações mentais indesejadas. Por exemplo, a exposição a um deepfake pornográfico pode levar o público a associar uma celebridade a atividades sexuais, mesmo sem acreditar que o vídeo seja verdadeiro, o que pode ser degradante e humilhante para a pessoa retratada. Além disso, deepfakes podem reforçar estereótipos prejudiciais, como aqueles relacionados a gênero, raça ou outras características, exacerbando desigualdades sociais já existentes. Estudos citados por Harris, como o de Wittenbrink et al. (2011), indicam que a exposição a conteúdos audiovisuais manipulados pode alterar associações implícitas, influenciando atitudes e comportamentos de maneira sutil, mas significativa.
Outro aspecto preocupante é o potencial dos deepfakes para manipular a percepção pública em contextos políticos. Vídeos falsos que retratam políticos em situações comprometedoras, mesmo que não sejam considerados verídicos, podem influenciar a imagem pública desses indivíduos, dificultando a sua capacidade de serem levados a sério. Harris (2021) exemplifica isso com a possibilidade de deepfakes retratarem candidatos presidenciais em situações embaraçosas, o que poderia afetar a percepção dos eleitores, mesmo sem gerar crenças falsas. Esse tipo de manipulação é particularmente perigoso em contextos de polarização política, onde a disseminação de conteúdos manipulados pode amplificar divisões sociais e reforçar narrativas tendenciosas.
Em termos de mitigação, Harris (2021) sugere que os danos causados pelos deepfakes podem ser reduzidos por meio de uma abordagem responsável por parte das fontes de mídia e da promoção de uma cultura de confiança seletiva. Isso envolve não apenas a verificação rigorosa de conteúdos audiovisuais, mas também a educação do público para avaliar criticamente as fontes de informação. Além disso, é fundamental considerar o potencial positivo da tecnologia, utilizando-a para fins que promovam benefícios sociais, como a criação de conteúdos que desafiem preconceitos ou promovam narrativas inclusivas. No entanto, a natureza dual dos deepfakes exige um equilíbrio cuidadoso entre inovação e regulamentação, garantindo que a tecnologia seja usada de maneira ética e que os indivíduos retratados sejam protegidos contra usos indevidos.
A tecnologia de deepfake apresenta um cenário complexo, com ganhos potenciais em áreas como entretenimento e educação, mas também com perdas significativas no que tange à confiança em evidências audiovisuais e danos profundos em termos psicológicos e sociais. Embora os temores de uma catástrofe epistêmica possam ser exagerados, os impactos dos deepfakes na formação de associações mentais e na perpetuação de desigualdades não devem ser subestimados. A chave para lidar com essa tecnologia reside na promoção de práticas responsáveis, na regulamentação ética e no uso consciente de seu potencial para fins positivos, minimizando assim seus efeitos prejudiciais.
Deepfake e o Anteparo Epistêmico
A tecnologia do deepfake, ao permitir a criação de conteúdos audiovisuais altamente realistas, mas falsos, tem gerado preocupações significativas sobre suas implicações no campo da epistemologia social, especialmente no que se refere à confiança nas práticas testemunhais e no papel das gravações como um anteparo epistêmico. Este conceito, desenvolvido por Regina Rini (2020), refere-se ao papel regulador que gravações de áudio e vídeo desempenham nas práticas de testemunho, funcionando como um mecanismo que corrige erros e reforça a confiabilidade das informações transmitidas.
Na sociedade contemporânea, as práticas testemunhais, ou seja, a transmissão de conhecimento por meio do relato de terceiros, são fundamentais para a construção do conhecimento coletivo. Conforme Rini (2020), a justificativa para aceitar o testemunho de outra pessoa como evidência repousa na suposição de que o testemunhador é sincero e competente, ou seja, acredita no que diz e possui conhecimento suficiente sobre o assunto. Essas normas testemunhais são reforçadas por sanções sociais, como a perda de reputação para quem mente ou transmite informações imprecisas. Contudo, o que torna essas práticas particularmente robustas é a existência de gravações de áudio e vídeo, que atuam como um anteparo epistêmico.
Esse anteparo opera de duas maneiras principais: a correção aguda, que ocorre quando uma gravação contradiz um testemunho falso, e a regulação passiva, que incentiva a sinceridade e a competência devido à possibilidade de que um evento tenha sido gravado. Exemplos históricos, como a fita do “smoking gun” de Richard Nixon, que revelou a sua participação no encobrimento do escândalo de Watergate, ilustram o papel corretivo das gravações, enquanto a consciência generalizada de que eventos públicos podem ser registrados, especialmente em espaços urbanos com câmeras de vigilância ou smartphones, fortalece a regulação passiva (Rini, 2020).
Os deepfakes, no entanto, representam uma ameaça direta a esse dito anteparo epistêmico. Ao possibilitar a criação de gravações fabricadas que retratam indivíduos em situações que nunca ocorreram, essa tecnologia compromete a confiança nas evidências audiovisuais. Rini (2020) argumenta que o maior risco dos deepfakes não é necessariamente que sejam amplamente acreditados, mas que gerem uma desconfiança reflexiva em todas as gravações, minando sua função regulatória. Esse fenômeno, que ela denomina “crises de anteparo”, ocorre quando a possibilidade de um vídeo ser um deepfake se torna uma explicação plausível para desacreditar uma gravação, mesmo que ela seja genuína. Um exemplo hipotético apresentado por Rini ilustra esse ponto: imagine uma gravação que parece mostrar um político em uma situação comprometedora, mas que é imediatamente contestada como um deepfake. Independentemente de o vídeo ser verdadeiro ou falso, o simples fato de a acusação de manipulação ser plausível cria uma crise epistêmica, pois o público começa a questionar a confiabilidade de qualquer gravação. Essa desconfiança pode se intensificar em contextos de polarização política, onde as opiniões sobre a veracidade de uma gravação frequentemente se alinham com preferências partidárias, como Rini sugere ao discutir um caso hipotético envolvendo Donald Trump (Rini, 2020).
A erosão do anteparo epistêmico tem implicações profundas para as práticas testemunhais. Como as gravações perdem a sua capacidade de corrigir testemunhos falsos ou de regular passivamente a sinceridade e a competência, as normas que sustentam a confiança no testemunho de terceiros começam a se desfazer. Rini (2020) alerta que, em um cenário onde as pessoas sabem que podem desacreditar gravações adversas alegando que são deepfakes, a motivação para serem testemunhadores responsáveis diminui. Isso pode levar a um ambiente de “caos epistêmico”, onde a distinção entre fato e ficção se torna cada vez mais difícil, e as pessoas, desorientadas, podem adotar uma postura de ceticismo generalizado ou, alternativamente, acreditar apenas em informações que confirmem suas visões preexistentes.
Esse fenômeno é agravado pela facilidade com que os deepfakes podem ser produzidos em massa, especialmente com avanços em algoritmos de aprendizado de máquina, como os descritos por Niessner et al. (2016), que desenvolveram a técnica Face2Face para manipulação facial em tempo real, e Jin et al. (2017), que criaram o VoCo, uma ferramenta para alterar áudios de forma convincente. Esses avanços tecnológicos permitem que agentes mal-intencionados saturem o ambiente informacional com conteúdos falsos, uma tática já observada em contextos de desinformação textual, como apontado por Tufekci (2018) e Snyder (2018).
Além disso, os deepfakes amplificam os desafios já existentes na manipulação de imagens estáticas, como as fotografias alteradas durante o regime de Stalin (King, 1997). Embora a manipulação fotográfica seja uma prática antiga, Rini (2020) destaca que os deepfakes são psicologicamente mais impactantes, pois imitam a experiência perceptual cotidiana de maneira mais vívida, ao contrário das imagens estáticas, que carecem da narrativa temporal dos vídeos. Essa característica torna os deepfakes mais propensos a gerar crises de anteparo, pois as gravações audiovisuais têm um peso epistêmico maior do que as fotografias, funcionando como um recurso de validação até mesmo para imagens estáticas. Um exemplo disso é o caso de uma foto de Joe Biden que parecia mostrar um comportamento estranho, mas que só foi esclarecido por meio de um vídeo correspondente (Darby, 2019). Quando as gravações perdem a sua autoridade epistêmica, outros tipos de evidências documentais, como fotografias, também ficam vulneráveis, ampliando o impacto dos deepfakes.
As consequências sociais e políticas desse colapso epistêmico são alarmantes. Chesney e Citron (2019) apontam que os deepfakes podem ser usados para interferência eleitoral, chantagem pessoal e manipulação corporativa, mas Rini (2020) enfatiza que o maior dano reside na possibilidade de que a desconfiança generalizada nas gravações comprometa a capacidade da sociedade de resolver disputas públicas. Em um caso real, como o vídeo do presidente gabonês Ali Bongo, acusado de ser um deepfake por opositores, a simples suspeita de manipulação contribuiu para uma tentativa de golpe, mesmo sem evidências conclusivas de que o vídeo era falso (Breland, 2019). Esse exemplo demonstra como a mera possibilidade de um deepfake pode desestabilizar a confiança pública, independentemente de sua veracidade.
Além disso, a disseminação de deepfakes em contextos como a pornografia não consensual, conforme destacado por Cole (2017), pode causar danos psicológicos e sociais significativos, mesmo quando o público reconhece que o conteúdo é falso, pois a exposição a essas imagens pode criar associações mentais prejudiciais.
Apesar desses desafios, há quem argumente que a desconfiança nos deepfakes pode ter um lado positivo, ao forçar a sociedade a adotar uma postura mais crítica em relação às evidências audiovisuais. Rini (2020) reconhece essa possibilidade, mas considera que os custos de transição para um ambiente epistêmico sem o anteparo das gravações serão altos. A sociedade moderna, moldada por mais de um século de confiança nas gravações, não está preparada para retornar às normas testemunhais do século XIX, quando a validação de eventos públicos dependia exclusivamente de testemunhos e relatos jornalísticos. Essa transição abrupta pode levar a uma credulidade perigosa ou a um ceticismo paralisante, especialmente em um mundo de comunicação global instantânea, onde a desinformação se propaga rapidamente (Vosoughi et al., 2018). Além disso, a perda do anteparo epistêmico pode exacerbar injustiças testemunhais, afetando desproporcionalmente grupos marginalizados, que frequentemente dependem de gravações para validar as suas experiências, como no caso de vídeos de brutalidade policial (Fricker, 2007).
Para mitigar esses impactos, é necessário desenvolver estratégias que restaurem a confiança nas práticas testemunhais e nas fontes de informação. Embora tecnologias de detecção de deepfakes estejam sendo desenvolvidas, como apontado por Farid (2018), elas enfrentam limitações devido à rápida evolução dos métodos de falsificação, que utilizam redes adversariais generativas para contornar a detecção. Assim, a solução não pode depender exclusivamente de avanços tecnológicos, mas deve incluir a promoção de uma educação midiática que ensine o público a avaliar criticamente as fontes de informação e a reconhecer os sinais de manipulação. Além disso, políticas regulatórias, como as propostas por Chesney e Citron (2019), podem limitar a disseminação de deepfakes maliciosos, embora devam equilibrar a proteção contra desinformação com a liberdade de expressão, especialmente em casos de paródia ou sátira.
Os deepfakes representam uma ameaça significativa ao anteparo epistêmico proporcionado pelas gravações audiovisuais, comprometendo a confiança nas práticas testemunhais e na capacidade da sociedade de distinguir fatos de ficções. As crises de anteparo, desencadeadas pela plausibilidade de manipulações realistas, podem levar a um ambiente de caos epistêmico, onde a desconfiança generalizada erode as normas de sinceridade e competência que sustentam o conhecimento coletivo. Embora existam potenciais benefícios em repensar a confiança nas gravações, os custos de transição para um novo paradigma epistêmico são consideráveis, exigindo esforços conjuntos para desenvolver soluções tecnológicas, educacionais e regulatórias que preservem a integridade do discurso público.
Pornografia Deepfake ou Pornografia de Vingança?
A emergência das tecnologias de manipulação de mídia, especialmente os deepfakes, trouxe à tona um debate crítico sobre as implicações sociais, legais e éticas de conteúdos audiovisuais falsificados, particularmente no contexto da pornografia não consensual, frequentemente associada à chamada “pornografia de vingança” (revenge porn). Embora os termos “pornografia deepfake” e “pornografia de vingança” sejam por vezes utilizados de forma intercambiável, eles representam fenômenos distintos que, apesar de compartilharem semelhanças, possuem características, intenções e impactos diferenciados (Mania, 2022).
A pornografia de vingança refere-se à disseminação não consensual de imagens ou vídeos íntimos, geralmente obtidos com o consentimento inicial da vítima, mas compartilhados sem a sua autorização, muitas vezes com a intenção de causar humilhação, vingança ou chantagem. Esse fenômeno ganhou notoriedade com o aumento do uso de dispositivos móveis e redes sociais, que facilitam a captura e a disseminação de conteúdos íntimos. Por outro lado, a pornografia deepfake utiliza inteligência artificial para criar conteúdos falsificados, superpondo rostos de indivíduos, muitas vezes sem seu conhecimento ou consentimento, em vídeos pornográficos, criando a ilusão de que a pessoa retratada está envolvida em atos que nunca realizou. Enquanto a pornografia de vingança depende de material autêntico obtido inicialmente de forma legítima ou ilícita, a pornografia deepfake é inerentemente fabricada, utilizando ferramentas como redes adversariais generativas para manipular imagens e vídeos de maneira altamente realista.
Uma diferença central entre os dois fenômenos está na intenção e no contexto de produção. A pornografia de vingança é frequentemente motivada por questões pessoais, como o término de relacionamentos ou conflitos interpessoais, onde o agressor busca retaliar ou exercer poder sobre a vítima. Já a pornografia deepfake pode ter motivações mais amplas, incluindo fins comerciais, cyberbullying ou até mesmo desinformação política, como apontado por Mania (2022). Segundo o relatório da DeepTrance, 90% das vítimas de pornografia deepfake são mulheres, o que evidencia uma clara dimensão de gênero em ambos os fenômenos, mas a pornografia deepfake amplia o alcance do dano, pois não exige acesso a imagens íntimas reais, bastando fotos públicas disponíveis em redes sociais para criar o conteúdo falsificado. Essa acessibilidade tecnológica, facilitada por softwares gratuitos e amplamente disponíveis, reduz a barreira para a perpetração de abusos, tornando a pornografia deepfake uma ameaça ainda mais disseminada.
Os impactos psicológicos e sociais de ambos os tipos de pornografia são devastadores, mas a pornografia deepfake apresenta desafios adicionais devido à sua natureza fabricada. As vítimas de pornografia de vingança enfrentam humilhação, perda de reputação e trauma emocional devido à exposição de momentos íntimos reais, como destacado por Campbell et al. (2022). No caso dos deepfakes, o dano pode ser igualmente grave, mesmo que o conteúdo seja falso, pois a verossimilhança das manipulações pode levar o público a acreditar que a vítima participou de atos explícitos. Isso é agravado pelo fato de que, como apontado por Rini (2020), os deepfakes minam a confiança nas gravações audiovisuais, criando um ambiente de ceticismo generalizado que dificulta a distinção entre fato e ficção. Esse fenômeno, descrito anteriormente como “crise de anteparo epistêmico”, afeta não apenas as vítimas, mas também a sociedade como um todo, ao comprometer a confiabilidade das evidências visuais.
Do ponto de vista legal, a pornografia de vingança tem recebido maior atenção regulatória, especialmente em países como os Estados Unidos, onde 46 estados e o Distrito de Columbia já possuem leis específicas para criminalizá-la, conforme indicado por Mania (2022). Na Europa, países como Bélgica, Itália e Reino Unido começaram a implementar legislações contra a pornografia de vingança desde 2014, mas a pornografia deepfake ainda carece de regulamentação específica na maioria dos Estados-membros da União Europeia. A Itália se destaca como um exemplo positivo, tratando a pornografia de vingança como um delito sexual com penas severas, o que pode ter um efeito preventivo, mas ainda não aborda diretamente os deepfakes. Iniciativas como a Assembly Bill 602 na Califórnia, que estabelece sanções para a criação e distribuição de pornografia deepfake sem consentimento, representam um avanço, mas são exceções em um cenário global onde a legislação ainda está atrasada em relação à tecnologia.
Os desafios para a regulamentação da pornografia deepfake são numerosos. Primeiro, a natureza transnacional da internet dificulta a aplicação de leis locais, especialmente quando o conteúdo é hospedado em servidores fora da jurisdição da vítima. Segundo, a rápida evolução das tecnologias de manipulação de mídia, como descrito por Westerlund (2019), torna difícil para os sistemas de detecção acompanharem os avanços das ferramentas de criação de deepfakes. Além disso, há o dilema de equilibrar a proteção das vítimas com a liberdade de expressão. A ausência de definições legais claras para “deepfake porn” em muitos países europeus, como apontado por Mania (2022), complica ainda mais a busca por justiça, já que as vítimas muitas vezes precisam recorrer a interpretações de leis existentes sobre privacidade ou difamação, que nem sempre são adequadas.
As implicações sociais da pornografia deepfake vão além do dano individual, contribuindo para um ambiente de desconfiança e polarização. Como observado por Chesney e Citron (2019), os deepfakes podem ser usados para manipulação política, interferência eleitoral e chantagem, mas seu uso em contextos pornográficos amplifica a violência de gênero, perpetuando estereótipos e objetificação. A predominância de vítimas femininas, conforme destacado no relatório da DeepTrance, reflete uma dinâmica de poder que reforça desigualdades de gênero. Além disso, a facilidade de acesso a materiais para criar deepfakes, como fotos públicas em redes sociais, significa que praticamente qualquer pessoa pode ser vítima, o que aumenta a sensação de vulnerabilidade, especialmente entre mulheres, como indicado pelo relatório HateAid (2021), que revelou que 30% das mulheres pesquisadas temiam ter imagens nuas falsificadas publicadas online.
Para enfrentar esses desafios, é necessário um esforço conjunto que combine avanços tecnológicos, educacionais e legais. Tecnologias de detecção de deepfakes, embora promissoras, enfrentam limitações devido à constante evolução dos algoritmos de criação, como apontado por Farid (2018). A educação midiática é essencial para capacitar o público a reconhecer manipulações e avaliar criticamente as fontes de informação. No âmbito legal, é crucial que os países desenvolvam legislações específicas que abordem tanto a pornografia de vingança quanto a pornografia deepfake, estabelecendo definições claras e penas proporcionais. Além disso, políticas que promovam o consentimento explícito para a criação e disseminação de conteúdos íntimos, como as implementadas na Califórnia e em Nova York, podem servir como modelo para outras jurisdições.
Em conclusão, embora a pornografia de vingança e a pornografia deepfake compartilhem o traço comum de violar a privacidade e a dignidade das vítimas, elas diferem em sua origem, produção e desafios regulatórios. A pornografia de vingança depende de material autêntico e está mais avançada em termos de criminalização, enquanto a pornografia deepfake, por sua natureza artificial e potencial de escala, representa uma ameaça emergente que exige respostas legais e sociais mais robustas. A predominância de vítimas femininas em ambos os casos destaca a necessidade de abordar essas práticas como formas de violência de gênero, enquanto a erosão da confiança nas evidências audiovisuais, exacerbada pelos deepfakes, exige uma reformulação das normas testemunhais e regulatórias. Somente com uma abordagem integrada que combine tecnologia, educação e legislação será possível mitigar os danos causados por esses fenômenos e proteger a dignidade e os direitos das vítimas.
O quadro abaixo pretende diferenciar a Pornografia de Vingança da Pornografia Deepfake:
Aspecto | Pornografia de Vingança | Pornografia Deepfake |
Definição | Compartilhamento não consensual de imagens ou vídeos íntimos reais, geralmente obtidos com consentimento inicial, mas divulgados sem permissão. | Uso de inteligência artificial para criar vídeos ou imagens pornográficas falsificados, superpondo o rosto de uma pessoa em corpos de atores pornográficos sem seu consentimento. |
Tecnologia Envolvida | Não depende de tecnologia avançada; envolve a disseminação de conteúdo autêntico (fotos ou vídeos reais). | Utiliza algoritmos de aprendizado profundo (deep learning) e software de manipulação de mídia para criar conteúdo falsificado. |
Origem do Conteúdo | Material autêntico, geralmente capturado em contextos privados com ou sem consentimento inicial. | Conteúdo fabricado, criado a partir de imagens ou vídeos disponíveis publicamente (ex.: fotos de redes sociais) combinados com material pornográfico. |
Impacto nas Vítimas | Viola a privacidade, causa humilhação, danos à reputação e trauma emocional, especialmente por se tratar de material real. | Além de violar a privacidade e causar danos à reputação, explora a imagem da vítima em um contexto fictício, aumentando a sensação de descontrole e vulnerabilidade. |
Prevalência de Gênero | Predominantemente afeta mulheres (75% dos casos reportados ao Revenge Porn Helpline em 2021). | 90% das vítimas são mulheres, conforme relatório da DeepTrance (2019). |
Criminalização | Já criminalizada em 46 estados dos EUA e em vários países da UE, como Bélgica (desde 2020) e Itália, com penalidades como multas e prisão. | Criminalização incipiente; exemplos incluem a Assembly Bill 602 na Califórnia (2019) e legislação em Nova York (2020), mas ainda não amplamente regulada na UE. |
Facilidade de Criação | Não requer habilidades técnicas avançadas, apenas acesso ao material íntimo e meios de divulgação. | Requer acesso a softwares de IA (muitos gratuitos e amplamente disponíveis) e imagens públicas da vítima, como selfies em redes sociais. |
Contexto Legal | Enquadrada como violação de privacidade ou abuso de imagem em muitos países, com leis específicas em alguns casos. | Mais complexa devido à natureza artificial do conteúdo; exige regulamentações específicas para abordar o uso de IA e consentimento. |
Exemplos de Legislação | Bélgica (2020): Multas de €200 a €15.000 e prisão de 6 meses a 5 anos; EUA: 46 estados com leis específicas. | Califórnia (AB 602, 2019): Penaliza criação e distribuição sem consentimento; Nova York (2020): Protege contra exploração comercial não autorizada. |
Desafios Legais | Dificuldade em identificar os responsáveis pela disseminação e jurisdição transnacional. | Maior dificuldade devido à natureza anônima e transnacional da criação, além da rápida evolução da tecnologia de IA. |
Impacto Social | Reforça dinâmicas de violência de gênero e shame culture; amplificado pelo fácil compartilhamento online. | Agrava a crise de confiança em conteúdos audiovisuais e aumenta o risco de desinformação e cyberbullying. |
Prevenção e Mitigação | Foco em remoção de conteúdo, educação midiática e suporte às vítimas (ex.: Revenge Porn Helpline). | Demanda tecnologias de detecção de deepfakes, regulamentação de IA e políticas de moderação em plataformas digitais. |
Deepfakes: De Quem é a Responsabilidade?
A ascensão das tecnologias de inteligência artificial, particularmente os deepfakes, trouxe à tona um debate complexo sobre a responsabilidade pela criação, disseminação e impacto de conteúdos manipulados. Deepfakes, vídeos ou áudios falsificados gerados por algoritmos de aprendizado profundo, têm a capacidade de distorcer a realidade de maneira tão convincente que desafiam a percepção humana, com uma taxa de acurácia na identificação de apenas 26%, conforme apontado por Napshin et al. (2025).
Essa tecnologia, que permite sobrepor rostos ou vozes em conteúdos falsos com realismo impressionante, levanta questões éticas, legais e sociais sobre quem deve ser responsabilizado pelos danos causados, sejam eles relacionados à desinformação, violação de privacidade ou violência de gênero, como no caso da pornografia deepfake (destacado anteriormente).
Os deepfakes representam uma ameaça multifacetada, pois, como visto, podem ser utilizados para uma ampla gama de propósitos, desde entretenimento inofensivo até manipulação política, difamação e exploração sexual não consensual. A facilidade de criação, amplificada por softwares acessíveis e imagens disponíveis publicamente, torna os deepfakes uma ferramenta de abuso potencialmente universal. Como já destacado, 90% das vítimas de pornografia deepfake são mulheres, o que evidencia uma dimensão de gênero significativa, onde a tecnologia reforça dinâmicas de poder desiguais. Além disso, a natureza transnacional da internet complica a regulamentação, já que os conteúdos manipulados podem ser criados em uma jurisdição e disseminados globalmente, desafiando sistemas legais locais.
A questão central, portanto, é: Quem deve ser responsabilizado pela criação, disseminação e mitigação dos impactos negativos dos deepfakes?
Essa responsabilidade é distribuída entre indivíduos, governos, desenvolvedores de software, plataformas de mídia social, outlets de mídia e desenvolvedores de tecnologias de identificação, cada um com papéis distintos, mas interconectados.
A percepção individual sobre a responsabilidade pelos deepfakes é um ponto de partida crucial para entender como a sociedade lida com essa tecnologia. Napshin et al. (2025) desenvolveram um instrumento de pesquisa com 39 itens para avaliar as percepções de responsabilidade, identificando oito dimensões: preocupação individual, percepção humorística, responsabilidade individual, responsabilidade governamental, responsabilidade dos desenvolvedores de software deepfake, responsabilidade dos desenvolvedores de tecnologias de identificação, responsabilidade das plataformas e responsabilidade dos outlets de mídia.
A preocupação individual reflete o impacto dos deepfakes na confiança em vídeos online, com muitos indivíduos relatando menor disposição para confiar em informações audiovisuais devido ao risco de manipulação. Essa desconfiança, descrita enfaticamente aqui como uma “crise do anteparo epistêmico” (Rini, 2020), compromete a credibilidade das evidências visuais, afetando não apenas as vítimas diretas, mas também a confiança em instituições como mídia e governo. Por outro lado, a percepção humorística, embora menos prevalente, indica que alguns veem os deepfakes como entretenimento, o que pode minimizar a percepção de seus riscos.
A responsabilidade individual também emerge como uma dimensão significativa. Muitos acreditam que cabe aos próprios indivíduos desenvolverem habilidades para identificar deepfakes, uma visão reforçada por executivos entrevistados por Napshin et al. (2025), que enfatizaram a necessidade de “consciência e ceticismo individual”. Contudo, essa expectativa pode ser problemática, dado que a sofisticação dos deepfakes torna sua identificação extremamente difícil, mesmo para especialistas. A confiança na capacidade individual de detectar manipulações pode levar a uma falsa sensação de segurança, aumentando a vulnerabilidade a fraudes e desinformação. Essa perspectiva reflete um locus de controle interno, onde indivíduos com forte crença em sua própria competência podem subestimar os riscos, buscando externalizar a responsabilidade quando enganados.
No âmbito governamental, há uma expectativa crescente de que os governos assumam um papel ativo na regulação dos deepfakes. Executivos entrevistados por Napshin et al. (2025) destacaram a necessidade de regulamentações para proteger contra o uso indevido de imagens, especialmente em contextos de difamação ou manipulação política.
Repisando: Na Europa, países como a Itália já implementaram leis específicas contra a pornografia de vingança, mas a regulamentação de deepfakes ainda é incipiente, como apontado por Mania (2022). Nos Estados Unidos, iniciativas como a Assembly Bill 602 na Califórnia começaram a abordar a pornografia deepfake, mas a falta de uma legislação uniforme global limita a eficácia dessas medidas. De qualquer forma, a responsabilidade governamental é complicada pela natureza transnacional dos deepfakes, que exige cooperação internacional para uma execução eficaz.
Os desenvolvedores de software deepfake também são vistos como responsáveis por prevenir o uso indevido de suas tecnologias. Há um consenso crescente, conforme observado por Napshin et al. (2025), de que empresas que criam ferramentas de manipulação de mídia devem ser responsabilizadas pelas consequências dos seus produtos. Isso inclui a implementação de salvaguardas para limitar o uso malicioso, como restrições de acesso ou marcação de conteúdos manipulados. No entanto, a ampla disponibilidade de softwares de código aberto dificulta a aplicação dessas medidas, já que qualquer pessoa com conhecimento técnico mínimo pode criar deepfakes. Essa democratização da tecnologia, embora inovadora, amplifica os riscos éticos e sociais.
As plataformas de mídia social, como apontado por Napshin et al. (2025), também enfrentam pressão para monitorar e controlar a disseminação de deepfakes. Executivos destacaram que plataformas como redes sociais amplificam conteúdos manipulados devido a algoritmos que promovem viralização, muitas vezes sem escrutínio adequado. A responsabilidade das plataformas inclui a implementação de políticas de moderação robustas e tecnologias de detecção, mas a opacidade dos seus algoritmos e a aplicação inconsistente de políticas de conduta dificultam a confiança pública. A crescente demanda por responsabilização das plataformas reflete a percepção de que elas desempenham um papel central na disseminação de desinformação.
Os outlets de mídia, por sua vez, têm a responsabilidade de verificar a autenticidade dos vídeos que utilizam, especialmente considerando que vídeos de marcas reconhecidas podem ser manipulados para criar deepfakes, afetando a confiança do público. Como observado por Napshin et al. (2025), a disseminação inadvertida de deepfakes por outlets de mídia pode amplificar a desinformação, enquanto o uso de vídeos autênticos de mídia em deepfakes pode comprometer a reputação de marcas estabelecidas. A expectativa é que esses outlets implementem processos rigorosos de verificação para garantir a integridade do conteúdo distribuído.
Por fim, os desenvolvedores de tecnologias de identificação são vistos como peças-chave na mitigação dos deepfakes. A crença em soluções tecnológicas, como expressado por executivos em Napshin et al. (2025), sugere que ferramentas de detecção avançadas podem ajudar a identificar manipulações. No entanto, como apontado por Westerlund (2019), a rápida evolução das tecnologias de criação de deepfakes supera os esforços de detecção, criando uma corrida armamentista tecnológica. Essa dinâmica exige investimentos contínuos em pesquisa e desenvolvimento para manter as ferramentas de identificação atualizadas.
As implicações sociais dos deepfakes são profundas, especialmente no contexto da violência de gênero e da desinformação. A predominância de vítimas femininas em pornografia deepfake, como destacado por Mania (2022), reforça a necessidade de abordar esses conteúdos como uma forma de violência de gênero, exigindo respostas legais e sociais que protejam as vítimas e promovam a igualdade. Além disso, a erosão da confiança em evidências audiovisuais, descrita por Chesney e Citron (2019), ameaça a credibilidade de instituições democráticas, como eleições e mídia, exigindo uma reformulação das normas de confiança e verificação.
Para enfrentar esses desafios, é necessária uma abordagem integrada que combine regulamentação, educação e inovação tecnológica. Governos devem desenvolver legislações específicas que abordem tanto a criação quanto a disseminação de deepfakes, com cooperação internacional para superar barreiras jurisdicionais. Plataformas de mídia social precisam investir em tecnologias de detecção e políticas de moderação transparentes, enquanto outlets de mídia devem adotar práticas rigorosas de verificação. A educação midiática é essencial para capacitar indivíduos a reconhecer manipulações e avaliar fontes de informação criticamente. Finalmente, os desenvolvedores de software deepfake e de tecnologias de identificação devem colaborar para criar salvaguardas éticas e soluções de detecção eficazes.
A responsabilidade pelos deepfakes é distribuída entre múltiplos atores, cada um com papéis complementares na mitigação dos seus impactos. A percepção individual, embora importante, não pode ser a única solução, dado o avanço técnico dos deepfakes. Governos, desenvolvedores, plataformas e outlets de mídia devem trabalhar em conjunto para criar um ecossistema que equilibre inovação tecnológica com proteção social. Somente com uma abordagem colaborativa será possível enfrentar os desafios éticos, legais e sociais impostos pelos deepfakes, garantindo a proteção dos indivíduos e a preservação da confiança na informação.
Objetivo
O objetivo desta pesquisa é capturar e analisar as opiniões públicas expressas por usuários de redes sociais, com ênfase na plataforma X, e de outras plataformas digitais, sobre a tecnologia dos deepfakes, no período de 2015 a 2025. Busca-se compreender as percepções, preocupações e narrativas relacionadas aos impactos éticos, sociais, políticos e econômicos dos deepfakes, considerando tanto contextos locais, com foco no Brasil, quanto perspectivas globais. Por meio de uma abordagem qualitativa, a pesquisa visa a mapear os discursos que emergem em ambientes digitais, identificando padrões, tensões e contradições que refletem regimes de verdade, relações de poder e dinâmicas sociais associadas ao uso dessa tecnologia. A análise pretende contribuir para uma compreensão aprofundada das implicações dos deepfakes, destacando como os usuários percebem seus riscos e benefícios, e oferecer subsídios para o desenvolvimento de estratégias de regulação, educacionais e tecnológicas que mitiguem seus impactos negativos, promovendo um uso ético e responsável da tecnologia.
Método
Esta pesquisa adota uma abordagem qualitativa, fundamentada na análise de discursos expressos em plataformas digitais, com o objetivo de mapear e compreender as percepções e opiniões públicas sobre a tecnologia de deepfakes, considerando seus impactos éticos, sociais, políticos e econômicos. A escolha por uma metodologia qualitativa justifica-se pela necessidade de explorar a complexidade dos discursos em ambientes digitais, capturando nuances, tensões e contradições presentes nas narrativas dos usuários sobre os usos e implicações dos deepfakes. Este enfoque permite uma análise aprofundada dos contextos sociais, culturais e políticos que moldam essas percepções, indo além de uma abordagem meramente quantitativa que poderia desconsiderar a riqueza interpretativa dos dados. A pesquisa busca não apenas identificar padrões discursivos, mas também compreender como esses discursos refletem e constroem regimes de verdade, relações de poder e dinâmicas sociais em torno da tecnologia de deepfakes.
Coleta de Dados
A coleta de dados envolveu a seleção intencional de 40 postagens públicas, obtidas predominantemente da plataforma X, abrangendo um período de 10 anos, de 2015 a 2025. Esse intervalo temporal foi escolhido estrategicamente para capturar a evolução das discussões sobre deepfakes, desde a sua emergência como uma tecnologia acessível até a sua consolidação como uma ferramenta com impactos significativos em diversos cenários globais. A amostra foi composta por 10 postagens de origem brasileira, selecionadas para refletir preocupações locais, como desinformação eleitoral, golpes financeiros, abusos éticos (como a criação de conteúdos sexuais falsos) e vulnerabilidades específicas de um país com alta penetração de redes sociais e desafios relacionados à desinformação. As demais 30 postagens, provenientes de países como Estados Unidos, Reino Unido, Índia, Dinamarca, Japão, Austrália, Ucrânia, França, Alemanha, África do Sul, México, Itália e Espanha, foram incluídas para oferecer uma perspectiva global, abrangendo casos como manipulação política, fraudes comerciais, violações de privacidade, usos em conflitos sociais e criminais, e até aplicações satíricas ou em entretenimento.
A seleção das postagens foi conduzida de forma sistemática, utilizando critérios claros de relevância temática e representatividade discursiva. Foram priorizadas postagens que mencionassem explicitamente a tecnologia de deepfakes ou suas implicações, abordando temas como desinformação, privacidade, ética, segurança, política ou impactos culturais. Para garantir a diversidade, buscou-se incluir postagens que representassem diferentes tons (alarmistas, críticos, reflexivos ou neutros) e contextos culturais, refletindo tanto preocupações globais quanto especificidades locais. As postagens, expressas originalmente em português ou traduzidas de idiomas como inglês, espanhol e italiano, foram obtidas exclusivamente de fontes públicas, garantindo que o conteúdo analisado já estivesse disponível voluntariamente pelos usuários nas plataformas digitais. Essa abordagem assegura que a pesquisa não infringe questões éticas relacionadas à privacidade, uma vez que os dados coletados são de acesso público e não requerem consentimento explícito para análise.
Para estruturar a coleta, foi utilizado um protocolo de busca que incluiu palavras-chave como “deepfake”, “inteligência artificial”, “desinformação”, “fake news”, “ética” e “privacidade”, combinadas com filtros geográficos e temporais para assegurar a representatividade da amostra. As postagens foram arquivadas em um banco de dados seguro, organizadas por data, origem geográfica e plataforma, facilitando a rastreabilidade pessoal e a organização para a análise subsequente. A escolha da plataforma X como fonte primária justifica-se por sua relevância como espaço de debates públicos, onde usuários de diferentes contextos expressam opiniões espontâneas e engajadas, oferecendo uma janela para as percepções coletivas sobre temas emergentes como os deepfakes.
Considerações Éticas
A coleta de dados foi conduzida com rigor ético, seguindo princípios de pesquisa que priorizam a proteção da privacidade e o anonimato dos usuários. Nenhuma informação pessoal identificável, como nomes, handles, fotos de perfil ou outros dados sensíveis, foi incluída na análise, garantindo que os autores das postagens permaneçam anônimos. Esse procedimento alinha-se às diretrizes éticas de pesquisa em ciências sociais, especialmente no contexto de análise de dados digitais, onde a privacidade é uma preocupação central. Além disso, a escolha de postagens públicas elimina a necessidade de autorizações adicionais, uma vez que os usuários publicaram seus conteúdos em plataformas de ampla circulação, com a expectativa implícita de exposição pública. Para reforçar a conformidade ética, a pesquisa evitou qualquer interação direta com os autores das postagens, limitando-se à análise de conteúdos já disponíveis. Durante o processo de coleta, foram tomadas precauções adicionais para evitar vieses éticos, como a exclusão de postagens que, embora públicas, pudessem conter informações sensíveis ou contextos que sugerissem vulnerabilidade dos autores (por exemplo, vítimas diretas de deepfakes relatando experiências pessoais com alto impacto emocional). A pesquisa também considerou a possibilidade de viés na seleção, buscando mitigar isso ao incluir uma amostra diversificada em termos geográficos, culturais e temáticos. Essas medidas asseguram que o estudo respeite os princípios éticos de beneficência, não maleficência e justiça, conforme estabelecido em diretrizes internacionais de pesquisa, como as da Declaração de Helsinque e do Conselho Nacional de Ética em Pesquisa (CONEP).
Análise dos Dados
A análise das 40 postagens foi realizada com o suporte de ferramentas especializadas, combinando métodos qualitativos e computacionais para garantir uma interpretação robusta, sistemática e multidimensional dos dados. O software MAXQDA 2024 (versão 29.1) foi utilizado como ferramenta principal para a codificação qualitativa, permitindo a organização, categorização e análise detalhada dos discursos contidos nas postagens. O MAXQDA foi empregado para codificar cada postagem individualmente, atribuindo códigos principais (temas centrais, como “Ameaças à Democracia”, “Exploração Sexual”, “Golpes Financeiros” ou “Preocupações com Tecnologia”) e subcódigos (nuances específicas, como “fake news eleitorais”, “impacto emocional”, “necessidade de regulação” ou “exploração sexual infantil”). Esse processo foi conduzido de forma iterativa, revisitando os códigos à medida que novos padrões emergiam, garantindo uma codificação precisa e reflexiva.
A análise foi fundamentada em dois referenciais teóricos complementares: a análise do discurso bakhtiniana e a análise foucaultiana. A perspectiva bakhtiniana foi empregada para explorar o caráter dialógico dos discursos, considerando as postagens como parte de uma interação social mais ampla, influenciada por contextos históricos, culturais e políticos. Essa abordagem permitiu identificar como os usuários constroem significados em resposta a outros discursos, refletindo preocupações coletivas, tensões sociais e dinâmicas de poder em torno dos deepfakes. Por exemplo, as postagens foram analisadas como enunciados que respondem a eventos específicos (como eleições ou casos de abuso) e interagem com outros discursos sociais, como debates sobre regulação tecnológica ou privacidade.
Complementarmente, a análise foucaultiana foi utilizada para examinar os regimes de verdade subjacentes aos discursos, identificando os sujeitos discursivos (como cidadãos eleitores, vítimas de abusos, defensores da privacidade ou críticos da tecnologia), os objetos-discurso (como o corpo digitalizado, a verdade política ou a confiança na mídia) e os campos enunciativos que estruturam essas narrativas. Essa perspectiva permitiu explorar como os discursos sobre deepfakes constroem relações de poder e saber, moldando percepções sobre tecnologia, identidade e sociedade. Por exemplo, a análise foucaultiana revelou como o medo da exposição íntima ou da manipulação política opera como um mecanismo de disciplinamento social, enquanto a desconfiança na mídia reflete uma crise nos regimes de verdade contemporâneos.
Além do MAXQDA, o software estatístico Python foi utilizado para análises complementares, especialmente na clusterização dos dados. Utilizando bibliotecas como scikit-learn, foi aplicado o método do cotovelo (elbow method) para determinar o número ideal de clusters temáticos, com base na métrica WCSS (Within-Cluster Sum of Squares). Esse processo envolveu a quantificação das distâncias discursivas entre as postagens, agrupando-as em clusters que refletem semelhanças temáticas e discursivas. A análise computacional com Python permitiu visualizar padrões emergentes, como a formação de clusters distintos relacionados à democracia, abusos éticos, fraudes financeiras e preocupações com privacidade, complementando a análise qualitativa realizada no MAXQDA.
Gráficos como o da Figura 01 (análise do cotovelo) foram gerados para justificar a escolha do número de clusters, garantindo uma abordagem rigorosa e replicável.
Integração das Análises
A integração das abordagens bakhtiniana e foucaultiana, combinada com o uso de ferramentas como MAXQDA e Python, permitiu uma análise profunda e multifacetada das postagens. Enquanto a perspectiva bakhtiniana destacou o caráter interativo e contextual dos discursos, a abordagem foucaultiana revelou as estruturas de poder e saber que os sustentam. O uso do MAXQDA facilitou a organização sistemática dos dados, permitindo a identificação de temas recorrentes e suas interconexões, enquanto o Python ofereceu uma camada adicional de análise quantitativa, reforçando a robustez dos resultados. Essa metodologia híbrida, que combina análise qualitativa detalhada com ferramentas computacionais, assegura que a pesquisa capture tanto a profundidade discursiva quanto os padrões estruturais das percepções sobre deepfakes, contribuindo para uma compreensão abrangente de suas implicações no período de 2015 a 2025.
Resultados
A seção de resultados apresenta uma coletânea de 40 postagens coletadas de plataformas digitais, majoritariamente do X, abrangendo o período de 2015 a 2025, com o objetivo de mapear as percepções e opiniões públicas sobre a tecnologia de deepfakes. Estas postagens, expressas em português ou traduzidas para o português a partir de idiomas como inglês, espanhol e italiano, refletem uma ampla gama de preocupações globais relacionadas aos impactos éticos, sociais, políticos e econômicos dos deepfakes.
As 10 primeiras postagens são de origem brasileira, capturando perspectivas locais sobre o uso da tecnologia no contexto nacional, incluindo preocupações com desinformação eleitoral, golpes financeiros e abusos éticos, como a criação de conteúdos sexuais explícitos falsos. As demais postagens, provenientes de diversos países como Estados Unidos, Reino Unido, Índia, Dinamarca, entre outros, ampliam o escopo para uma visão global, abordando casos de manipulação política, fraudes comerciais, violações de privacidade e até usos em conflitos sociais e criminais.
Representatividade da Amostra: A amostra de 40 postagens pode ser considerada representativa de tendências discursivas sobre deepfakes em plataformas digitais, especialmente no X, no período de 2015 a 2025, mas com limitações. A inclusão de postagens brasileiras (10) oferece uma visão significativa das preocupações locais, especialmente em relação às eleições e questões éticas, refletindo o contexto de um país com alta penetração de redes sociais e vulnerabilidade à desinformação. As postagens internacionais, por sua vez, capturam a diversidade de usos e impactos dos deepfakes em diferentes cenários culturais e políticos, como campanhas eleitorais na Eslováquia, conflitos na Ucrânia, e abusos contra figuras públicas no Japão. No entanto, a amostra não é exaustiva, pois depende de postagens públicas disponíveis no X e em fontes complementares, o que pode excluir vozes de outras plataformas ou de usuários menos ativos digitalmente. Além disso, a seleção de postagens opinativas pode enfatizar tons alarmistas ou indignados, sub representando visões neutras ou positivas sobre o uso de deepfakes (como em entretenimento). Assim, embora a amostra seja robusta para análise de discurso em contextos digitais, ela reflete principalmente as preocupações de usuários engajados em debates públicos online e deve ser interpretada com cautela ao generalizar para populações mais amplas.
Amostra
Postagem 1: Com menos de $100 você consegue criar um deepfake de qualquer um, basta ter alguns segundos ou minutos de áudio e/ou vídeo dessa pessoa. A maioria dos brasileiros não está minimamente preparada para discernir isso. Não se pode confirmar nem mais na voz.
Postagem 2: IA generativa é um câncer. Quero nem ver nas eleições ano que vem como que isso vai ficar com o tanto de fake news. Isso sem entrar ainda nos casos de deep fake de meninas, vídeos falsos pra difamar alguém e coisas do tipo que isso pode gerar.
Postagem 3: Se já era ruim propaganda paga para golpes, imagine agora que podemos ter áudio e vídeo de qualquer um, falando qualquer coisa. Anota aí: Vocês vão ver deepfake sendo usados com força na eleição do ano que vem.
Postagem 4: Você viu um vídeo dizendo que todo brasileiro tem direito a uma compensação bancária? Cuidado. É deepfake, e o golpe vem disfarçado de noticiário sério, com políticos e jornalistas que nem participaram da gravação. Entenda como funciona e como se proteger. Confira no nosso blog.
Postagem 5: No ep 5 de semana retrasada, eu comentei sobre uns casos de uso bizarros de tecnologia com Inteligência Artificial. – Adolescentes vendendo deepfake de alunas menores de idade nuas DENTRO da escola. – Mulheres asiáticas sendo perseguidas e tendo deepfakes comercializados.
Postagem 6: Olha, já fui alvo de deepfake. Circula vídeo erótico como se fosse eu em alguns chans. Como essa decisão vai coibir isso? Bem, não vai. Porque o problema maior sequer está em big techs. Vamos lá: EI e Al-Qaeda no Rocket Chat que é d-web Download. Quem vai ser responsabilizado?
Postagem 7: Rapaz, o avanço da IA tá ficando cada vez mais bizarro. Principalmente nas que geram vídeo e imagem. Se isso não for regulado logo e com força, vamos ver gente pegando foto de vizinha no Instagram e jogando em deepfake explícito, só por zoeira. E não duvido nem de verem essas.
Postagem 8: Eu abri o vídeo já pensando ‘nem fudendo que a Paes Leme vai falar meu nome’. Aí eu vi a Paes Leme falando meu nome e me senti vendo aqueles deepfake feito por inteligência artificial.
Postagem 9: Tecnologia Deep Fake: observe a mudança de rosto. Com a tecnologia deep fake, qualquer pessoa no mundo pode ser facilmente inserida em um vídeo ou foto da qual não participou. O que é realmente assustador sobre essa tecnologia é que literalmente qualquer coisa pode ser anexada.
Postagem 10: Não sei cara. A princípio concordo também (embora ache compra de voto e curral eleitoral o end game óbvio da democracia num país pobre). Mas vai q deepfakes e vídeo AI decolam ano q vem e mudam tudo. E nem tô falando só de deepfake falando q o oponente é pedófilo ou racista, mas…
Postagem 11: Um grande partido político no Brasil admitiu usar campanhas de deepfake geradas por IA, financiadas totalmente em criptomoedas para evitar rastreamento. Sim, a desinformação agora é programável — e paga com moedas de privacidade. O que é assustador? Deepfakes podem imitar políticos em tempo real.
Postagem 12: Mas tem um problema grave: hoje, é quase impossível garantir que uma pessoa online é quem diz ser. E a IA só piora isso. Deepfakes, vozes clonadas, identidades forjadas… Como confiar?
Postagem 13: Cientista da computação aqui: Cada vez que vocês mandam uma foto para esses serviços de deepfake ‘só pela zueira’, vocês aumentam o banco de dados deles, e assim tornam mais fácil a vida dos incels que geram deepfake de mulheres, muitas vezes de menores de idade. Não alimentem isso!
Postagem 14: As deepfakes de áudio na Eslováquia antes das eleições são um alerta. Áudios falsos de políticos falando sobre manipulação eleitoral apareceram no Facebook, e as regras eleitorais dificultaram a checagem. Isso é um perigo para qualquer democracia.
Postagem 15: Um deepfake do Zelensky pedindo aos soldados ucranianos para se renderem foi espalhado nas redes sociais russas. Foi desmascarado rápido, mas mostra como essa tecnologia pode ser usada para desinformar em guerras. É assustador.
Postagem 16: A Dinamarca está certa em dar às pessoas direitos autorais sobre suas próprias características. Deepfakes do Papa Francisco viralizaram, e isso mostra como nossa imagem e voz podem ser roubadas. Precisamos de leis assim em todos os lugares!
Postagem 17: Deepfakes estão por toda parte agora, desde pornografia infantil até fraudes eleitorais. O Reino Unido está trabalhando em ferramentas para detectar isso, mas o desafio é enorme. Como vamos lidar com essa ameaça crescente?
Postagem 18: Deepfakes estão sendo usados para criar anúncios falsos com celebridades endossando produtos que nunca tocaram. Vi um vídeo do Tom Hanks ‘vendendo’ um remédio duvidoso. Isso é fraude descarada!
Postagem 19: Na Índia, deepfakes estão sendo usados para traduzir discursos políticos em línguas regionais. Parece útil, mas quem garante que não estão alterando o conteúdo? Isso pode manipular eleitores!”
Postagem 20: Acabei de ver um deepfake de um político australiano ‘confessando’ corrupção. Era tão real que quase acreditei. Precisamos de leis mais duras contra isso, agora!
Postagem 21: Deepfakes de voz são o próximo grande problema. Recebi uma ligação de ‘meu chefe’ pedindo uma transferência bancária. Era IA. Empresas precisam treinar funcionários para isso.
Postagem 22: Deepfakes são uma ameaça à privacidade. Minha amiga teve sua foto usada em um vídeo explícito falso. Ela está devastada, e a polícia diz que não pode fazer nada. Isso é inaceitável.
Postagem 23: Na Alemanha, estão debatendo banir deepfakes em propagandas políticas. Boa ideia, mas como fiscalizar? A IA está sempre um passo à frente.
Postagem 24: Deepfakes estão matando a confiança nas notícias. Como saber se um vídeo de um político é real? Estamos entrando numa era onde nada é confiável.
Postagem 25: Na África do Sul, deepfakes estão sendo usados para incitar tensões raciais. Vídeos falsos de líderes comunitários estão circulando. Isso é perigoso demais!
Postagem 26: No Japão, idols estão sendo alvo de deepfakes pornográficos. É nojento e desrespeitoso. As empresas de tecnologia precisam ser responsabilizadas!
Postagem 27: Eu sou a favor de usar deepfakes para filmes e entretenimento, mas o problema é quando vira arma para difamação ou golpes. Precisamos de um equilíbrio.
Postagem 28: Na França, um deepfake de um candidato presidencial foi espalhado antes das eleições. Felizmente, foi desmascarado, mas o estrago já estava feito. Precisamos de mais educação sobre isso.
Postagem 29: Deepfakes estão sendo usados para criar ‘provas’ falsas em tribunais. Vi um caso onde um vídeo falso quase condenou um inocente. Isso é aterrorizante!
Postagem 30: No México, cartéis estão usando deepfakes para ameaçar rivais com vídeos falsos. Isso leva a violência real. A IA está ficando fora de controle!
Postagem 31: Deepfakes estão começando a aparecer em todos os lugares. Vi um vídeo falso no Twitter de um político dizendo coisas absurdas. Isso vai bagunçar as eleições se não controlarmos.
Postagem 32: Acabei de ver um deepfake pornográfico de uma atriz famosa no Reddit. Isso é assustador e antiético. Como as pessoas podem achar isso aceitável?”
Postagem 33: Deepfakes estão ficando tão realistas que não sei mais no que acreditar. Vi um vídeo falso de um apresentador da BBC no Facebook. Precisamos de ferramentas para detectar isso urgente!
Postagem 34: Acabei de descobrir o que são deepfakes. Alguém pegou um vídeo antigo meu e colocou meu rosto em algo que nunca fiz. Isso é uma invasão de privacidade total!
Postagem 35: Na Espanha, estão usando deepfakes para criar vídeos satíricos de políticos. Pode ser engraçado, mas também perigoso. Como distinguir sátira de desinformação?
Postagem 36: Deepfakes são uma ameaça à democracia. Vídeos falsos de líderes mundiais podem causar caos. Precisamos de leis globais para controlar isso antes que seja tarde.
Postagem 37: Na Itália, um deepfake de um cantor famoso foi usado para promover um produto falso. Isso engana os fãs e destrói a confiança. As empresas de IA têm que ser responsabilizadas!
Postagem 38: Deepfakes estão sendo usados em golpes de namoro online. Recebi um vídeo de uma ‘namorada’ que não existe. Isso é cruel e precisa parar!
Postagem 39: Na Índia, deepfakes de atores de Hollywood estão sendo usados para anúncios falsos. Parece inofensivo, mas engana milhões. Precisamos de mais consciência sobre isso.
Postagem 40: Acabei de ver um vídeo falso de um político no YouTube, feito com essa coisa de ‘deepfake’. Ainda é novidade, mas já dá pra ver que vai causar problemas sérios.
Análise de Cluster – Discurso Bakhtiniano
A análise abaixo segue os princípios da Análise do Discurso Bakhtiniano, aplicada aos 40 posts sobre deepfakes presentes no documento.
Codificação e Subcodificação dos 40 Posts
Abaixo, cada postagem recebe um código principal (tema central) baseado em seu foco principal, seguido de subcódigos que capturam nuances específicas do tema.
A codificação é derivada do conteúdo e do tom de cada postagem, refletindo preocupações, contextos ou implicações da tecnologia de deepfakes.
Postagem 1
Código Principal: Acessibilidade e Desinformação
Subcódigos: Baixo custo de produção, Vulnerabilidade da população, Dificuldade de detecção, Impacto nas eleições
Explicação: A postagem destaca a acessibilidade da tecnologia de deepfake e a falta de preparo da população para identificá-la, com ênfase no impacto eleitoral.
Postagem 2
Código Principal: Desinformação e Ética
Subcódigos: Fake news eleitorais, Difamação, Abuso ético, Impacto social
Explicação: A postagem associa deepfakes à disseminação de fake news em eleições e a abusos éticos, como vídeos falsos para difamação.
Postagem 3
Código Principal: Manipulação Eleitoral
Subcódigos: Propaganda enganosa, Impacto nas eleições, Uso em campanhas, Desconfiança pública
Explicação: Foca no uso de deepfakes em propagandas eleitorais, prevendo aumento de desinformação em futuras eleições.
Postagem 4
Código Principal: Golpes Financeiros
Subcódigos: Fraudes disfarçadas, Uso de figuras públicas, Engano em noticiários, Educação contra golpes
Explicação: Alerta sobre deepfakes em golpes financeiros, como vídeos falsos imitando noticiários com políticos e jornalistas.
Postagem 5
Código Principal: Exploração e Abuso
Subcódigos: Exploração sexual infantil, Comercialização de deepfakes, Perseguição online, Impunidade
Explicação: Aborda o uso de deepfakes para criar conteúdos sexuais falsos, especialmente contra menores e mulheres.
Postagem 6
Código Principal: Experiência Pessoal e Responsabilidade
Subcódigos: Vítima de deepfake, Conteúdo sexual falso, Falta de regulação, Responsabilidade das big techs
Explicação: Relata uma experiência pessoal com deepfake pornográfico e questiona a falta de responsabilização das plataformas.
Postagem 7
Código Principal: Preocupações com Tecnologia
Subcódigos: Avanço tecnológico, Falta de regulação, Abuso de imagens pessoais, Riscos éticos
Explicação: Expressa preocupação com o avanço não regulado da IA e o potencial uso indevido de imagens pessoais.
Postagem 8
Código Principal: Realismo de Deepfakes
Subcódigos: Confusão com realidade, Uso de celebridades, Impacto psicológico, Tecnologia avançada
Explicação: Destaca o realismo de um deepfake personalizado, confundindo o usuário com uma figura pública.
Postagem 9
Código Principal: Manipulação de Mídia
Subcódigos: Alteração de vídeos/fotos, Acessibilidade tecnológica, Riscos éticos, Desinformação generalizada
Explicação: Enfatiza a facilidade de manipular vídeos com deepfakes, levantando preocupações éticas.
Postagem 10
Código Principal: Impacto Político
Subcódigos: Difamação política, Manipulação eleitoral, Desinformação programada, Vulnerabilidade democrática
Explicação: Discute o potencial de deepfakes para difamar políticos e influenciar eleições.
Postagem 11
Código Principal: Política e Criptografia
Subcódigos: Financiamento obscuro, Evasão de rastreamento, Manipulação eleitoral, Desinformação programável
Explicação: Relata o uso de deepfakes em campanhas políticas financiadas por criptomoedas, dificultando rastreamento.
Postagem 12
Código Principal: Crise de Confiança
Subcódigos: Identidade forjada, Voz clonada, Desconfiança online, Impacto social
Explicação: Aborda como deepfakes agravam a desconfiança em identidades online.
Postagem 13
Código Principal: Contribuição Inadvertida e Riscos
Subcódigos: Banco de dados de IA, Exploração de menores, Responsabilidade do usuário, Ética tecnológica
Explicação: Alerta que o uso recreativo de deepfakes alimenta bancos de dados para abusos.
Postagem 14
Código Principal: Ameaças à Democracia
Subcódigos: Áudios falsos, Manipulação eleitoral, Falta de checagem, Risco global
Explicação: Cita o caso da Eslováquia, destacando o impacto de deepfakes em eleições.
Postagem 15
Código Principal: Desinformação em Conflitos
Subcódigos: Propaganda de guerra, Manipulação de líderes, Riscos geopolíticos, Desmascaramento rápido
Explicação: Relata um deepfake de Zelensky em contexto de guerra, mostrando seu uso em desinformação.
Postagem 16
Código Principal: Privacidade e Direitos
Subcódigos: Direitos autorais pessoais, Roubo de imagem/voz, Necessidade de leis, Uso de figuras públicas
Explicação: Apoia leis de proteção à imagem, citando o caso do Papa Francisco.
Postagem 17
Código Principal: Amplitude do Problema
Subcódigos: Pornografia infantil, Fraudes eleitorais, Desafios de detecção, Regulação global
Explicação: Aborda a ampla gama de usos criminosos de deepfakes e a necessidade de ferramentas de detecção.
Postagem 18
Código Principal: Fraudes Comerciais
Subcódigos: Anúncios falsos, Uso de celebridades, Engano ao consumidor, Ética publicitária
Explicação: Denuncia deepfakes em anúncios falsos com celebridades.
Postagem 19
Código Principal: Manipulação Cultural
Subcódigos: Tradução de discursos, Manipulação de conteúdo, Impacto eleitoral, Desinformação regional
Explicação: Questiona o uso de deepfakes para traduzir discursos políticos na Índia.
Postagem 20
Código Principal: Desinformação Política
Subcódigos: Confissões falsas, Realismo de deepfakes, Necessidade de regulação, Impacto eleitoral
Explicação: Relata um deepfake de um político australiano, pedindo leis mais rígidas.
Postagem 21
Código Principal: Golpes Corporativos
Subcódigos: Deepfakes de voz, Fraudes financeiras, Treinamento corporativo, Riscos empresariais
Explicação: Alerta sobre deepfakes de voz usados em fraudes corporativas.
Postagem 22
Código Principal: Violação de Privacidade
Subcódigos: Vídeos explícitos falsos, Impacto emocional, Impunidade legal, Abuso ético
Explicação: Relata o impacto pessoal de um deepfake pornográfico e a falta de ação legal.
Postagem 23
Código Principal: Regulação Política
Subcódigos: Banimento de deepfakes, Propaganda política, Desafios de fiscalização, Avanço tecnológico
Explicação: Discute a proposta alemã de banir deepfakes em propagandas políticas.
Postagem 24
Código Principal: Crise de Confiança
Subcódigos: Desconfiança nas notícias, Realismo de deepfakes, Impacto na mídia, Riscos sociais
Explicação: Enfatiza como deepfakes minam a confiança em vídeos de notícias.
Postagem 25
Código Principal: Conflitos Sociais
Subcódigos: Tensões raciais, Vídeos falsos de líderes, Riscos comunitários, Desinformação social
Explicação: Relata o uso de deepfakes para incitar conflitos raciais na África do Sul.
Postagem 26
Código Principal: Exploração Sexual
Subcódigos: Deepfakes pornográficos, Alvo de idols, Desrespeito ético, Responsabilidade tecnológica
Explicação: Denuncia deepfakes pornográficos de idols japonesas.
Postagem 27
Código Principal: Uso Ético de Deepfakes
Subcódigos: Aplicações em entretenimento, Riscos de difamação, Necessidade de equilíbrio, Regulação
Explicação: Reconhece usos positivos de deepfakes, mas alerta para riscos éticos.
Postagem 28
Código Principal: Desinformação Eleitoral
Subcódigos: Vídeos falsos de candidatos, Impacto eleitoral, Educação pública, Desmascaramento
Explicação: Relata um deepfake de um candidato francês e pede mais educação.
Postagem 29
Código Principal: Abuso Legal
Subcódigos: Provas falsas, Impacto judicial, Riscos de injustiça, Tecnologia avançada
Explicação: Alerta sobre deepfakes usados como provas falsas em tribunais.
Postagem 30
Código Principal: Violência e Crime
Subcódigos: Ameaças de cartéis, Vídeos falsos, Violência real, Falta de controle
Explicação: Relata o uso de deepfakes por cartéis mexicanos para ameaças.
Postagem 31
Código Principal: Ameaças à Democracia
Subcódigos: Vídeos políticos falsos, Impacto eleitoral, Desinformação em redes, Necessidade de controle
Explicação: Alerta sobre deepfakes políticos em redes sociais.
Postagem 32
Código Principal: Exploração Sexual
Subcódigos: Deepfakes pornográficos, Ética tecnológica, Impacto em celebridades, Abuso online
Explicação: Denuncia um deepfake pornográfico de uma atriz famosa.
Postagem 33
Código Principal: Desafios de Detecção
Subcódigos: Realismo de deepfakes, Necessidade de ferramentas, Desconfiança na mídia, Impacto social
Explicação: Enfatiza a dificuldade de detectar deepfakes realistas.
Postagem 34
Código Principal: Violação de Privacidade
Subcódigos: Uso de vídeos pessoais, Invasão de privacidade, Impacto emocional, Falta de proteção
Explicação: Relata uma experiência pessoal de invasão de privacidade por deepfake.
Postagem 35
Código Principal: Sátira e Desinformação
Subcódigos: Vídeos satíricos, Confusão com realidade, Riscos de manipulação, Impacto político
Explicação: Discute o uso de deepfakes satíricos na Espanha e seus riscos.
Postagem 36
Código Principal: Ameaças Globais
Subcódigos: Caos político, Necessidade de leis globais, Manipulação de líderes, Riscos democráticos
Explicação: Alerta para o impacto global de deepfakes em líderes mundiais.
Postagem 37
Código Principal: Fraudes Comerciais
Subcódigos: Uso de celebridades, Engano de fãs, Responsabilidade de empresas, Ética publicitária
Explicação: Relata deepfakes de cantores italianos em propagandas falsas.
Postagem 38
Código Principal: Golpes Sentimentais
Subcódigos: Deepfakes em namoro online, Engano emocional, Crueldade ética, Necessidade de regulação
Explicação: Denuncia deepfakes em golpes de namoro online.
Postagem 39
Código Principal: Fraudes Comerciais
Subcódigos: Anúncios falsos, Uso de celebridades, Engano em massa, Educação pública
Explicação: Relata deepfakes de atores de Hollywood em anúncios falsos na Índia.
Postagem 40
Código Principal: Preocupações com Tecnologia
Subcódigos: Novidade tecnológica, Riscos eleitorais, Impacto social, Necessidade de regulação
Explicação: Expressa preocupação com o potencial disruptivo dos deepfakes.
Análise de Clusters – Perspectiva Bakhtiniana
Os códigos e subcódigos foram agrupados em quatro clusters temáticos, com base nas semelhanças temáticas e nas preocupações expressas nas postagens.
Abaixo, explico como os códigos contribuem para cada cluster:
Cluster 1: Ameaças à Democracia e à Política
Postagens Associadas: 1, 3, 10, 11, 14, 20, 23, 28, 31, 36
Códigos Principais: Acessibilidade e Desinformação, Manipulação Eleitoral, Política e Criptografia, Ameaças à Democracia, Desinformação Política, Regulação Política, Ameaças Globais
Explicação: Este cluster reúne postagens que abordam o uso de deepfakes para manipular eleições (Postagens 1, 3, 10, 14, 20, 28, 31), financiar campanhas obscuras (Postagem 11), e criar caos político global (Postagem 36). Os subcódigos destacam fake news eleitorais, vídeos falsos de políticos, e a dificuldade de checagem, refletindo preocupações com a erosão da confiança democrática.
Cluster 2: Exploração e Abuso Sexual
Postagens Associadas: 5, 6, 13, 22, 26, 32
Códigos Principais: Exploração e Abuso, Experiência Pessoal e Responsabilidade, Contribuição Inadvertida e Riscos, Exploração Sexual
Explicação: Este cluster foca no uso de deepfakes para criar conteúdos sexuais não consensuais, especialmente contra menores e mulheres (Postagens 5, 13, 26, 32), e nas experiências pessoais de vítimas (Postagens 6, 22). Subcódigos como exploração sexual infantil e impunidade destacam a gravidade ética e social do problema.
Cluster 3: Golpes e Fraudes Financeiras
Postagens Associadas: 4, 18, 21, 37, 38, 39
Códigos Principais: Golpes Financeiros, Fraudes Comerciais, Golpes Corporativos, Golpes Sentimentais
Explicação: Este cluster inclui postagens sobre deepfakes usados em fraudes, como anúncios falsos com celebridades (Postagens 18, 37, 39), golpes financeiros disfarçados de noticiários (Postagem 4), fraudes corporativas com voz clonada (Postagem 21) e golpes sentimentais (Postagem 38). Subcódigos enfatizam o engano ao consumidor e a necessidade de educação.
Cluster 4: Preocupações com a Tecnologia e a Privacidade
Postagens Associadas: 7, 8, 9, 12, 16, 17, 24, 27, 29, 33, 34, 35, 40
Códigos Principais: Preocupações com Tecnologia, Realismo de Deepfakes, Manipulação de Mídia, Crise de Confiança, Privacidade e Direitos, Amplitude do Problema, Desafios de Detecção, Violação de Privacidade, Sátira e Desinformação
Explicação: Este cluster abrange preocupações gerais sobre a tecnologia de deepfakes, incluindo sua acessibilidade (Postagens 7, 9, 40), realismo (Postagens 8, 33), impacto na privacidade (Postagens 16, 22, 34), crise de confiança na mídia (Postagens 12, 24), usos judiciais perigosos (Postagem 29) e confusão entre sátira e desinformação (Postagem 35). Subcódigos como necessidade de regulação e desafios de detecção refletem a amplitude do problema.
Considerações A Respeito desta Clusterização
A codificação e a subcodificação foram realizadas de forma sistemática, identificando os temas centrais e as suas nuances em cada postagem. Os clusters foram formados agrupando postagens com códigos principais e subcódigos semelhantes, refletindo as preocupações dominantes sobre deepfakes: sua ameaça à democracia, seu uso em abusos sexuais, sua aplicação em fraudes financeiras e suas implicações para a privacidade e confiança pública. A análise segue a abordagem bakhtiniana, considerando o contexto social e discursivo das postagens, e destaca a diversidade de preocupações globais e locais expressas no período de 2015 a 2025. A Tabela 01 demonstra cada Postagem inserida no seu respectivo cluster.
Tabela 01. Clusters e as Postagens Correspondentes
Cluster | Postagens Correspondentes | Descrição do Cluster |
Ameaças à Democracia e à Política | 1, 3, 10, 11, 14, 20, 23, 28, 31, 36 | Engloba postagens que abordam o uso de deepfakes em manipulação eleitoral, desinformação política, financiamento obscuro de campanhas e riscos globais à democracia, com subcódigos como fake news eleitorais, vídeos falsos de políticos e dificuldade de checagem. |
Exploração e Abuso Sexual | 5, 6, 13, 22, 26, 32 | Reúne postagens sobre o uso de deepfakes para criar conteúdos sexuais não consensuais, especialmente contra menores e mulheres, e experiências pessoais de vítimas, com subcódigos como exploração sexual infantil, impunidade e perseguição online. |
Golpes e Fraudes Financeiras | 4, 18, 21, 37, 38, 39 | Inclui postagens sobre deepfakes usados em fraudes, como anúncios falsos com celebridades, golpes financeiros disfarçados de noticiários, fraudes corporativas com voz clonada e golpes sentimentais, com subcódigos como engano ao consumidor e necessidade de educação. |
Preocupações com a Tecnologia e a Privacidade | 7, 8, 9, 12, 16, 17, 24, 27, 29, 33, 34, 35, 40 | Abrange postagens sobre preocupações gerais com a tecnologia de deepfakes, incluindo acessibilidade, realismo, impacto na privacidade, crise de confiança na mídia, usos judiciais perigosos e confusão entre sátira e desinformação, com subcódigos como necessidade de regulação e desafios de detecção. |
Análise de Cluster – Perspectiva Foucaultiana
A Figura 01 revela os valores do WCSS (Within-Cluster Sum of Squares) para cada k testado (2 a 10). O WCSS representa a soma das distâncias quadráticas dos pontos ao centróide do seu cluster; quanto menor, melhor o agrupamento interno. Observe como a queda no WCSS desacelera após k=3 – esse “cotovelo” sinaliza que aumentos adicionais de k geram ganhos marginais, justificando a escolha de três clusters.
Figura 01. Análise do Cotovelo
A quebra pronunciada ocorre em k=3 (redução de WCSS deixa de ser expressiva após esse ponto), por isso mantivemos três clusters.
Análise foucaultiana dos discursos
Para cada grupo observei regularidades na formação dos enunciados (o “campo enunciativo” de Foucault), os sujeitos falantes, os objetos-discurso e os regimes de verdade construídos.
Cluster 1 – Ansiedade Tecno-existencial
Vocabulário dominante: inteligência artificial, medo, futuro, emprego.
Sujeito discursivo: indivíduo comum tentando antecipar ameaças.
Regime de verdade: a IA é vista como força quase transcendental; produz saber-poder pela difusão de cenários apocalípticos (perda de trabalho, colapso da identidade).
Cluster 2 – Máquina Política da Informação
Termos centrais: deepfake, política, eleições, fake news, manipulação.
Sujeito discursivo: o cidadão eleitor que desconfia do processo democrático.
Regime de verdade: a verdade política é instável e produzida por artefatos técnicos; o biopoder digital opera modulando a opinião pública.
Cluster 3 – Corpos Vigiados e Violados
Termos centrais: meninas, exposição, privacidade.
Sujeito discursivo: vítimas potenciais (principalmente mulheres) e defensores da integridade corporal.
Regime de verdade: o corpo digitalizado torna-se superfície de inscrição do poder; há um discurso de disciplinamento pelo medo da exposição íntima.
A Tabela 02 demonstra as postagens que pertencem aos diferentes clusters
Tabela 02. Postagens pelos tipos de clusters
Cluster | Postagens |
Ansiedade Tecno-Existencial | 1, 3, 5, 7, 9, 11, 13, 15, 17, 19, 21, 23, 25, 27, 29, 31, 33, 35, 37, 39 |
Máquina Política da Informação | 2, 8, 10, 14, 18, 22, 24, 26, 30, 32, 34, 38, 40 |
Corpos Vigiados e Violados | 4, 6, 12, 16, 20, 28, 36 |
Discussão
Os resultados desta pesquisa, obtidos por meio da análise qualitativa de 40 postagens coletadas em plataformas digitais, majoritariamente na plataforma X, entre 2015 e 2025, oferecem uma visão abrangente e multifacetada das percepções públicas sobre a tecnologia de deepfakes, corroborando e expandindo os pontos levantados na seção Introdução. A análise, fundamentada nas perspectivas bakhtiniana e foucaultiana, revelou quatro clusters temáticos na abordagem bakhtiniana (Ameaças à Democracia e à Política, Exploração e Abuso Sexual, Golpes e Fraudes Financeiras, Preocupações com a Tecnologia e a Privacidade) e três clusters na abordagem foucaultiana (Ansiedade Tecno-existencial, Máquina Política da Informação, Corpos Vigiados e Violados).
Esses resultados refletem as implicações éticas, sociais, políticas e epistemológicas dos deepfakes discutidas na Introdução, destacando tanto os potenciais benefícios quanto os prejuízos significativos associados a essa tecnologia, conforme apontado por Harris (2021) e Rini (2020).
Articulação com os Benefícios Potenciais dos Deepfakes
Na Introdução, foi destacado que os deepfakes possuem aplicações positivas em setores como entretenimento, educação e promoção de mensagens sociais, desde que utilizados de forma ética (Harris, 2021). A análise das postagens confirma essa perspectiva, embora de maneira limitada. A Postagem 27, incluída no cluster “Uso Ético de Deepfakes” (perspectiva bakhtiniana) e no cluster “Ansiedade Tecno-existencial” (perspectiva foucaultiana), reconhece explicitamente o potencial dos deepfakes em filmes e entretenimento, sugerindo que a tecnologia pode ser usada para fins criativos e inovadores. Esse discurso alinha-se com a ideia de Harris (2021) de que deepfakes podem recriar figuras históricas ou celebridades em contextos novos, promovendo narrativas inovadoras. No entanto, a postagem também alerta para os riscos de difamação e golpes, indicando uma percepção ambivalente que reflete a necessidade de equilíbrio entre inovação e regulamentação, conforme sugerido na Introdução. A menção a usos satíricos na Postagem 35, que discute vídeos satíricos de políticos na Espanha, reforça a possibilidade de aplicações criativas, mas destaca o desafio de distinguir sátira de desinformação, um ponto também abordado por Harris (2021) ao discutir o uso ético da tecnologia.
Apesar dessas menções positivas, a amostra revela que as percepções públicas sobre os deepfakes são predominantemente negativas, com um foco muito maior nos riscos do que nos benefícios. Isso pode ser atribuído ao viés de seleção das postagens, que priorizou conteúdos com relevância temática e tons expressivos, como alarmismo ou indignação, conforme discutido na seção de Representatividade da Amostra. Essa predominância de discursos negativos sugere que, embora os benefícios dos deepfakes sejam teoricamente reconhecidos, as preocupações com seus usos maliciosos prevalecem no imaginário coletivo, especialmente em contextos digitais onde a disseminação de conteúdos manipulados é amplificada por algoritmos de viralização (Napshin et al., 2025).
Erosão da Confiança e o Anteparo Epistêmico
A Introdução enfatiza a ameaça dos deepfakes ao “anteparo epistêmico”, conceito desenvolvido por Rini (2020) para descrever o papel regulador das gravações audiovisuais na validação de testemunhos. Os resultados confirmam essa preocupação, com várias postagens destacando a erosão da confiança em evidências audiovisuais. O cluster “Preocupações com a Tecnologia e a Privacidade” (perspectiva bakhtiniana) e o cluster “Ansiedade Tecno-existencial” (perspectiva foucaultiana) agrupam postagens como a 12, 24 e 33, que expressam diretamente a dificuldade de distinguir vídeos reais de falsos, minando a confiança em notícias e identidades online. A Postagem 24, por exemplo, afirma que “deepfakes estão matando a confiança nas notícias”, ecoando a ideia de Rini (2020) de que a possibilidade de manipulação cria “crises de anteparo”, onde a plausibilidade de um vídeo ser falso compromete a sua credibilidade, mesmo que genuíno.
Esse fenômeno é agravado em contextos de polarização política, como ilustrado pelas Postagens 14, 20, 28 e 31, que relatam o uso de deepfakes em campanhas eleitorais na Eslováquia, Austrália, França e outras regiões, pertencentes ao cluster “Ameaças à Democracia e à Política” (perspectiva bakhtiniana) e “Máquina Política da Informação” (perspectiva foucaultiana). Essas postagens corroboram a observação de Harris (2021) de que deepfakes políticos, mesmo quando desmascarados, podem influenciar a percepção pública, especialmente em ambientes polarizados. O caso do deepfake de Zelensky (Postagem 15), usado em propaganda de guerra, exemplifica como a tecnologia pode desestabilizar a confiança pública, alinhando-se com o exemplo do vídeo de Ali Bongo citado por Breland (2019), onde a mera suspeita de manipulação contribuiu para uma crise política.
A análise foucaultiana reforça essa discussão ao identificar o “regime de verdade” no cluster “Máquina Política da Informação”, onde a verdade política é vista como instável e moldada por artefatos técnicos. O sujeito discursivo desse cluster, o “cidadão eleitor”, reflete a desorientação epistêmica descrita por Rini (2020), onde a desconfiança generalizada leva a um ceticismo paralisante ou à adesão a narrativas que confirmam vieses preexistentes. Esse cenário é particularmente preocupante em contextos como o Brasil, onde as Postagens 1, 3, 10 e 11 destacam a vulnerabilidade da população à desinformação eleitoral, agravada pela acessibilidade da tecnologia de deepfakes e pelo uso de criptomoedas para financiar campanhas obscuras (Postagem 11).
Impactos Psicológicos e Sociais: Pornografia Deepfake e Violência de Gênero
A Introdução destaca os danos psicológicos e sociais dos deepfakes, especialmente na pornografia não consensual, que reforça desigualdades de gênero e estereótipos prejudiciais (Harris, 2021; Mania, 2022). O cluster “Exploração e Abuso Sexual” (perspectiva bakhtiniana) e “Corpos Vigiados e Violados” (perspectiva foucaultiana) agrupam postagens como 5, 6, 13, 22, 26 e 32, que denunciam o uso de deepfakes para criar conteúdos sexuais falsos, especialmente contra mulheres e menores. A Postagem 5, por exemplo, relata casos de adolescentes vendendo deepfakes pornográficos de alunas dentro de escolas, enquanto a Postagem 6 descreve a experiência pessoal de uma vítima, destacando o impacto emocional devastador e a impunidade legal, corroborando as observações de Campbell et al. (2022) sobre os traumas causados por esses abusos.
A predominância de vítimas femininas, conforme apontado pelo relatório da DeepTrance (90% das vítimas de pornografia deepfake são mulheres) e pelo HateAid (2021), que revelou o medo de 30% das mulheres de terem imagens falsificadas, é refletida nas postagens. O cluster “Corpos Vigiados e Violados” identifica o corpo digitalizado como uma “superfície de inscrição do poder” (perspectiva foucaultiana), onde o medo da exposição íntima atua como um mecanismo de disciplinamento social, especialmente para mulheres. A Postagem 13 alerta que o uso recreativo de deepfakes alimenta bancos de dados que facilitam abusos, destacando a responsabilidade inadvertida dos usuários, uma preocupação alinhada com Napshin et al. (2025).
A comparação entre pornografia de vingança e pornografia deepfake, discutida na Introdução, é enriquecida pelos resultados. As Postagens 6 e 22, que relatam experiências de vítimas, ilustram os impactos psicológicos semelhantes de ambos os fenômenos, mas a natureza fabricada dos deepfakes, como apontado na Postagem 7 (que menciona o uso de fotos públicas do Instagram), amplia a vulnerabilidade, pois qualquer pessoa com acesso a imagens públicas pode ser alvo. Isso reforça a observação de Mania (2022) de que a pornografia deepfake reduz as barreiras para a perpetração de abusos, exigindo regulamentações específicas que abordem o uso de inteligência artificial.
Desafios Legais e Regulatórios
A Introdução enfatiza a necessidade de regulamentação ética e estratégias para mitigar os danos dos deepfakes (Harris, 2021; Chesney & Citron, 2019). As postagens refletem uma demanda generalizada por leis mais robustas, especialmente nas Postagens 16, 23, 36 e 37, que pedem regulamentações globais e responsabilização de empresas de tecnologia. A Postagem 16, por exemplo, elogia a iniciativa da Dinamarca de conceder direitos autorais sobre características pessoais, sugerindo um modelo para proteger a imagem e voz, enquanto a Postagem 23 discute a proposta alemã de banir deepfakes em propagandas políticas, destacando os desafios de fiscalização devido à rápida evolução da tecnologia (Westerlund, 2019).
A análise também revela a lacuna regulatória apontada por Mania (2022), especialmente em relação à pornografia deepfake. A Postagem 6, que questiona a impunidade de plataformas e redes descentralizadas, ecoa a dificuldade de aplicar leis locais em um contexto transnacional, como discutido na Introdução. A menção à legislação da Califórnia (Assembly Bill 602) e de Nova York na seção “Pornografia Deepfake ou Pornografia de Vingança” é complementada pela Postagem 22, que lamenta a inação policial diante de um deepfake pornográfico, indicando que as vítimas frequentemente carecem de recursos legais adequados.
Responsabilidade Distribuída e Educação Midiática
A seção “Deepfakes: De Quem é a Responsabilidade?” da Introdução argumenta que a responsabilidade pelos impactos dos deepfakes é compartilhada entre indivíduos, governos, desenvolvedores de softwares, plataformas de mídia social e outlets de mídia (Napshin et al., 2025). Os resultados corroboram essa visão, com postagens como a 13 (que responsabiliza usuários por alimentarem bancos de dados de IA) e a 26 (que exige responsabilidade das empresas de tecnologia) refletindo a percepção de uma responsabilidade distribuída. A Postagem 4, que sugere educação contra golpes financeiros, e a Postagem 28, que pede mais educação pública sobre deepfakes eleitorais, reforçam a importância da educação midiática proposta por Harris (2021) e Chesney e Citron (2019) para capacitar o público a avaliar criticamente fontes de informação.
A análise foucaultiana do cluster “Ansiedade Tecno-existencial” destaca a visão da IA como uma “força quase transcendental”, refletida em postagens como a 7 e a 9, que expressam temor diante do avanço tecnológico não regulado. Essa percepção alinha-se com a discussão de Napshin et al. (2025) sobre a preocupação individual com a confiança em vídeos online, mas também revela uma limitação: A expectativa de que indivíduos desenvolvam habilidades para identificar deepfakes (Postagem 13) pode ser irrealista, dado o baixo índice de acurácia na detecção (26%, conforme Napshin et al., 2025).
Implicações Sociais e Políticas
Os resultados amplificam as implicações sociais e políticas discutidas na Introdução, especialmente no que diz respeito à manipulação política e à violência de gênero. O cluster “Ameaças à Democracia e à Política” (perspectiva bakhtiniana) e “Máquina Política da Informação” (perspectiva foucaultiana) agrupam postagens que ilustram o uso de deepfakes em contextos como eleições (Postagens 1, 3, 10, 14, 20, 28, 31), conflitos geopolíticos (Postagem 15) e tensões raciais (Postagem 25). Esses casos confirmam a advertência de Chesney e Citron (2019) sobre o potencial dos deepfakes para interferência eleitoral e manipulação social, destacando a necessidade de políticas regulatórias que equilibrem proteção contra desinformação e liberdade de expressão.
A predominância de vítimas femininas nos deepfakes pornográficos, refletida no cluster “Corpos Vigiados e Violados”, reforça a dimensão de gênero discutida por Mania (2022) e Harris (2021). A Postagem 26, que denuncia deepfakes de idols japonesas, e a Postagem 32, que menciona uma atriz famosa, ilustram como a tecnologia perpetua a objetificação e a violência de gênero, exigindo respostas legais e sociais que abordem essas práticas como formas de violência estrutural.
Limitações e Considerações Finais
Embora a amostra de 40 postagens seja representativa das tendências discursivas no período analisado, ela apresenta limitações, como a exclusão de vozes de plataformas menos acessíveis ou de usuários menos ativos digitalmente, conforme discutido na seção de Representatividade da Amostra. A predominância de tons alarmistas pode sub representar visões positivas sobre os deepfakes, como seu uso em entretenimento ou educação, sugerindo a necessidade de futuras pesquisas que incluam uma amostra mais diversa.
Em suma, os resultados desta pesquisa confirmam as preocupações levantadas na Introdução sobre os impactos negativos dos deepfakes, incluindo a erosão do anteparo epistêmico, os danos psicológicos e sociais, especialmente em contextos de pornografia não consensual, e os desafios regulatórios. A análise bakhtiniana e foucaultiana revela a complexidade dos discursos públicos, que oscilam entre o temor de uma “catástrofe epistêmica” e a esperança em soluções tecnológicas e educacionais. A abordagem integrada proposta por Harris (2021), Rini (2020) e Chesney e Citron (2019) — combinando regulamentação, educação midiática e inovações tecnológicas — é corroborada pelas postagens, que demandam ações coordenadas para mitigar os riscos dos deepfakes enquanto preservam seus potenciais benefícios. Esta pesquisa contribui para o debate ao oferecer uma compreensão detalhada das percepções públicas, destacando a urgência de estratégias que promovam um uso ético da tecnologia e protejam a confiança na informação e a dignidade das vítimas.
Referências Breland, A. (2019). The bizarre and terrifying case of the “deepfake” video that helped bring an African nation to the brink. Mother Jones. https://www.motherjones.com/politics/2019/03/deepfake-gabon-ali-bongo/ Campbell, J. K., Pegg, M. G., & Gentry, G. (2022). The need for legal and technological remedies for revenge porn and deepfake porn. Trauma, Violence, & Abuse, 25(1), 118-129. https://doi.org/10.1177/15248380221144772 Chesney, R., & Citron, D. K. (2019). Deep fakes: A looming challenge for privacy, democracy, and national security. California Law Review, 107, 175-218. https://ssrn.com/abstract=3213954 Cole, S. (2017). AI-assisted fake porn is here and we’re all fucked. Motherboard. https://motherboard.vice.com/en_us/article/gydydm/gal-gadot-fake-ai-porn Darby, L. (2019). What is Biden doing to his wife’s hand? GQ. https://www.gq.com/story/what-is-biden-doing Farid, H. (2018). Digital forensics in a post-truth age. Forensic Science International, 289, 268-269. https://doi.org/10.1016/j.forsciint.2018.05.025 Fricker, M. (2007). Epistemic injustice: Power and the ethics of knowing. Oxford University Press. Harris, K. R. (2021). Video on demand: What deepfakes do and how they harm. Synthese, 199(5-6), 13373-13391. https://doi.org/10.1007/s11229-021-03379-y Jin, Z., Mysore, G. J., Diverdi, S., Lu, J., & Finkelstein, A. (2017). VoCo: Text-based insertion and replacement in audio narration. ACM Transactions on Graphics, 36(4), 96. https://doi.org/10.1145/3072959.3073643 King, D. (1997). The commissar vanishes: The falsification of photographs and art in Stalin’s Russia. Henry Holt and Company. Mania, K. (2022). Legal protection of revenge and deepfake porn victims in the European Union: Findings from a comparative legal study. Trauma, Violence, & Abuse, 25(1), 118-129. https://doi.org/10.1177/15248380221144772 Napshin, S., Paul, J. A., & Cochran, J. (2025). Development of an instrument to measure perceptions of responsibility for deepfakes. Cyberpsychology, Behavior, and Social Networking, 28(6), 417-424. https://doi.org/10.1089/cyber.2024.0500 Niessner, M., Theobalt, C., Stamminger, M., Zollhöfer, M., & Thies, J. (2016). Face2Face: Real-time face capture and reenactment of RGB videos. http://www.graphics.stanford.edu/~niessner/papers/2016/1facetoface/thies2016face.pdf Rini, R. (2020). Deepfakes and the epistemic backstop. Philosophers’ Imprint, 20(24), 1-16. http://www.philosophersimprint.org/020024/ Snyder, T. (2018). The road to unfreedom: Russia, Europe, and America. Penguin.Tufekci, Z. (2018). It’s the (democracy-poisoning) golden age of free speech. Wired. https://www.wired.com/story/free-speech-issue-tech-turmoil-new-censorship/ Vosoughi, S., Roy, D., & Aral, S. (2018). The spread of true and false news online. Science, 359(6380), 1146-1151. https://doi.org/10.1126/science.aap9559 Westerlund, M. (2019). The emergence of deepfake technology: A review. Technology Innovation Management Review, 9(11), 39-52. https://doi.org/10.22215/timreview/1282 Wittenbrink, B., Judd, C. M., & Park, B. (2001). Spontaneous prejudice in context: Variability in automatically activated attitudes. Journal of Personality and Social Psychology, 81(5), 815-827. https://doi.org/10.1037/0022-3514.81.5.815
Adendo
Relatório Ético-Jurídico
A tecnologia dos deepfakes, conforme o artigo demonstra, representa um avanço tecnológico com potencial de uso positivo em áreas como entretenimento, educação e promoção de mensagens sociais inclusivas. Contudo, os riscos associados são profundos e multifacetados, afetando a confiança pública, a privacidade individual, a integridade dos processos democráticos e a dignidade das vítimas, especialmente no contexto da pornografia deepfake e da manipulação política. A principal questão ética reside no uso dessa tecnologia para fins maliciosos, que violam direitos fundamentais, como a honra, a imagem, a privacidade e a segurança pessoal.
Do ponto de vista jurídico, o problema é complexo e exige uma abordagem multifacetada. Primeiramente, há a necessidade de reconhecer que os deepfakes desafiam os paradigmas tradicionais de prova e evidência, uma vez que vídeos e áudios, antes considerados robustos anteparos epistêmicos, agora podem ser fabricados com alta fidelidade, comprometendo a sua credibilidade. Isso gera um impacto direto no sistema judicial, que deve se adaptar para identificar e desconsiderar provas manipuladas, evitando injustiças e garantindo o devido processo legal. A criação de protocolos técnicos e periciais especializados em análise forense digital é essencial para que juízes e advogados possam avaliar a autenticidade de conteúdos audiovisuais apresentados em processos judiciais.
Além disso, a pornografia deepfake e outras formas de abuso envolvendo deepfakes configuram violações graves dos direitos da personalidade e podem ser enquadradas em crimes contra a honra, a intimidade, a imagem e a dignidade sexual, conforme previsto no Código Penal brasileiro e em legislações específicas de proteção à privacidade e à honra. Contudo, a ausência de regulamentação específica para deepfakes em muitas jurisdições, inclusive no Brasil, dificulta a responsabilização efetiva dos autores e disseminadores desses conteúdos. Portanto, é imperativo que o ordenamento jurídico avance na criação de normas que tipifiquem expressamente a criação e divulgação de deepfakes não consensuais como ilícitos penais, com penas proporcionais à gravidade dos danos causados.
Outro desafio jurídico reside na jurisdição e na aplicação das leis em um ambiente digital globalizado. A natureza transnacional da internet permite que deepfakes sejam produzidos em um país e disseminados em outro, dificultando a investigação e a punição dos responsáveis. Para superar essa barreira, é necessário fomentar a cooperação internacional entre autoridades policiais, judiciais e regulatórias, além de estabelecer acordos multilaterais que facilitem a troca de informações e a execução de medidas contra os infratores.
No campo da responsabilidade, o manuscrito acima destaca a distribuição do ônus entre diversos atores: indivíduos, desenvolvedores de software, plataformas digitais, governos e veículos de mídia. Cada um tem um papel crucial na prevenção e mitigação dos danos causados pelos deepfakes. Os desenvolvedores de tecnologias devem incorporar mecanismos de segurança e restrições para evitar usos maliciosos, enquanto as plataformas precisam implementar políticas rigorosas de moderação, remoção rápida de conteúdos ilícitos e transparência na atuação. Os governos, por sua vez, devem criar marcos regulatórios claros e eficazes, além de promover campanhas de educação midiática para capacitar a população a identificar e reagir criticamente a conteúdos manipulados.
Do ponto de vista ético, a criação e disseminação de deepfakes não consensuais violam princípios fundamentais como o respeito à dignidade humana, à autonomia e à privacidade. A manipulação da imagem e da voz de uma pessoa para fins difamatórios, pornográficos ou desinformativos representa uma forma de violência simbólica e psicológica, que pode causar danos irreparáveis à saúde mental e à reputação das vítimas. Portanto, a ética exige que a tecnologia seja desenvolvida e utilizada com responsabilidade, transparência e consentimento explícito, respeitando os direitos individuais e coletivos.
Para resolver o problema exposto no manuscrito acima, sugere-se um conjunto de ações coordenadas que podem ser adotadas, tanto em nível individual quanto institucional:
1. No âmbito jurídico, é fundamental promover a atualização legislativa para incluir dispositivos específicos que tipifiquem crimes relacionados aos deepfakes, com previsão clara de sanções penais e civis. Isso inclui a criminalização da criação, divulgação e comercialização de deepfakes não autorizados, especialmente em contextos de pornografia, difamação e manipulação eleitoral.
2. É necessário desenvolver e fortalecer a perícia técnica em análise de mídias digitais, capacitando profissionais para identificar deepfakes e fornecer pareceres confiáveis em processos judiciais e administrativos.
3. As plataformas digitais devem ser instadas a implementar sistemas avançados de detecção automática de deepfakes, aliados a políticas de remoção ágil e mecanismos de denúncia acessíveis aos usuários, garantindo a proteção das vítimas e a redução da circulação de conteúdos ilícitos.
4. A educação midiática deve ser incorporada em programas escolares e campanhas públicas, com o objetivo de aumentar a capacidade crítica da população para reconhecer conteúdos manipulados, evitando a propagação de desinformação e reduzindo a vulnerabilidade a golpes.
5. Em nível internacional, é imprescindível fomentar acordos de cooperação para investigação e repressão de crimes relacionados aos deepfakes, superando os desafios da jurisdição e da diversidade legislativa.
6. Por fim, é recomendável que vítimas de deepfakes busquem orientação jurídica especializada para avaliar a possibilidade de medidas judiciais, como ações de indenização por danos morais, pedidos de remoção de conteúdo e, quando cabível, representação criminal contra os responsáveis.
Critérios para Definir um Deepfake Ilícito Sem Prejudicar a Liberdade de Expressão
Para definir um deepfake ilícito sem prejudicar a liberdade de expressão, é fundamental estabelecer critérios claros e equilibrados que permitam distinguir usos legítimos, como sátira, paródia e manifestações artísticas, daqueles que causam danos concretos a direitos fundamentais. Essa distinção é essencial para evitar censura indevida e garantir que a regulação seja eficaz e constitucionalmente compatível.
O primeiro critério a ser considerado é o consentimento da pessoa retratada.
Deepfakes criados e divulgados sem o consentimento explícito do indivíduo, especialmente quando envolvem a sua imagem ou voz em contextos que possam causar danos à sua honra, privacidade, intimidade ou dignidade, devem ser considerados ilícitos. Isso inclui, por exemplo, deepfakes pornográficos não autorizados, vídeos falsos que imputam condutas criminosas ou imorais, ou manipulações que possam gerar prejuízo à reputação. O consentimento atua como um limite ético e jurídico fundamental, protegendo a autonomia e a integridade da pessoa.
Outro critério relevante é a finalidade e o contexto do uso do deepfake.
Conteúdos produzidos com a intenção clara de difamar, enganar, manipular opiniões, cometer fraudes, incitar violência, discriminação ou ódio, configuram usos ilícitos. Por outro lado, deepfakes utilizados para fins artísticos, humorísticos, educacionais ou jornalísticos, desde que não causem danos injustificados e estejam devidamente identificados como fictícios, devem ser preservados dentro do escopo da liberdade de expressão. A avaliação da intenção e do impacto social é, portanto, essencial para delimitar o que é ilícito.
A transparência também deve ser um critério importante.
Deepfakes que não são claramente identificados como manipulados, induzindo o público a acreditar em sua veracidade, aumentam o potencial de dano e, consequentemente, tendem a ser considerados ilícitos. Já os conteúdos que trazem avisos explícitos sobre sua natureza fictícia, como legendas, marcas d’água ou outras formas de sinalização, contribuem para a proteção do direito à informação e à liberdade de expressão, minimizando riscos de confusão e desinformação.
Além disso, o dano efetivo ou potencial causado pelo deepfake deve ser avaliado.
Nem toda manipulação audiovisual necessariamente gera um ilícito; é preciso que haja um prejuízo concreto ou um risco claro a direitos protegidos, como a reputação, a privacidade, a segurança pessoal ou a ordem pública. A legislação e a jurisprudência podem estabelecer parâmetros para mensurar esse dano, considerando o contexto, a repercussão e a vulnerabilidade da vítima.
Por fim, é importante que a definição legal contemple salvaguardas para evitar abusos na aplicação da norma, garantindo o contraditório e a ampla defesa, bem como mecanismos para contestação e remoção rápida dos conteúdos ilícitos, respeitando o devido processo legal e evitando censura prévia indevida.
Atendimento – Consultório
Telefone: 0 XX 11 3120-6896
E-mail: dbaltieri@uol.com.br
Endereço: Avenida Angélica, 2100. Conjunto 13
Condomínio Edifício da Sabedoria
CEP: 01228-200, Consolação – São Paulo

Médico psiquiatra. Professor Livre-Docente pelo Departamento de Psiquiatria da Faculdade de Medicina da Universidade de São Paulo. Foi Professor de Psiquiatria da Faculdade de Medicina do ABC durante 26 anos. Coordenador do Programa de Residência Médica em Psiquiatria da FMABC por 20 anos, Pesquisador do Grupo Interdisciplinar de Estudos de Álcool e Drogas do Instituto de Psiquiatria da FMUSP (GREA-IPQ-HCFMUSP) durante 18 anos e Coordenador do Ambulatório de Transtornos da Sexualidade da Faculdade de Medicina do ABC (ABSex) durante 22 anos. Tem correntemente experiência em Psiquiatria Geral, com ênfase nas áreas de Dependências Químicas e Transtornos da Sexualidade, atuando principalmente nos seguintes temas: Tratamento Farmacológico das Dependências Químicas, Alcoolismo, Clínica Forense e Transtornos da Sexualidade.