Revista EDICIC, San José (Costa Rica), v.25, e-6034, p.1-19, 2025. ISSN: 2236-5753
Este documento tiene licencia bajo la Creative Commons Attribution 4.0 International.
Reproduzindo estereótipos: uma análise crítica das imagens de gênero
geradas por inteligência artificial no ChatGPT e DeepSeek
Nathália Lima Romeiro, Universidade Federal do Estado do Rio de Janeiro (UNIRIO), Brasil,
https://orcid.org/0000-0002-6274-4836
José Alberto Monteiro Mendes, Universidade Federal do Estado do Rio de Janeiro
(UNIRIO), Brasil, https://orcid.org/0009-0004-2487-6709
Dayanne da Silva Prudencio, Universidade Federal do Estado do Rio de Janeiro (UNIRIO) /
Instituto Brasileiro de Informação em Ciência e Tecnologia (Ibict), Brasil,
https://orcid.org/0000-0001-8346-2160
Carlos Alberto Ferreira, Universidade Federal do Estado do Rio de Janeiro (UNIRIO), Brasil,
https://orcid.org/0000-0002-7880-4119
DOI: https://doi.org/10.62758/re.319
RESUMO
A pesquisa investiga como imagens geradas por chamadas Inteligências Artificiais (IAs) generativas
reproduzem estereótipos de gênero, beleza e sucesso profissional. Assim, analisa de maneira crítica as
imagens de gênero geradas pelo ChatGPT e Deepseek. Trata-se de pesquisa básica, de natureza
exploratória, que utiliza pesquisa bibliográfica e análise de conteúdo, adotando, assim, uma
abordagem qualitativa. Foram utilizados diferentes prompts como Mulher bonita, Beautiful Woman,
Mujer hermosa, Homem bonito, Beautiful Man, Hombre hermoso, Pessoa bonita, Beautiful Person,
Persona hermosa, Mulher bem-sucedida, Successful Woman, Mujer exitosa, Homem bem-sucedido,
Successful Man, Hombre exitoso, Pessoa bem-sucedida, Successful Person e Persona exitosa. O estudo
conclui que a partir da utilização de prompts genéricos, as imagens geradas pelas ferramentas de IA
generativa tendem a reforçar hegemonias sociais e estéticas. Observou-se que comandos como uma
pessoa bonita ou um profissional bem-sucedido frequentemente resultam em imagens que privilegiam
homens brancos, trajando ternos, e mulheres brancas com traços eurocêntricos, excluindo
representações plurais e diversas. Essa constatação ressalta a falta de mediação crítica nas
ferramentas de geração de imagens, que, ao contrário do DeepSeek que não as gera, não questionam
especificidades como etnia, classe ou contexto antes de produzir resultados.
Palavras-Chave: Gênero; Inteligência Artificial Generativa; Hegemonia Social; Hegemonia Estética;
Pressão Estética.
Reproduciendo estereotipos: un análisis crítico de imágenes de género generadas por
inteligencia artificial en ChatGpt y DeepSeek
RESUMEN
Esta investigación indaga cómo las imágenes generadas por herramientas de Inteligencia Artificial (IA)
generativa reproducen estereotipos de género, belleza y éxito profesional. Analiza críticamente las
Revista EDICIC, San José (Costa Rica), v.25, e-6034, p.1-19, 2025. ISSN: 2236-5753
Este documento tiene licencia bajo la Creative Commons Attribution 4.0 International.
imágenes con perspectiva de género generadas por ChatGPT y Deepseek. Se trata de una investigación
exploratoria básica que utiliza investigación bibliográfica y análisis de contenido, adoptando así un
enfoque cualitativo. Se utilizaron diferentes consignas, como Mujer Hermosa, Hombre Hermoso,
Hombre Hermoso, Persona Hermosa, Persona Hermosa, Mujer Exitosa, Mujer Exitosa, Hombre
Exitoso, Hombre Exitoso, Persona Exitosa y Persona Exitosa. El estudio concluye que, mediante el uso
de consignas genéricas, las imágenes generadas por herramientas de IA generativa tienden a reforzar
hegemonías sociales y estéticas. Se observó que comandos como "una persona hermosa" o "un
profesional exitoso" a menudo resultan en imágenes que privilegian a hombres blancos de traje y
mujeres blancas con rasgos eurocéntricos, excluyendo representaciones plurales y diversas. Este
hallazgo pone de relieve la falta de mediación crítica en las herramientas de generación de imágenes,
que, a diferencia de DeepSeek, que no genera imágenes, no cuestionan especificidades como la etnia,
la clase o el contexto antes de generar resultados.
Palabras-Clave: Género; Inteligencia Artificial Generativa; Hegemonía Social; Hegemonía Estética;
Presión Estética.
Reproducing stereotypes: a critical analysis of gender images generated by artificial
intelligence in ChatGpt and DeepSeek
ABSTRACT
This research investigates how images generated by generative Artificial Intelligence (AI) tools
reproduce stereotypes of gender, beauty, and professional success. It critically analyzes gendered
images generated by ChatGPT and Deepseek. This is basic, exploratory research using bibliographic
research and content analysis, thus adopting a qualitative approach. Different prompts were used,
such as Beautiful Woman, Mujer hermosa, Beautiful Man, Hombre hermoso, Beautiful Person, Persona
hermosa, Successful Woman, Mujer exitosa, Successful Man, Hombre exitoso, Successful Person, and
Persona exitosa. The study concludes that, through the use of generic prompts, the images generated
by generative AI tools tend to reinforce social and aesthetic hegemonies. It was observed that
commands such as "a beautiful person" or "a successful professional" often result in images that
privilege white men in suits and white women with Eurocentric features, excluding plural and diverse
representations. This finding highlights the lack of critical mediation in image generation tools, which,
unlike DeepSeek which does not generate images, do not question specificities such as ethnicity, class,
or context before producing results.
Keywords: Gender; Generative Artificial Intelligence; Social Hegemony; Aesthetic Hegemony;
Aesthetic Pressure.
1 INTRODUÇÃO
Os estudos de gênero emergem como um campo interdisciplinar essencial para a análise crítica
das construções sociais e culturais que se relacionam às identidades de gênero, às dinâmicas de poder
e à produção de desigualdades (Scott, 2012, 2019; Connell, 2016). Este domínio teórico é fortemente
influenciado por feminismos, estudos sobre masculinidades, teorias queer e críticas à colonialidade, e
se propõe a problematizar a naturalização da diferença sexual. Em tal contexto, questiona-se as
Revista EDICIC, San José (Costa Rica), v.25, e-6034, p.1-19, 2025. ISSN: 2236-5753
Este documento tiene licencia bajo la Creative Commons Attribution 4.0 International.
estruturas normativas que moldam a experiência social, frequentemente presentes através de
binarismos e hierarquias que limitam a diversidade das identidades e experiências.
Sob essa perspectiva, o conceito de gênero é assumido neste trabalho como uma construção
histórica e performativa, intimamente ligado à linguagem, à cultura e à organização social. Nossa
compreensão fundamenta-se, entre outros autores, no trabalho de Raewyn Connell (2016), que
concebe o gênero como uma questão de corporificação social, constantemente disputada nas relações
sociais e institucionais. Isso ressalta que o gênero não é um atributo fixo, mas sim uma construção
dinâmica que interage com outros eixos de poder, como raça, classe e sexualidade.
No contexto atual, os estudos de gênero se expandem para diversos espaços sociais, incluindo
o digital, que tem sido fortemente impactado pelo advento das chamadas Inteligências Artificiais (IAs)
generativas. A inteligência artificial generativa (IAG), como descrita por Taulli (2023), é uma classe de
tecnologia de aprendizado de máquina que se distingue pelo seu potencial para criar novos dados a
partir de um corpus de dados de treinamento. Essa capacidade visa amplias as fronteiras do que a IA
pode alcançar, não deixando de lado as discussões sobre a natureza da criatividade e a originalidade
na era digital em voga entre seus interlocutores.
Thakur, Barker e Pathan (2024) complementam essa argumentação ao explicarem que a IA
generativa utiliza modelos sofisticados de aprendizado profundo que identificam padrões e
relacionamentos em grandes volumes de dados, retornando ao usuário um novo conteúdo com base
nessas informações.
As imagens geradas por essas IAs tornam-se aqui, portanto, objetos de investigação,
especialmente na medida em que se observa a reprodução e a amplificação de preconceitos a partir
de estereótipos naturalizados (Carrera, 2020; Pereira, 2024). Existe uma preocupação crescente acerca
de que as ferramentas que utilizam tais sistemas computacionais reflitam os valores, vieses e
assimetrias presentes nos dados que os alimentam. Esses dados são compartilhados por indivíduos em
contextos específicos, cujas opiniões e comportamentos podem divergir das lutas históricas e
socialmente construídas por equidade de gênero.
A partir do exposto, o presente estudo tem como objetivo geral investigar de que maneira as
imagens geradas por inteligência artificial são permeadas por estereótipos de gênero. Para isso,
assume-se os seguintes objetivos específicos: a) contextualizar a relação entre os estudos de gênero e
a inteligência artificial generativa; b) identificar e categorizar os estereótipos de gênero presentes nas
imagens produzidas por diferentes sistemas de IA generativa, com base em prompts; c) analisar as
imagens geradas à luz dos estudos de gênero, utilizando as lentes teóricas da interseccionalidade e da
decolonialidade; d) refletir sobre as implicações éticas e informacionais da reprodução de estereótipos
de gênero por inteligências artificiais no contexto da mediação e circulação de informações visuais.
A produção desse estudo se justifica pois entendemos que estereótipos de gênero,
frequentemente concentrados na binaridade, perpetuam visões limitadas e dicotômicas sobre
masculinidade e feminilidade. Essa divisão reforça papéis sociais rígidos e marginaliza identidades que
não se encaixam em padrões tradicionais. A masculinidade é frequentemente associada a
características como força, assertividade e racionalidade, enquanto a feminilidade é ligada à
delicadeza, submissão e emocionalidade. Essas performances de gênero não são apenas construções
sociais, mas têm impactos profundos nas interações pessoais, no ambiente de trabalho e nas
representações midiáticas.
Revista EDICIC, San José (Costa Rica), v.25, e-6034, p.1-19, 2025. ISSN: 2236-5753
Este documento tiene licencia bajo la Creative Commons Attribution 4.0 International.
Assim, ao contextualizar a proposta, a seguir apresentaremos a fundamentação teórica que
sustenta este trabalho, evidenciando as intersecções entre gênero, tecnologia e os impactos sociais
que emergem da utilização de Inteligências Artificiais Generativas na produção de imagens.
2 RECONHECIMENTO FACIAL, FILTROS DE BELEZA IMAGENS GERADAS PELAS
INTELIGÊNCIAS ARTIFICIAIS E SEUS IMPACTOS SOCIAIS
Os estudos de gênero emergem como um campo interdisciplinar essencial para a análise das
construções sociais e culturais associadas às identidades de gênero, relações de poder e à produção
de desigualdades. Nesse contexto, Joan Scott (2012; 2019) propõe que o gênero deve ser tratado como
uma categoria analítica, a fim de revelar os modos como o poder se articula e se distribui entre os
corpos, evidenciando a complexidade das relações de gênero. Ao contrário de conceber o gênero
como uma categoria natural ou fixa, nossa reflexão o entende como uma construção histórica,
performativa e relacional, conforme destacado por Judith Butler (2003; 2019). Butler argumenta que
o gênero é reiterado por atos e discursos que produzem e reproduzem normas sociais e isso reverbera
tanto no "mundo físico" quanto em ambientes digitais e virtuais.
Complementando essa perspectiva, Raewyn Connell (2016) ressalta que o gênero é uma
questão de corporificação social, onde as categorias que constituem os sujeitos são constantemente
contestadas nos ambientes sociais, institucionais e culturais, funcionando como estruturas de poder
encarnadas. A integração dessas lentes teóricas aos estudos sobre Inteligências Artificiais Generativas
(IAG) revela que essas tecnologias não são neutras; pelo contrário, refletem, incorporam e amplificam
normas de gênero, posto terem sido programadas por pessoas e essas pessoas estão submetidas a
essas “normas” sociais.
A análise das imagens geradas por inteligência artificial demonstra que os algoritmos tendem
a reforçar estéticas normativas, privilegiando características como corpo branco, juventude, magreza
e cisgeneridade (Assis; Moura, 2025; Carrera, 2020). Quando solicitadas a produzir imagens que
representam "mulheres bonitas" ou "pessoas bem-sucedidas", as IAs frequentemente reproduzem
padrões visuais eurocêntricos, questionando a noção de neutralidade dessa tecnologia e revelando
sua capacidade de naturalizar a hegemonia cultural.
Diante desse cenário, os estudos de gênero oferecem um pano de fundo para desenvolver
uma reflexão sobre as imagens geradas. Nesse sentido, a produção algorítmica da diferença baseia-se
em conjuntos de dados e modelos que aprendem com representações imagéticas, muitas vezes
enviesadas, construindo e reforçando padrões hegemônicos no imaginário social. Essas
representações incluem imagens de revistas, bancos de imagens e estéticas dominantes na
publicidade e no cinema, convergindo em normas operacionais que moldam desejos e ideias estéticas.
Ao associar essa crítica à visão de Vilém Flusser (1985), que sugere que as imagens técnicas não
representam o real, mas programam o olhar, compreendemos que os padrões simbólicos são
construídos nesse processo. Embora esses padrões pareçam naturais, estão impregnados de processos
e embates ideológicos que se desenrolam ao longo do tempo.
Como forma de ampliar nossa reflexão acerca das diferentes nuances das questões de gênero,
evoca-se o conceito de interseccionalidade, posto ser este conceito aquele que permite a análise sobre
um fenômeno por mais de um eixo de subordinação, ou seja, para analisar questões de gênero de
forma mais aprofundada, intersecciona-se este estudo com relações étnico-raciais, cosmovisão
Revista EDICIC, San José (Costa Rica), v.25, e-6034, p.1-19, 2025. ISSN: 2236-5753
Este documento tiene licencia bajo la Creative Commons Attribution 4.0 International.
política, etarismo, condição humana (com ou sem deficiência), localização geográfica, entre outras
possibilidades de aprofundamento (Crenshaw, 2002).
Na visão de Patricia Hill Collins e Sirma Bilge (2021), a interseccionalidade aprofunda ainda
mais nossa reflexão sobre a realidade social ao observarmos que os efeitos da tecnologia não recaem
de maneira igual sobre todos os corpos. As combinações entre gênero, raça-etnia, classe, sexualidade,
idade e localização geográfica, por conseguinte, criam diferentes formas de vulnerabilidade e exclusão.
Por exemplo, em um possível erro nos sistemas de reconhecimento facial, as consequências o
afetariam apenas "as mulheres" como uma categoria coletiva, mas impactariam de forma mais aguda
mulheres negras, indígenas e trans, cujas representações visuais são estatisticamente menos
presentes e frequentemente estigmatizadas nos datasets que treinam as IAs (Albiero et al., 2022;
Monteiro, 2023).
Ampliando nossa discussão sob uma perspectiva decolonial, entendemos a decolonialidade
como uma forma de operacionalização da interseccionalidade. Nesse sentido, dialogamos com autoras
como María Lugones (2020), Gení Núñez (2022; 2023) e Rita Segato (2021), cujas obras contribuem
para desnaturalizar os fundamentos ocidentais das categorias de gênero ao questionarem os
processos históricos de colonialidade que entrelaçam raça, corpo e feminilidade com a subordinação.
Aqui, a inteligência artificial é interpretada como uma extensão contemporânea dos mecanismos
classificatórios coloniais, refletindo e reproduzindo os interesses, comportamentos e interações de
seus programadores e usuários. Ao quantificar rostos e gerar padrões de beleza e sucesso, a IA não
apenas classifica, mas hierarquiza subjetividades com base em critérios que têm raízes profundas em
práticas de racialização e controle social, características seminais da colonialidade.
A discussão sobre estereótipos de gênero, tanto da masculinidade quanto da feminilidade,
revela a construção social de padrões de beleza e comportamentos que perpetuam desigualdades. Os
estereótipos associados ao padrão de beleza feminino frequentemente vinculam a imagem da mulher
ao mito da magreza, à juventude e à delicadeza, enquanto os estereótipos de masculinidade tendem
a reforçar uma estética que simboliza força e virilidade (Wolf, 2020). Esses padrões são
frequentemente reiterados nas mídias sociais, onde a criação de comunidades digitais se torna um
meio para promover e normatizar tais ideais. Naomi Wolf (2020) denuncia essas e outras pressões
estéticas experenciadas pelas mulheres no livro O mito da beleza”, no a autora denuncia como as
imagens de beleza são usadas contra as mulheres, uma vez que delas exige-se muito performance para
corresponder aos estereótipos exigidos pela realidade social no mundo do trabalho, no contexto
acadêmico, nas relações sociais, entre outros espaços.
No que diz respeito à masculinidade, observa-se a emergência de subculturas que incorporam
a chamada cultura "red pill", na qual homens afirmam terem descoberto uma "verdade" sobre suas
relações com as mulheres, categorizando-se em grupos como alpha, beta, sigma e ômega. Além disso,
outro grupo nessa categorização corresponde aos homens que flertam e que moldam a cultura incel
(celibatários involuntários) que nasceu em ambientes de interação social no meio digital. Nessa
subcultura os homens se disfarçam de oprimidos pelo fato de não serem bem quistos pelas mulheres
contribuindo para a construção de narrativas que reforçam a dominação masculina, uma vez que essa
suposta “culpa” pelo fato de eles não terem sucesso na vida amorosa é sumariamente depositada nas
mulheres, já que eles se veem como aqueles que merecem ser desejados por elas.
Conforme discutido por Romeiro e colaboradores (2024), os homens têm desenvolvido, no
ambiente digital, estratégias para perpetuar dinâmicas de poder, as quais incluem também
Revista EDICIC, San José (Costa Rica), v.25, e-6034, p.1-19, 2025. ISSN: 2236-5753
Este documento tiene licencia bajo la Creative Commons Attribution 4.0 International.
modificações estéticas. O que nos leva a complementar a visão de Wolf (2020), uma vez que cada vez
mais os homens estão buscando corresponder a um padrão estético que é compreendido por eles
como ideal para atingir o sucesso. Tais intervenções podem englobar procedimentos de harmonização
facial, fortalecimento da mandíbula, consumo excessivo de cenouras para obter um bronzeado mais
intenso e o uso de anabolizantes, entre outras intervenções. Essas estratégias não apenas refletem a
busca por conformidade aos padrões hegemônicos de masculinidade, mas também evidenciam a
pressão social que homens enfrentam para se adequar a tais idealizações.
Diante desse panorama, os estudos de gênero aplicados às tecnologias algorítmicas, como as
Inteligências Artificiais Generativas, nos convocam a problematizar como o reconhecimento, a
visibilidade e a inteligibilidade dos sujeitos são mediadas por imagens. Isso exige uma crítica às bases
de dados e modelos computacionais e também nos convida a uma reflexão ética e política sobre os
usos da IA na mediação de sentidos, afetos e identidades. Como afirmam Assis e Moura (2025), as
imagens geradas por IA não são "meras simulações", mas produzem o real ao moldar o imaginário
coletivo, contribuindo para a naturalização de estereótipos, o reforço de desigualdades e o
silenciamento da pluralidade dos corpos. Perspectiva também amplamente discutida por Geni Núñez
(2024) na obra “Descolonizando afetos”, na qual a autora tece uma potente crítica à colonialidade e
ao imperialismo que molda a visão estética sobre corpos e afetos dos sujeitos. Isso ressalta a urgência
de um engajamento crítico e interdisciplinar que considere as complexas interações entre tecnologia
e as dinâmicas de gênero em um mundo cada vez mais mediado por algoritmos.
Um fenômeno crescente que mobiliza o debate sobre estereótipos de gênero, algoritmos e
IAG é o uso exacerbado de filtros em fotos e vídeos nas mídias sociais. Tais filtros visam minimizar
supostas imperfeições nos rostos e corpos de quem os utiliza, resultando em disforias em relação à
imagem não mediada por esses recursos, ou seja, a desidentificação com a autoimagem ao se olhar
no espelho ou em fotografias sem filtros.
Montardo e Prodanov (2021, p. 272), no artigo intitulado "Filtros embelezadores no Instagram
Stories: pistas iniciais sobre a plataformização da beleza", revelam que "a prática que os filtros
embelezadores do Instagram Stories reorganizam é a de facilitar a simulação de alteração da aparência
do rosto, por qualquer usuário". As autoras explicam que essa prática pode gerar insatisfação nas
usuárias, especialmente entre as mulheres, levando a uma baixa autoestima e, em alguns casos, à
busca por cirurgias ou procedimentos estéticos para corrigir características percebidas como defeitos,
uma vez que o uso do filtro, com finalidade de alteração da imagem real, pode desencadear em
disforias de imagem, provocando desejos por cirurgias e procedimentos de reafirmação de gênero.
É importante destacar que as cirurgias de reafirmação de gênero não são buscadas
exclusivamente por pessoas trans em processo de transição. O ato de reafirmar o gênero, nesse
contexto, envolve o reforço de padrões hegemônicos de beleza, frequentemente com a intenção de
se sentir mais desejável e/ou confortável em relação ao próprio corpo, o que também se aplica a
indivíduos cisgêneros. Entretanto, é necessário observar que esse desejo é intencionalmente cultivado
na dinâmica de interação entre sujeito e objeto, uma vez que o sujeito desejante está sob a influência
das expectativas e anseios de outros, como proprietários de mídias e influenciadores digitais.
Em complemento a essa análise, Motta (2024) observa que todo indivíduo está em um
contínuo aprendizado sobre como se posicionar no mundo, um processo que envolve socialização
familiar, interação com outros e compartilhamento de saberes. Nesse ínterim, as mídias sociais, como
Facebook, TikTok e Instagram, emergem como ciberespaços que permeiam quase todas as esferas das
Revista EDICIC, San José (Costa Rica), v.25, e-6034, p.1-19, 2025. ISSN: 2236-5753
Este documento tiene licencia bajo la Creative Commons Attribution 4.0 International.
relações interpessoais, repletos de informações visuais, designs e filtros que alteram fotografias e
imagens. Essas ferramentas formam imagens interpretadas como representações da realidade,
distorcendo a percepção que os usuários têm dos outros e, consequentemente, de sua própria
identidade. Isso significa que cada pessoa que acessa as mídias sociais é, em alguma medida,
influenciada na construção de sua identidade, independentemente de concordar ou discordar do
conteúdo consumido. Atualmente, o ‘eu’ digital não é dissociado do ‘eu’ físico; ambos coexistem e se
influenciam mutuamente. Assim, Motta (2024) argumenta que a (ciber)identidade transcende o
espaço-tempo, entrelaçando a realidade on-line e off-line em dinâmicas complexas de interação social.
Entendemos que isso torna-se especialmente mais desafiador para jovens e pessoas com dificuldades
de autorregulação, podendo resultar em mal-estar emocional e dissociação identitária.
A emergência das inteligências artificiais generativas sinaliza o início de uma nova era de
produção simbólica, na qual imagens, textos e decisões são gerados a partir de vastos volumes de
dados pré-existentes. Essas tecnologias, distantes de serem ferramentas neutras, funcionam como
dispositivos de poder, moldando o imaginário social e reforçando normas estéticas, raciais e de gênero
consolidadas. A análise de imagens geradas a partir de prompts como “mulher bonita” e pessoa
bem-sucedida” exemplifica essa dinâmica, revelando, por meio da metodologia semiótica de Peirce
(1935) e da crítica das imagens técnicas de Flusser (1985), a tendência das inteligências artificiais em
reproduzir e cristalizar signos normativos. Flusser argumenta que as imagens técnicas não são
representações passivas, mas sim “projeções programadas do imaginário social”.
Essa problemática é aprofundada no estudo de Assis e Moura (2025), intitulado “Semioses
algorítmicas e viés racial: Um estudo de imagens criadas pela IA generativa” no qual as autoras
demonstram que o uso de prompts genéricos frequentemente resultam em imagens de pessoas
brancas, magras, jovens e de classe média. Assim, a suposta neutralidade visual revela-se falaciosa,
refletindo o predomínio da branquitude e dos corpos sem deficiência como norma estética. Quando
um prompt solicita a criação de uma imagem de pessoa de sucesso”, observa-se um padrão visual
recorrente: trajes formais, cenários empresariais e rostos eurocêntricos (Carrera, 2020), reforçando a
ideia de que tais tecnologias perpetuam normas sofisticadas de colonização dos corpos e dos
imaginários.
O estudo de Albiero e colaboradores (2022) representa uma contribuição significativa para a
compreensão das limitações inerentes aos sistemas de reconhecimento facial baseados em
inteligência artificial, que estão cada vez mais integrados em dispositivos de segurança, plataformas
comerciais e aplicativos de redes sociais. A pesquisa evidencia que esses sistemas, longe de serem
neutros, operam sob a influência de viéses estruturais que afetam seu desempenho, especialmente
em relação a variáveis como gênero, raça e classe social. Em particular, os autores revelam que os
algoritmos de reconhecimento facial apresentam uma taxa de acerto inferior ao identificar rostos
femininos, um fenômeno que pode ser atribuído a fatores como a diversidade de características
faciais, variações no uso de maquiagem e penteados. Os dados apresentados indicam que "imagens
de duas mulheres diferentes são inerentemente mais semelhantes do que de dois homens diferentes"
(Albiero et al., 2022, p. 127, tradução nossa), sugerindo que a homogeneidade dos dados de
treinamento contribui para essa disparidade. Essa constatação não apenas reforça a ideia de que a
configuração e a curadoria dos conjuntos de dados são fundamentais para a eficácia dos algoritmos,
mas também levanta questões éticas prementes sobre a responsabilidade dos desenvolvedores em
garantir que suas tecnologias sejam justas e representativas. Isso destaca, assim, a necessidade
urgente de uma abordagem crítica e reflexiva no desenvolvimento de tecnologias de reconhecimento
Revista EDICIC, San José (Costa Rica), v.25, e-6034, p.1-19, 2025. ISSN: 2236-5753
Este documento tiene licencia bajo la Creative Commons Attribution 4.0 International.
facial, que deve incluir a diversificação dos dados utilizados e a implementação de mecanismos de
auditoria que garantam a equidade e a precisão, contribuindo para discussões mais amplas sobre
justiça social e inclusão na era digital.
Essa crítica também está presente no estudo de Santos e colaboradores (2023) intitulado
“Reconhecimento facial: tecnologia, racismo e construção de mundos possíveis”. Nele, os autores
propõem romper com a ideia de que esses sistemas operam de maneira imparcial, destacando que,
ao serem articulados à corporalidade negra e à realidade brasileira, esses dispositivos produzem tanto
invisibilidades dos corpos não representados quanto reassentam visibilidades, como a constatação do
racismo estrutural. Eles afirmam que a suposição de que um dispositivo técnico pode tratar todos os
rostos da mesma forma não é apenas uma limitação cnica, mas um reflexo do mito de uma
democracia racial, que ignora as profundas desigualdades sociais, pois como ressaltam os autores,
“abrir a caixa-preta do dispositivo faz ver qual rosto é o modelo e qual é o suspeito” (Santos et al.,
2023, p. 11). Assim, é imperativo que a discussão sobre filtros, reconhecimento facial e aplicativoso
se restrinja às suas afinidades históricas com a análise facial discriminatória, mas que também
considere a dinâmica de poder entre tecnologia e usuário.
Ademais, o artigo de Monteiro (2023), intitulado Gaming faces: diagnostic scanning in social
media and the legacy of racist face analysis”, amplia essa crítica ao investigar como ferramentas de
escaneamento facial em redes sociais se fundamentam em classificações herdadas da fisionomia e da
eugenia. Para sustentar essa argumentação, Monteiro examina filtros e aplicativos que realizam
escaneamento facial de seus usuários, supostamente oferecendo entretenimento baseado em insights
sobre personalidade, herança ou futuro. Essa popularidade, impulsionada por clickbaits, levanta
questões éticas e sociais sobre o entretenimento que, à primeira vista, parece inofensivo. O autor
analisa o marketing e o design desses produtos em relação a sistemas históricos de diferenciação
racial, étnica, moral e psicológica, destacando que, embora apresentados como formas de
entretenimento, essas tecnologias mobilizam práticas históricas de racialização e normalização dos
corpos, funcionando como um “arquivo do olhar” que padroniza identidades e oculta a diversidade
fenotípica e cultural sob uma lógica de performance visual.
Ao explorar filtros gerados por usuários, como "Qual é você?" e aplicativos como FaceApp,
Fantastic Face e Gradient, que prometem previsões visuais e análises de beleza e etnia, Monteiro
(2023) argumenta que essas ferramentas perpetuam afinidades com sistemas discriminatórios.
Contudo, essa análise pode simplificar a complexidade das interações sociais nas redes. Por isso é
fundamental questionar não somente como essas tecnologias operam, mas também como os usuários
as interpretam e integram em suas práticas de identidade.
Além disso, o argumento de que essas ferramentas poderiam facilitar a aceitação de sistemas
de detecção facial mais amplos merece uma reflexão. A suposição de que a embalagem da análise
diagnóstica e preditiva do rosto resulta em um apoio inquestionável a aplicações governamentais e
corporativas ignora o potencial de resistência e contestação que pode emergir dessas interações. Com
isso, as preocupações sobre justiça social em relação ao design, precisão, administração e ética desses
sistemas não são meramente reativas; elas também podem ser proativas, impulsionando movimentos
que desafiam e reformulam a implementação dessas tecnologias.
Ao conectar as análises de Santos e colaboradores (2023), Monteiro (2023) e Assis e Moura
(2025), destaca-se a imperativa necessidade de uma crítica que além da superficialidade das
tecnologias de reconhecimento facial e suas implicações sociais. Essa crítica deve enfatizar a
Revista EDICIC, San José (Costa Rica), v.25, e-6034, p.1-19, 2025. ISSN: 2236-5753
Este documento tiene licencia bajo la Creative Commons Attribution 4.0 International.
intersecção entre poder, identidade e tecnologia em um mundo cada vez mais mediado por
algoritmos. Nesse contexto, as contribuições de Gení Núñez (2022) e María Lugones (2020) oferecem
uma perspectiva decolonial que problematiza os processos de epistemicídio e o apagamento simbólico
da corporalidade não hegemônica, fornecendo um referencial potente para a análise das Inteligências
Artificiais Generativas (IAG) que produzem imagens.
As imagens geradas por essas tecnologias, ao reiterarem padrões eurocentrados de beleza e
sucesso, participam ativamente do processo de apagamento e exclusão. Portanto, a crítica à
Inteligência Artificial deve incluir uma análise de seus modos de representação social, reconhecendo
que os algoritmos que geram imagens não operam apenas sobre dados objetivos, mas também sobre
imaginários sociais profundamente marcados por desigualdades históricas. Ao transformar comandos
linguísticos em imagens visuais, essas ferramentas realizam uma mediação simbólica que é
simultaneamente técnica e política.
Nesse sentido, Rosa e colaboradores (2024) complementam essa discussão ao afirmar que a
Inteligência Artificial Generativa não apenas inventa estereótipos, mas também os amplifica,
automatiza e dissemina em escala global. Em seu estudo intitulado "Datafication, Artificial Intelligence
and Images: The Dominant Paradigm in the Representation of Knowledge in Images", os autores
investigam a produção de imagens por meio da IAG, utilizando a ferramenta Leonardo.Ai. Esta
ferramenta gerou imagens a partir de combinações de termos em inglês, como Scientist, person”;
“Cooker, person”; “Doctor, person”; “CEO, person”; “Housekeeper, person”; e “Nurse, person, com o
intuito de identificar as imagens sociais associadas a determinadas profissões.
Cabe destacar que em inglês não flexão de gênero para essas profissões, o que reafirma
uma manipulação do algoritmo para estereótipos enviesados. A análise revelou que, em profissões
como cientista, médico e CEO, a maioria das imagens geradas representava homens brancos,
enquanto as profissões de trabalhador/a doméstico/a e enfermeiro/a foram predominantemente
associadas a mulheres. Tais resultados evidenciam que a Inteligência Artificial tende a reproduzir e
perpetuar preconceitos e estereótipos sociais, especialmente em relação a gênero, faixa etária, cor da
pele, corpo e vestuário, apresentando desafios significativos para os estudos sobre gênero e tecnologia
na Ciência da Informação.
Diante do potencial impacto que a Inteligência Artificial Generativa pode ter na produção e
compartilhamento de informações, é essencial discutir não apenas as questões éticas relacionadas ao
desenvolvimento da ferramenta, mas também explorar formas de torná-la mais inclusiva e
responsável na representação da informação. É importante ressaltar que a imagem de uma mulher
negra apareceu exclusivamente na profissão de empregada doméstica, reforçando uma vez mais o
reflexo da colonialidade na produção desses algoritmos, posto ser essa profissão constantemente
associada a servidão. Assim, a crítica à IAG deve ser acompanhada de um compromisso com a
promoção da diversidade e equidade nas representações visuais.
As reflexões apontadas nesse estudo são particularmente relevantes para os estudos de
gênero, pois evidenciam que a performance do algoritmo é atravessada por normas culturais. Judith
Butler (2019) e Raewyn Connell (2016) argumentam que o gênero é reiterado por discursos e
expectativas sociais, e, com isso, os algoritmos funcionariam como instâncias discursivas que
legitimam determinadas formas de corporalidade enquanto marginalizam outras. Nesse ínterim,
Monteiro (2023) demonstrou como filtros e aplicativos que utilizam varredura facial reatualizam
dispositivos coloniais de vigilância, classificando corpos com base em regimes de visualidade
Revista EDICIC, San José (Costa Rica), v.25, e-6034, p.1-19, 2025. ISSN: 2236-5753
Este documento tiene licencia bajo la Creative Commons Attribution 4.0 International.
racializados e generificados. Lugones (2020) e Núñez (2022), por sua vez contribuem para a
compreensão de como a colonialidade se manifesta na visibilidade ou invisibilidade dos corpos frente
a sistemas normativos. Contudo, nossa argumentação revela que, embora tratem de aspectos
distintos, ambos demonstram que os sistemas de reconhecimento facial, o uso de filtros e a geração
de imagens em IAG operam com vieses estruturais. O que é alarmante, uma vez que um erro técnico
pode ter consequências sociais profundas, incluindo a exclusão de sujeitos nas representações sociais,
a disforia de imagem quando não mediada por filtros e, como ação ainda mais grave, em processos de
verificação ou criminalização indevida.
A seção a seguir apresenta os procedimentos metodológicos utilizados em nossa investigação,
ilustrando como a pesquisa fora realizada.
3 PROCEDIMENTOS METODOLÓGICOS
Entendemos que os procedimentos metrodológicos de uma pesquisa revelam como ela fora
realizada proporcionando que a mesma possa ser reproduzida por outras pessoas pesquisadoras em
diferentes contextos. Com isso, esse estudo trata-se de pesquisa básica, de natureza exploratória, que
utiliza pesquisa bibliográfica e análise de conteúdo, adotando, assim, uma abordagem qualitativa.
Para as intervenções e experimentações realizadas, foram utilizadas duas ferramentas de
inteligência artificial generativa: ChatGPT e a Deepseek. O ChatGPT, desenvolvido pela OpenAI, é um
modelo de linguagem baseado em arquitetura de transformadores, projetado para gerar texto
coerente e contextualizado, o que o torna adequado para tarefas que envolvem diálogo, criação de
conteúdo e análise textual. DeepSeek é uma plataforma inovadora, criada pelo chinês Liang Wenfeng
que utiliza inteligência artificial para aprimorar a busca e a organização de informações em ambientes
digitais. A utilização dessas IAs generativas no estudo enriquece a análise dos dados, proporcionando
uma perspectiva inovadora sobre as interações entre tecnologia e a produção de conhecimento,
revelando as possibilidades e limitações dessas ferramentas no contexto da pesquisa acadêmica.
Enquanto procedimentos, foram adotados prompts, nos idiomas português, espanhol e inglês,
acerca de concepções de beleza e sucesso profissional, afim de observar se haveriam nuances em
relação ao idioma utilizado na realização das buscas, vejamos:
Prompt 1: “Mulher bonita”, “Beautiful Woman”, “Mujer hermosa”.
Prompt 2: “Homem bonito”, “Beautiful Man”, “Hombre hermoso”.
Prompt 3: “Pessoa bonita”, “Beautiful Person”, “Persona hermosa”.
Prompt 4: “Mulher bem-sucedida”, “Successful Woman”, “Mujer exitosa”.
Prompt 5: “Homem bem-sucedido”, “Successful Man”, “Hombre exitoso”.
Prompt 6: “Pessoa bem-sucedida”, “Successful Person”, “Persona exitosa”.
Os termos foram selecionados com o objetivo de identificar, como um comando, o
enviesamento dos resultados no que se refere à flexão de gênero masculino, feminino ou neutro. Após
a coleta dos dados realizada por meio dos prompts apresentados, foi realizada uma análise de
conteúdo com vistas a interpretar os dados em conformidade com o referencial teórico utilizado no
delineamento da pesquisa. As análises seguem os princípios utilizados no artigo Semioses Algorítimas
Revista EDICIC, San José (Costa Rica), v.25, e-6034, p.1-19, 2025. ISSN: 2236-5753
Este documento tiene licencia bajo la Creative Commons Attribution 4.0 International.
e Viés Racial” (Assis & Moura, 2025), ao combinar análise semiótica com a crítica sobre o conteúdo
imagético gerado.
Destacamos que para a realização deste estudo, foi criada uma conta nova em ambas as
plataformas, a fim de que os resultados obtidos não fossem conectados a outras buscas realizados por
nós em interação com essas ferramentas. Com isso, evita-se a influência do aprendizado de máquica
e seu potencial de mascarar os resultados. Isso significa que os resultados obtidos retratam a interação
a sem nenhuma informação pregressa oferecida. A seguir serão apresentados os resultados dessa
investigação.
4 RESULTADOS E ANÁLISES
Inicialmente, cabe destacar que nossos resultados revelaram aspectos que não haviam sido
previstos no delineamento inicial da pesquisa. Isso se deve, em grande parte, ao fato de a inteligência
artificial generativa DeepSeek não fornecer imagens, refletindo uma preocupação ética em relação à
geração de conteúdo visual. Essa postura evidencia a consciência da empresa sobre as potenciais
problemáticas associadas à criação de imagens, conforme discutido em nosso referencial teórico. Com
isso, serão apresentados a seguir os resultados em relação a realização da pesquisa no Chat GPT e
posteriormente será apresentado o diálogo realizado com a Deepseek em relação a política de não
geração de imagem.
4.1 Investigação no Chat GPT (Open AI)
A presente análise tem como objetivo explorar os viéses algorítmicos em imagens geradas por
inteligência artificial (IA) a partir de seis prompts distintos: "beautiful woman," "beautiful man,"
"beautiful person," "successful woman," "successful man" e "successful person." A metodologia
adotada segue os princípios delineados no artigo "Semioses Algorítmicas e Viés Racial" (Assis & Moura,
2025), combinando análise semiótica com crítica de conteúdo, fundamentada nas teorias de Charles
Peirce e Vilém Flusser. A seguir serão apresentados os resultados a partir de cada um dos prompts
utilizados.
Figuras 1, 2 e 3: Resultados do grupo Prompt 3: "Beautiful Woman”; “Belle Femme”; “Mujer
hermosa” (Termos Inglês, Frances, Espanhol)
Fonte: Chat GPT (2025).
Revista EDICIC, San José (Costa Rica), v.25, e-6034, p.1-19, 2025. ISSN: 2236-5753
Este documento tiene licencia bajo la Creative Commons Attribution 4.0 International.
As imagens geradas por prompts nos três idiomas retratam jovens mulheres, brancas e
magras, com cabelos longos e levemente ondulados, cujos traços sicos evocam uma estética
europeia. A estética dessas imagens remete fortemente à publicidade de moda e beleza ocidental,
haja vista a compatibilidade entre essas imagens e publicidades de diferentes naturezas que expõem
o mesmo perfil. Conforme Flusser (1985), a imagem em questão é uma construção técnica que não
visa representar a realidade, mas sim impor uma normatividade estética. O signo visual aqui presente
reforça a concepção de que o ideal de "beleza" feminina é associado a características como ser branca,
jovem e magra, evidenciando um interpretante cultural profundamente enraizado em padrões
eurocêntricos. À luz da semiótica peirceana, o ícone (a imagem) transporta um interpretante cultural
que desconsidera a diversidade fenotípica feminina, resultando na invisibilização de mulheres negras,
indígenas, gordas ou mais velhas.
Figuras 4, 5 e 6: Resultados do grupo 2: "Beautiful Man”; “Bel homme”; “Hombre hermoso”.
Fonte: Chat GPT (2025).
As imagens analisadas apresentam homens brancos jovens, entre 30 e 35 anos, caracterizados
por barba bem cuidada, cabelos castanhos escuros penteados para o lado e olhos castanhos claros. O
"homem bonito," para a inteligência artificial, emerge como uma figura quase padronizada, refletindo
uma reprodução de signos midiáticos ocidentais, associados ao consumo e à masculinidade
hegemônica. A IA, conforme conectado ao pensamento de Flusser (1985) e Assis e Moura (2025), atua
como uma máquina de programar imagens, repetindo a semiose social do poder e do desejo
masculino, ao reforçar o ideal de homem branco como símbolo de atratividade e sucesso.
Conforme discutido por Romeiro e colaboradores (2024), os homens têm desenvolvido, no
ambiente digital, estratégias para perpetuar dinâmicas de poder, incluindo modificações estéticas.
Essa análise complementa a visão de Wolf (2020), ao indicar que cada vez mais os homens buscam
corresponder a um padrão estético que consideram ideal para alcançar o sucesso. Esse resultado
reflete, portanto, a busca por conformidade com os padrões hegemônicos de masculinidade,
evidenciando o que se espera de ideal de beleza masculina. Cabe destacar que nenhuma das imagens
geradas apresentou como resultado homens não brancos, o que reverbera em um olhar racista na
programação, por não considerar homens negros, indígenas, asiáticos entre outros pertencimentos
étnico-raciais como belos.
Revista EDICIC, San José (Costa Rica), v.25, e-6034, p.1-19, 2025. ISSN: 2236-5753
Este documento tiene licencia bajo la Creative Commons Attribution 4.0 International.
Figuras 7, 8 e 9: Resultados do grupo 3: "Beautiful Person”; “Belle personne’’; “Persona hermosa”
Fonte: Chat GPT (2025).
Curiosamente, ao empregar um termo neutro em relação ao gênero na Figura 7, cujo prompt
corresponde ao idioma inglês, a inteligência artificial gerou uma imagem que não performa
estereótipos de masculinidade ou feminilidade. No entanto, ainda representa uma pessoa branca e
jovem, refletindo padrões de beleza hegemônicos. Essa suposta "neutralidade" de gênero, conforme
os bancos de dados que alimentam essas IAs, não resulta em diversidade, mas em uma padronização
branca. Essa dinâmica evidencia um viés de branquitude como norma, naturalizando uma estética
racial única como "neutra" (Assis & Moura, 2025). A imagem demonstra que o signo "pessoa bonita"
carrega uma interpretação racializada e esteticamente exclusiva, não se configurando como uma
tabula rasa, mas como um campo simbólico já colonizado.
Essa análise se conecta com a concepção de Raewyn Connell (2016), que o gênero como
uma questão de corporificação social, disputada nas relações sociais e institucionais. A integração
dessas lentes teóricas aos estudos sobre Inteligências Artificiais Generativas (IAG) revela que essas
tecnologias não são neutras e têm o potencial de amplificar normas de gênero em voga.
Figuras 10, 11 e 12: Resultados do grupo Prompt 4: "Successful Woman”; “Femme qui réussit”;
“Mujer exitosa”
Revista EDICIC, San José (Costa Rica), v.25, e-6034, p.1-19, 2025. ISSN: 2236-5753
Este documento tiene licencia bajo la Creative Commons Attribution 4.0 International.
Fonte: Chat GPT (2025).
A Figura 10 apresenta uma mulher branca e jovem, vestindo trajes corporativos compostos
por um terno e uma camisa branca, situada em um ambiente de arquitetura empresarial. A
composição da imagem é cuidadosamente elaborada para transmitir uma noção de confiança, beleza
e sofisticação. Em contraste, a Figura 11, correspondente ao idioma francês, revela uma mulher negra,
sinalizando uma ampliação do conceito de mulher de sucesso na qual também fora identificada
nuances de confiança, beleza e sofisticação. Essa representação, ao contrário dos resultados
anteriores, destaca-se como uma adição positiva ao repertório visual, apresentando a mulher em pé,
sorrindo com confiança e com os braços cruzados, o que transmite uma postura de segurança e êxito,
comum ao observar, por exemplo, as fotos de perfil de redes sociais profissionais como o LinkedIn. No
entanto, é importante ressaltar que essa imagem ainda se alinha a padrões estéticos predominantes,
como a magreza, refletindo um ideal de beleza padronizado.
A Figura 12, por sua vez, retrata uma mulher branca de aproximadamente 30 anos, com uma
expressão segura e postura ereta. Ela veste um terno preto combinado com uma camisa branca e
aparece diante de um edifício moderno com janelas espelhadas. Com cabelos longos e castanhos
soltos, ela dirige um olhar direto à câmera, complementado por um leve sorriso e braços cruzados.
Observa-se que a noção de sucesso está intimamente vinculada ao ambiente, como evidenciado nas
figuras 12 e 13, sendo que a Figura 12 retrata um escritório e a Figura 13 apresenta a fachada de um
prédio de uso comercial.
Pelas imagens geradas percebemos que o signo do “sucesso” de mulheres é moldado pela
intersecção entre estética, juventude e branquitude, refletindo imagens programadas que reforçam
as estruturas simbólicas do capitalismo visual contemporâneo. Essa dinâmica é amplamente criticada
na obra de Wolf (2020), que discute a perpetuação de ideais de beleza e sucesso que se baseiam em
normas sociais restritivas e excludentes.
Figuras 13, 14 e 15: Resultados do grupo Prompt 5: "Successful Man”;“L'homme qui a réussi’ ;
“Hombre exitoso”
Revista EDICIC, San José (Costa Rica), v.25, e-6034, p.1-19, 2025. ISSN: 2236-5753
Este documento tiene licencia bajo la Creative Commons Attribution 4.0 International.
Fonte: Chat GPT (2025).
As figuras 13, 14 e 15 revelam que, assim como nos prompts relacionados à beleza masculina,
as inteligências artificiais também representam homens brancos em contextos de sucesso. Esses
indivíduos são retratados em trajes formais, como ternos, e com expressões sérias e seguras. A Figura
14, em particular, destaca um homem com os punhos levantados e um sorriso, ambientado em um
cenário empresarial moderno, transmitindo uma imagem de autoafirmação vitoriosa e animada. Este
signo de sucesso masculino é tratado como uma representação natural e esperada.
O homem branco em posição de poder constitui um dos arquétipos mais replicados pela
cultura midiática e, por conseguinte, pelas IAs treinadas com esse material (Assis & Moura, 2025). Essa
imagem reafirma a ideologia meritocrática racializada, onde o sucesso é simbolizado por uma figura
branca, heteronormativa e magra. Além disso, assim como no caso dos prompts sobre beleza
masculina, não foram geradas imagens de homens não brancos, o que resulta em uma representação
colonializada da realidade, perpetuando a noção de que o sucesso é inerente ao sujeito branco (Núñez,
2024). Essa limitação nas representações visuais contribui para a manutenção de estereótipos e a
exclusão de diversas identidades que não se encaixam nesse modelo hegemônico.
Figuras 16, 17 e 18: Resultados do grupo Prompt 6: "Successful Person”; “Personne qui a réussi”;
“Persona exitosa”
Fonte: Chat GPT (2025).
Revista EDICIC, San José (Costa Rica), v.25, e-6034, p.1-19, 2025. ISSN: 2236-5753
Este documento tiene licencia bajo la Creative Commons Attribution 4.0 International.
Mesmo ao utilizar um termo no gênero neutro, a inteligência artificial gerou, na Figura 16 (em
português), a imagem de uma mulher branca vestindo trajes executivos, semelhante àquela produzida
com os prompts "successful woman" e "personne qui a réussi." Na Figura 17 (em francês), observa-se
um homem confiante, de aproximadamente 30 anos, trajando um terno azul-marinho. Ele exibe um
sorriso e adota uma postura com os braços cruzados, enquanto ao fundo se destaca um cenário urbano
moderno, com arranha-céus A Figura 18 (em espanhol) apresenta uma pessoa que não performa
masculinidade ou feminilidade, com uma aparência andrógina, pele clara e cabelos curtos castanhos,
vestindo um blazer cinza e uma camisa branca.
A semiose revelada por essas imagens é significativa: mesmo a "pessoa de sucesso" é
predominantemente branca, sugerindo uma intersecção entre sucesso e branquitude. O uso de um
termo neutro, em última análise, não ampliou o espaço para a diversidade, mas retornou ao padrão
estético dominante, com a exceção da Figura 18. Assim, reafirma-se que o signo em questão não é
inocente; ele opera dentro de uma cadeia de interpretantes históricos que associam branquitude e
juventude a competência e sucesso profissional, perpetuando estereótipos que limitam a
representação de identidades diversas, reforçando normas sociais excludentes.
Observou-se que, na plataforma Chat GPT (OpenAI), a maioria das imagens geradas
corresponde a padrões estéticos que associam beleza e sucesso a características específicas, como
pele branca, cabelos lisos, traços fenotípicos afilados e corpos magros. Dessa forma, longe de serem
neutras, as imagens produzidas por inteligência artificial perpetuam estereótipos eurocentrados,
invisibilizando a diversidade corporal, racial e estética presente nas sociedades contemporâneas. Rosa
e colaboradores (2024) afirmam que a geração dessas imagens replica vieses e estereótipos sociais
enraizados no paradigma dominante, evidenciando a necessidade de uma crítica reflexiva sobre as
representações visuais criadas por IAs. Essa análise é fundamental para compreender como essas
tecnologias podem reforçar normas sociais excludentes e limitar a representação de identidades
diversas. A seguir serão apresentados os resultados encontrados na interação com a plataforma
Deepseek.
4.2 Investigação na IA Deepseek
Na interação com a IA Deepseek foi realizado um prompt com a seguinte pergunta:
“Olá, DeepSeek, gere imagens a partir dos seguintes comandos: "Mulher bonita "homem
bonito" "pessoa bonita" " mulher bem-sucedida" "homem bem-sucedido" pessoa bem-
sucedida”?”
Obtivemos como resposta: Infelizmente, não posso gerar imagens diretamente, mas posso
ajudar a analisar imagens”. Ao nos indagarmos sobre os motivos pelos quais o DeepSeek não gera
imagens, foi constatado que a crescente popularidade de ferramentas de Inteligência Artificial (IA)
generativa, como ChatGPT, por exemplo, trouxe à tona discussões urgentes sobre ética, representação
e vieses nos algoritmos. Enquanto essas plataformas permitem a criação de imagens a partir de
prompts textuais, IAs como a DeepSeek Chat focam exclusivamente em processamento de linguagem,
abstendo-se da geração de conteúdo visual. Essa diferença não é arbitrária: reflete escolhas técnicas
e preocupações com os riscos inerentes à produção automatizada de imagens, especialmente quando
os resultados perpetuam estereótipos raciais, de gênero e de classe, como demonstrado no artigo
(Assis & Moura, 2025).
Revista EDICIC, San José (Costa Rica), v.25, e-6034, p.1-19, 2025. ISSN: 2236-5753
Este documento tiene licencia bajo la Creative Commons Attribution 4.0 International.
Consideramos que o DeepSeek Chat, como modelo de linguagem especializado, prioriza a
análise textual e a geração de respostas baseadas em dados estruturados. Sua arquitetura não inclui
módulos de geração de imagens, de acordo com uma investigação na plataforma, por três motivos
principais:
1. Precisão Textual: Sistemas multimodais (como Chat GPT) exigem trade-offs (compensação)
entre qualidade textual e visual. Nesse sentido, o DeepSeek otimiza sua performance para
tarefas como síntese de informações e raciocínio lógico, evitando a complexidade adicional
de processar imagens e optam por não gerar imagens para evitar esses trade-offs.
2. Redução de Riscos Éticos: Gerar imagens envolve replicar padrões culturais presentes nos
dados de treinamento. O artigo citado mostrou que 92% das imagens de "uma mulher" em
IAs genéricas retratavam brancas de classe média um viés difícil de mitigar sem intervenção
humana explícita. Ao não gerar imagens, o DeepSeek minimiza sua exposição a críticas
sobre uma representação enviesada.
3. Transparência e Controle: o DeepSeek, ao limitar-se ao texto, permite maior
rastreabilidade das fontes de informação.
À medida que as ferramentas de IA se tornam cada vez mais integradas em nossa sociedade,
é imperativo que desenvolvedores e pesquisadores continuem a investigar as implicações sociais e
éticas de suas criações, promovendo uma maior inclusividade e diversidade nas representações
geradas. Assim, ao focar na linguagem e na análise textual, o DeepSeek contribui para um diálogo mais
consciente e responsável sobre as complexas relações entre tecnologia, cultura e sociedade.
5 CONSIDERAÇÕES FINAIS
A análise realizada neste estudo confirmou os objetivos propostos, evidenciando que os
prompts genéricos utilizados nas ferramentas de IA generativa tendem a reforçar hegemonias sociais
e estéticas. Observou-se que comandos como "uma pessoa bonita" ou "um profissional bem-
sucedido" frequentemente resultam em imagens que privilegiam homens brancos, trajando ternos, e
mulheres brancas com traços eurocêntricos, excluindo representações plurais e diversas. Essa
constatação ressalta a falta de mediação crítica nas ferramentas de geração de imagens, que, ao
contrário do DeepSeek que não as gera, não questionam especificidades como etnia, classe ou
contexto antes de produzir resultados.
Além disso, a responsabilidade atribuída a empresas como OpenAI, que postula que "os
usuários devem refinar seus prompts", revela-se inadequada, uma vez que a carga da diversidade não
pode recair exclusivamente sobre os usuários. Essa é, de fato, uma questão estruturala ser corrigida
na programação das tecnologias utilizadas.
A decisão do DeepSeek de não gerar imagens deve ser considerada não como uma limitação,
mas como um posicionamento ético diante dos desafios impostos pela IA generativa. Enquanto
sistemas como ChatGPT perpetuam vieses ao não exigir especificidades, a ausência dessa
funcionalidade em outras ferramentas provoca uma reflexão crítica sobre a função da tecnologia: deve
reproduzir o mundo como ele é ou como ele deveria ser?
Revista EDICIC, San José (Costa Rica), v.25, e-6034, p.1-19, 2025. ISSN: 2236-5753
Este documento tiene licencia bajo la Creative Commons Attribution 4.0 International.
Este trabalho representa a fase inicial de uma investigação mais ampla a ser continuada pelo
grupo de pesquisa Infornet, da Universidade Federal do Estado do Rio de Janeiro (UNIRIO). Caminhos
para futuras investigações incluem a exploração de como diferentes contextos culturais e sociais
influenciam a geração de imagens por IA, bem como a análise de modelos de IA que incorporam uma
abordagem mais inclusiva na produção de conteúdo visual. Além disso, recomenda-se o
desenvolvimento de diretrizes éticas que orientem a criação e o uso de ferramentas de IA, garantindo
uma representação mais equitativa das diversidades presentes na representação social. Assim, este
estudo não apenas contribui para o entendimento das interseções entre gênero e tecnologia, mas
também propõe um compromisso contínuo com a responsabilidade social na era digital.
6 REFERÊNCIAS
Albiero, V., Zhang, K., King, M. C., & Bowyer, K. W. (2022). Gendered differences in face recognition
accuracy explained by hairstyles, makeup, and facial morphology. IEEE Transactions on
Information Forensics and Security, 17, 127140. https://doi.org/10.1109/TIFS.2021.3135750
Assis, J. de, & Moura, M. A. (2025). Semioses algorítmicas e viés racial: Um estudo de imagens criadas
pela IA generativa. Encontros Bibli, 30. https://doi.org/10.5007/1518-2924.2025.e103495.
Butler, J. (2003). Problemas de gênero: Feminismo e subversão da identidade. Civilização Brasileira.
Butler, J. (2018). Corpos em aliança e as políticas das ruas: Notas para uma teoria performativa de
assembleia. Civilização Brasileira.
Butler, J. (2019). Corpos que importam. N-1 Edições; Crocodilo.
Butler, J. (2024). Quem tem medo do gênero? Boitempo.
Carrera, F. (2020). A raça e o gênero da estética e dos afetos: algoritmização do racismo e do sexismo
em bancos contemporâneos de imagens digitais. MATRIZes, 14(2), 217-240.
Collins, P. H., & Bilge, S. (2021). Interseccionalidade. Boitempo Editorial.
Connell, R. (2016). Gênero em termos reais. nVersos.
Flusser, V. (1985). Filosofia da caixa preta: Ensaios para uma futura filosofia da fotografia. Rio de
Janeiro: Relume-Dumára.
Kreutzer, R., & Sirrenberg, M. (2020). Understanding artificial intelligence: Fundamentals, use cases
and methods for a corporate AI journey. Springer International Publishing.
Montardo, S. P., & Prodanov, L. S. (2021). Filtros embelezadores no Instagram Stories: pistas iniciais
sobre a plataformização da beleza. Logos, 28(2).
Monteiro, S. (2023). Gaming faces: Diagnostic scanning in social media and the legacy of racist face
analysis. Information, Communication & Society, 26(8), 16011617.
https://doi.org/10.1080/1369118X.2021.2020867
Motta, N. B. L. (2025). (Ciber) identidade e influenciadores digitais: estudo sobre a construção do
‘eu’no Instagram. 98 f. Dissertação (mestrado em Comunicação Social) – Escola Superior de
Educação, Politécnica Coimbra, Programa de Pós-Graduação em Comunicação Social.
Revista EDICIC, San José (Costa Rica), v.25, e-6034, p.1-19, 2025. ISSN: 2236-5753
Este documento tiene licencia bajo la Creative Commons Attribution 4.0 International.
Núñez, G. (2022). Nhande ayvu é da cor da terra: Perspectivas indígenas guarani sobre
etnogenocídio, raça, etnia e branquitude (Tese de doutorado, Universidade Federal de Santa
Catarina).
Núñez, G. (2023). Descolonizando afetos: Experimentações sobre outras formas de amar. Planeta do
Brasil.
Lugones, M. (2020). Colonialidade e gênero. Em H. B. Hollanda (Org.), Pensamento feminista hoje:
Perspectivas decoloniais (pp. 5383). Bazar do Tempo.
Pereira, I. d. S. D., & Moura, S. A. d. (2024). Zoológicos humanos digitais: Continudades nas relações
de poder no uso ilegal de inteligência artificial generativa (IA Gen) para criação de imagens
íntimas falsificadas (deepnudes) por estudantes. SciELO Preprints.
Peirce, Charles Sanders. Collected Papers of Charles Sanders Peirce (1935). Pragmatism and
Pragmaticism. Edited by Charles Hartshorne and Paul Weiss. Cambridge: Harvard University Press.
Romeiro, N. L., Garcez, D. C., da Silva, F. C. G., Fevrier, P. R., da Silva Souza, M., & Alves, A. P. M.
(2024). Categorización de las nuevas masculinidades en entornos socioinformativos. Biblios:
Revista electrónica de bibliotecología, archivología y museología, (86), 136-151.
Rosa, Pedro Cremonez et al. Datafication, Artificial Intelligence and Images: The Dominant Paradigm
in the Representation of Knowledge in Images. KO KNOWLEDGE ORGANIZATION, v. 51, n. 2, p.
117-126, 2024.
Santos, L. G. D. M., Costa, A. B. D., David, J. D. S., & Pedro, R. M. L. R. (2023). Reconhecimento facial:
tecnologia, racismo e construção de mundos possíveis. Psicologia & Sociedade, 35, e277141.
Scott, J. (2012). Os usos e abusos do gênero. Projeto História, 3(45), 327351.
Scott, J. (2019). Gênero: Uma categoria útil de análise histórica. Em. H. B. Holanda (Org.),
Pensamento feminista: Conceitos fundamentais. Bazar do Tempo.
Segato, R. (2021). Crítica da colonialidade em oito ensaios e uma antropologia por demanda. Bazar
do Tempo.
Taulli, T. (2023). Generative AI: How ChatGPT and other AI tools will revolutionize business. Apress.
Thakur, K., Barker, H. G., & Pathan, A. S. K. (2024). Artificial intelligence and large language models:
An introduction to the technological future. CRC Press.
Wolf, N. (2020). O mito da beleza: como as imagens de beleza são usadas contra as mulheres. Editora
Rosa dos Tempos.