Quem abriu alguma rede social nos últimos dias provavelmente viu imagens parecidas sendo replicadas repetidamente: fotografias artísticas de seus amigos ou de perfis de outras pessoas que seguem, modificadas com ilustrações (por vezes toscas, por vezes oníricas) que remetiam a personagens em variados estilos, narrativas e cenários. Essa febre foi mais uma das muitas trends de imagens que acometem as plataformas de compartilhamento, mobilizando usuários a rapidamente criarem seus perfis no novo aplicativo, disponibilizando imagens para que pudessem fazer parte de mais uma tendência de comportamento, não correndo o risco de ficar fora de uma das propostas lançadas pelas redes - ainda que algumas contrapartidas estivessem em jogo.
Dessa vez o que chamou atenção dos usuários das redes como Instagram e Twitter foi que as imagens não eram produzidas a partir de presets que modificavam fotografias estáticas previamente produzidas ou filtros de realidade aumentada que transicionavam e interferiam na imagem como víamos em outras experiências virais anteriores. Não. Essa nova febre de imagens compartilhadas chamava atenção por se tratar de retratos construídos por inteligência artificial, por meio do aplicativo Lensa. O aplicativo existe desde 2018, mas se popularizou nas últimas semanas com milhares de compartilhamentos de imagens produzidas a partir da IA, que “desenha” a partir de um conjunto prévio de fotografias que o usuário “empresta” para o banco de dados.
Existem uma série de implicações para serem debatidas a partir do formato de produção dessas imagens, mas vamos começar com o foco desse texto: a problemática do “comportamento de manada” nos compartilhamentos de imagens nas redes sociais e as implicações associadas ao medo de estar fora das tendências.
A experiência de reprodução massiva de imagens repetidas que muitos começam a compartilhar é recorrente na era da visualidade que estamos vivenciando com as redes sociais. A própria dinâmica das redes busca esse tipo de comportamento, com tags que estimulam usuários a compartilharem fotos da “capa do TCC” ou imagens com um “resumo do mês de novembro”, como acontece recorrentemente no Instagram. E tão rápido quanto surgem, parece que essas tendências desaparecem, como aconteceram no passado com os filtros que transformaram-nos em idosos e em crianças no Snapchat ou as coreografias virais que fizeram músicas antigas retornarem ao Top10 Global do Spotify.
O formato de trends que as redes sociais instigam, tanto para o consumo, como para a produção de imagens, trabalha uma espécie de FOMO imagético, entendendo que fear of missing out é um termo cunhado por Dan Herman (2000), tratando de uma patologia de ordem psicológica que significa, sinteticamente, o “medo de estar perdendo algo”. Dentro da tecnologia e do comportamento de manada provocado pelas tendências que as redes sociais incitam, sentir medo de estar perdendo algo é quase uma prerrogativa, porque a velocidade de profusão e produção de conteúdos parece não deixar tempo para que o usuário deixe de ter essa sensação.
O medo de estar perdendo algo dentro das redes sociais e das plataformas de compartilhamento de imagens parece ser inerente à sua existência pela quantidade de conteúdos existentes e pela continuidade do fluxo de reprodução da informação. Para Herman (2000) isso representa a impossibilidade de esgotar as oportunidades disponíveis, o que se associa a um comportamento de angústia e ansiedade que pode resultar em processos de compulsão na forma como se consome, o que dialoga diretamente com os modelos de usabilidade da tecnologia. Isso se agrava na medida em que nas redes sociais não somos mais somente receptores das mensagens, mas também potenciais produtores, podendo também ampliar esse volume de informações que estão sendo continuamente compartilhadas.
Assim, se constitui e consolida esse FOMO, que conectado ao regime da visualidade a que estamos submetidos, torna-se um FOMO imagético. Resulta que contemporaneamente as redes sociais implicam em necessidades de consumo e desejo que não estão associadas mais somente à aquisição de produtos e artefatos físicos, mas muitas vezes se respaldam na necessidade de pertencimento e participação. O medo de não fazer parte de uma tendência de comportamento nos torna alvo fácil de uma nova trend que instiga a criar perfil em uma nova rede, produzir um vídeo do momento ou - retornando ao caso que me fez pensar nesse texto - gerar um retrato com inteligência artificial a partir do app que todo mundo está falando.
Retornando para as demais implicações associadas ao aplicativo Lensa e ao comportamento de manada que as redes sociais mobilizam, podemos também refletir sobre a relação com a inteligência artificial e a emergente problemática por trás desse recurso. Estudos apontam que 90% do conteúdo online poderá ser produzido sinteticamente até 2026, como indica Harrison (2022), o que nos obriga a refletir sobre as implicações das máquinas produzindo conteúdo e as políticas para obtenção de dados mobilizados com isso. Em poucos dias o aplicativo Lensa se tornou o mais baixado do Brasil, tanto para IOS, quanto para Android. Nesse período, foram mais de 10 milhões de usuários somente no sistema operacional Android, o mais popular no país. O funcionamento do aplicativo prevê o download de algumas fotos que funcionam como uma base para que a inteligência artificial crie as ilustrações. Considerando que cada usuário submetia entre 10 e 20 fotos, calcule quantas imagens formaram um banco de dados para que o aplicativo pudesse “alimentar” a inteligência artificial.
No frenesi insano por fazer parte da trend do momento, talvez falte tempo para refletir sobre o que se faz com os dados que são processados dentro das redes sociais. Ao “concordar com os termos e serviços” que estão dispostos no login e disponibilizar o conjunto de imagens de referências necessárias para que a inteligência artificial seja “treinada” para que se possa produzir as ilustrações em diferentes cenários, narrativas e estilos, falta a noção de que esses aplicativos são operados por empresas, interessadas no lucro e que se não pagamos muito caro pela sua utilização talvez nós mesmos sejamos sua moeda. Na aflição por acompanhar a onda, abre-se brecha para que mecanismos de controle em relação aos dados e imagens sejam processados, deixando questões de segurança em segundo plano e abrindo margem para o rastreamento de informações. Rebatendo a essas críticas, conforme questões de segurança passaram a ser problematizadas pelos usuários, o aplicativo Lensa informou que as imagens usadas pelos utilizadores para produção das ilustrações são deletadas depois de 24 horas, mantendo-se anônima a identidade do usuário durante a utilização; contudo, problematiza-se o comportamento desses usuários em responder imediatamente ao estímulo das redes sociais, atuando em resposta ao FOMO imagético e poucas vezes refletindo criticamente sobre as implicações dessas escolhas.
Pensadas já duas problemáticas - o FOMO imagético e a insegurança dos dados - vamos a terceira e última aqui levantada, que diz respeito propriamente ao resultado das imagens. Por trabalhar a partir de um banco de fotografias previamente construído, continuamente alimentado pela quantidade de usuários que passam a acessar o aplicativo, a inteligência artificial lida com uma dificuldade em abordar traços diversos, se limitando muitas vezes a uma representação eurocêntrica que respalda uma política eugenista. O racismo algorítmico perpassa não somente a criação de novas imagens, como no trabalho que o app Lensa propõe, mas também em outras utilizações relacionadas às imagens e à inteligência artificial. Giselle Beiguelman (2021, p. 119) alerta que “Os conteúdos visuais são mapeados pelas palavras que os descrevem e pelo reconhecimento de alguns padrões, como linhas, densidades e formas. [...] Podem, por isso, funcionar como primeiro operador de censura das imagens nas redes sociais, fato que vem se tornando cada vez mais corriqueiro”.
Abordar a leitura das imagens a partir do processamento da inteligência artificial pressupõe reforçar, como indica Beiguelman (2021, p. 121), que haja um treinamento maquínico, um processamento dos dados que intencionalmente acumula a informação trabalhada pela IA. “A operação de treinamento dos algoritmos é feita atualmente por meio de redes neurais [...] Com essa identificação, são capazes de agrupar esses dados, classificá-los e prever comportamentos e ações”.
Nas imagens específicas produzidas a partir do Lensa o racismo algorítmico resulta a partir do apagamento de traços e feições, com clareamento de tom de pele, afinamento de nariz e olhos sendo trabalhos em tamanho diferentes das fotografias de referência. Essas modificações acabam sendo adotadas com a finalidade de tipificar as representações em modelos mais próximos da visão eurocêntrica, reforçando como o universo dos dados que constituem o banco de informações da IA refletem problemáticas de um racismo estrutural da indústria e da sociedade à qual pertencem, tal como problematizado por Beiguelman (2021).
Esse universo de relações sociais que está na base das IAs esclarece que suposta misoginia e o racismo dos algoritmos têm dimensões humanas e políticas incontestes. O tema é de extrema importância e urgência. Conforme se expandem os sistemas de visão computacional, seus algoritmos podem impor novas modalidades de exclusão, determinando o que é ou não visível para nós, nas bolhas de aplicativos e socialmente (BEIGUELMAN, 2021, p. 128).
Diante dessas três problemáticas levantadas, reforça-se a relevância de pensar uma formação crítica diante das imagens, sobretudo debatendo seu poder como instauradoras da verdade e sua potencialidade como formadoras de discurso. Conscientes ou não, as imagens atravessam nosso cotidiano, incitando necessidades de consumo e de participação social, por vezes estimulando padrões comportamentais em prol de um senso de pertencimento. Precisamos refletir sobre os papéis assumidos pelas imagens como dispositivos de poder e como instauradoras de movimentos, para que não sejamos parte de um fluxo de manada sem resistência ou crítica.
Esse movimento de resistência se torna ainda mais emergente quando pensamos nos processos de produção da imagem na contemporaneidade, quando mecanismos maquínicos passam também a operar como produtores imagéticos, trabalhando na criação de artefatos visuais que emulam outros cenários e contextos. María Acaso e Clara Megías (2017, p. 47) situam que “A existência da hiper realidade é um dos fatores que mais afeta, sem dúvida alguma, o desenvolvimento das sociedades contemporâneas, sua educação e, claramente, o campo da educação que está relacionado com a criação e o consumo das imagens, ou seja, o ensino da arte”. A hiper realidade está relacionada ao conceito de Baudrillard, que diferencia realidade e representação, focando assim na relevância da formação crítica em torno das imagens para desarticulá-las da narrativa linear da realidade.
Na medida em que as imagens não somente relatam e registram fatos e cenas ou não apenas decoram, ilustram e adornam, passamos a considerar o potencial performativo das imagens, compreendendo-as como discursos e como artefatos que enunciam macro e microrrelatos a partir de estruturas de poder hegemônicas e contra hegemônicas. Cabe, portanto, ao campo do ensino da arte assumir o compromisso de englobar também a formação crítica em relação aos mecanismos e artefatos digitais, para que o medo de perder a tendência do momento não seja maior do que o potencial de resistência e debate passível a esses recursos.
sobre a autora:
Julia Rocha é professora da Universidade Federal do Espírito Santo e coordenadora do Núcleo de Artes Visuais e Educação do Espírito Santo - NAVEES e do Grupo de Pesquisa Entre - Educação e arte contemporânea (CE/UFES). Doutora em Educação Artística pela Universidade do Porto, Mestre em Artes e Educação pela Universidade Estadual Paulista e Licenciada em Artes Plásticas pela Universidade do Estado de Santa Catarina. Realiza pesquisa sobre o ensino da arte na contemporaneidade, mediação cultural, relações entre museus e escolas, avaliação de propostas educativas no campo das artes visuais e formação de professores.
referências:
ACASO, María; MEGÍAS, Clara. Art thinking: Como el arte puede transformar la educación. Barcelona: Paidós Educación, 2017.
BEIGUELMAN, Giselle. Políticas da imagem: Vigilância e resistência na dadosfera. São Paulo: Ubu Editora, 2021.
HARRISON, Maggie. Experts: 90% of online content will be AI-generated by 2026. The Byte. Disponível em: <https://futurism.com/the-byte/experts-90-online-content-ai-generated>. Acesso em: 5 Dez. 2022.
HERMAN, Dan. Introducing short-term brands: A new branding tool for a new consumer
reality. Journal of Brand Management, nº 7(5), p. 330-340, 2000.
Comments