Inteligência artificial e a construção de museus neurais
Publicado em: 4 de julho de 2024Reza a lenda que a criação do Cubismo estaria diretamente ligada a uma visita de Pablo Picasso ao Museu Etnográfico do Trocadéro, em Paris, em 1907. Naquele mesmo ano, o artista viria a terminar o seu revolucionário Les Demoiselles D’avignon, marcando um rompimento definitivo com o paradigma pictórico herdado do Renascimento. Evocando máscaras africanas, as feições das Demoiselles servem como indício do impacto que a coleção do museu teve no artista. Mais do que isso, elas atestam a forte influência de uma estética dita “primitiva” na formação da arte moderna europeia.
No recente livro Picasso’s Demoiselles (2019), a historiadora da arte Suzanne Preston Blier reúne evidências desse e de outros encontros de Picasso com a arte africana. Mas, entre tantos casos, nenhum parece simbolizar o tráfico de referências culturais tão nitidamente quanto a visita ao museu. Tudo aquilo que um museu extrai de circulação sob o pretexto de salvaguarda e cuidado acaba se tornando componente de classificação e discurso. O sociólogo Tony Bennett descreve esse processo nos termos de um complexo expositivo que “determina uma ordem para as coisas e produz um lugar para o povo em relação a essa ordem”. Ao dar visibilidade às coisas do mundo, o museu também dá corpo a campos de conhecimento comum e estabelece vetores de poder entre os sujeitos e objetos desses campos. Cada exposição é uma cena diante da qual a instituição situa o seu público: o gênio moderno para o qual as coleções estão disponíveis como um inventário de estilos a ser estudado, historicizado e – por que não? – emulado.
Na sua capacidade de redistribuir objetos como informação em escala, o museu desempenhou um papel fundamental no projeto civilizador da modernidade. Daí podem vir pistas importantes para entender o crescente impacto dos sistemas de inteligência artificial generativa nas economias políticas de representação contemporâneas. Conforme se popularizam, se acoplam a plataformas de comunicação e buscam sutilmente reorientar nossas formas de expressão mais pessoais, os sistemas de IA parecem se consolidar como uma infraestrutura epistêmica ainda mais poderosa e invasiva do que os museus jamais o foram. Não obstante, a maior parte das discussões em torno dessas tecnologias teima em enquadrá-las como ferramentas ou colaboradores subordinados a atores humanos. Apesar de sua conveniência, essas metáforas antropocentradas só fazem tornar ainda mais opacas as complexas taxonomias e coleções de objetos midiáticos encrustadas nos modelos de rede neural.
O treinamento de um sistema de IA generativa envolve a depuração de imensos datasets em padrões constitutivos, que depois são remapeados como parâmetros (ou “pesos”) de um modelo de rede neural. Esse processo pode ser entendido como uma forma de compressão de informação. Por mais que elementos individuais não sejam literalmente armazenados no modelo, eles passam a existir ali como probabilidades estatísticas. Nesse sentido, o modelo efetivamente se constitui como um arquivo – um sistema que (segundo a famosa definição de Michel Foucault) governa o acúmulo ordenado de enunciados e o seu acontecimento como eventos singulares. Os diversos elementos abstraídos do dataset são diferenciados e inscritos em uma matriz de classificação multidimensional, que é invocada toda vez que ativamos o modelo. A coerência de todo conteúdo que um modelo neural pode gerar automaticamente está vinculada aos vetores de ordem e às hierarquias nele cristalizadas. E é o museu, mais do que qualquer pincel, cavalete ou câmera, a figura que melhor representa essa correlação entre a produção de aparências e a reprodução de uma determinada ordem das coisas.
A constituição arquivística dos sistemas de IA generativa tem reacendido debates de meados da década de 00, quando a popularização de mídias digitais provocou uma expansão de práticas criativas baseadas no desvio e na apropriação. Lançada originalmente à época, a série Everything is a Remix (2010-2023), de Kirby Ferguson, ilustra muito bem como a legitimidade dessas práticas foi construída sobre a ideia de que toda forma de criatividade seria essencialmente derivativa. Ferguson relançou recentemente o último episódio da série (2023) propondo que esse argumento poderia ser também estendido para os sistemas de inteligência artificial, por acreditar que tanto humanos quanto máquinas “aprendem” da mesma forma – que seja: a partir da absorção de referências e exemplos. Mas trata-se de um argumento falho, cujas deficiências ficam claras a partir da comparação entre sistemas de IA e museus como infraestruturas epistêmicas.
Podemos começar pelo desequilíbrio de poder no motor do processo de “aprendizado” da máquina. Como diversos estudos recentes apontaram, os sistemas de IA generativa mais versáteis requerem uma enorme quantidade de dados, computação e recursos naturais para serem treinados. Frequentemente, os datasets empregados são aqueles que já estão disponíveis publicamente, coletados da internet por organizações sem fins lucrativos com as quais desenvolvedoras de IA mantém relacionamentos questionáveis. Mas nem mesmo uma empresa líder do segmento como a OpenAI possui todos os recursos necessários para realizar a tarefa por conta própria, como pode ser comprovado pela sua parceria com a Microsoft. Por essas e outras razões, as maiores plataformas de IA generativa se mantêm sob o controle estrito de umas poucas entidades privadas. Sua formação ecoa a longa história que associa os aparelhos culturais modernos às práticas extrativistas subjacentes à violência imperial – uma história que suscita questões éticas para além de qualquer preocupação liberal com a originalidade do trabalho artístico.
É crucial, portanto, reconhecer a responsabilidade das plataformas de IA generativa como poderosos mediadores culturais. De modo semelhante às instituições públicas mais renomadas, os modelos neurais são capazes de amplificar a ressonância de determinados sinais culturais. Quanto maior a penetração do modelo, maior o efeito dos seus protocolos de governança e dispersão nas ecologias midiáticas por aí. Nesse sentido, o animador Alan Warburton chama a atenção para a eficácia das plataformas de síntese texto-em-imagem tais como Midjourney em ampliar a presença de estéticas periféricas no mainstream. Esses sistemas nos dão o poder de conjurar os mais variados estilos artísticos e interpolá-los com facilidade. Os mais otimistas poderiam dizer que a inteligência artificial dissolverá barreiras culturais, tornando triviais encontros tais como o que levou à criação do Cubismo. Imagine quantos novos movimentos artísticos poderiam ser inaugurados via prompting.
Não obstante, é preciso estar atento para os tipos de relação que esses sistemas cultivam. O potencial criativo aparentemente infinito da IA generativa ofusca o modo como ela tem participado de formas perniciosas de apagamento seletivo. O aspecto mais discutido dessa questão é, sem dúvida, o borramento da autoria de indivíduos e comunidades cujo trabalho integra os datasets utilizados no treinamento de modelos neurais. Não é por acaso que diversas vozes críticas apelidaram os sistemas de IA generativa de “máquinas de plágio”. Seu argumento é baseado no fato de que as redes neurais operam a partir da compressão e reestabelecimento de informações específicas. Como bem resumiu o escritor Ted Chiang, o ChatGPT não seria nada além de que “um JPEG borrado da web”. Com efeito, o maior problema da IA generativa não reside no fato de ela automatizar a escrita ou a criação de imagens, mas sim de possibilitar uma forma de “lavagem de conteúdo” de enormes proporções. A aparente neutralidade das plataformas de IA fornece o álibi perfeito para a redistribuição desautorizada e não-creditada de pedaços de textos, imagens e outros materiais pré-existentes. No processo que moveu contra a OpenAI em dezembro do ano passado, o jornal New York Times anexou transcrições de artigos completos recriados quase que literalmente pelo ChatGPT como prova desse modo de operação. Vestígios de marcas d’água e de assinaturas em imagens geradas por IA revelam os fantasmas da autoria que assombram a máquina.
Passado mais de um século desde a invenção do ready-made, essas questões não deveriam gerar qualquer controvérsia dentro do campo da arte contemporânea. Mas, a partir do momento que encaramos modelos neurais sob a perspectiva do aparelho cultural, é difícil evitar comparações com a lógica do museu etnográfico. O museu etnográfico buscou redimir as práticas colecionistas do império na forma dos corpus de conhecimento moderno. Muito já se falou sobre como o projeto dessas instituições em entender e até celebrar culturas não-ocidentais ocasionou frequentes deturpações. No cerne do problema está a desumanização do outro. A especialista em arte africana Mary Nooter Roberts fala da “omissão flagrante de nomes dos fragmentos de cultura que foram acumulados e removidos das regiões colonizadas, durante o final do século XIX e início do século XX, para serem levados de volta à Europa como souvenirs, troféus e evidências de conquista”. Estudiosos como Roberts há muito lutam contra a incapacidade dos museus ocidentais em dar conta de dinâmicas de autoria e práticas culturais verdadeiramente estrangeiras – uma incapacidade que não apenas resulta em categorizações reducionistas, como também desconsidera o modo como o papel dos artistas são entendidos em seus próprios locais.
É revelador, por exemplo, que ainda não saibamos com certeza quais máscaras africanas teriam inspirado Picasso. O próprio Picasso, por mais comprometido que tivesse sido com as lutas anticoloniais da sua época, por vezes afirmou que o impacto desses objetos sobre seu trabalho não era estético, mas sim “mágico”. É uma postura que explicita o enquadramento produzido pela exposição etnográfica, no que recusa aos objetos não-ocidentais o valor de obras equivalentes às do próprio artista. As plataformas de IA generativa parecem reproduzir essa assimetria de valores, que por sua vez reforça uma assimetria de assujeitamentos. Por décadas, o arranjo institucional do museu etnográfico induziu antropólogos a, nas palavras da curadora Clémentine Deliss, “projetar sobre os seus interlocutores de outras culturas a imagem do escravo”. Agora, um arranjo semelhante possibilita aos engenheiros de prompt usar o trabalho de roteiristas, ilustradores e outros produtores culturais como mera matéria-prima. O distanciamento supostamente objetivo propiciado pela plataforma facilita a instrumentalização dessa troca, na mesma medida em que a isenta do seu caráter evidentemente predatório.
Mas essa subalternização não é a única dimensão de apagamento levada a cabo pelo uso de plataformas de IA generativa. Ela vem acompanhada de uma crescente negligência por particularidades materiais e modos de fazer – os quais, como aponta Gilbert Simondon, possuem suas próprias estéticas. Devido ao modo como operam, redes neurais não lidam senão com aparências. As categorias culturais e históricas que esses sistemas reproduzem são inferidas a partir de rastros e descrições parciais copiadas da internet. Informações contextuais extrínsecas ao dataset não têm valor. Nesse sentido, qualquer “compreensão” que uma plataforma de IA generativa possa ter de uma determinada forma artística não passa da mera formalidade.
De igual maneira, os objetos midiáticos gerados por IA são fruto da interpolação e extrapolação de padrões superficiais. As características sensíveis desses objetos não são índices de técnicas ou possibilidades materiais específicas, mas formas generalizadas a partir do treinamento do modelo neural. Embora essas generalizações possam ser suficientes para identificar um tal estilo em meio a um conjunto de imagens, elas não bastam para emular esse mesmo estilo com precisão. Portanto, por mais plausível que possa parecer, o conteúdo gerado por IA está sempre dissociado das condições histórico-materiais que produzem qualquer forma em particular. Com um pouco mais de atenção, imagens aparentemente convincentes de corpos humanos, de fotografias ou de trajes étnicos revelam o descaso do modelo para com a anatomia subjacente, a física da projeção perspectiva e os mais intricados protocolos culturais de manufatura.
Os outputs dos sistemas de IA generativa tendem a substituir o específico pelo estereotípico – ou “o semelhante pelo provável”, como coloca Hito Steyerl. O problema fica nítido no uso de modelos treinados para ampliar o tamanho de arquivos de imagem digital (upscaling): levados ao limite, esses modelos revelam estar tão somente reconstruindo a estrutura geral dos inputs a partir de pedaços tomados de empréstimo de imagens maiores. Tudo é fungível; um detalhe é tão bom quanto qualquer outro. Os sistemas mais avançados são apenas mais eficientes em disfarçar esse modus operandi. Nesses processos de síntese, parece haver muito pouco respeito pelo indicial – pelos rastros, muitas vezes inconscientes ou acidentais, tão cruciais para a história da arte e a arqueologia.
Essas questões pouco afetam projetos de arte contemporânea que lançam mão de sistemas de inteligência artificial enquanto os mantêm a uma distância crítica. A bem da verdade, a IA generativa é um prato cheio para toda uma categoria de mídia arte que tem como foco explorar os limites da tecnologia e prospectar a estética de suas deficiências. Mas o uso de IA generativa se torna cada vez mais questionável conforme esses sistemas passam a ser oferecidos como um pacote de serviços e se estabelecem como uma infraestrutura cognitiva comum a diversas profissões e disciplinas, muitas das quais não reconhecem (ou sequer se importam com) as suas disfunções. Desreguladas, as plataformas de IA generativa ameaçam contaminar ambientes socioculturais inteiros com a sua lógica algorítmica. As distorções sutis que elas propagam (suas “alucinações”) são mais traiçoeiras do que flagrantes deepfakes. Essas distorções manifestam um olhar exoticizante, que considera irrelevante toda complexidade que não consegue apreender, ao mesmo tempo em que circunscreve a realidade do outro às suas próprias categorias. Quanto mais populares se tornam essas plataformas, mais difusa se torna a lenta violência dessa episteme.
Não basta, portanto, simplesmente “descolonizar o dataset”. Os desafios éticos que as plataformas de IA generativa nos colocam não se limitam à sua opacidade, aos seus vieses e ao seu uso de dados privados e/ou desautorizados. Essas modalidades de inteligência são baseadas em um regime extrativo e estatístico que precisamos enfrentar. Caso contrário, e a despeito de nossas melhores intenções, qualquer material com que elas venham a ser treinadas continuará a ser tratado como um resíduo de dados a ser explorado.
Esse é o impasse de projetos artísticos como Babylonian Vision (2020), uma série de vídeos da artista alemã-iraquiana Nora Al-Badri. Babylonian Vision foi realizado a partir de um modelo de aprendizado de máquina pré-treinado que a artista alimentou com “10 mil imagens oriundas dos cinco museus com o maior número de artefatos mesopotâmicos, neo-sumerianos e assírios em suas coleções”. Na descrição da obra, a artista caracteriza o aprendizado de máquina como uma “tecnologia que executa e processa nossa memória coletiva” e diz aproveitar o seu potencial disruptivo para promover uma “prática museológica descolonial”. Ela também enfatiza que muitas das imagens foram extraídas dos sites dos museus sem autorização, como se tivessem sido libertadas do opressivo jugo institucional. Trata-se de uma fórmula efetivamente promissora para diversificar os outputs de um modelo neural. Como alternativa às práticas museológicas correntes, entretanto, parece que falta alguma coisa.
Ainda que Al-Badri descreva o seu trabalho como uma “memória viva das imagens”, elementos próprios do patrimônio cultural babilônico nitidamente são esquecidos no processo. A estética da IA generativa sobrepuja quase que por completo o vocabulário cultural de que se alimenta e que pretende difundir. Características dos artefatos originais dissolvem-se no combustível da “arqueologia especulativa” da artista. Diante disso, o gesto pirateiro de Babylonian Vision parece configurar um arremedo do saque colonial. O que não quer dizer, é claro, que o dataset personalizado da artista seja fruto de um ato de expropriação em massa como o que levou à formação de tantas coleções de museu. Mas será que ele não provoca semelhante descontextualização, quando remove imagens do ecossistema institucional que buscava preservar um fiapo da sua história e as transforma em pretexto para a narrativa de outra pessoa?
Desde a sua criação, os museus sempre foram locais de disputa tanto quanto de trocas. Nos últimos anos, em meio à crise de representação das instituições modernas e aos apelos pela repatriação de artefatos culturais, tem crescido o escrutínio sobre a sua cumplicidade com as narrativas, o poder e a exploração imperiais. Poderiam essas lutas “contra-museológicas” inspirar abordagens mais aptas a navegar os complexos dilemas éticos colocados pelas plataformas de inteligência artificial? Seriam elas capazes de levar artistas a reconhecer as condições institucionais em que a produção de IA generativa prospera e suscitar um salto nas “poéticas neurais” para além do estágio retiniano do kitsch computacional?
Acredito que a comparação com práticas e instituições museológicas não apenas jogue luz sobre a atitude inconsequente que as plataformas de IA generativa têm promovido em relação ao patrimônio cultural, como também revele o quão sistêmicas são as deficiências dessas plataformas. Problemas relacionados ao extrativismo de dados, à expropriação cultural e à assimilação da alteridade por meio de estereotipização e homogeneização não são ocasionados pela prática criativa deste ou daquele indivíduo. São, pelo contrário, problemas proliferados pelo uso indiscriminado de modelos neurais por infraestruturas epistêmicas geridas corporativamente. Ao associar-se aos valores da arte, onde o questionamento de normas é frequentemente visto de maneira positiva, tecnologias “disruptivas” disfarçam a sua própria violência. Ao destacar a posição privilegiada dessas tecnologias como aparatos de mediação cultural, ganhamos novos meios de enfrentar as suas deficiências e, quem sabe, cobrar a sua responsabilidade. ///
Gabriel Menotti é pesquisador e curador independente. Trabalha como professor associado em curadoria e imagem em movimento na Queen’s University, Ontario, e coordena a rede de pesquisa Besides the Screen.