Inteligência Artificial – BaixaCultura https://baixacultura.org Cultura livre & (contra) cultura digital Fri, 14 Feb 2025 13:32:31 +0000 pt-BR hourly 1 https://wordpress.org/?v=6.0.9 https://baixacultura.org/wp-content/uploads/2022/09/cropped-adesivo1-32x32.jpeg Inteligência Artificial – BaixaCultura https://baixacultura.org 32 32 Software livre pode derrotar as big techs? https://baixacultura.org/2025/02/07/codigo-aberto-pode-derrotar-as-big-techs/ https://baixacultura.org/2025/02/07/codigo-aberto-pode-derrotar-as-big-techs/#respond Fri, 07 Feb 2025 17:09:28 +0000 https://baixacultura.org/?p=15779 Falei para o programa “Outra Manhã”, do Outras Palavras, na segunda 3/2/25 sobre DeepSeek e a questão do open source, a partir do texto publicado aqui – que foi republicado pelo OP também

Na conversa, de cerca de 1h, busquei enfatizar o potencial dos modelos de código aberto para desafiar o domínio de grandes empresas de tecnologia. Trouxe também questões éticas e práticas sobre o uso de dados, as implicações políticas da IA ​​e possibilidades futuras de desenvolvimento de IAs descentralizadas, locais e de código aberto. A manchete é um pouco sensacionalista, como o jornalismo tem costumado ser (às vezes por questão de sobrevivência).

[Leonardo Foletto]

Na semana seguinte, Antônio Martins e Glauco Faria conversaram com Uirã Porã sobre como o software livre vive no Brasil e como ele pode ser base da autonomia tecnológica, numa conversa que vale a pena escutar:

]]>
https://baixacultura.org/2025/02/07/codigo-aberto-pode-derrotar-as-big-techs/feed/ 0
A corrida da IA ganha um novo capítulo – chinês e open source https://baixacultura.org/2025/01/29/a-corrida-da-ia-ganha-um-novo-capitulo-chines-e-open-source/ https://baixacultura.org/2025/01/29/a-corrida-da-ia-ganha-um-novo-capitulo-chines-e-open-source/#comments Thu, 30 Jan 2025 01:31:18 +0000 https://baixacultura.org/?p=15766  

Segunda-feira, 27 de janeiro, Wall Street atravessou um de seus dias mais turbulentos. As previsões para o setor de inteligência artificial desmoronaram, “players” viram seus papéis derreterem. As ações da Nvidia, inflacionada pela corrida por chips instalados nas IAs generativas, tombaram 17%, resultando em uma perda de US$ 589 bilhões em valor de mercado – a maior queda diária já registrada na história do mercado financeiro americano, que virou matéria e foco de atenção de diversos jornais. Sete bigtechs (Apple, Amazon, Alphabet, Meta, Microsoft, Nvidia e Tesla) viram uma perda de US$ 643 bilhões em suas ações. O responsável por essa reviravolta? Um chatbot de baixo custo lançado por uma startup chinesa, a DeepSeek, criado em 2024 como um braço de pesquisa de um fundo chamado High Flyer, também chinês. Segundo a empresa, o custo de treinamento do modelo por trás da IA, o DeepSeek-R1, foi de aproximadamente US$ 6 milhões – um décimo do que a Meta investiu no desenvolvimento do Llama 3.1, por exemplo, ou menos ainda dos US$ 100 milhões que a OpenIA investiu no seu último modelo. Além disso, a startup informou que seu chatbot apresentou um desempenho superior ao GPT-4, da OpenAI, em 20 das 22 métricas analisadas.

Não entrando nos pormenores econômicos especulativos do mercado de ações (o tombo se deu no valor do mercado destas big techs a partir da desvalorização de suas ações), o fato principal aqui é: a queda foi sobretudo porque a DeepSeek mostrou ao mundo que existe possibilidade de se competir na área com menos dinheiro, investido de forma eficiente. Com menos processadores, chips e data centers, a empresa destravou a possibilidade de operar com custos menores, justo semanas depois de Trump, ao lado de Sam Altman (Open IA) e Larry Ellison (Oracle), anunciar o “Stargate”, um mega programa de investimentos em IA no Texas com potencial anunciado de alavancar até US$ 500 bilhões de dólares em cinco anos. O lançamento do modelo da DeepSeek redesenha a disputa entre EUA e China pela inteligência artificial e mostra que, mesmo com as travas colocadas pelo Governo Biden na compra de chips da Nvidia pela China, ainda assim é possível fazer sistemas robustos de IA de forma mais barata do que Altman e cia afirmam.

As diferenças técnicas do sistema chinês

Vamos tentar explicar aqui brevemente como funciona o DeepSeek e as principais diferenças em relação ao seus modelos concorrentes. O recém-lançado R1 é um modelo de linguagem em grande escala (LLM) que conta com mais de 670 bilhões de parâmetros, projetado a partir de 2.048 chips H800 da Nvidia – estima-se, por exemplo, que os modelos desenvolvidos pelas big techs utilizem cerca de 16 mil chips para treinar os robôs. Utiliza-se de aprendizado por reforço, uma técnica de aprendizado de máquina (machine learning) em que o sistema aprende automaticamente com os dados e a própria experiência, sem depender de supervisão humana,  a partir de mecanismos de recompensa/punição.

Para aumentar sua eficiência, a DeepSeek adotou a arquitetura Mixture-of-Experts (MoE), uma abordagem dentro do aprendizado de máquina que, em vez de utilizar todos os parâmetros do modelo (ou toda as redes neurais) em cada tarefa, ativa só os necessários de acordo com a demanda. Isso torna o R1 mais ágil e reduz o consumo de energia computacional, executando as operações de forma mais leve e rápida. É como se o modelo fosse uma grande equipe de especialistas e, ao invés de todos trabalharem sem parar, apenas os mais relevantes para o trabalho em questão são chamados, economizando tempo e energia.

Outra técnica utilizada pelo R1 é a Multi-Head Latent Attention (MLA), que permite ao modelo identificar padrões complexos em grandes volumes de dados, usando de 5 a 13% da capacidade de modelos semelhantes como a MHA (Multi-Head Attention), o que a torna mais eficiente, segundo essa análise bem técnica publicada por Zain ul Abideen, especialista em LLM e aprendizado de máquina, em dezembro 2024. Grosso modo, a MLA analisa de forma simultânea diferentes partes dos dados, a partir de várias “perspectivas”, o que possibilita ao DeepSeek-R1 processar informações de maneira mais precisa gastando menos recursos de processamento. A MLA funciona como um grupo de pessoas olhando para o mesmo problema de diferentes ângulos, sempre buscando a melhor solução — de novo e de novo e de novo, a cada novo desafio.

Além de seu baixo custo de treinamento, um dos maiores atrativos do modelo está no baixo custo da operação geral. Grandes empresas de tecnologia costumam cobrar valores altos para acessar suas APIs, ferramentas que permitem que outras empresas usem seus modelos de inteligência artificial em seus próprios aplicativos. A DeepSeek, por outro lado, adota uma abordagem mais acessível; a API do R1 custa entre 20 e 50 vezes menos do que a da OpenAI, de acordo com a empresa. O preço de uma API é calculado com base na quantidade de dados processados pelo modelo, medido em “tokens”. No caso da DeepSeek, a API cobra US$ 0,88 por milhão de tokens de entrada e US$ 3,49 por milhão de tokens de saída. Em comparação, a OpenAI cobra US$ 23,92 e US$ 95,70, respectivamente. Ou seja, empresas que optarem pela tecnologia da chinesa podem economizar substancialmente ao integrar o modelo R1 em suas plataformas.

A DeepSeek declarou que usou 5,5 milhões de dólares (32 milhões de reais) em capacidade computacional, utilizando apenas as 2.048 GPUs Nvidia H800 que a empresa chinesa tinha, porque não podia comprar as GPUs H100 ou A100, superiores, que as big techs acumulam às centenas de milhares. Para ter uma ideia: Elon Musk tem 100 mil GPUs, a OpenAI treinou seu modelo GPT-4 em aproximadamente 25 mil GPUs A100.

Em entrevista à TV estatal chinesa, Liang Wenfeng, CEO da DeepSeek e também do fundo que bancou o modelo (High Flyer), disse que a empresa nunca pretendeu ser disruptiva, e que o “estrelato” teria vindo por “acidente”. “Não esperávamos que o preço fosse uma questão tão sensível. Estávamos simplesmente seguindo nosso próprio ritmo, calculando custos e definindo preços de acordo. Nosso princípio não é vender com prejuízo nem buscar lucros excessivos. O preço atual permite uma margem de lucro modesta acima de nossos custos”, afirmou o fundador da DeepSeek.

“Capturar usuários não era nosso objetivo principal. Reduzimos os preços porque, primeiro, ao explorar estruturas de modelos de próxima geração, nossos custos diminuíram; segundo, acreditamos que os serviços de IA e API devem ser acessíveis e baratos para todos.”

Wenfeng é bacharel e mestre em engenharia eletrônica e da informação pela Universidade de Zhejiang. Entre muitas especulações momentâneas sobre sua vida pessoal, o que se sabe é que o empresário de 40 anos parece “mais um nerd do que um chefe” e que é um entusiasta do modelo open source de desenvolvimento, o que nos leva para o próximo tópico.

As vantagens do código aberto 

Um componente fundamental do sucesso (atual) do modelo chinês é o fato de estar em código aberto. O DeepSeek-V3, lançado no final de 2024, está disponível no GitHub, com uma documentação detalhada sobre como foi feito e como pode ser replicado.

Isso, na prática, tem fomentado uma corrida de várias pessoas e grupos para experimentar fazer seus próprios modelos a partir das instruções dadas pela equipe do DeepSeek. Dê uma busca no Reddit e nos próprios buscadores nestes últimos dias de janeiro de 2025 e você já verá uma enxurrada de gente fazendo.

Como vocês já ouviram falar no “A Cultura é Livre”, a natureza do código aberto, de origem filosófica no liberalismo clássico do século XVII e XVIII, permite mais colaborações, e acaba por impulsionar tanto a concorrência de outras empresas no setor quanto diferentes forks independentes e autônomos individuais. Vale, porém, aqui dizer que o código aberto não é o mesmo que um software livre. Software de código aberto (free/libre/open source software, acrônimo Floss adotado pela primeira vez em 2001) é um nome usado para um tipo de software que surgiu a partir da chamada Open Source Initiative (OSI), estabelecida em 1998 como uma dissidência com alguns princípios mais pragmáticos que os do software livre. A flexibilização na filosofia de respeito à liberdade dos usuários (mais rígida e comprometida com a justiça social no software livre, mais pragmática e aplicável como metodologia de desenvolvimento no open source) propiciou uma expansão considerável tanto do software de código aberto quanto de projetos e empresas que têm este tipo de software como produto e motor de seus negócios. A OSI tem como texto filosófico central “A catedral e o bazar”, de Eric Raymond, publicado em 1999. Nele, Raymond trabalha com a ideia de que “havendo olhos suficientes, todos os erros são óbvios”, para dizer que, se o código fonte está disponível para teste, escrutínio e experimentação pública, os erros serão descobertos mais rapidamente.

A definição da OSI diz que um sistema open source é:

The program must include source code, and must allow distribution in source code as well as compiled form. Where some form of a product is not distributed with source code, there must be a well-publicized means of obtaining the source code for no more than a reasonable reproduction cost, preferably downloading via the Internet without charge. The source code must be the preferred form in which a programmer would modify the program. Deliberately obfuscated source code is not allowed. Intermediate forms such as the output of a preprocessor or translator are not allowed.

O esclarecimento sobre o que é código aberto é importante porque, na esteira do desenvolvimento das IAs de código aberto, vem também surgindo um movimento de open washing, ou seja: a prática de empresas privadas dizerem que os códigos de seus sistemas algorítmicos são abertos – quando na verdade não são tão abertos assim. Ou então quando grandes corporações (ou startups) iniciam projetos em código aberto para incorporar o trabalho colaborativo de colaboradores (desenvolvedores, tradutores, cientistas de dados) – para logo depois, quando o projeto se torna mais robusto, fecharem o código e nunca mais abrirem. “O Google tem um histórico nessa prática, a própria OPEN IA fez isso – e foi processada por Elon Musk (!) justamente por não seguir os princípios abertos.

Escrevemos em nossa última newsletter do BaixaCultura que a Meta, ao dizer que seu modelo LLama é aberto, vem “poluindo” e “confundindo” o open source, como afirma Stefano Maffulli, diretor da Open Source Initiative (OSI). Mas o que o Llama traz como aberto, porém, são os pesos que influenciam a forma como o modelo responde a determinadas solicitações. Um elemento importante para a transparência, mas que por si só não faz se encaixar na definição do open source. A licença sob a qual o Llama foi lançado não permite o uso gratuito da tecnologia por outras empresas, por exemplo, o que não está em conformidade com as definições de código aberto reconhecidas pela OSI. “Programadores que utilizam modelos como o Llama não têm conseguido ver como estes sistemas foram desenvolvidos, ou construir sobre eles para criar novos produtos próprios, como aconteceu com o software de código aberto”, acrescenta Maffuli.

Mas existem IAs totalmente abertas?

A disputa (velha, aliás) pelo que de fato é open source – e principalmente o que não é – também ganha um novo capítulo com o DeepSeek. A “OSI AI Definition – 1.0-RC1” aponta que uma IA de código aberto deve oferecer quatro liberdades aos seus utilizadores:

_ Utilizar o sistema para qualquer fim e sem ter de pedir autorização;

_ Estudar o funcionamento do sistema e inspecionar os seus componentes;

_ Modificar o sistema para qualquer fim, incluindo para alterar os seus resultados;

_ Partilhar o sistema para que outros o utilizem, com ou sem modificações, para qualquer fim;

Nos quatro pontos o DeepSeek v-1 se encaixa. Tanto é que, como mencionamos antes, já tem muita gente fazendo os seus; seja criando modelos ainda mais abertos quanto para ser executada localmente em um dispositivo separado, com boas possibilidades de customização e com exigência técnica possível na maior parte dos computadores bons de hoje em dia. Para não falar em modelos parecidos que já estão surgindo na China, como o Kimi k1.5, lançado enquanto esse texto estava sendo escrito – o que motivou memes de que a competição real na geopolítica de IA está sendo feita entre regiões da China, e não entre EUA X China.

O fato de ser de código aberto faz com que o DeepSeek, diferente do ChatGPT ou do LLama, possa ser acoplado e inserido com diferentes funcionalidades por outras empresas, grupos, pessoas com mais facilidade e menor custo. Ao permitir que novas soluções surjam, torna a barreira de entrada da inteligência artificial muito menor e estoura a bolha especulativa dos financistas globais sobre o futuro da tecnologia – o que talvez seja a melhor notícia da semana.

Mas há um porém importante nessa discussão do código aberto: as bases de dados usadas para treinamento dos sistemas. Para treinar um modelo de IA generativa, parte fundamental do processo são os dados utilizados e como eles são utilizados. Como analisa o filósofo e programador Tante nesse ótimo texto, os sistemas de IA generativa (os LLMs) são especiais porque não consistem em muito código em comparação com o seu tamanho. Uma implementação de uma rede neural é constituída por algumas centenas de linhas de Python, por exemplo, mas um LLM moderno é composto por algum código e uma arquitetura de rede – que depois vai ser parametrizada com os chamados “pesos”, que são os milhares de milhões de números necessários para que o sistema faça o que quer que seja, a partir dos dados de entrada. Assim como os dados, estes “pesos” também precisam ser deixados claros quando se fala em open source, afirma Tante.

Não está claro, ainda, quais foram os dados de treinamento do DeepSeek e como estes pesos foram distribuídos. Endossando Tante, Timnit Gibru disse neste post que para ser open source de fato teria que mostrar quais os dados usados e como foram treinados e avaliados. O que talvez nunca ocorra de fato, pois isso significa assumir que a DeepSeek pegou dados de forma ilegal na internet tal qual o Gemini, a LLama e a OpenIA – que está acusando a DeepSeek de fazer o mesmo que ela fez (!). Outras IAs de código aberto também não deixam muito claro como funcionam suas bases, embora as proprietárias muito menos. Ainda assim, são os modelos de IA identificados como open source, com seus códigos disponíveis no Github, os que lideram o nível de transparência, segundo este índice criado por pesquisadores da Universidade de Stanford, que identificou como os mais transparentes o StarCoder e o Jurassic 2.

Podemos concluir que na escala em que estamos falando desses sistemas estatísticos atualmente, e entendendo o acesso e o tratamento dos dados como elementos constituintes do códigos a ser aberto, uma IA totalmente open source pode ser quase uma utopia. Muitos modelos menores foram e estão sendo treinados com base em conjuntos de dados públicos explicitamente selecionados e com curadoria. Estes podem fornecer todos os processos, os pesos e dados, e assim serem considerados, de fato, como IA de código aberto. Os grandes modelos de linguagem que passamos a chamar de IA generativa, porém, baseiam-se todos em material adquirido e utilizado ilegalmente também porque os conjuntos de dados são demasiado grandes para fazer uma filtragem efetiva de copyright e garantir a sua legalidade – e, talvez, mesmo a sua origem definitiva, dado que muitas vezes podemos ter acesso ao conjunto de uma determinada base de dados, mas não exatamente que tipo de dado desta base foi utilizada para treinamento. Aliás, não é surpresa que hoje muitos dos que estão procurando saber exatamente o dado utilizado são detentores de copyright em busca de processar a Open AI por roubo de conteúdo.

Mesmo que siga o desafio de sabermos como vamos lidar com o treinamento e a rastreabilidade dos dados usados pelos modelos de IA, a chegada do DeepSeek como um modelo de código aberto (ou quase) tem enorme importância sobretudo na ampliação das possibilidades de concorrência frente aos sistemas da big techs. Não é como se o império das grandes empresas de tecnologia dos Estados Unidos tivesse ruído da noite pro dia, mas houve uma grande demonstração de como a financeirização da economia global amarrou uma parte gigantesca do valor financeiro do mundo às promessas de engenheiros que claramente estavam equivocados nas suas projeções do que era preciso para viabilizar a inteligência artificial – seja para ganhos especulativos ou por puro desconhecimento.

A parte ainda não solucionada da equação é uma repetição do antigo episódio envolvendo o lançamento do Linux: se essa solução estará disponível para ser destrinchada por qualquer um, como isso vai gerar mais independência aos cidadãos? A inteligência artificial tem milhares de aplicações imaginadas, e até agora se pensava em utilizá-la nos processos produtivos de diversas indústrias e serviços pelo mundo. Mas como ela pode sugerir independência e autonomia para comunidades, por exemplo? Espera-se, talvez de maneira inocente, que suas soluções sejam aproveitadas pela sociedade como um todo, e que não sejam meramente cooptadas pelo mercado para usos privados como tem ocorrido até aqui. Por fim, o que se apresenta é mais um marco na história da tecnologia, onde ela pode dobrar a curva da independência, ou seguir no caminho da instrumentalização subserviente às taxas de lucro.

[Leonardo Foletto e Victor Wolffenbüttel]

]]>
https://baixacultura.org/2025/01/29/a-corrida-da-ia-ganha-um-novo-capitulo-chines-e-open-source/feed/ 1
IA e os direitos dos escritores https://baixacultura.org/2024/11/01/ia-e-os-direitos-dos-escritores/ https://baixacultura.org/2024/11/01/ia-e-os-direitos-dos-escritores/#respond Fri, 01 Nov 2024 12:40:35 +0000 https://baixacultura.org/?p=15749 Traduzimos um artigo do escritor e ativista Cory Doctorow que explora como a Penguin Random House (PRH), maior grupo editorial do mundo, tem restringido o uso de seus livros para treinamento de IA, o que tem gerado uma sensação de proteção entre escritores. No entanto, convém ter calma: esse tipo de movimento pode ser mais sobre controle econômico do que defesa dos direitos dos trabalhadores criativos. “Só porque você está do lado deles, não significa que eles estejam do seu lado”.

Doctorow destaca que muitas editoras e grandes players da mídia usam táticas como essa para maximizar lucros, enquanto os trabalhadores criativos raramente se beneficiam diretamente dessas mudanças. Mesmo com a nova política da PRH – que provavelmente servirá de base para outras editoras mundo afora – é improvável que os escritores recebam qualquer compensação adicional se a PRH cobrar pelo uso das obras em treinamentos de IA.

Doctorow aponta também que a concentração do mercado editorial reduz as chances de negociação para autores. Hoje, com apenas cinco grandes editoras dominando o setor, os escritores perdem força de negociação e encontram dificuldades para exigir melhores condições, algo que era mais viável em um mercado menos concentrado.

O ensaio também sugere que em vez de focar exclusivamente em garantir mais direitos autorais, escritores e outros trabalhadores criativos poderiam se mobilizar para conquistar maior autonomia financeira e melhores condições em negociações com as editoras. Movimentos como, por exemplo, o direito de reaver suas obras após alguns anos – 14 anos, como era no sistema original de copyright dos EUA, e não 35 ou após a morte do autor – e revendê-las por mais dinheiro, poderiam dar mais controle aos autores sobre suas criações, garantindo uma renda justa e estável.

 

Penguin, Inteligência Artificial e os direitos dos escritores

Cory Doctorow

Publicado originalmente no Pluralistic em 19/10/24
Tradução: Leonardo Foletto

Minha amiga Teresa Nielsen Hayden é uma fonte de ditados sábios, como “você não é responsável pelo que faz nos sonhos de outras pessoas” e o meu favorito de todos os tempos, da época do Napster: “Só porque você está do lado deles, não significa que eles estejam do seu lado”.

As gravadoras odiavam o Napster, assim como muitos músicos, e quando esses músicos ficaram do lado de suas gravadoras nas campanhas legais e de relações públicas contra o compartilhamento de arquivos, eles deram legitimidade legal e pública à causa das gravadoras, que acabou prevalecendo.

Mas as gravadoras não estavam do lado dos músicos. O fim do Napster e, com ele, a ideia de um sistema de licença geral para distribuição de música pela Internet (semelhante aos sistemas de rádio, apresentações ao vivo e música enlatada) em locais e lojas) estabeleceu firmemente que os novos serviços *devem* obter permissão das gravadoras para operar.

A era atual é muito boa para as gravadoras. O cartel das “Big Three”- Universal, Warner e Sony – ditou os termos com o Spotify, que em contrapartida entregou bilhões de dólares em ações e permitiu que as três grandes co-projetassem o esquema de royalties sob o qual o Spotify opera hoje.

Se você ouviu alguma coisa sobre os pagamentos do Spotify, provavelmente sabe que eles são extremamente desfavoráveis aos artistas. Isso é verdade, mas não significa que seja desfavorável para as três grandes gravadoras. As “Big Three” têm seus pagamentos mensais assegurados, grande parte registrada como “royalties não atribuíveis” –  dinheiro que as gravadoras podem distribuir entre os artistas ou usarem como bem entenderem. Também tem outras vantagens, como por exemplo poder incluir gratuitamente músicas de seus artistas nas principais listas de reprodução. Além disso, os pagamentos ultra baixos aos artistas aumentam o valor das ações das gravadoras no Spotify, pois quanto menos o Spotify tiver que pagar pela música, melhor será sua imagem para os investidores. Assim, as Big Three – que detêm 70% de todas as músicas já gravadas no mundo, graças a uma orgia de fusões – compensam o déficit dessas baixas taxas por fluxo com pagamentos garantidos e promoções.

Mas as gravadoras independentes e os músicos, que representam os 30% restantes, ficam de fora dessa conta. Eles estão presos ao mesmo esquema de royalties fracionários de centavo por streaming que as  Big Three, mas não recebem garantias gigantescas de dinheiro mensal, além de precisarem pagar pela colocação de músicas em playlists – o que as Big Three fazem de graça.

Só porque você está do lado deles, não significa que eles estejam do seu lado. [Leia o que escrevi sobre como o Spotify rouba dos artistas

 

Em um sentido muito concreto e importante, os trabalhadores criativos – escritores, cineastas, fotógrafos, ilustradores, pintores e músicos – não estão do mesmo lado que as gravadoras, agências, estúdios e editoras que colocam nosso trabalho no mercado. Essas empresas não são instituições de caridade; elas são motivadas a maximizar os lucros e uma maneira importante de fazer isso é reduzir os custos, inclusive e principalmente o custo de nos pagar pelo nosso trabalho.

É fácil não perceber esse fato porque os trabalhadores dessas gigantescas empresas de entretenimento são nossos aliados de classe. O mesmo impulso que restringe os pagamentos aos escritores é usado quando as empresas de entretenimento pensam em quanto pagam aos editores, assistentes, publicitários e à equipe da logística. Essas são as pessoas com as quais os trabalhadores criativos lidam no dia a dia; elas, em geral, estão sim do nosso lado, e é fácil confundir essas pessoas com seus empregadores.

Essa guerra de classes não precisa ser o fato central do relacionamento dos trabalhadores criativos com nossas editoras, gravadoras, estúdios, etc. Quando há muitas dessas empresas de entretenimento, elas competem umas com as outras pelo nosso trabalho (e pelo trabalho dos funcionários que levam esse trabalho ao mercado), o que aumenta nossa participação no lucro que nosso trabalho produz.

Mas vivemos em uma era de extrema concentração de mercado em todos os setores, inclusive no de entretenimento, onde lidamos com cinco editoras, quatro estúdios, três gravadoras, duas empresas de tecnologia de publicidade e uma única empresa que controla todos os e-books e audiolivros na América do Norte. Essa concentração faz com que seja muito mais difícil para os artistas negociarem de forma eficaz com as empresas de entretenimento, o que significa que é possível – e até provável – que as empresas de entretenimento obtenham vantagens de mercado que não são compartilhadas com os trabalhadores criativos. Em outras palavras: quando seu campo é dominado por um cartel, você pode estar do lado deles, mas é quase certo que eles não estão do seu lado.

Esta semana, a Penguin Random House (PRH), a maior editora “da história da raça humana”, ganhou as manchetes quando alterou o aviso de copyrights de seus livros para proibir o treinamento de IA.

A página de copyright agora inclui esta frase:

Nenhuma parte deste livro pode ser usada ou reproduzida de qualquer maneira para fins de treinamento de tecnologias ou sistemas de inteligência artificial.

Muitos escritores estão comemorando essa mudança como uma vitória dos direitos dos trabalhadores criativos sobre as empresas de IA, que arrecadaram centenas de bilhões de dólares, em parte prometendo aos nossos chefes que podem nos demitir e nos substituir por algoritmos.

Mas esses escritores estão presumindo que, só porque estão do lado da Penguin Random House, a PRH está do lado deles. Eles estão presumindo que, se a PRH lutar contra as empresas de IA que treinam bots com seu trabalho gratuitamente, isso significa que a PRH não permitirá que bots sejam treinados com seu trabalho de forma alguma.

Essa é uma visão bastante ingênua. O que é muito mais provável é que a PRH use todos os direitos legais que possui para insistir que as empresas de IA paguem pelo direito de treinar chatbots com os livros que escrevemos. É muito improvável que a PRH compartilhe o dinheiro da licença com os escritores cujos livros são então jogados no funil de treinamento do bot. Também é extremamente provável que a PRH tente usar a produção dos chatbots para reduzir nossos salários ou nos demitir e substituir nosso trabalho por uma IA lixo.

Isso é especulação de minha parte, mas é uma especulação informada. Observe que a PRH não anunciou que permitiria aos autores reivindicar o direito contratual de impedir que seu trabalho fosse usado para treinar um chatbot. Ou que estava oferecendo aos autores uma parte de qualquer uma das taxas de licença de treinamento, ou uma parte da renda de qualquer coisa produzida por bots treinados com o nosso trabalho.

De fato, à medida que o mercado editorial se transformou das trinta e poucas editoras de médio porte que floresciam quando eu era um escritor novato para as Cinco Grandes que dominam o campo atualmente, seus contratos ficaram notavelmente e materialmente piores para os escritores.

Isso não tem nada de surpreendente. Em qualquer leilão, quanto mais licitantes sérios houver, mais alto será o preço final. Quando havia trinta possíveis licitantes para nosso trabalho, conseguíamos em média um acordo melhor do que agora, quando há no máximo cinco licitantes.

Embora isso seja evidente, a Penguin Random House insiste em dizer que não é verdade. Na época em que a PRH estava tentando comprar a Simon & Schuster (reduzindo assim as cinco grandes editoras para quatro), eles insistiram que continuariam a fazer lances contra eles mesmos: editores da Simon & Schuster (que seria uma divisão da PRH) fariam lances contra editores da Penguin (outra divisão da PRH) e da Random House (mais uma divisão da PRH).

Isso é um absurdo óbvio, como disse [o escritor] Stephen King quando testemunhou contra a fusão (que foi posteriormente bloqueada pelo tribunal): “Você poderia muito bem dizer que terá marido e mulher concorrendo um contra o outro pela mesma casa. Seria muito cavalheiresco e tipo, ‘Depois de você’ e ‘Depois de você’, disse ele, gesticulando com um movimento educado do braço”.

A Penguin Random House não se tornou a maior editora da história publicando livros melhores ou fazendo um marketing melhor. Eles atingiram sua escala comprando seus rivais. A empresa é, na verdade, uma espécie de organismo colônia formado por dezenas de editoras que antes eram independentes. Cada uma dessas aquisições reduziu o poder de barganha dos escritores, mesmo dos escritores que não escrevem para a PRH, porque o desaparecimento de um licitante confiável para o nosso trabalho no portfólio corporativo da PRH reduz os possíveis licitantes para o nosso trabalho, independentemente de para quem o estamos vendendo.

Prevejo que a PRH não permitirá que seus escritores incluam uma cláusula em seus contratos proibindo a PRH de usar seu trabalho para treinar uma IA. Essa previsão se baseia em minha experiência direta com duas das outras cinco grandes editoras, onde sei com certeza que elas se recusaram terminantemente a fazer isso e disseram ao escritor que qualquer insistência em incluir esse contrato levaria à rescisão da oferta.

As Big Five têm termos de contrato marcadamente semelhantes. Ou melhor, contratos incrivelmente semelhantes, uma vez que os setores concentrados tendem a convergir em seu comportamento operacional. As Big Five são semelhantes o suficiente para que se entenda que um escritor que processe uma delas provavelmente será excluído das demais.

Meu próprio agente me deu esse conselho quando uma das Big Fives me roubou mais de US$ 10.000 – cancelou um projeto do qual eu fazia parte porque outra pessoa envolvida com ele desistiu e, em seguida, retirou cinco dígitos da taxa de inscrição especificada em meu contrato, só porque podia. Meu agente me disse que, embora eu certamente ganhasse o processo, isso custaria a minha carreira, pois me colocaria em má situação com todos as Big Five.

Os escritores que estão aplaudindo o novo aviso de direitos autorais da Penguin Random House estão operando sob a crença equivocada de que isso tornará menos provável que nossos chefes comprem uma IA na esperança de nos substituir por ela. Isso não é verdade. Conceder à Penguin Random House o direito de exigir taxas de licença para treinamento em IA não fará nada para reduzir a probabilidade de que a Penguin Random House opte por comprar uma IA na esperança de reduzir nossos salários ou nos demitir.

Mas outra coisa fará! O Escritório de Direitos Autorais dos EUA emitiu uma série de decisões, confirmadas pelos tribunais, afirmando que nada feito por uma IA pode ser protegido por direitos autorais. Por estatuto e tratado internacional, o direito autoral é um direito reservado para obras de criatividade humana (é por isso que a “selfie do macaco” não pode ser protegida por direitos autorais).

Cryteria/CC BY 3.0, modificado

Se todas as outras coisas forem iguais, as empresas de entretenimento vão preferir pagar aos trabalhadores criativos o mínimo possível (ou nada) pelo nosso trabalho. Mas, por mais forte que seja sua preferência por reduzir os pagamentos aos artistas, elas estão muito mais comprometidas em poder controlar quem pode copiar, vender e distribuir os trabalhos que lançam.

Em outras palavras, quando confrontadas com a escolha entre “Não precisamos mais pagar aos artistas” e “Qualquer pessoa pode vender ou distribuir nossos produtos e não receberemos um centavo por isso”, as empresas de entretenimento pagarão aos artistas todo o dia.

Lembra-se daquele idiota de quem todos riram porque ele conseguiu ganhar um concurso de arte com uma porcaria de IA e depois ficou com raiva porque as pessoas estavam copiando a “sua” imagem? A insistência desse cara de que sua porcaria deveria ter direito a direitos autorais é muito mais perigosa do que o golpe original de fingir que ele pintou a porcaria em primeiro lugar.

Se a PRH estivesse intervindo nesses casos de direitos autorais de IA do Copyright Office para dizer que os trabalhos de IA não podem ser protegidos por direitos autorais, isso seria um caso em que estaríamos do lado deles – e eles estariam do nosso lado. No dia em que eles apresentarem uma petição de amicus curiae ou um comentário de regulamentação apoiando a ausência de direitos autorais para IA, eu os louvarei aos céus.

Mas essa alteração no aviso de direitos autorais do PRH não vai melhorar o saldo bancário dos escritores. Dar aos escritores a capacidade de controlar o treinamento de IA não impedirá a PRH e outras empresas gigantes de entretenimento de treinar IAs com nosso trabalho. Elas simplesmente dirão: “Se você não assinar o direito de treinar uma IA com seu trabalho, não o publicaremos”.

O maior indicador de quanto dinheiro um artista ganha com a exploração de seu trabalho não é a quantidade de direitos exclusivos que temos, mas sim o poder de negociação que temos. Quando você negocia com cinco editoras, quatro estúdios ou três gravadoras, todos os novos direitos que você obtém do Congresso ou dos tribunais são simplesmente transferidos para eles na próxima vez que você negociar um contrato.

Como Rebecca Giblin e eu escrevemos em nosso livro de 2022 “Chokepoint Capitalism”:

Dar mais direitos autorais a um trabalhador criativo é como dar mais dinheiro para o lanche de um aluno que sofre bullying. Não importa o quanto você dê a ele, os valentões ficarão com tudo. Dê a seu filho dinheiro suficiente para o lanche e os valentões poderão subornar o diretor da escola para que faça vista grossa. Continue dando dinheiro para o lanche da criança e os agressores poderão lançar um apelo global exigindo mais dinheiro para o lanche de crianças famintas!

Como a sorte dos trabalhadores criativos diminuiu durante a era neoliberal de fusões e consolidações, nós nos distraímos com campanhas para obter mais direitos autorais, em vez de mais poder de negociação.

Existem políticas de direitos autorais que nos dão mais poder de negociaçao. Proibir que trabalhos de IA obtenham direitos autorais nos dá mais poder de negociação. Afinal, só porque a IA não pode fazer nosso trabalho, não significa que os vendedores de IA não possam convencer nossos chefes a nos demitir e nos substituir por uma IA incompetente.

Depois, há a “rescisão de direitos autorais”. De acordo com o Copyright Act de 1976, nos Estados Unidos os trabalhadores criativos podem reaver os direitos autorais de suas obras após 35 anos, mesmo que assinem um contrato abrindo mão dos direitos autorais por toda a sua duração.

Trabalhadores criativos, de George Clinton a Stephen King e Stan Lee, converteram esse direito em dinheiro – ao contrário, por exemplo, de termos mais longos de direitos autorais, que são simplesmente transferidos para empresas de entretenimento por meio de cláusulas contratuais não negociáveis. Em vez de nos juntarmos aos nossos editores na luta por termos mais longos de direitos autorais, poderíamos exigir termos mais curtos para a rescisão de direitos autorais. Por exemplo, o direito de retomar um livro, música, filme ou ilustração popular após 14 anos (como era o caso no sistema original de direitos autorais dos EUA) e revendê-lo por mais dinheiro como um sucesso comprovado e sem riscos.

Até lá, lembre-se: “só porque você está do lado deles, isso não significa que eles estejam do seu lado”. A PRH não quer evitar que o conteúdo de baixa qualidade feito por IA reduza os nossos salários como escritores; eles só querem ter certeza de que é a produção da IA deles que vai fazer isso, e não outra de fora.

 

]]>
https://baixacultura.org/2024/11/01/ia-e-os-direitos-dos-escritores/feed/ 0
Cópia & Desvio – parte I https://baixacultura.org/2024/10/25/copia-desvio-parte-i/ https://baixacultura.org/2024/10/25/copia-desvio-parte-i/#respond Fri, 25 Oct 2024 18:52:24 +0000 https://baixacultura.org/?p=15740  

A proliferação mundial dos sistemas de inteligências artificiais generativas quebrou um paradigma ao tornar a cópia ainda mais base para a criação. Tudo que está na internet e foi raspado – sem consentimento, aliás – por estes sistemas está sendo a base para a criação de inúmeras coisas, de cards de redes sociais a ilustrações de livros, passando por e-mails, artigos, filmes, textos e músicas. Se já no início do século XX a reprodução técnica, especialmente na fotografia e no cinema, tornava a cópia e o “original” não facilmente distinguíveis, o que dirá a partir de 2023, quando as IAs ampliam a reprodução digital e, cada vez mais, a separam de sua materialidade original, que passa a se transformar em mero dado, padrões de números a alimentarem grandes bancos onde não existe mais singularidade, apenas cópia.

Diante disso, qual é o papel da cópia na era da IA Generativa? O projeto Cópia & Desvio é uma série de conferências experimentais/performances sobre o direito para copiar e reutilizar o conhecimento humano. Organizado em atos, o objetivo é apresentar uma narrativa crítica sobre a cópia e sua relação com a política e a sociedade ao longo do tempo.

A primeira parte se chama “A cópia na era de sua proliferação técnica” e ocorreu ao vivo em 24 de outubro, às 19h (UTC-3). Nela, Rafael Bresciani e Leonardo Foletto remixaram artefatos sonoros e visuais em live-coding (no sistema Hydra, com a interface do Flok) para compor a narração da conferência, centrada nesta primeira parte nas práticas e reflexões de cópia no início do século XX. Teve participação nas vozes (e textos) de Walter Benjamin, Marcel Duchamp, Conde de Lautréamont e Tommaso Marinetti. Na música, Neu!, Talking Heads e Kaisoku Tokyo. Nas imagens, Pablo Picasso, Okumura Masanobu, Kunisada, J Borges, Louis Daguerre, Hugo Ball, Kurt Schwitters, Man Ray, Niepce, Abraham Salm, Marinetti, entre outros. As vozes de Duchamp, Benjamin e Lautréamont foram criadas a partir do treinamento do sistema de IA Generativa chamado Eleven Labs

O vídeo é parte de uma investigação que estamos fazendo desde 2023 sobre o papel da cópia ao longo dos últimos séculos na história da arte, o que passa pela questão histórica do desvio. Como se sabe, a arte é marcada pelo plágio, o roubo, o desvio, a cópia e apropriação. A segunda parte irá centrar na sgunda metade do século XX, período essencial da proliferação técnica das cópias a partir dos gravadores, samplers, fitas, fotocopiadoras, televisão, vídeos, computadores.

Assista abaixo. Após, um trecho do texto falado por Benjamin no vídeo:

 

“Tanto a poesia sonora, as colagens e o cinema são artes que foram potencializadas nessa primeira metade do século XX com a expansão da reprodução técnica. Os aparatos técnicos são protagonistas tanto como método de produção (caso das collages) quanto de gravação e apresentação ao público (poesia sonora e o cinema).

Eu não vou explicar hoje o que é Inteligência Artificial Generativa pois, como falei para vocês, ainda não sei bem. Intuo que elas ampliam a reprodução digital e, cada vez mais, a separam de sua materialidade original, que passa a se transformar em mero dado, padrões de números a alimentarem grandes bancos onde não existe mais singularidade.

Eu intuo também que as tecnologias digitais de reprodução tornam mais difícil a negação e a escolha. É como um loop da desintegração: o meio é abstraído na hiperconexão do e e e e e e e e e e e e e e, com menos possibilidade de ou ou ou ou. Às máquinas de reprodução técnica digital não é facultado a possibilidade de fim, mas sim a reprodução contínua e infinita de presente. Tudo passa a ser conectado ao propósito da reprodução contínua de cópias. Nada mais é criado, tudo passa a ser apenas repetição sem diferença. Todas as obras já existentes remixam as anteriores: tudo é cópia.” 

Walter Benjamin (Benja), remixado no vídeo

]]>
https://baixacultura.org/2024/10/25/copia-desvio-parte-i/feed/ 0
A cópia na era de sua proliferação técnica https://baixacultura.org/2024/10/11/a-copia-na-era-de-sua-proliferacao-tecnica/ https://baixacultura.org/2024/10/11/a-copia-na-era-de-sua-proliferacao-tecnica/#respond Fri, 11 Oct 2024 20:16:34 +0000 https://baixacultura.org/?p=15723 Muito já se falou sobre as mudanças que a internet e as tecnologias digitais trouxeram para o compartilhamento de informação: a era da “liberação do polo emissor da informação” propiciou o acesso fácil a maior quantidade de informação disponível na história da humanidade, para o maior número de pessoas já existentes no planeta até aqui. 

É normal que o debate tenha o foco na recepção das informações digitalizadas. As práticas de consumo e circulação de informação dizem respeito a toda a sociedade, enquanto que as práticas criativas dizem respeito a um grupo mais seleto de pessoas que, de forma assumida, afirma que cria – embora saibamos que a criação está em muito mais lugares do que imaginamos. As mesmas tecnologias que nos levam a conversar sobre novos modos de consumir e compartilhar informação colocam, também, em relevo práticas criativas ligadas ao roubo. Identificamos um sampler em menos de 3 s, uma imagem através de uma busca simples de comparação num buscador da web; usamos qualquer obra para criar outras.

As práticas de (re) criação ligadas à abundância de informação potencializada nos últimos 30 anos por objetos técnicos não fazem outra coisa que não coletar, armazenar, processar e difundir dados. Estes objetos, que você reconhece em todos os hábitos cotidianos de uma pessoa do século XXI, tem por essência a cópia. Isso significa dizer que eles só existem porque copiam; não há ação no uso da internet e de objetos digitais que não seja, em essência, uma combinação gigantesca de números copiados. São os 0 e 1 recombinados a exaustão que fazem brotar, às vezes como mágica, imagens, sons, textos, que vão ser captados pelos nossos sentidos e fruídos como arte, jornalismo, entretenimento – ou simplesmente mentira.

A proliferação mundial dos sistemas de inteligências artificiais generativas (ChatGPT, MidJourney, Stable Diffusion, Gemini, etc) em 2023 quebra um paradigma ao tornar a cópia ainda mais base para a criação. Tudo que está na internet e foi raspado – sem consentimento, aliás – por estes sistemas está sendo a base para a criação de inúmeras coisas, de cards de redes sociais a ilustrações de livros, passando por e-mails, artigos, filmes, textos e músicas. Se já no início do século XX a reprodução técnica, especialmente na fotografia e no cinema, tornava a cópia e o “original” não facilmente distinguíveis, o que dirá a partir de 2023, quando as IAs ampliam a reprodução digital e, cada vez mais, a separam de sua materialidade original, que passa a se transformar em mero dado, padrões de números a alimentarem grandes bancos onde não existe mais singularidade, apenas cópia – a hiperconexão do E E E E E em vez do OU OU, já que às máquinas não é facultado a possibilidade de fim, mas sim a reprodução contínua e infinita de presente. 

Diante disso, qual será o papel da cópia na criação artística na era da Inteligência Artificial Generativa? Estamos em uma investigação, desde 2023, para entendermos o papel da cópia ao longo dos últimos séculos na história da arte, o que passa pela questão histórica do desvio: como se sabe – e nós já tratamos um pouco aqui, nos “momentos da história da recombinação” – a arte é marcada pelo plágio, o roubo, o desvio, a cópia e apropriação. Estamos nos encaminhando para o encerramento desse processo, que vai resultar num livro a ser publicado pela SobInfluencia em 2025.

Em paralelo e complementar ao processo de produção do livro, nasceu o projeto Cópia & Desvio. É uma série de conferências experimentais/performances/lives sobre o direito para copiar e reutilizar o conhecimento humano. Organizado em quatro atos, o objetivo é apresentar uma narrativa crítica sobre a cópia e sua relação com a política e a sociedade ao longo do tempo. Em diálogo com o processo de escrita do livro, as quatro sessões vão abordar temas, pessoas, grupos e movimentos históricos onde a cópia ganhou destaque, sempre em diálogo com a história das tecnologias que permitiram transformações na reprodução técnica. 

Vamos examinar momentos como a criação do rádio e da arte sonora do surrealismo e do dadaísmo; o détournement situacionista e o cut-up dos 1960; a arte xerox e a mail art dos anos 1970 e 1980; os samplers e a cultura hip-hop, os remixes e os memes potencializados na internet; até chegar, por fim, a criação na era da IAs generativas.

As conferências/performances se desenvolvem em um formato experimental, ao vivo, como lives, em que a narração irá acompanhar um live coding com elementos visuais e sonoros, além de outras intervenções ao vivo. Serão gravadas e transmitidas, via canal do Youtube do BaixaCultura.

A primeira destas conferências será chamada de “A cópia na era de sua proliferação técnica” e vai ocorrer no 24 de outubro, às 19h (Brasil, UTC-3). Rafael Bresciani e Leonardo Foletto vão criar artefatos sonoros e visuais para compor a narração da conferência, centrada nas práticas e reflexões de cópia no século XX, de Walter Benjamin a Lev Manovich, passando por Marcel Duchamp, Guy Debord, William Burroughs, Hugo Pontes, Paulo Bruczky, Moholy-Nagy, Rosalind Krauss, Yoko Ono, Andy Warhol, Sherrie Levine, Devo, Talking Heads, Neu!, entre outros.

]]>
https://baixacultura.org/2024/10/11/a-copia-na-era-de-sua-proliferacao-tecnica/feed/ 0
O olho do mestre: a automação da inteligência geral https://baixacultura.org/2024/02/28/o-olho-do-mestre-a-automacao-da-inteligencia-geral/ https://baixacultura.org/2024/02/28/o-olho-do-mestre-a-automacao-da-inteligencia-geral/#respond Thu, 29 Feb 2024 01:07:13 +0000 https://baixacultura.org/?p=15585  

No final de 2023, não lembro onde nem como, fiquei sabendo de “The Eye of the Master”, novo livro do Matteo Pasquinelli sobre IA. Fiquei na hora empolgado. Primeiro porque a proposta do livro é a de contar uma “história social” da IA, indo desde Charles Babbage até hoje, passando e destrinchando o conceito de general intellect de Marx (hoje bastante usado nos estudos tecnopolíticos) e a onipresente cibernética, também uma área de estudos bastante retomada nos últimos anos por Yuk Hui, Letícia Cesarino e diversos outros pesquisadores, até chegar as IAs generativas de hoje. Tudo uma abordagem rigorosa, por vezes densa,  cheia de referências saborosas, e marxista – com várias aberturas típicas do autonomismo italiano e do pós-operaísmo, influências do autor.

Segundo porque Pasquinelli, professor de filosofia da ciência na Universidade Foscari, em Veneza, tem, ele próprio, um belo histórico em se debruçar nos estudos da filosofia da técnica. Eu o conheci pela primeira vez há cerca de 10 anos atrás, quando o artigo “A ideologia da cultura livre e a gramática da sabotagem” saiu como capítulo do Copyfight, importante livro organizado por Bruno Tarin e Adriano Belisário. Depois, outros textos de Pasquinelli foram publicados em português pelo coletivo Universidade Nômade; um deles, “O algoritmo do PageRank do Google: Um diagrama do capitalismo cognitivo e da exploração da inteligência social geral”, já em 2012 apontava para a exploração da “inteligência social geral” por algoritmos das big techs – o que hoje, com IAs generativas, virou um consenso global.

Ainda estou digerindo a leitura da obra e me debruçando sobre alguns tópicos e referências citados, enquanto espero minha cópia impressa do original chegar para rabiscar e estudar com mais calma. Encharcado de uma saborosa empolgação intelectual, daquelas que nos deixam ao mesmo tempo animado pelas descobertas e ansioso em compartilhar esses achados, fui ao texto que Pasquinelli publicou no E-Flux, em dezembro de 2023, “The Automation of General Intelligence” e traduzi para o português. O texto publicado é uma versão do posfácio do livro, onde o italiano sintetiza alguns pontos da obra e aponta caminhos tanto para a discussão teórica quanto para a disputa ativista. Com a ajuda do amigo Leonardo Palma, busquei traduzir cotejando e adaptando alguns conceitos para o português brasileiro, tentando quando possível trazer referências às obras já publicadas por aqui. 

Para acompanhar o texto, trouxe as imagens que ilustram a publicação no E-Flux. Disponibilizo também o livro inteiro em inglês, publicado pela Verso Books (edições em outros idiomas estão vindo) – “The Eye of the Master: A Social History of Artificial Intelligence” – para baixar – mas você sabe, não é para espalhar.

[Leonardo Foletto]

A automação da Inteligência geral (General Intelligence)

Matteo Pasquinelli

Queremos fazer as perguntas certas. Como as ferramentas funcionam? Quem as financia e as constroi, e como são usadas? A quem elas enriquecem e a quem elas empobrecem? Que futuros elas tornam viáveis e quais excluem? Não estamos procurando respostas. Estamos procurando por lógica.
—Logic Magazine Manifesto, 2017[¹]

Vivemos na era dos dados digitais e, nessa era, a matemática se tornou o parlamento da política. A lei social se entrelaçou com modelos, teoremas e algoritmos. Com os dados digitais, a matemática se tornou o meio dominante pelo qual os seres humanos se coordenam com a tecnologia… Afinal, a matemática é uma atividade humana. Como qualquer outra atividade humana, ela traz consigo as possibilidades tanto de emancipação quanto de opressão.
—Politically Mathematics manifesto, 2019[²]

“A mesma importância que as relíquias de ossos têm para o conhecimento da organização das espécies de animais extintas têm também as relíquias de meios de trabalho para a compreensão de formações socioeconômicas extintas. O que diferencia as épocas econômicas não é “o que” é produzido, mas “como”, “com que meios de trabalho”. Estes não apenas fornecem uma medida do grau de desenvolvimento da força de trabalho, mas também indicam as condições sociais nas quais se trabalha”.
—Karl Marx, Capital, 1867[³]


H
averá um dia no futuro em que a IA atual será considerada um arcaísmo, um fóssil técnico a estudar entre outros
. Na passagem de “O Capital” citada acima, Marx sugeriu uma analogia semelhante que ressoa nos estudos científicos e tecnológicos atuais: da mesma forma que os ossos fósseis revelam a natureza das espécies antigas e os ecossistemas em que viviam, os artefatos técnicos revelam a forma da sociedade que os rodeia e gere. A analogia é relevante, penso eu, para todas as máquinas e também para a aprendizagem automática, cujos modelos abstratos codificam, na realidade, uma concretização de relações sociais e comportamentos coletivos, como este livro tentou demonstrar ao reformular a teoria laboral da automação do século XIX para a era da IA.

 

 

Este livro [“ O Olho do Mestre”] começou com uma pergunta simples: Que relação existe entre o trabalho, as regras e a automação, ou seja, a invenção de novas tecnologias? Para responder a esta questão, iluminou práticas, máquinas e algoritmos a partir de diferentes perspectivas – da dimensão “concreta” da produção e da dimensão “abstrata” de disciplinas como a matemática e a informática. A preocupação, no entanto, não tem sido repetir a separação dos domínios concreto e abstrato, mas ver a sua coevolução ao longo da história: eventualmente, investigar o trabalho, as regras e a automação, dialeticamente, como abstrações materiais. O capítulo inicial sublinha este aspecto, destacando como os rituais antigos, os instrumentos de contagem e os “algoritmos sociais” contribuíram para a elaboração das ideias matemáticas. Afirmar, como o fez a introdução, que o trabalho é uma atividade lógica não é uma forma de abdicar da mentalidade das máquinas industriais e dos algoritmos empresariais, mas antes reconhecer que a práxis humana exprime a sua própria lógica (uma anti-lógica, poderia se dizer) – um poder de especulação e invenção, antes de a tecnociência o capturar e alienar [4].

A tese de que o trabalho tem de se tornar “mecânico” por si só, antes que a maquinaria o substitua, é um velho princípio fundamental que foi simplesmente esquecido. Remonta, pelo menos, à exposição de Adam Smith em “A Riqueza das Nações” (1776), que Hegel também comentou já nas suas conferências de Jena (1805-6). A noção de Hegel de “trabalho abstrato” como o trabalho que dá “forma” à maquinaria já estava em dívida para com a economia política britânica antes de Marx contribuir com a sua própria crítica radical ao conceito. Coube a Charles Babbage sistematizar a visão de Adam Smith numa consistente “teoria do trabalho da automação”. Babbage complementou esta teoria com o “princípio do cálculo do trabalho” (conhecido desde então como o “princípio de Babbage”) para indicar que a divisão do trabalho também permite o cálculo exato dos custos do trabalho. Este livro pode ser considerado uma exegese dos dois “princípios de análise do trabalho” de Babbage e da sua influência na história comum da economia política, da computação automatizada e da inteligência das máquinas. Embora possa parecer anacrônico, a teoria da automatização e da extração de mais-valia relativa de Marx partilha postulados comuns com os primeiros projetos de inteligência artificial.

Marx derrubou a perspetiva industrialista – “o olho do mestre” – que era inerente aos princípios de Babbage. Em “O Capital”, argumentou que as “relações sociais de produção” (a divisão do trabalho no sistema salarial) impulsionam o desenvolvimento dos “meios de produção” (máquinas-ferramentas, motores a vapor, etc.) e não o contrário, como as leituras tecno-deterministas têm vindo a afirmar, centrando a revolução industrial apenas na inovação tecnológica. Destes princípios de análise do trabalho, Marx fez ainda outra coisa: considerou a cooperação do trabalho não só como um princípio para explicar o design das máquinas, mas também para definir a centralidade política daquilo a que chamou o “Gesamtarbeiter“, o “trabalhador geral”. A figura do trabalhador geral era uma forma de reconhecer a dimensão maquínica do trabalho vivo e de confrontar o “vasto autômato” da fábrica industrial com a mesma escala de complexidade. Eventualmente, foi também uma figura necessária para fundamentar, numa política mais sólida, a ideia ambivalente do “intelecto geral” (general intellect) que os socialistas ricardianos, como William Thompson e Thomas Hodgskin, perseguiam.


Das linhas de montagem ao reconhecimento de padrões

Este livro apresentou uma história alargada da divisão do trabalho e das suas métricas como forma de identificar o princípio operativo da IA a longo prazo. Como vimos, na virada do século XIX, quanto mais a divisão do trabalho se estendia a um mundo globalizado, mais problemática se tornava a sua gestão, exigindo novas técnicas de comunicação, controle e “inteligência”. Se, no interior da fábrica a gestão do trabalho podia ainda ser esboçada num simples fluxograma e medida por um relógio, era muito complicado visualizar e quantificar aquilo que Émile Durkheim, já em 1893, definia como “a divisão do trabalho social“[5]. A “inteligência” do patrão da fábrica já não podia vigiar todo o processo de produção num único olhar; agora, só as infra-estruturas de comunicação podiam desempenhar esse papel de supervisão e quantificação. Os novos meios de comunicação de massas, como o telégrafo, o telefone, a rádio e as redes de televisão, tornaram possível a comunicação entre países e continentes, mas também abriram novas perspectivas sobre a sociedade e os comportamentos coletivos. James Beniger descreveu corretamente a ascensão das tecnologias da informação como uma “revolução do controle” que se revelou necessária nesse período para governar o boom econômico e o excedente comercial do Norte Global.  Após a Segunda Guerra Mundial, o controle desta logística alargada passou a ser preocupação de uma nova disciplina militar que fazia a ponte entre a matemática e a gestão: a pesquisa operacional (Operations Research). No entanto, há que ter em conta que as transformações da classe trabalhadora no interior de cada país e entre países, marcadas por ciclos de conflitos urbanos e lutas descoloniais, foram também um dos fatores que levaram ao aparecimento destas novas tecnologias de controle.

A mudança de escala da composição do trabalho do século XIX para o século XX também afetou a lógica da automatização, ou seja, os paradigmas científicos envolvidos nesta transformação. A divisão industrial do trabalho relativamente simples e as suas linhas de montagem aparentemente retilíneas podem ser facilmente comparadas a um simples algoritmo, um procedimento baseado em regras com uma estrutura “se/então“(if/then) que tem o seu equivalente na forma lógica da dedução. A dedução, não por coincidência, é a forma lógica que, através de Leibniz, Babbage, Shannon e Turing, se inervou na computação eletromecânica e, eventualmente, na IA simbólica. A lógica dedutiva é útil para modelar processos simples, mas não sistemas com uma multiplicidade de agentes autônomos, como a sociedade, o mercado ou o cérebro. Nestes casos, a lógica dedutiva é inadequada porque explodiria qualquer procedimento, máquina ou algoritmo num número exponencial de instruções. A partir de preocupações semelhantes, a cibernética começou a investigar a auto-organização em seres vivos e máquinas para simular a ordem em sistemas de alta complexidade que não podiam ser facilmente organizados de acordo com métodos hierárquicos e centralizados. Esta foi fundamentalmente a razão de ser do conexionismo e das redes neurais artificiais, bem como da investigação inicial sobre redes de comunicação distribuídas, como a Arpanet (a progenitora da Internet).

Ao longo do século XX, muitas outras disciplinas registaram a crescente complexidade das relações sociais. Os conceitos gêmeos de “Gestalt” e “padrão” (“pattern”), por exemplo, utilizados respectivamente por Kurt Lewin e Friedrich Hayek, foram um exemplo da forma como a psicologia e a economia responderam a uma nova composição da sociedade. Lewin introduziu noções holísticas como “campo de forças”(“force field”) e “espaço hodológico” (“hodological space”) para mapear a dinâmica de grupo a diferentes escalas entre o indivíduo e a sociedade de massas[6].

O pensamento francês tem sido particularmente fértil e progressivo nesta direção. Os filósofos Gaston Bachelard e Henri Lefebvre propuseram, por exemplo, o método da “ritmanálise” (“rhythmanalysis”) como estudo dos ritmos sociais no espaço urbano (que Lefebvre descreveu de acordo com as quatro tipologias de arritmia, polirritmia, eurritmia e isorritmia [7]). De forma semelhante, a arqueologia francesa dedicou-se ao estudo de formas alargadas de comportamento social nas civilizações antigas. Por exemplo, o paleoantropólogo André Leroi-Gourhan, juntamente com outros, introduziu a ideia de cadeia operacional (“chaîne opératoire”) para explicar a forma como os humanos pré-históricos produziam utensílios [8]. No culminar desta longa tradição de “diagramatização” dos comportamentos sociais no pensamento francês, Gilles Deleuze escreveu o seu célebre “Pós-escrito sobre a Sociedade de Controle”, no qual afirmava que o poder já não se preocupava com a disciplina dos indivíduos, mas com o controle dos “dividuais”, ou seja, dos fragmentos de um corpo alargado e desconstruído [9].

Os campos de força de Lewin, os ritmos urbanos de Lefebvre e os dividuais de Deleuze podem ser vistos como previsões dos princípios de “governação algorítmica” que se estabeleceram com a sociedade em rede e os seus vastos centros de dados desde o final da década de 1990. O lançamento em 1998 do algoritmo PageRank da Google – um método para organizar e pesquisar o hipertexto caótico da Web – é considerado, por convenção, a primeira elaboração em grande escala de “grandes dados” das redes digitais [10]. Atualmente, estas técnicas de mapeamento de redes tornaram-se onipresentes: O Facebook, por exemplo, utiliza o protocolo Open Graph para quantificar as redes de relações humanas que alimentam a economia da atenção da sua plataforma [11]. O exército dos EUA tem utilizado as suas próprias técnicas controversas de “análise de padrões de vida” para mapear redes sociais em zonas de guerra e identificar alvos de ataques de drones que, como é sabido, mataram civis inocentes [12]. Mais recentemente, as plataformas da gig economy (“Economia do Bico”) e os gigantes da logística, como a Uber, a Deliveroo, a Wolt e a Amazon, começaram a localizar a sua frota de passageiros e condutores através de aplicações de geolocalização [13]. Todas estas técnicas fazem parte do novo domínio da “análise de pessoas” (também conhecida como “física social” ou “psicografia”), que é a aplicação da estatística, da análise de dados e da aprendizagem automática ao problema da força de trabalho na sociedade pós-industrial [14].

 

A automação da psicometria, ou inteligência geral (general intellect)

A divisão do trabalho, tal como o design das máquinas e dos algoritmos, não é uma forma abstrata em si, mas um meio de medir o trabalho e os comportamentos sociais e de diferenciar as pessoas em função da sua capacidade produtiva. Tal como os princípios de Babbage indicam, qualquer divisão do trabalho implica uma métrica: uma medição da performatividade e da eficiência dos trabalhadores, mas também um juízo sobre as classes de competências, o que implica uma hierarquia social implícita. A métrica do trabalho foi introduzida para avaliar o que é e o que não é produtivo, para manipular uma assimetria social e, ao mesmo tempo, declarar uma equivalência ao sistema monetário. Durante a era moderna, as fábricas, os quartéis e os hospitais têm procurado disciplinar e organizar os corpos e as mentes com métodos semelhantes, tal como Michel Foucault, entre outros, pressentiu.

No final do século XIX, a metrologia do trabalho e dos comportamentos encontrou um aliado num novo campo da estatística: a psicometria. A psicometria tinha como objetivo medir as competências da população na resolução de tarefas básicas, fazendo comparações estatísticas em testes cognitivos em vez de medir o desempenho físico, como no campo anterior da psicofísica [15]. Como parte do legado controverso de Alfred Binet, Charles Spearman e Louis Thurstone, a psicometria pode ser considerada uma das principais genealogias da estatística, que nunca foi uma disciplina neutra, mas sim uma disciplina preocupada com a “medida do homem”, a instituição de normas de comportamento e a repressão de anomalias [16]. A transformação da métrica do trabalho em psicometria do trabalho é uma passagem fundamental tanto para a gestão como para o desenvolvimento tecnológico no século XX. É revelador que, ao conceber o primeiro perceptron de rede neural artificial, Frank Rosenblatt tenha se inspirado não só nas teorias da neuroplasticidade, mas também nas ferramentas de análise multivariável que a psicometria importou para a psicologia norte-americana na década de 1950.

Nesta perspetiva, este livro tenta esclarecer como o projeto de IA surgiu, na realidade, da automação da psicometria do trabalho e dos comportamentos sociais – e não da procura da solução do “enigma” da inteligência. Num resumo conciso da história da IA, pode se dizer que a mecanização do “intelecto geral” (“general intellect”) da era industrial na “inteligência artificial” do século XXI foi possível graças à medição estatística da competência, como o fator de “inteligência geral” de Spearman, e à sua posterior automatização em redes neurais artificiais. Se na era industrial a máquina era considerada uma encarnação da ciência, do conhecimento e do “intelecto geral” (“general intellect”) dos trabalhadores, na era da informação as redes neurais artificiais tornaram-se as primeiras máquinas a codificar a “inteligência geral” em ferramentas estatísticas – no início, especificamente, para automatizar o reconhecimento de padrões como uma das tarefas-chave da “inteligência artificial”. Em suma, a forma atual de IA, a aprendizagem automática, é a automatização das métricas estatísticas que foram originalmente introduzidas para quantificar as capacidades cognitivas, sociais e relacionadas com o trabalho. A aplicação da psicometria através das tecnologias da informação não é um fenômeno exclusivo da aprendizagem automática. O escândalo de dados de 2018 entre o Facebook e a Cambridge Analytica, em que a empresa de consultoria conseguiu recolher os dados pessoais de milhões de pessoas sem o seu consentimento, é um lembrete de como a psicometria em grande escala continua a ser utilizada por empresas e atores estatais numa tentativa de prever e manipular comportamentos coletivos [17].

Dado o seu legado nas ferramentas estatísticas da biometria do século XIX, também não é surpreendente que as redes neurais artificiais profundas tenham recentemente se desdobrado em técnicas avançadas de vigilância, como o reconhecimento facial e a análise de padrões de vida. Acadêmicos críticos da IA, como Ruha Benjamin e Wendy Chun, entre outros, expuseram as origens racistas destas técnicas de identificação e definição de perfis que, tal como a psicometria, quase representam uma prova técnica do viés social (“social bias”) da IA [18]. Identificaram, com razão, o poder da discriminação no cerne da aprendizagem automática e a forma como esta se alinha com os aparelhos de normatividade da era moderna, incluindo as taxonomias questionáveis da medicina, da psiquiatria e do direito penal [19].

A metrologia da inteligência iniciada nos finais do século XIX, com a sua agenda implícita e explícita de segregação social e racial, continua a funcionar no cerne da IA para disciplinar o trabalho e reproduzir as hierarquias produtivas do conhecimento. Por conseguinte, a lógica da IA não é apenas a automação do trabalho, mas o reforço destas hierarquias sociais de uma forma indireta. Ao declarar implicitamente o que pode ser automatizado e o que não pode, a IA impôs uma nova métrica da inteligência em cada fase do seu desenvolvimento. Mas comparar a inteligência humana e a inteligência das máquinas implica também um julgamento sobre que comportamento humano ou grupo social é mais inteligente do que outro, que trabalhadores podem ser substituídos e quais não podem. Em última análise, a IA não é apenas um instrumento para automatizar o trabalho, mas também para impor padrões de inteligência mecânica que propagam, de forma mais ou menos invisível, hierarquias sociais de conhecimentos e competências. Tal como acontece com qualquer forma anterior de automatização, a IA não se limita a substituir trabalhadores, mas desloca-os e reestrutura-os numa nova ordem social.

 

A automação da automação

Se observarmos atentamente como os instrumentos estatísticos concebidos para avaliar as competências cognitivas e discriminar a produtividade das pessoas se transformaram em algoritmos, torna-se evidente um aspecto mais profundo da automação. De fato, o estudo da metrologia do trabalho e dos comportamentos revela que a automação emerge, em alguns casos, da transformação dos próprios instrumentos de medição em tecnologias cinéticas. Os instrumentos de quantificação do trabalho e de discriminação social tornaram-se “robôs” por direito próprio. Antes da psicometria, se poderia referir a forma como o relógio utilizado para medir o tempo de trabalho na fábrica foi mais tarde implementado por Babbage para a automatização do trabalho mental na Máquina Diferencial. Os cibernéticos, como Norbert Wiener, continuaram a considerar o relógio como um modelo-chave tanto para o cérebro como para o computador. A este respeito, o historiador da ciência Henning Schmidgen observou como a cronometria dos estímulos nervosos contribuiu para a consolidação da metrologia cerebral e também para o modelo de redes neurais de McCulloch e Pitts [20]. A teoria da automação que este livro ilustrou não aponta, portanto, apenas para a emergência de máquinas a partir da lógica da gestão do trabalho, mas também a partir dos instrumentos e métricas para quantificar a vida humana em geral e torná-la produtiva.

Este livro procurou mostrar que a IA é o culminar da longa evolução da automação do trabalho e da quantificação da sociedade. Os modelos estatísticos da aprendizagem automática não parecem, de fato, ser radicalmente diferentes da concepção das máquinas industriais, mas antes homólogos a elas: são, de fato, constituídos pela mesma inteligência analítica das tarefas e dos comportamentos coletivos, embora com um grau de complexidade mais elevado (isto é, número de parâmetros). Tal como as máquinas industriais, cuja concepção surgiu gradualmente através de tarefas de rotina e de ajustes por tentativa e erro, os algoritmos de aprendizagem automática adaptam o seu modelo interno aos padrões dos dados de treino através de um processo comparável de tentativa e erro. Pode dizer-se que a concepção de uma máquina, bem como a de um modelo de um algoritmo estatístico, seguem uma lógica semelhante: ambos se baseiam na imitação de uma configuração externa de espaço, tempo, relações e operações. Na história da IA, isto era tão verdadeiro para o perceptron de Rosenblatt (que visava registar os movimentos do olhar e as relações espaciais do campo visual) como para qualquer outro algoritmo de aprendizagem de máquinas atual (por exemplo, máquinas de vetores de apoio, redes bayesianas, modelos de transformadores).

Enquanto a máquina industrial incorpora o diagrama da divisão do trabalho de uma forma determinada (pensemos nos componentes e nos “graus de liberdade” limitados de um tear têxtil, de um torno ou de uma escavadora mineira), os algoritmos de aprendizagem automática (especialmente os modelos recentes de IA com um vasto número de parâmetros) podem imitar atividades humanas complexas [21]. Embora com níveis problemáticos de aproximação e enviesamento, um modelo de aprendizagem automática é um artefato adaptativo que pode codificar e reproduzir as mais diversas configurações de tarefas. Por exemplo, um mesmo modelo de aprendizagem automática pode imitar tanto o movimento de braços robóticos em linhas de montagem como as operações do condutor de um automóvel autônomo; o mesmo modelo pode também traduzir entre línguas tanto como descrever imagens com palavras coloquiais.

O surgimento de grandes modelos de base nos últimos anos (por exemplo, BERT, GPT, CLIP, Codex) demonstra como um único algoritmo de aprendizagem profunda pode ser treinado num vasto conjunto de dados integrado (incluindo texto, imagens, fala, dados estruturados e sinais 3D) e utilizado para automatizar uma vasta gama das chamadas tarefas a jusante (resposta a perguntas, análise de sentimentos, extração de informações, geração de texto, legendagem de imagens, geração de imagens, transferência de estilos, reconhecimento de objectos, seguimento de instruções, etc.) [22]. Pela forma como foram construídos com base em grandes repositórios de patrimônio cultural, conhecimento coletivo e dados sociais, os grandes modelos de base são a aproximação mais próxima da mecanização do “intelecto geral” que foi prevista na era industrial. Um aspecto importante da aprendizagem automática que os modelos de base demonstram é que a automação de tarefas individuais, a codificação do patrimônio cultural e a análise de comportamentos sociais não têm qualquer distinção técnica: podem ser realizadas por um único e mesmo processo de modelação estatística.

Em conclusão, a aprendizagem automática pode ser vista como o projeto de automatizar o próprio processo de concepção de máquinas e de criação de modelos – ou seja, a automação da teoria laboral da própria automação. Neste sentido, a aprendizagem automática e, especificamente, os modelos de grandes fundações representam uma nova definição de Máquina Universal, pois a sua capacidade não se limita a executar tarefas computacionais, mas a imitar o trabalho e os comportamentos coletivos em geral. O avanço que a aprendizagem automática passou a representar não é, portanto, apenas a “automação da estatística”, como a aprendizagem automática é por vezes descrita, mas a automação da automação, trazendo este processo para a escala do conhecimento coletivo e do patrimônio cultural [23]. Além disso, a aprendizagem automática pode ser considerada como a prova técnica da integração progressiva da automação do trabalho e da governação social. Emergindo da imitação da divisão do trabalho e da psicometria, os modelos de aprendizagem automática evoluíram gradualmente para um paradigma integrado de governança que a análise de dados empresariais e os seus vastos centros de dados bem exemplificam.

 

Desfazendo o Algoritmo Mestre

Tendo em conta a dimensão crescente dos conjuntos de dados, os custos de formação dos grandes modelos e o monopólio da infraestrutura de computação em nuvem que é necessário para que algumas empresas como a Amazon, a Google e a Microsoft (e as suas congéneres asiáticas Alibaba e Tencent) hospedarem esses modelos, tornou-se evidente para todos que a soberania da IA continua a ser um assunto difícil à escala geopolítica. Além disso, a confluência de diferentes aparelhos de governança (ciência climática, logística global e até cuidados de saúde) para o mesmo hardware (computação em nuvem) e software (aprendizagem de máquina) assinala uma tendência ainda mais forte para a monopolização. Para além da notória questão da acumulação de poder, a ascensão dos monopólios de dados aponta para um fenômeno de convergência técnica que é fundamental para este livro: os meios de trabalho tornaram-se os mesmos meios de medição e, do mesmo modo, os meios de gestão e logística tornaram-se os mesmos meios de planejamento econômico.

Isto também se tornou evidente durante a pandemia de Covid-19, quando foi criada uma grande infraestrutura para acompanhar, medir e prever os comportamentos sociais [24]. Esta infraestrutura, sem precedentes na história dos cuidados de saúde e da biopolítica, não foi, no entanto, criada ex nihilo, mas construída a partir de plataformas digitais existentes que orquestram a maior parte das nossas relações sociais. Sobretudo durante os períodos de confinamento, o mesmo meio digital foi utilizado para trabalhar, fazer compras, comunicar com a família e os amigos e, eventualmente, para os cuidados de saúde. As métricas digitais do corpo social, como a geolocalização e outros metadados, foram fundamentais para os modelos preditivos do contágio global, mas elas são usadas há muito tempo para acompanhar o trabalho, a logística, o comércio e a educação. Filósofos como Giorgio Agamben afirmaram que esta infraestrutura prolongou o estado de emergência da pandemia, quando, na verdade, a sua utilização nos cuidados de saúde e na biopolítica dá continuidade a décadas de monitorização da produtividade econômica do corpo social, que passou despercebida a muitos [25].

A convergência técnica das infra estruturas de dados revela também que a automação contemporânea não se limita à automação do trabalhador individual, como na imagem estereotipada do robô humanoide, mas à automação dos patrões e gestores da fábrica, como acontece nas plataformas da gig economy. Dos gigantes de logística (Amazon, Alibaba, DHL, UPS, etc.) e da mobilidade (Uber, Share Now, Foodora, Deliveroo) às redes sociais (Facebook, TikTok, Twitter), o capitalismo de plataforma é uma forma de automação que, na realidade, não substitui os trabalhadores, mas multiplica-os e governa-os de novo. Desta vez, não se trata tanto da automação do trabalho, mas sim da automação da gestão. Sob esta nova forma de gestão algorítmica, todos nós passamos a ser trabalhadores individuais de um vasto autômato composto por utilizadores globais, “turkers“, prestadores de cuidados, condutores e cavaleiros de muitos tipos. O debate sobre o receio de que a IA venha a substituir totalmente os empregos é errôneo: na chamada economia das plataformas, os algoritmos substituem a gestão e multiplicam os empregos precários. Embora as receitas da gig economy continuem a ser pequenas em relação aos setores locais tradicionais, ao utilizarem a mesma infraestrutura a nível mundial, estas plataformas estabeleceram posições de monopólio. O poder do novo “mestre” não está na automatização de tarefas individuais, mas na gestão da divisão social do trabalho. Contra a previsão de Alan Turing, é o mestre, e não o trabalhador, que o robô veio substituir em primeiro lugar [26].

Nos perguntamos qual seria a possibilidade de intervenção política num espaço tão tecnologicamente integrado e se o apelo ao “redesign da IA” que as iniciativas populares e institucionais defendem é razoável ou praticável. Este apelo deveria começar por responder a uma questão mais premente: Como é que é possível “redesenhar” os monopólios de dados e conhecimento em grande escala [27]? À medida que grandes empresas como a Amazon, a Walmart e a Google conquistaram um acesso único às necessidades e aos problemas de todo o corpo social, um movimento crescente pede não só que estas infra-estruturas se tornem mais transparentes e responsáveis, mas também que sejam coletivizadas como serviços públicos (como sugeriu Fredric Jameson, entre outros), ou que sejam substituídas por alternativas públicas (como defendeu Nick Srnicek [28]). Mas qual seria uma forma diferente de projetar essas alternativas?

Tal como a teoria da automação deste livro sugere, qualquer aparelho tecnológico e institucional, incluindo a IA, é uma cristalização de um processo social produtivo. Os problemas surgem porque essa cristalização “ossifica” e reitera estruturas, hierarquias e desigualdades do passado. Para criticar e desconstruir artefatos complexos como os monopólios de IA, devemos começar por fazer o trabalho meticuloso do desconexão (“deconnectionism”) , desfazendo – passo a passo, arquivo a arquivo, conjunto de dados a conjunto de dados, metadado a metadado, correlação a correlação, padrão a padrão – o tecido social e econômico que os constitui na origem. Este trabalho já está sendo desenvolvido por uma nova geração de acadêmicos que estão a dissecar a cadeia de produção global de IA, especialmente os que utilizam métodos de “pesquisa-ação”. Destacam-se, entre muitos outros, a plataforma Turkopticon de Lilly Irani, utilizada para “interromper a invisibilidade do trabalhador” na plataforma de trabalho temporário Amazon Mechanical Turk; a investigação de Adam Harvey sobre conjuntos de dados de treino para reconhecimento facial, que expôs as violações maciças da privacidade das empresas de IA e da investigação acadêmica; e o trabalho do coletivo Politically Mathematics da Índia, que analisou o impacto econômico dos modelos preditivos da Covid-19 nas populações mais pobres e recuperou a matemática como um espaço de luta política (ver o seu manifesto citado no início deste texto).

A teoria laboral da automação é um princípio analítico para estudar o novo “olho do mestre” que os monopólios de IA encarnam. No entanto, precisamente devido à sua ênfase no processo de trabalho e nas relações sociais que constituem os sistemas técnicos, é também um princípio sintético e “sociogênico” (para utilizar o termo programático de Frantz Fanon e Sylvia Wynter [29]). O que está no cerne da teoria laboral da automação é, em última análise, uma prática de autonomia social. As tecnologias só podem ser julgadas, contestadas, reapropriadas e reinventadas se se inserirem na matriz das relações sociais que originalmente as constituíram. As tecnologias alternativas devem situar-se nestas relações sociais, de uma forma não muito diferente do que os movimentos cooperativos fizeram nos séculos passados. Mas construir algoritmos alternativos não significa torná-los mais éticos. Por exemplo, a proposta de codificação de regras éticas na IA e nos robôs parece altamente insuficiente e incompleta, porque não aborda diretamente a função política geral da automação no seu cerne [30].

O que é necessário não é nem o tecnosolucionismo nem o tecnopauperismo, mas sim uma cultura de invenção, concepção e planejamento que se preocupe com as comunidades e o coletivo, sem nunca ceder totalmente a agência e a inteligência à automação. O primeiro passo da tecnopolítica não é tecnológico, mas político. Trata-se de emancipar e descolonizar, quando não de abolir na totalidade, a organização do trabalho e das relações sociais em que se baseiam os sistemas técnicos complexos, os robôs industriais e os algoritmos sociais – especificamente o sistema salarial, os direitos de propriedade e as políticas de identidade que lhes estão subjacentes. As novas tecnologias do trabalho e da sociedade só podem se basear nesta transformação política. É evidente que este processo se desenrola através do desenvolvimento de conhecimentos não só técnicos mas também políticos. Um dos efeitos problemáticos da IA na sociedade é a sua influência epistêmica – a forma como transforma a inteligência em inteligência de máquina e promove implicitamente o conhecimento como conhecimento processual. O projeto de uma epistemologia política que transcenda a IA terá, no entanto, de transmutar as formas históricas do pensamento abstrato (matemático, mecânico, algorítmico e estatístico) e integrá-las como parte da caixa de ferramentas do próprio pensamento crítico. Ao confrontar a epistemologia da IA e o seu regime de extrativismo do conhecimento, é necessário aprender uma mentalidade técnica diferente, uma “contra-inteligência” coletiva.

 

NOTAS

[1]: “Disruption: A Manifesto,” Logic Magazine, no. 1, março de 2017.
[2]: Politically Mathematics collective, “Politically Mathematics Manifesto,” 2019
[3]: Karl Marx, Capital, Livro 1: O processo de produção do capital, p.330. Trad. Rubens Enderle. Boitempo, 2013
[4]: Veja o debate sobre o processo trabalhista em: Harry Braverman, Labor and Monopoly Capital: The Degradation of Work in the Twentieth Century (Monthly Review Press, 1974); David Noble, Forces of Production: A Social History of Industrial Automation (Oxford University Press, 1984).
[5]: Émile Durkheim, “Da Divisão do Trabalho Social” (1893), publicado no Brasil com esse título, por entre outras, a WMF Martins Fontes, em tradução de Eduardo Brandão.
[6]:
Kurt Lewin, “Die Sozialisierung des Taylorsystems: Eine grundsätzliche Untersuchung zur Arbeits- und Berufspsychologie,” Schriftenreihe Praktischer Sozialismus, vol. 4 (1920) – sem tradução para o português. Também ver Simon Schaupp, “Taylorismus oder Kybernetik? Eine kurze ideengeschichte der algorithmischen arbeitssteuerung,” WSI-Mitteilungen 73, no. 3, (2020).
[7]: Gaston Bachelard, “La dialectique de la durée” (Boivin & Cie, 1936), traduzido no Brasil para “A Dialética da Duração”, publicado pela Editora Ática em 1993. Henri Lefebvre, “Éléments de rythmanalyse” (Éditions Syllepse, 1992), último livro do autor, publicado no Brasil como “Elementos de Ritmanálise e outros Ensaios” pela Editora Consequência em 2021.
[8]: Frederic Sellet, “Chaîne Opératoire: The Concept and Its Applications,” Lithic Technology 18, no. 1–2 (1993). Sem tradução no Brasil
[9]: Gilles Deleuze, “Postscript on the Society of Control,” October, no. 59 (1992). Publicado no Brasil em DELEUZE, Gilles. Conversações: 1972-1990. Rio de Janeiro: Ed. 34,1992. Ver também David Savat, “Deleuze’s Objectile: From Discipline to Modulation,” in Deleuze and New Technology, ed. Mark Poster and David Savat (Edinburgh University Press, 2009).
[10]: Matthew L. Jones, “Querying the Archive: Data Mining from Apriori to PageRank,” in Science in the Archives, ed. Lorraine Daston (University of Chicago Press, 2017); Matteo Pasquinelli, “Google’s PageRank Algorithm: A Diagram of Cognitive Capitalism and the Rentier of the Common Intellect,” in Deep Search, ed. Konrad Becker and Felix Stalder (Transaction Publishers, 2009).
[11]:
Irina Kaldrack and Theo Röhle, “Divide and Share: Taxonomies, Orders, and Masses in Facebook’s Open Graph,” Computational Culture, no. 4 (November 2014); Tiziana Terranova, “Securing the Social: Foucault and Social Networks,” in Foucault and the History of Our Present, ed. S. Fuggle, Y. Lanci, and M. Tazzioli (Palgrave Macmillan, 2015).
[12]:
Grégoire Chamayou, “Pattern-of-Life Analysis,” chap. 5 in A Theory of the Drone (New Press, 2014). Publicado no Brasil como “Teoria do Drone”, pela Cosac & Naify em 2015. Veja também Matteo Pasquinelli, “Metadata Society,” keyword entry in Posthuman Glossary, ed. Rosi Braidotti and Maria Hlavajova (Bloomsbury, 2018), e “Arcana Mathematica Imperii: The Evolution of Western Computational Norms,” in Former West, ed. Maria Hlavajova and Simon Sheikh (MIT Press, 2017).
[13]:
Andrea Brighenti and Andrea Pavoni, “On Urban Trajectology: Algorithmic Mobilities and Atmocultural Navigation,” Distinktion: Journal of Social Theory 24, no. 1 (2001).
[14]:
M. Giermindl et al., “The Dark Sides of People Analytics: Reviewing the Perils for Organisations and Employees,” European Journal of Information Systems 33, no. 3 (2022). Veja também Alex Pentland, “Social Physics: How Social Networks Can Make Us Smarter” (Penguin, 2015).
[15]: A palavra “estatística” significava originalmente o conhecimento que o Estado possuía sobre seus próprios assuntos e territórios: um conhecimento que tinha de ser mantido em segredo. Em: Michel Foucault, Security, Territory, Population (Segurança, Território, População): Lectures at the Collège de France 1977-1978, trans. Graham Burchell (Palgrave Macmillan, 2009).
[16]:
Sobre a influência da metrologia cerebral na história da IA, ver Simon Schaffer: “Os julgamentos de que as máquinas são inteligentes envolveram técnicas para medir os resultados do cérebro. Essas técnicas mostram como o comportamento discricionário está ligado ao status daqueles que dependem da inteligência para sua legitimidade social.” Schaffer, “OK Computer”, em Ansichten der Wissenschaftsgeschichte, ed., Michael Hagner (Fischer, 2001) Michael Hagner (Fischer, 2001). Sobre a metrologia inicial do sistema nervoso, veja Henning Schmidgen, The Helmholtz Curves: Tracing Lost Times (Fordham University Press, 2014).
[17]:
Luke Stark, “Algorithmic Psychometrics and the Scalable Subject,” Social Studies of Science 48, no. 2 (2018).
[18]: Ruha Benjamin, Race after Technology: Abolitionist Tools for the New Jim Code (Polity, 2019); Wendy Chun, Discriminating Data: Correlation, Neighborhoods, and the New Politics of Recognition (MIT Press, 2021). Tarcízio Silva fez uma boa análise deste livro em seu blog.
[19]:
Sobre a imbricação de colonialismo, racismo e tecnologias digitais, veja Jonathan Beller, The World Computer: Derivative Conditions of Racial Capitalism (Duke University Press, 2021); Seb Franklin, The Digitally Disposed: Racial Capitalism and the Informatics of Value (University of Minnesota Press, 2021). No Brasil, ver “Racismo Algorítmico: Inteligência Artificial e Discriminação nas Redes Digitais”, de Tarcízio SIlva, lançado pelas Edições Sesc em 2022;“Colonialismo de dados: como opera a trincheira algorítmica na guerra neoliberal“”, org. de Sérgio Amadeu, Joyce Souza e Rodolfo Avelino lançada em 2021 pela Autonomia Literária; e “Colonialismo Digital: Por uma crítica hacker-fanoniana”, de Deivison Faustino e Walter Lippold, publicado pela Boitempo em 2023.
[20]:
Henning Schmidgen, “Cybernetic Times: Norbert Wiener, John Stroud, and the ‘Brain Clock’ Hypothesis”, History of the Human Sciences 33, no. 1 (2020). Sobre a cibernética e a “medição da racionalidade”, veja Orit Halpern, “Beautiful Data: A History of Vision and Reason since 1945” (Duke University Press, 2015), 173.
[21]:
Em mecânica, os graus de liberdade (DOF) de um sistema, como uma máquina, um robô ou um veículo, são o número de parâmetros independentes que definem sua configuração ou estado. Normalmente, diz-se que as bicicletas têm dois graus de liberdade. Um braço robótico pode ter muitos. Um modelo grande de aprendizado de máquina, como o GPT, pode ter mais de um trilhão.
[22]:
Rishi Bommasani et al., On the Opportunities and Risks of Foundation Models, Center for Research on Foundation Models at the Stanford Institute for Human-Centered Artificial Intelligence, 2021
[23]: Para uma leitura diferente sobre a automação da automação, ver Pedro Domingos, The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World (Basic Books, 2015); Luciana Parisi, “Critical Computation: Digital Automata and General Artificial Thinking,” Theory, Culture, and Society 36, no. 2 (March 2019).
[24]: “Breaking Models: Data Governance and New Metrics of Knowledge in the Time of the Pandemic,” workshop, Max Planck Institute for the History of Science, Berlin, and KIM research group, University of Arts and Design, Karlsruhe, September 24, 2021.
[25]:
Giorgio Agamben, Where Are We Now? The Epidemic as Politics, trans. V. Dani (Rowman & Littlefield, 2021). Publicado no Brasil como “Em que ponto estamos?”, pela n-1 edições em 2021.
[26]: Min Kyung Lee et al., “Working with Machines: The Impact of Algorithmic and Data-Driven Management on Human Workers,” in Proceedings of the 33rd Annual ACM Conference on Human Factors in Computing Systems, Association for Computing Machinery, New York, 2015; Sarah O’Connor, “When Your Boss Is an Algorithm,” Financial Times, September 8, 2016. See also Alex Wood, “Algorithmic Management Consequences for Work Organisation and Working Conditions,” no. 2021/07, European Commission JRC Technical Report, Working Papers Series on Labour, Education, and Technology, 2021.
[27]: Redesigning AI, ed. Daron Acemoglu (MIT Press), 2021.
[28]:
Leigh Phillips and Michal Rozworski, The People’s Republic of Walmart: How the World’s Biggest Corporations Are Laying the Foundation for Socialism (Verso, 2019); Frederic Jameson, Archaeologies of the Future: The Desire Called Utopia and Other Science Fictions (Verso, 2005), 153n22; Nick Srnicek, Platform Capitalism (Polity Press, 2017), 128.
[29]:
Sylvia Wynter, “Towards the Sociogenic Principle: Fanon, Identity, the Puzzle of Conscious Experience, and What It Is Like to Be ‘Black,’” in National Identities and Sociopolitical Changes in Latin America, ed. Antonio Gomez-Moriana, Mercedes Duran-Cogan (Routledge, 2001). Veja também Luciana Parisi, “Interactive Computation and Artificial Epistemologies,” Theory, Culture, and Society 38, no. 7–8 (October 2021).
[30]: Frank Pasquale, New Laws of Robotics: Defending Human Expertise in the Age of AI (Harvard University Press, 2020); Dan McQuillan, “People’s Councils for Ethical Machine Learning,” Social Media+ Society 4, no. 2 (2018).

 

 

 

 

 

 

 

 

 

]]>
https://baixacultura.org/2024/02/28/o-olho-do-mestre-a-automacao-da-inteligencia-geral/feed/ 0
Criação e cultura livre na era da inteligência artificial generativa https://baixacultura.org/2023/12/29/criacao-e-cultura-livre-na-era-da-inteligencia-artificial-generativa/ https://baixacultura.org/2023/12/29/criacao-e-cultura-livre-na-era-da-inteligencia-artificial-generativa/#respond Fri, 29 Dec 2023 14:57:05 +0000 https://baixacultura.org/?p=15609  

No final do 2023, publiquei um artigo chamado “Criação e cultura livre na era da inteligência artificial generativa” na revista acadêmica Aurora, da PUC-SP, no Dossiê “Inteligência Artificial: questões éticas e estéticas”[ parte 1; parte 2]. É um primeiro texto mais filosófico, em que faço uma revisão de bibliografia (acadêmica, mas também jornalística) sobre implicações estéticas e filosóficas na criação e na cultura a partir da popularização de sistemas de Inteligência Artificial (IA) generativa em 2023 como o ChatGPT. Parte do debate em torno do conhecimento e  da  cultura  livre  e  do  status  remix  da  criação  com  a  ascensão  das  tecnologias  digitais e da internet nos anos 2000 para, então, problematizar consequências do uso massivo dos sistemas de IA generativas para a criação artística hoje.

Por fim, em tempos de disputa acirrada sobre direitos autorais nas IAs generativas, busco pontuar que a exploração privada do conhecimento não necessariamente precisa ser um motivo para restringir seu amplo acesso, mas disputá-lo enquanto um comum. Aponto também para a construção de uma agenda para discutir a criação em tempos híbridos, que busque afirmar as tecnologias a partir de sua característica protética, termo usado pelo Yuk Hui num texto lançado ano passado (a imagem acima vem da versão em mandarim desse texto), já que desde os primórdios da humanidade o acesso à verdade sempre dependeu da invenção e do uso de instrumentos. Qual o tipo de criatividade que emana de um paradigma de abundância de informação, e não escassez? E qual seria um modelo jurídico que daria conta de substituir o paradigma da propriedade intelectual, baseado na escassez e na propriedade privada, por um mais baseado no amplo acesso? Nesse sentido, valeria entender a centralidade da cópia no processo de aprendizado humano para, então, compreender de que forma o ChatGPT e outras IAs generativas estão a potencializar o modo remix de criação. Se, de fato, geram pastiches a-históricos que apenas repaginam o “velho” e potencializam um “modo nostalgia” que só consegue atentar ao presente e ao passado e não ao futuro. Ou se observamos isto porque não estamos acostumados a olhar a criação sem o humano no centro e no comando do processo, o que remete novamente à necessidade de buscar respostas para a pergunta de Simondon: qual o papel que o humano pode desempenhar quando ele deixa de ser o organizador da informação?

Embora publicado numa revista acadêmica, busquei fugir do academiquês na hora da escrita. Acesso livre.

]]>
https://baixacultura.org/2023/12/29/criacao-e-cultura-livre-na-era-da-inteligencia-artificial-generativa/feed/ 0
Crises e ressacas em poéticas fronteiriças de Minas Gerais https://baixacultura.org/2023/07/05/crises-e-ressacas-em-poeticas-fronteiricas-de-minas-gerais/ https://baixacultura.org/2023/07/05/crises-e-ressacas-em-poeticas-fronteiricas-de-minas-gerais/#comments Wed, 05 Jul 2023 18:45:24 +0000 https://baixacultura.org/?p=15289  

Depois de alguns anos de trocas nas redes, finalmente conheci as experimentações arte tecnológicas do LabFront no 8º Congresso Internacional de Arte, Ciência e Tecnologia e Seminário de Artes Digitais, realizado no final de junho em BH. Organizado por uma rede de grupos de pesquisa desde 2015, o seminário esse ano falou de “Crises” – crise financeira, crise climática, crise de saúde, crise política, de refugiados, de recursos híbridos, saúde mental, ambiental. Teve GTs de trabalho, exposição de arte, performances e lançamento de livros em áreas que vão da arte digital à literatura expandida, da documentação de acervos ao uso do software livre na produção musical, passando até por direitos dos animais, edição de livros, paisagens da cidade, políticas e estéticas das imagens digitais, entre outros temas.
Para dialogar com o tema do evento, apresentei na abertura “Crises e ressacas da internet em tempos de inteligência artificial”, um apanhado do que tenho visto desde a ressaca da internet (texto de 2018) até as recentes discussões sobre IA, copyright/cultura livre e colonialismo de dados, temas que tenho tratado também aqui no BaixaCultura, com o acréscimo de algumas provocações de “Terra Arrasada”, livro recente (2023) de Jonathan Crary que estou terminando de ler (quem acompanha nossa newsletter sabe) mas já impactado (e digerindo), como por exemplo aqui:

“A partir de meados dos anos 1990, o complexo internético foi propagandeado como inerentemente democrático, descentralizador e anti-hierárquico. Dizia-se que se tratava de um meio inédito para a livre troca de ideias, de forma independente de controles impostos de cima para baixo, e capaz de equilibrar a arena do acesso midiático. Mas não foi nada disso. Houve uma fase breve de entusiasmo ingênuo, similar às esperanças não concretizadas veiculadas a respeito da ampla disponibilidade da televisão a cabo nos anos 1970. A narrativa de agora – aquela de uma tecnologia igualitária colocada em risco por monopólios corporativos, pela supressão da neutralidade da rede e pela invasão da privacidade – é claramente falsa. Não houve nem haverá “bens comuns digitais”. Desde o começo, o acesso de um público global á internet sempre esteve ligado à captura do tempo, ao desempoderamento e à conectividade despersonalizada. A única razão pela qual, em um primeiro momento, a internet parecia “mais livre” ou mais aberta se deveu ao fato de que os projetos de financeirização e de expropriação não foram implementados todos ao mesmo tempo, tendo levado alguns anos para alcançar um ponto de aceleração, no começo da década de 2000”.

 

Aqui está o vídeo da fala na íntegra, transmitida ao vivo no Instagram. Aqui o PPT da apresentação, que vai virar um texto que mais adiante compartilho aqui também. As fotos abaixo são da abertura, em conversa com Pablo Gobira, diretor/presidente/fundador/agitador do LabFront e do evento. Créditos das fotos para Priscila Portugal, mestranda na UEMG e pesquisadora do Labfront.

[Leonardo Foletto]

 


b

]]>
https://baixacultura.org/2023/07/05/crises-e-ressacas-em-poeticas-fronteiricas-de-minas-gerais/feed/ 1
Inteligência artificial generativa e direitos culturais https://baixacultura.org/2023/06/23/inteligencia-artificial-generativa-e-direitos-culturais/ https://baixacultura.org/2023/06/23/inteligencia-artificial-generativa-e-direitos-culturais/#respond Fri, 23 Jun 2023 20:29:01 +0000 https://baixacultura.org/?p=15282 Publicado originalmente em Artica por Jorge Gemetto e Mariana Fossati em duas partes: 1º em 28/5/2023 e 2º em 5 de junho de 2023. Traduzido e adaptado do espanhol por Leonardo Foletto.

 

PARTE 1: Alguém quer pensar nas pessoas usuárias?

A partir da disponibilidade de ferramentas como DALL-E, Stable Diffusion ou Midjourney para geração de imagens, e do ChatGPT, Bard, Open Assistant ou as centenas de bots de conversação baseados em LLaMA, milhões de pessoas começaram a fazer experimentos com a criação de textos e imagens assistidos por IA generativa. As motivações para o uso das ferramentas são variadas: vão desde a geração de ilustrações e pôsteres amadores para ilustrar postagens (como esta) até a experimentação de novas possibilidades na arte digital, a alimentação de ideias para escritas criativas e a exploração lúdica das respostas paradoxais que surgem quando se pergunta ao software sobre seus sentimentos ou intenções.

Também houve debates sobre supostos “riscos existenciais” e supostas violações de direitos autorais. Esses debates foram, em parte, alimentados pelas próprias empresas que desenvolvem essas ferramentas, cuja estratégia retórica tem sido inflar tanto as virtudes quanto os riscos dos modelos que desenvolvem – duas formas complementares de exagerar seu poder. Menos visíveis, na maioria das vezes, são os vieses, as falhas e as limitações significativas que permanecem nessas ferramentas, muitas vezes lançadas às pressas.

 

A ameaça para a humanidade

Começamos mencionando brevemente o discurso da “ameaça à humanidade“. O risco real desse discurso é que ele funciona para a mistificação e o sigilo em torno de uma tecnologia cujo conhecimento e desenvolvimento deveriam, ao contrário, ser democratizados o máximo possível. Projetos de código aberto, como o ChaosGPT, um bot de conversação que recebeu ordens para “conquistar o mundo” e “destruir a humanidade”, destacam de forma criativa o ridículo das afirmações mais exageradas sobre IA.

Por outro lado, há uma pressa em censurar solicitações e conteúdos “inadequados” ou “violentos”, que geralmente são definidos de acordo com uma moral rígida e ideologia de ordem. No entanto, as pesquisas sobre os verdadeiros vieses e falhas desses programas costumam ser menos divulgadas. É por meio da pesquisa participativa que podem ser criados modelos e conjuntos de dados que representem melhor a diversidade real do mundo. Para isso, é fundamental que os conjuntos de dados sejam abertos e os modelos sejam software livre. Quanto mais pessoas puderem aprender como essas tecnologias são feitas, pesquisar com elas, testá-las e desenvolvê-las, mais olhos e mãos haverá para criar ferramentas melhores, que ajudarão em tarefas mais úteis e promoverão a criatividade em vez de reproduzir preconceitos. Um exemplo na América Latina é o EDIA, um conjunto de ferramentas desenvolvido pela Fundación Vía Libre para identificar estereótipos e discriminação em modelos de linguagem.


Plágio massivo

Na discussão sobre direitos autorais, felizmente já parece estabelecido que os trabalhos resultantes da IA generativa são de domínio público, especialmente desde o recente parecer do escritório de direitos autorais dos EUA. Essa é uma boa notícia, pois, caso contrário, as empresas que desenvolvem os modelos poderiam ter imenso poder sobre o conteúdo gerado a partir da interação entre usuários, ferramentas de IA e o conjunto comum de dados e conteúdo cultural.

Entretanto, o que gera mais debate atualmente é se a coleta de conteúdo para criar os conjuntos de dados, bem como o processamento computadorizado desses dados por modelos de inteligência artificial, são usos justos (fair use) ou, ao contrário, infringem os direitos autorais.

Recentemente, houve uma proliferação de artigos e manifestos pedindo maiores controles e restrições à IA generativa para proteger a propriedade intelectual. Um exemplo de tais manifestos no mundo de língua espanhola é o chamado “Arte es Ética”. Esse manifesto afirma, entre outras coisas, que o que as tecnologias de IA generativa geram são “derivados não consensuais e parasitários”, “plágio maciço” e “automatizado”, “pilhagem” e “roubo”; pede a implementação de ferramentas de filtragem de conteúdo; a proibição de prompts que incluam nomes de pessoas e até mesmo nomes de movimentos estéticos inteiros; pede marca d’água obrigatória e identificação compulsória de usuários que inserem prompts; e aponta contra a criação de novas exceções de direitos autorais para mineração de dados – mesmo que tais exceções hoje sejam fundamentais para o progresso de muitos campos científicos. As demandas mencionadas acima estão misturadas de forma desordenada com outras que são dignas de atenção genuína, como a criação de fundos para a promoção da cultura ou a proteção de trabalhadores contra demissões em massa injustificadas. Mas o impulso geral das demandas não é direcionado a reivindicações trabalhistas ou à promoção da arte, mas sim a uma expansão direta da propriedade intelectual. Isso é visto, por exemplo, no apoio a ações judiciais como a do banco de imagens Getty contra a Stability AI; na caracterização negativa e grosseira da IA como uma tecnologia somente de pilhagem; e, em geral, no fato de que o principal alvo dos ataques são os projetos de código aberto, ou seja, aqueles com maior probabilidade de democratizar o uso da tecnologia.

Lamentavelmente, abordagens semelhantes surgiram de pessoas que, há alguns anos, participaram do movimento de cultura livre. Marta Peirano , jornalista e escritora, publicou recentemente um artigo no El País que identifica modelos de inteligência artificial como “máquina automática de plágio em massa”, que serve para “roubar (…) o conteúdo de outras pessoas”. Peirano também faz eco à ação judicial da Getty contra a Stability AI e a apresenta como parte da reação supostamente legítima a esse roubo em grande escala, tomando partido da empresa de conteúdo (Getty) contra a empresa de tecnologia (Stability AI). O artigo parece negar a militância anterior da autora em favor do acesso ao conhecimento; os argumentos de Peirano nesse período de militância teriam sido usados por empresas de tecnologia para roubar propriedade intelectual.

Há um ponto real no que Peirano diz: na sociedade atual, as empresas capitalistas sempre serão as que melhor podem explorar o conhecimento livre em seu benefício. Isso não é novidade; há muitos outros exemplos análogos, como a educação pública e a infraestrutura de transporte. Na sociedade capitalista, as enormes somas de dinheiro gastas em educação pública treinam trabalhadores que, inevitavelmente, passam a ocupar cargos assalariados em empresas capitalistas. O fato de as empresas capitalistas se apropriarem dos lucros da educação pública não deve ser um argumento contra a educação pública, que é um direito do povo. Pelo contrário: deve nos fazer refletir sobre que outra sociedade precisamos para que a educação pública esteja a serviço de uma produção não capitalista exploradora.

O mesmo ocorre com o conhecimento livre. É preciso ressaltar sempre que a ampla disponibilidade de cultura e conhecimento é um avanço para os direitos culturais das pessoas, possibilitado pelo desenvolvimento das forças produtivas. O conhecimento humano é um patrimônio construído coletivamente que deve servir à toda sociedade. Qualquer retrocesso nesse sentido é reacionário. É claro que, em nossa sociedade, as empresas de tecnologia têm uma enorme vantagem quando se trata de aproveitar o conhecimento livre. Esse fato deve nos levar a aprofundar a crítica iniciada com o questionamento da propriedade do conhecimento para transformá-la em uma crítica do sistema social como um todo. Para Peirano parece impossível dar esse passo, o que a leva a optar por uma espécie de mea culpa e recuar para a típica defesa da propriedade intelectual. Talvez não seja irônico que o artigo de Peirano esteja protegido por um paywall.


Uma necessária mudança de enfoque

Visto em perspectiva, os discursos inflamados contra a IA generativa parecem um renascimento das campanhas contrárias à Internet no final dos anos 90 e início dos anos 2000, com prognósticos apocalípticos parecidos sobre a morte da arte, o empobrecimento da vida cultural e o declínio cognitivo das novas gerações expostas a essas tecnologias imediatistas. Mais atrás, discursos da mesma natureza podem ser encontrados no nascimento da música gravada, da fotografia e até mesmo da imprensa.

De um lado, estariam os detentores de direitos autorais supostamente saqueados, que incluem artistas, editoras e empresas de conteúdo de todos os tipos. Por outro lado, as corporações de tecnologia. A oposição, como se vê, não seria entre os artistas que trabalham e seus empregadores nas empresas de conteúdo, mas entre dois setores industriais: o criativo e o tecnológico. Portanto, não seria uma reivindicação baseada em classe, mas intersetorial.

Contra essa visão que enquadra o problema como uma disputa entre dois setores industriais, vale a pena complexificar o cenário apontando a existência de outros atores sociais. Um deles é a comunidade educacional, científica e acadêmica que pesquisa usando técnicas de inteligência artificial. Sobre a importância das exceções de direitos autorais para a mineração de textos e dados para fins de pesquisa, vale ler o relatório “Políticas de Inteligência Artificial e Direitos Autorais na América Latina“, publicado pela Aliança Latino-Americana para o Acesso Justo ao Conhecimento.

Outro ator esquecido são as pessoas que usam ferramentas de IA generativas. Muitas pessoas começaram a usar essas ferramentas como uma forma de expressão: artistas digitais que usam prompts para gerar imagens, escritores ou amadores que usam chatbots para obter ideias de textos, pessoas comuns que simplesmente querem se divertir ou se expressar com essas IAs e interagir com os resultados. Talvez seja hora de o direito das pessoas de participar da vida cultural ser também considerado na discussão.

O direito de participar da vida cultural tem certos requisitos. De acordo com Lea Shaver, esses requisitos incluem:

_ A liberdade de acesso a materiais culturais, ou seja, obras, ideias, idiomas e mídias existentes.

_ A liberdade de acesso a ferramentas e tecnologias indispensáveis para desfrutar e usar esses materiais e obras, bem como para criar novos materiais.

_ A liberdade de usar esses materiais e obras, transformá-los, fazê-los circular e colocá-los em diferentes contextos.

Seguindo essa ideia, a possibilidade de usar ferramentas de IA generativas sem censura pode ser entendida como parte do direito de acessar ferramentas e tecnologias para se expressar de forma criativa. Assim como o acesso a instrumentos musicais é fundamental para a criação de música, ou os computadores e outros dispositivos digitais são importantes para a fotografia, o vídeo e outras formas de expressão visual, as ferramentas generativas de IA podem ser uma ferramenta essencial para a expressão criativa e estética. Esse princípio não envolve apenas artistas e seus procedimentos, ferramentas e materiais profissionais, mas todos os usuários dessas tecnologias, que, por meio da arte e de outros conteúdos gerados por IA, acessam e participam de uma experiência estética peculiar e pessoal.

Mas os direitos dos usuários são ameaçados de diferentes maneiras. Por um lado, as empresas que prestam serviços de IA generativa criam expectativas enganosas sobre as ferramentas que oferecem; manipulam arbitrariamente os resultados e censuram o conteúdo; violam a privacidade de seus usuários; impõem barreiras econômicas abusivas; e investem pouco para lidar com os vieses das ferramentas.

Por outro lado, os setores de conteúdo e os detentores de direitos autorais, alegando que essas ferramentas facilitam a violação de direitos autorais por aqueles que as utilizam, promovem regulamentações draconianas que incluem controle e filtragem de conteúdo; estigmatizam o uso de IA generativa como antiético ou até mesmo criminoso; e, por meio de seu ataque a projetos de código aberto, contribuem para a concentração de poder das grandes corporações de tecnologia. As restrições e os controles que esses setores exigem para a IA generativa não podem ser implementados sem limitar severamente a capacidade das pessoas usuárias de fazer uso expressivo legítimo das ferramentas.

Uma coisa podemos ter certeza: não haverá saída progressiva para esse debate se os direitos das pessoas que usam inteligência artificial generativa não começarem a ser levados em conta. E ninguém levará esses direitos em consideração se os próprios usuários não se manifestarem.

 

PARTE 2: Quatro mitos e algumas reflexões sobre a liberdade artística

 

Gerado no Stable Diffusion com o prompt inspirado no do post de Artica: Uma dadaísta digital imaginando mundo possiveis ao estilo dadaísta europeu dos anos 1920

Nas conversas atuais sobre arte e inteligência artificial generativa, é comum que esses dois termos sejam colocados como opostos polares. Mas essa polaridade é limitante, por isso aqui vamos tornar a conversa mais complexa. Se em nosso post anterior apontamos que restringir a IA generativa de acordo com os desejos de determinados setores de conteúdo pode afetar gravemente os direitos dos usuários, nesta parte falaremos sobre como essas restrições acabariam afetando práticas artísticas emergentes que não são prejudiciais. Mas, pelo contrário, representam novas explorações criativas que não devem ser censuradas.

A ideia de que o uso de ferramentas de IA generativas precisa ser restringido para proteger os direitos dos artistas talvez seja produto de uma leitura equivocada dos “riscos” que essas ferramentas representam para o trabalho artístico. Como dissemos na primeira postagem desta série, não é nosso objetivo falar sobre os “riscos” da IA em geral, nem sobre sua aplicação em campos em que ela pode ser particularmente problemática (como na segurança pública e na justiça). No campo da arte e da criatividade, vemos mais aspectos interessantes do que perigosos, mas há maneiras sensacionalistas de falar sobre esse debate que incentivam a falsa dicotomia “Artista X IA” e que gostaríamos de ajudar a desmistificar.

MITO 1: A IA VAI TORNAR OBSOLETA A CRIATIVIDADE HUMANA

Um primeiro mito é o da capacidade da IA geradora de potencialmente “alcançar” a criatividade humana e torná-la obsoleta. Ele engloba a ideia simplista e enganosa de que a IA e o artista são entidades comparáveis e que a IA é, portanto, uma séria concorrente dos artistas. Em primeiro lugar, entendemos a IA generativa como uma ferramenta que não “faz arte”, mas que a arte pode ser feita com ela. Ela não é uma entidade com capacidade criativa própria e, portanto, seus resultados não devem ser cobertos por direitos autorais.

Apesar das manchetes da mídia que dizem “uma inteligência artificial cria uma obra exibida em um grande museu”, “uma inteligência artificial vence uma competição de arte” etc., não há de fato nenhuma atividade autoral da inteligência artificial, porque não há criação como conhecemos em seus produtos estéticos. Eventualmente, quando os artistas desenvolvem seu próprio trabalho usando essas ferramentas, são eles que criam coisas com a inteligência artificial.

Nas palavras do escritor de ficção científica Bruce Sterling na conferência “AI for All, From the Dark Side to the Light”, essas IAs “não têm senso comum… Elas não têm imagens. Elas não têm imagens. Elas têm uma relação estatística entre texto e grupos de pixels. E há uma beleza nisso. Não é uma beleza humana. É uma imagem incrível com a qual nenhum ser humano jamais poderia ter sonhado. Ela realmente tem presença, é surreal!”.

Essa posição cética e fascinada nos permite escapar de noções estereotipadas e dicotomias enganosas. Nos leva também a perguntar quais coisas concretas os artistas estão fazendo com as inteligências artificiais generativa. Como eles estão trabalhando com essa “relação estatística entre textos e grupos de pixels” que abre as portas para a exploração criativa de um imaginário não humano e surreal. Quais processos e procedimentos artísticos estão surgindo dessa exploração.

Os artistas sempre usaram novas tecnologias. Tanto de forma “correta”, aprendendo a técnica e seguindo o cânone, quanto de forma subversiva, desafiando a tendência dominante e invadindo as formas comuns de fazer. Isso não é diferente com a inteligência artificial generativa. Para pensar em práticas artísticas com IA, é preciso analisar suas potencialidades e limitações, entendendo que os artistas trabalham em ambos os campos: no reino do possível e de suas limitações. E que eles não apenas tomam os desenvolvimentos da tecnologia como dados, mas também modificam esses termos – o que é possível, quais são os limites, quais estratégias artísticas podem resistir e desafiar a ordem tecnosocial.

Para entender melhor isso, vale trazer o exemplo da prática de uma artista, Kira Xonorica, que trabalha com base na geração de imagens que desafiam as noções binárias de gênero e os limites entre natureza, humanidade e tecnologia, para criar visões feministas futuristas e utópicas.

Obra digital de Kira Xonorica realizada com processos generativos

Em uma entrevista para o site expanded.art, Kira diz que o potencial da IA generativa está justamente na capacidade de visualizar e explorar perspectivas do mundo por meio de dados de uma forma que talvez não fosse possível sem essas ferramentas computacionais, já que a IA generativa se baseia na análise de milhões de imagens, descrições e rótulos. Mas também há limitações para as imagens visuais que essas tecnologias nos permitem explorar, devido aos vieses introduzidos nos modelos e nos dados de treinamento. Kira acredita que “a tendência inerente aos conjuntos de dados não é surpreendente. Ao fim e ao cabo, o banco de imagens no qual eles se baseiam se baseia em séculos de história da arte e em outras disciplinas que produzem e moldam nossa imaginação visual coletiva”.

As visões alarmistas e proibicionistas, que ignoram esses processos de exploração de limites e possibilidades, são perigosas porque censuram e inibem as buscas criativas. Os vieses e outros problemas sérios com essas ferramentas não devem nos levar ao pânico, mas a uma análise crítica que leve em conta os contextos de criação e uso de imagens geradas por IA, incluindo os conjuntos de dados de treinamento nos quais as várias ferramentas se baseiam, bem como as maneiras pelas quais essas ferramentas são projetadas e desenvolvidas. A análise também deve incorporar os custos ambientais e as condições de trabalho nas empresas de IA, sobre os quais não vamos discorrer nesta postagem.

 

MITO 2: CRIAR IMAGENS DE PESSOAS REAIS É INERENTEMENTE PERIGOSO

A geração de imagens com pessoas reais reconhecíveis é uma prática considerada uma das mais arriscadas, pois pode ser usada para ataques à honra e à dignidade dessas pessoas. Entretanto, essa prática também pode ser uma maneira de explorar histórias alternativas de forma imaginativa, sem ser confundida com uma imagem da realidade ou necessariamente causar danos a qualquer pessoa. Esse é o caso, por exemplo, de @arteficialismo, que fez uma série que nos faz imaginar como seriam as pessoas famosas se, depois de perderem tudo, fossem morar em uma favela brasileira.

 

MITO 3: AS OBRAS GERADAS POR IA SÃO SEMPRE IMITAÇÕES

E o que dizer do uso de obras artísticas já existentes para criar novas obras com inteligência artificial? Esse talvez seja um dos maiores debates atuais. A questão é dividida em duas dimensões.

A primeira é se uma nova criação de IA generativa, baseada em obras ou estilos preexistentes, pode infringir o direito dos criadores dessas obras ou dos artistas de referência desses estilos. Embora estas infrações de fato possam ocorrer, elas não podem ser dadas a priori; tudo depende do caso específico. O que deve ficar claro é que os estilos artísticos em si não são protegidos por direitos autorais e que a grande maioria das obras geradas em um determinado estilo ou com determinados criadores de referência não são necessariamente obras derivadas. Elas podem ou não ser – assim como muitas obras não geradas com inteligência artificial também podem ser. Acreditamos que, em grande parte, nossa análise de vários anos atrás sobre a cultura remix e a necessidade de distinguir, em cada caso, o conceito de plágio, trabalho derivado e usos transformadores pode enquadrar muito bem essa discussão.

A segunda dimensão é se a criação de ferramentas de IA generativas infringe os copyrights de obras de direitos reservados que são parte de coleções de dados de treinamento. Para responder a essa pergunta, é importante saber que o treinamento de modelos de IA generativa não envolve a cópia dos aspectos expressivos das obras, mas sim a análise e a sistematização de dados sobre essas obras, com base em um grande número de parâmetros que vão novas imagens, textos ou outros conteúdos. O modelo nem sequer mantém cópias das imagens de treinamento, como explica o analista de políticas de propriedade intelectual Matthew Lane: “Depois que cada imagem é incorporada ao modelo, ela é basicamente lixo. Ela não é armazenada no modelo, apenas os conceitos [são armazenados]. E, idealmente, esses conceitos não devem ser vinculados a uma única imagem”. Em outras palavras: a expressão autoral das obras não é armazenada, copiada, redistribuída ou comunicada, mas analisada em grandes quantidades para estabelecer conceitos a partir dos quais gerar imagens.

É por isso que não se pode presumir a priori que os modelos serão usados apenas para gerar imitações, mas que cada caso deverá ser avaliado a posteriori e de modo concreto. Nem aqueles que desenvolvem a ferramenta nem aqueles que a utilizam devem, em nenhum caso, ser impedidos de se basear em referências culturais e artísticas anteriores. Caso contrário, o patrimônio cultural e estético seria privatizado de uma forma sem precedentes, prejudicando a liberdade criativa atual e futura. E, já que estamos falando disso, não devemos nos esquecer de que, muitas vezes, são os próprios artistas que trabalham com ferramentas de IA, treinando modelos com coleções de dados específicas ou até mesmo participando do desenvolvimento e da adaptação de ferramentas de IA a partir de ferramentas de IA de código aberto.

 

MITO 4: NÃO SE PODE CRIAR GENUINAMENTE USANDO IA

Por fim, se estivermos falando de liberdade criativa, podemos perguntar até que ponto os artistas estão realmente criando algo novo com a IA generativa. Dissemos anteriormente que a IA não tem agência nem capacidade criativa própria, mas onde fica o processo criativo das pessoas que usam essas ferramentas? Até que ponto podemos ir além da geração automática de imagens para desenvolver algo que possa ser chamado de “obra” e o criador de “artista”? A resposta, mais uma vez, depende do uso e do contexto da criação, e de como cada pessoa que cria com IA generativa define sua atividade.

Em outro trabalho compartilhado por @arteficialismo no Instagram, no qual retratos famosos da história da arte são representados como pessoas de carne e osso, alguém pergunta: “como você pode se considerar um artista? Ao que @arteficialismo responde: “Nunca me considerei… durante toda a minha vida fiz desenhos, photoshop, etc… e as pessoas sempre tentaram me rotular como artista e eu sempre rejeitei esse ‘título’. Agora eu só faço essas imagens de IA e as pessoas tentam dizer que eu não sou um artista, como se isso significasse alguma coisa para mim ou me fizesse parar de fazer as imagens por algum motivo.”

 

Por sua vez, Kira Xonorica, na entrevista citada acima, disse: “O que eu adoro na IA é que ela envolve um processo de contar histórias. Quando você cria, é como assistir a um filme ou escrever seu próprio romance. Você nunca sabe aonde isso vai levá-lo, você só tem ideias generativas e as sobrepõe umas às outras, essa é a beleza do jogo”.

Em última análise, a criação por meio de métodos generativos abrange uma variedade de processos que não podemos determinar a priori como artísticos ou não artísticos. Muitas vezes, esses processos envolvem longas horas de aprendizado e experimentos com e a partir de resultados gerados por IA. Mas não são nem as horas nem o esforço que dão significado artístico a esses trabalhos; muito menos uma IA. Argumentamos, por fim, que a arte pode ser feita com IA generativa e que isso ainda depende, como sempre, do contexto da criação pessoal e da recepção cultural. A análise diante da massificação da IA generativa deve ser crítica, matizada e situada, não moldada nem pelas empresas que vendem essas tecnologias e nem guiada por mensagens de pânico que apenas impedirão os artistas de participar do debate sobre seu desenvolvimento e de se apropriar criativamente dessas ferramentas.

 

]]>
https://baixacultura.org/2023/06/23/inteligencia-artificial-generativa-e-direitos-culturais/feed/ 0
Como o ChatGPT está influenciando na disputa pelo controle do conhecimento https://baixacultura.org/2023/05/29/como-o-chatgpt-esta-influenciando-na-disputa-pelo-controle-do-conhecimento/ https://baixacultura.org/2023/05/29/como-o-chatgpt-esta-influenciando-na-disputa-pelo-controle-do-conhecimento/#respond Mon, 29 May 2023 22:40:00 +0000 https://baixacultura.org/?p=15255 É quase impossível identificar retroativamente as fontes e autorias retiradas sem autorização de bases de dados pelos bots. Apropriação do saber comum pode estar mais ameaçada – abrindo uma disputa sobre os direitos do autor

Por Leonardo Foletto*

O ano de 2023 tem sido permeado pelo tema de Inteligência Artificial (IA) quando se fala sobre tecnologias digitais e internet. Isso se deve em grande parte ao sucesso estrondoso do ChatGPT, uma IA generativa desenvolvida pela OpenAI, uma empresa dos Estados Unidos fundada em 2015 com um investimento inicial de U$ 1 bilhão, cerca de R$ 4,9 bilhões na cotação atual.

Seus sócios incluem personalidades notáveis como Sam Altman, CEO da empresa. Elon Musk, o bilionário excêntrico e segundo homem mais rico do mundo de acordo com a Bloomberg, foi um dos co-fundadores da empresa em 2015, mas abandonou o projeto após discordâncias com princípios éticos e modelos de financiamento da empresa.

O ChatGPT foi disponibilizado publicamente gratuitamente em 30 de novembro de 2022 e, em janeiro de 2023, já havia alcançado 100 milhões de usuários. Isso o torna a tecnologia de crescimento mais rápido da história até o momento. É importante ressaltar que essa IA generativa consegue gerar textos e imagens de forma automatizada, baseada no aprendizado de máquina.

Direito autoral e propriedade intelectual

Há inúmeras formas de abordar a discussão acerca dos impactos da Inteligência Artificial (IA) no cotidiano global. Podemos falar sobre as questões éticas que envolvem a adoção desses sistemas em salas de aula, por exemplo, assim como sobre mecanismos possíveis para regulamentar IAs e assegurar que evitem a disseminação de racismo algorítmico, discursos de ódio e desinformação;

Podemos falar também da precarização do trabalho digital, agora também o trabalho criativo (designers, ilustradores, produção de “conteúdos” em geral) às implicações políticas no extrativismo desigual de dados norte-sul global, a partir da acentuação do colonialismo de dados (Couldry e Mejías, 2019; Lippold e Faustino, 2022), o que pode nos levar a um modo de produção ainda pior que o capitalismo (Mckenzie Wark, 2023), agora baseado também no controle do “vetor da informação”, aquelas tecnologias que coletam grandes quantidades de dados, os ordenam, gerenciam e processam para extrair valor – como as IAs generativas.

Podemos, ainda, discutir como as IAs são utilizadas em trabalhos criativos de texto e imagem, ou refletir sobre as questões filosóficas que envolvem a simbiose entre a realidade humana e a realidade das máquinas — incluindo a possibilidade de uma superação da inteligência humana pela maquínica.

Contudo, eu opto por abordar a questão sob uma perspectiva diferente: a discussão sobre criação, cópia e propriedade intelectual na internet. O fato é que nem todo mundo está satisfeito com que as IAs generativas, como o ChatGPT e o Midjourney (usado para geração de imagens), consigam escrever livros infantis, ganhar competições de arte ou produzir artigos acadêmicos. Isso levanta uma série de questões sobre a autoria, a originalidade e a propriedade intelectual, que ainda carecem de respostas claras.

Cópia da cópia da cópia

A importância da cultura livre e dos movimentos que a promovem se torna ainda mais relevante em tempos de avanço das IAs generativas. Como mencionado anteriormente, essas tecnologias são capazes de criar obras artísticas, textos e outros tipos de conteúdo de forma automatizada, o que levanta questionamentos sobre a autoria e a propriedade dessas obras.

O copyleft e as licenças Creative Commons poderiam se mostrar, nesse contexto, ferramentas poderosas para garantir que as obras geradas pelas IAs generativas possam ser utilizadas e compartilhadas livremente, sem restrições ou limitações impostas pelos detentores de direitos autorais.

No entanto, é importante lembrar que a cultura livre não é apenas uma questão de licenciamento. Ela envolve uma transformação mais ampla na forma como a sociedade entende a cultura, o conhecimento e a criatividade, e busca colocá-los ao alcance de todos, promovendo a participação e a colaboração em vez da exclusão e da monopolização.

Nesse sentido, a cultura livre se apresenta como uma alternativa à lógica mercantilista que rege a indústria cultural e as políticas de propriedade intelectual, permitindo o florescimento de novas formas de criação, expressão e compartilhamento que fogem do controle das grandes corporações e das elites intelectuais.

Do copyleft emergiram, no início dos anos 2000, os Creative Commons: um conjunto de licenças e, posteriormente, uma ONG presente em mais de cinquenta países. A partir daí, expandiu-se a ideia de cultura e conhecimento livre, e potencializados movimentos como a Educação Aberta (Recursos Educacionais Abertos no Brasil), Ciência Aberta e OpenGlam (galerias, bibliotecas, arquivos e museus abertos), ainda em plena atividade globalmente.

Esses movimentos promovem o acesso a conhecimentos de interesse público, tais como produções científicas, livros didáticos e obras presentes em museus e bibliotecas públicas, frente às restrições impostas pelas empresas detentoras de direitos autorais em obras culturais e educacionais. Nesse sentido, a defesa da cultura livre e dos movimentos que a promovem se torna ainda mais urgente em um mundo cada vez mais dominado pelas IAs generativas e pela lógica da propriedade intelectual restritiva, garantindo que a criatividade e o conhecimento possam ser compartilhados e apropriados por todos, e não apenas por uma elite privilegiada.

O livre direito a cultura para IAs?

A partir desse panorama sobre a cultura livre, discutido em “A Cultura é Livre: uma história da resistência antipropriedade”, é possível estabelecer uma conexão com a Inteligência Artificial (IA). A popularização de sistemas como o ChatGPT coloca a propriedade intelectual em um momento histórico importante, já que vivemos em um mundo cada vez mais dominado por múltiplas cópias reproduzidas por sistemas algorítmicos “inteligentes”.

Nesse contexto, torna-se difícil reconhecer as fontes e identificar a autoria. É praticamente impossível fazer isso retroativamente, pois muitos sistemas de IA já extraíram informações de bases de dados da internet sem autorização e seguem produzindo novas ideias a partir do que aprenderam.

No âmbito jurídico, já há denúncias que questionam essa apropriação; três artistas iniciaram uma ação coletiva contra Stability.ai e Midjourney alegando violação direta e indireta de direitos autorais, uma vez que “estes sistemas pegaram bilhões de imagens de treinamento extraídas de sites públicos” e as usaram “para produzir imagens aparentemente novas por meio de um processo de software matemático”.

Entre especialistas em direito autoral, muitos se perguntam se a extração de conteúdo de terceiros por estas IAs generativas pode ser considerado “fair use” (uso justo), mecanismo da Lei dos Estados Unidos que estabelece como uso justo a reprodução de trechos para fins como crítica, comentário, notícias, ensino ou pesquisa.

Esse tipo de mecanismo de exceção, que sempre foi uma defesa do movimento da cultura livre para que grandes empresas da cultura não impedissem práticas como as pequenas citações musicais e de vídeo para fins de estudo ou paródia, por exemplo, agora tem sido estabelecido como a interpretação usada pelos tribunais dos Estados Unidos para permitir alguns usos de mineração de dados necessários para estes sistemas de IA funcionarem.

Pesquisadores da área indicam que, em breve, a quantidade de texto e imagem gerada por IAs tende a superar toda produção humana. Esse fato levanta a discussão sobre a apropriação do espaço comum (domínio público) das ideias.

Apropriação do espaço comum de ideias

Um número muito grande de obras produzidas pode exaurir a quantidade de expressões possíveis de uma ideia em um certo meio — música, por exemplo, onde já há casos de IAs, como a do Google Assistente, que reconhece amostras de uma música, trechos de até menos de um segundo.

Identificar pode significar também controlar e restringir; empresas de tecnologia já identificam e barram rapidamente a circulação de informações para defender a propriedade.

O rapper brasileiro Don L reconheceu o perigo e expressou sua opinião no Twitter: “O capitalismo vai acabar com a arte do sample. Sou totalmente contra ter que pagar por samples irreconhecíveis por um humano. Se for por essa lógica, deveria ter direito autoral pros instrumentos. Pagar pra Yamaha, Korg etc em toda música”.

Se todos os samples usados no hip hop fossem identificados, controlados e restritos, teria sido possível o nascimento do gênero musical? Quantos novos estilos literários, expressões artísticas e gêneros musicais deixariam de surgir se houvesse barreiras econômicas como essa?

Diante dessas questões, que surgem diante das dúvidas sobre como regular processos tecnológicos ainda em pleno desenvolvimento, parece ser importante discutir novamente o uso justo.

Manter a exceção de uso justo no direito autoral pode permitir que criadores e inventores continuem a combinar conhecimentos existentes para criar novas possibilidades, como faziam antes com a câmera e o sampler. Porém, é importante considerar as consequências do colonialismo de dados caso a mineração de milhares de textos e dados necessários para o funcionamento de sistemas de Inteligência Artificial privados e fechados seja considerada uso justo.

Seria possível invocar o copyleft novamente para equilibrar a discussão, garantindo que obras geradas por Inteligência Artificial (a partir de comandos humanos) sejam licenciadas abertamente apenas para determinados usos? Seria tecnicamente possível licenciar e controlar o copyleft, dada a dificuldade de distinguir cópia e original nesse contexto e o número crescente de obras geradas?

Seria também possível questionar se a obra de arte é realmente fruto apenas do espírito humano, como proposto no final de “A Cultura é Livre”. Se não for, seria hora de, assim como os povos indígenas já fazem há muito tempo, rever o antropocentrismo e dar a classificação de criadores a seres não-humanos, “artificiais” ou “naturais”?

As muitas perguntas sem resposta apenas reforçam o desafio que a popularização das IAs generativas nos apresenta ao pensar sobre o futuro da criação e da cultura livre.

* Texto publicado originalmente na revista Jacobin, por sua vez adaptado de outro, chamado “Cultura e conhecimento livre em tempos de IAs”, que pode ser visto no site da Fundação Rosa Luxemburgo Brasil-Paraguai.

]]>
https://baixacultura.org/2023/05/29/como-o-chatgpt-esta-influenciando-na-disputa-pelo-controle-do-conhecimento/feed/ 0