Resultados da pesquisa por “copy, right” – BaixaCultura https://baixacultura.org Cultura livre & (contra) cultura digital Thu, 30 Jan 2025 14:39:06 +0000 pt-BR hourly 1 https://wordpress.org/?v=6.0.9 https://baixacultura.org/wp-content/uploads/2022/09/cropped-adesivo1-32x32.jpeg Resultados da pesquisa por “copy, right” – BaixaCultura https://baixacultura.org 32 32 A corrida da IA ganha um novo capítulo – chinês e open source https://baixacultura.org/2025/01/29/a-corrida-da-ia-ganha-um-novo-capitulo-chines-e-open-source/ https://baixacultura.org/2025/01/29/a-corrida-da-ia-ganha-um-novo-capitulo-chines-e-open-source/#comments Thu, 30 Jan 2025 01:31:18 +0000 https://baixacultura.org/?p=15766  

Segunda-feira, 27 de janeiro, Wall Street atravessou um de seus dias mais turbulentos. As previsões para o setor de inteligência artificial desmoronaram, “players” viram seus papéis derreterem. As ações da Nvidia, inflacionada pela corrida por chips instalados nas IAs generativas, tombaram 17%, resultando em uma perda de US$ 589 bilhões em valor de mercado – a maior queda diária já registrada na história do mercado financeiro americano, que virou matéria e foco de atenção de diversos jornais. Sete bigtechs (Apple, Amazon, Alphabet, Meta, Microsoft, Nvidia e Tesla) viram uma perda de US$ 643 bilhões em suas ações. O responsável por essa reviravolta? Um chatbot de baixo custo lançado por uma startup chinesa, a DeepSeek, criado em 2024 como um braço de pesquisa de um fundo chamado High Flyer, também chinês. Segundo a empresa, o custo de treinamento do modelo por trás da IA, o DeepSeek-R1, foi de aproximadamente US$ 6 milhões – um décimo do que a Meta investiu no desenvolvimento do Llama 3.1, por exemplo, ou menos ainda dos US$ 100 milhões que a OpenIA investiu no seu último modelo. Além disso, a startup informou que seu chatbot apresentou um desempenho superior ao GPT-4, da OpenAI, em 20 das 22 métricas analisadas.

Não entrando nos pormenores econômicos especulativos do mercado de ações (o tombo se deu no valor do mercado destas big techs a partir da desvalorização de suas ações), o fato principal aqui é: a queda foi sobretudo porque a DeepSeek mostrou ao mundo que existe possibilidade de se competir na área com menos dinheiro, investido de forma eficiente. Com menos processadores, chips e data centers, a empresa destravou a possibilidade de operar com custos menores, justo semanas depois de Trump, ao lado de Sam Altman (Open IA) e Larry Ellison (Oracle), anunciar o “Stargate”, um mega programa de investimentos em IA no Texas com potencial anunciado de alavancar até US$ 500 bilhões de dólares em cinco anos. O lançamento do modelo da DeepSeek redesenha a disputa entre EUA e China pela inteligência artificial e mostra que, mesmo com as travas colocadas pelo Governo Biden na compra de chips da Nvidia pela China, ainda assim é possível fazer sistemas robustos de IA de forma mais barata do que Altman e cia afirmam.

As diferenças técnicas do sistema chinês

Vamos tentar explicar aqui brevemente como funciona o DeepSeek e as principais diferenças em relação ao seus modelos concorrentes. O recém-lançado R1 é um modelo de linguagem em grande escala (LLM) que conta com mais de 670 bilhões de parâmetros, projetado a partir de 2.048 chips H800 da Nvidia – estima-se, por exemplo, que os modelos desenvolvidos pelas big techs utilizem cerca de 16 mil chips para treinar os robôs. Utiliza-se de aprendizado por reforço, uma técnica de aprendizado de máquina (machine learning) em que o sistema aprende automaticamente com os dados e a própria experiência, sem depender de supervisão humana,  a partir de mecanismos de recompensa/punição.

Para aumentar sua eficiência, a DeepSeek adotou a arquitetura Mixture-of-Experts (MoE), uma abordagem dentro do aprendizado de máquina que, em vez de utilizar todos os parâmetros do modelo (ou toda as redes neurais) em cada tarefa, ativa só os necessários de acordo com a demanda. Isso torna o R1 mais ágil e reduz o consumo de energia computacional, executando as operações de forma mais leve e rápida. É como se o modelo fosse uma grande equipe de especialistas e, ao invés de todos trabalharem sem parar, apenas os mais relevantes para o trabalho em questão são chamados, economizando tempo e energia.

Outra técnica utilizada pelo R1 é a Multi-Head Latent Attention (MLA), que permite ao modelo identificar padrões complexos em grandes volumes de dados, usando de 5 a 13% da capacidade de modelos semelhantes como a MHA (Multi-Head Attention), o que a torna mais eficiente, segundo essa análise bem técnica publicada por Zain ul Abideen, especialista em LLM e aprendizado de máquina, em dezembro 2024. Grosso modo, a MLA analisa de forma simultânea diferentes partes dos dados, a partir de várias “perspectivas”, o que possibilita ao DeepSeek-R1 processar informações de maneira mais precisa gastando menos recursos de processamento. A MLA funciona como um grupo de pessoas olhando para o mesmo problema de diferentes ângulos, sempre buscando a melhor solução — de novo e de novo e de novo, a cada novo desafio.

Além de seu baixo custo de treinamento, um dos maiores atrativos do modelo está no baixo custo da operação geral. Grandes empresas de tecnologia costumam cobrar valores altos para acessar suas APIs, ferramentas que permitem que outras empresas usem seus modelos de inteligência artificial em seus próprios aplicativos. A DeepSeek, por outro lado, adota uma abordagem mais acessível; a API do R1 custa entre 20 e 50 vezes menos do que a da OpenAI, de acordo com a empresa. O preço de uma API é calculado com base na quantidade de dados processados pelo modelo, medido em “tokens”. No caso da DeepSeek, a API cobra US$ 0,88 por milhão de tokens de entrada e US$ 3,49 por milhão de tokens de saída. Em comparação, a OpenAI cobra US$ 23,92 e US$ 95,70, respectivamente. Ou seja, empresas que optarem pela tecnologia da chinesa podem economizar substancialmente ao integrar o modelo R1 em suas plataformas.

A DeepSeek declarou que usou 5,5 milhões de dólares (32 milhões de reais) em capacidade computacional, utilizando apenas as 2.048 GPUs Nvidia H800 que a empresa chinesa tinha, porque não podia comprar as GPUs H100 ou A100, superiores, que as big techs acumulam às centenas de milhares. Para ter uma ideia: Elon Musk tem 100 mil GPUs, a OpenAI treinou seu modelo GPT-4 em aproximadamente 25 mil GPUs A100.

Em entrevista à TV estatal chinesa, Liang Wenfeng, CEO da DeepSeek e também do fundo que bancou o modelo (High Flyer), disse que a empresa nunca pretendeu ser disruptiva, e que o “estrelato” teria vindo por “acidente”. “Não esperávamos que o preço fosse uma questão tão sensível. Estávamos simplesmente seguindo nosso próprio ritmo, calculando custos e definindo preços de acordo. Nosso princípio não é vender com prejuízo nem buscar lucros excessivos. O preço atual permite uma margem de lucro modesta acima de nossos custos”, afirmou o fundador da DeepSeek.

“Capturar usuários não era nosso objetivo principal. Reduzimos os preços porque, primeiro, ao explorar estruturas de modelos de próxima geração, nossos custos diminuíram; segundo, acreditamos que os serviços de IA e API devem ser acessíveis e baratos para todos.”

Wenfeng é bacharel e mestre em engenharia eletrônica e da informação pela Universidade de Zhejiang. Entre muitas especulações momentâneas sobre sua vida pessoal, o que se sabe é que o empresário de 40 anos parece “mais um nerd do que um chefe” e que é um entusiasta do modelo open source de desenvolvimento, o que nos leva para o próximo tópico.

As vantagens do código aberto 

Um componente fundamental do sucesso (atual) do modelo chinês é o fato de estar em código aberto. O DeepSeek-V3, lançado no final de 2024, está disponível no GitHub, com uma documentação detalhada sobre como foi feito e como pode ser replicado.

Isso, na prática, tem fomentado uma corrida de várias pessoas e grupos para experimentar fazer seus próprios modelos a partir das instruções dadas pela equipe do DeepSeek. Dê uma busca no Reddit e nos próprios buscadores nestes últimos dias de janeiro de 2025 e você já verá uma enxurrada de gente fazendo.

Como vocês já ouviram falar no “A Cultura é Livre”, a natureza do código aberto, de origem filosófica no liberalismo clássico do século XVII e XVIII, permite mais colaborações, e acaba por impulsionar tanto a concorrência de outras empresas no setor quanto diferentes forks independentes e autônomos individuais. Vale, porém, aqui dizer que o código aberto não é o mesmo que um software livre. Software de código aberto (free/libre/open source software, acrônimo Floss adotado pela primeira vez em 2001) é um nome usado para um tipo de software que surgiu a partir da chamada Open Source Initiative (OSI), estabelecida em 1998 como uma dissidência com alguns princípios mais pragmáticos que os do software livre. A flexibilização na filosofia de respeito à liberdade dos usuários (mais rígida e comprometida com a justiça social no software livre, mais pragmática e aplicável como metodologia de desenvolvimento no open source) propiciou uma expansão considerável tanto do software de código aberto quanto de projetos e empresas que têm este tipo de software como produto e motor de seus negócios. A OSI tem como texto filosófico central “A catedral e o bazar”, de Eric Raymond, publicado em 1999. Nele, Raymond trabalha com a ideia de que “havendo olhos suficientes, todos os erros são óbvios”, para dizer que, se o código fonte está disponível para teste, escrutínio e experimentação pública, os erros serão descobertos mais rapidamente.

A definição da OSI diz que um sistema open source é:

The program must include source code, and must allow distribution in source code as well as compiled form. Where some form of a product is not distributed with source code, there must be a well-publicized means of obtaining the source code for no more than a reasonable reproduction cost, preferably downloading via the Internet without charge. The source code must be the preferred form in which a programmer would modify the program. Deliberately obfuscated source code is not allowed. Intermediate forms such as the output of a preprocessor or translator are not allowed.

O esclarecimento sobre o que é código aberto é importante porque, na esteira do desenvolvimento das IAs de código aberto, vem também surgindo um movimento de open washing, ou seja: a prática de empresas privadas dizerem que os códigos de seus sistemas algorítmicos são abertos – quando na verdade não são tão abertos assim. Ou então quando grandes corporações (ou startups) iniciam projetos em código aberto para incorporar o trabalho colaborativo de colaboradores (desenvolvedores, tradutores, cientistas de dados) – para logo depois, quando o projeto se torna mais robusto, fecharem o código e nunca mais abrirem. “O Google tem um histórico nessa prática, a própria OPEN IA fez isso – e foi processada por Elon Musk (!) justamente por não seguir os princípios abertos.

Escrevemos em nossa última newsletter do BaixaCultura que a Meta, ao dizer que seu modelo LLama é aberto, vem “poluindo” e “confundindo” o open source, como afirma Stefano Maffulli, diretor da Open Source Initiative (OSI). Mas o que o Llama traz como aberto, porém, são os pesos que influenciam a forma como o modelo responde a determinadas solicitações. Um elemento importante para a transparência, mas que por si só não faz se encaixar na definição do open source. A licença sob a qual o Llama foi lançado não permite o uso gratuito da tecnologia por outras empresas, por exemplo, o que não está em conformidade com as definições de código aberto reconhecidas pela OSI. “Programadores que utilizam modelos como o Llama não têm conseguido ver como estes sistemas foram desenvolvidos, ou construir sobre eles para criar novos produtos próprios, como aconteceu com o software de código aberto”, acrescenta Maffuli.

Mas existem IAs totalmente abertas?

A disputa (velha, aliás) pelo que de fato é open source – e principalmente o que não é – também ganha um novo capítulo com o DeepSeek. A “OSI AI Definition – 1.0-RC1” aponta que uma IA de código aberto deve oferecer quatro liberdades aos seus utilizadores:

_ Utilizar o sistema para qualquer fim e sem ter de pedir autorização;

_ Estudar o funcionamento do sistema e inspecionar os seus componentes;

_ Modificar o sistema para qualquer fim, incluindo para alterar os seus resultados;

_ Partilhar o sistema para que outros o utilizem, com ou sem modificações, para qualquer fim;

Nos quatro pontos o DeepSeek v-1 se encaixa. Tanto é que, como mencionamos antes, já tem muita gente fazendo os seus; seja criando modelos ainda mais abertos quanto para ser executada localmente em um dispositivo separado, com boas possibilidades de customização e com exigência técnica possível na maior parte dos computadores bons de hoje em dia. Para não falar em modelos parecidos que já estão surgindo na China, como o Kimi k1.5, lançado enquanto esse texto estava sendo escrito – o que motivou memes de que a competição real na geopolítica de IA está sendo feita entre regiões da China, e não entre EUA X China.

O fato de ser de código aberto faz com que o DeepSeek, diferente do ChatGPT ou do LLama, possa ser acoplado e inserido com diferentes funcionalidades por outras empresas, grupos, pessoas com mais facilidade e menor custo. Ao permitir que novas soluções surjam, torna a barreira de entrada da inteligência artificial muito menor e estoura a bolha especulativa dos financistas globais sobre o futuro da tecnologia – o que talvez seja a melhor notícia da semana.

Mas há um porém importante nessa discussão do código aberto: as bases de dados usadas para treinamento dos sistemas. Para treinar um modelo de IA generativa, parte fundamental do processo são os dados utilizados e como eles são utilizados. Como analisa o filósofo e programador Tante nesse ótimo texto, os sistemas de IA generativa (os LLMs) são especiais porque não consistem em muito código em comparação com o seu tamanho. Uma implementação de uma rede neural é constituída por algumas centenas de linhas de Python, por exemplo, mas um LLM moderno é composto por algum código e uma arquitetura de rede – que depois vai ser parametrizada com os chamados “pesos”, que são os milhares de milhões de números necessários para que o sistema faça o que quer que seja, a partir dos dados de entrada. Assim como os dados, estes “pesos” também precisam ser deixados claros quando se fala em open source, afirma Tante.

Não está claro, ainda, quais foram os dados de treinamento do DeepSeek e como estes pesos foram distribuídos. Endossando Tante, Timnit Gibru disse neste post que para ser open source de fato teria que mostrar quais os dados usados e como foram treinados e avaliados. O que talvez nunca ocorra de fato, pois isso significa assumir que a DeepSeek pegou dados de forma ilegal na internet tal qual o Gemini, a LLama e a OpenIA – que está acusando a DeepSeek de fazer o mesmo que ela fez (!). Outras IAs de código aberto também não deixam muito claro como funcionam suas bases, embora as proprietárias muito menos. Ainda assim, são os modelos de IA identificados como open source, com seus códigos disponíveis no Github, os que lideram o nível de transparência, segundo este índice criado por pesquisadores da Universidade de Stanford, que identificou como os mais transparentes o StarCoder e o Jurassic 2.

Podemos concluir que na escala em que estamos falando desses sistemas estatísticos atualmente, e entendendo o acesso e o tratamento dos dados como elementos constituintes do códigos a ser aberto, uma IA totalmente open source pode ser quase uma utopia. Muitos modelos menores foram e estão sendo treinados com base em conjuntos de dados públicos explicitamente selecionados e com curadoria. Estes podem fornecer todos os processos, os pesos e dados, e assim serem considerados, de fato, como IA de código aberto. Os grandes modelos de linguagem que passamos a chamar de IA generativa, porém, baseiam-se todos em material adquirido e utilizado ilegalmente também porque os conjuntos de dados são demasiado grandes para fazer uma filtragem efetiva de copyright e garantir a sua legalidade – e, talvez, mesmo a sua origem definitiva, dado que muitas vezes podemos ter acesso ao conjunto de uma determinada base de dados, mas não exatamente que tipo de dado desta base foi utilizada para treinamento. Aliás, não é surpresa que hoje muitos dos que estão procurando saber exatamente o dado utilizado são detentores de copyright em busca de processar a Open AI por roubo de conteúdo.

Mesmo que siga o desafio de sabermos como vamos lidar com o treinamento e a rastreabilidade dos dados usados pelos modelos de IA, a chegada do DeepSeek como um modelo de código aberto (ou quase) tem enorme importância sobretudo na ampliação das possibilidades de concorrência frente aos sistemas da big techs. Não é como se o império das grandes empresas de tecnologia dos Estados Unidos tivesse ruído da noite pro dia, mas houve uma grande demonstração de como a financeirização da economia global amarrou uma parte gigantesca do valor financeiro do mundo às promessas de engenheiros que claramente estavam equivocados nas suas projeções do que era preciso para viabilizar a inteligência artificial – seja para ganhos especulativos ou por puro desconhecimento.

A parte ainda não solucionada da equação é uma repetição do antigo episódio envolvendo o lançamento do Linux: se essa solução estará disponível para ser destrinchada por qualquer um, como isso vai gerar mais independência aos cidadãos? A inteligência artificial tem milhares de aplicações imaginadas, e até agora se pensava em utilizá-la nos processos produtivos de diversas indústrias e serviços pelo mundo. Mas como ela pode sugerir independência e autonomia para comunidades, por exemplo? Espera-se, talvez de maneira inocente, que suas soluções sejam aproveitadas pela sociedade como um todo, e que não sejam meramente cooptadas pelo mercado para usos privados como tem ocorrido até aqui. Por fim, o que se apresenta é mais um marco na história da tecnologia, onde ela pode dobrar a curva da independência, ou seguir no caminho da instrumentalização subserviente às taxas de lucro.

[Leonardo Foletto e Victor Wolffenbüttel]

]]>
https://baixacultura.org/2025/01/29/a-corrida-da-ia-ganha-um-novo-capitulo-chines-e-open-source/feed/ 1
IA e os direitos dos escritores https://baixacultura.org/2024/11/01/ia-e-os-direitos-dos-escritores/ https://baixacultura.org/2024/11/01/ia-e-os-direitos-dos-escritores/#respond Fri, 01 Nov 2024 12:40:35 +0000 https://baixacultura.org/?p=15749 Traduzimos um artigo do escritor e ativista Cory Doctorow que explora como a Penguin Random House (PRH), maior grupo editorial do mundo, tem restringido o uso de seus livros para treinamento de IA, o que tem gerado uma sensação de proteção entre escritores. No entanto, convém ter calma: esse tipo de movimento pode ser mais sobre controle econômico do que defesa dos direitos dos trabalhadores criativos. “Só porque você está do lado deles, não significa que eles estejam do seu lado”.

Doctorow destaca que muitas editoras e grandes players da mídia usam táticas como essa para maximizar lucros, enquanto os trabalhadores criativos raramente se beneficiam diretamente dessas mudanças. Mesmo com a nova política da PRH – que provavelmente servirá de base para outras editoras mundo afora – é improvável que os escritores recebam qualquer compensação adicional se a PRH cobrar pelo uso das obras em treinamentos de IA.

Doctorow aponta também que a concentração do mercado editorial reduz as chances de negociação para autores. Hoje, com apenas cinco grandes editoras dominando o setor, os escritores perdem força de negociação e encontram dificuldades para exigir melhores condições, algo que era mais viável em um mercado menos concentrado.

O ensaio também sugere que em vez de focar exclusivamente em garantir mais direitos autorais, escritores e outros trabalhadores criativos poderiam se mobilizar para conquistar maior autonomia financeira e melhores condições em negociações com as editoras. Movimentos como, por exemplo, o direito de reaver suas obras após alguns anos – 14 anos, como era no sistema original de copyright dos EUA, e não 35 ou após a morte do autor – e revendê-las por mais dinheiro, poderiam dar mais controle aos autores sobre suas criações, garantindo uma renda justa e estável.

 

Penguin, Inteligência Artificial e os direitos dos escritores

Cory Doctorow

Publicado originalmente no Pluralistic em 19/10/24
Tradução: Leonardo Foletto

Minha amiga Teresa Nielsen Hayden é uma fonte de ditados sábios, como “você não é responsável pelo que faz nos sonhos de outras pessoas” e o meu favorito de todos os tempos, da época do Napster: “Só porque você está do lado deles, não significa que eles estejam do seu lado”.

As gravadoras odiavam o Napster, assim como muitos músicos, e quando esses músicos ficaram do lado de suas gravadoras nas campanhas legais e de relações públicas contra o compartilhamento de arquivos, eles deram legitimidade legal e pública à causa das gravadoras, que acabou prevalecendo.

Mas as gravadoras não estavam do lado dos músicos. O fim do Napster e, com ele, a ideia de um sistema de licença geral para distribuição de música pela Internet (semelhante aos sistemas de rádio, apresentações ao vivo e música enlatada) em locais e lojas) estabeleceu firmemente que os novos serviços *devem* obter permissão das gravadoras para operar.

A era atual é muito boa para as gravadoras. O cartel das “Big Three”- Universal, Warner e Sony – ditou os termos com o Spotify, que em contrapartida entregou bilhões de dólares em ações e permitiu que as três grandes co-projetassem o esquema de royalties sob o qual o Spotify opera hoje.

Se você ouviu alguma coisa sobre os pagamentos do Spotify, provavelmente sabe que eles são extremamente desfavoráveis aos artistas. Isso é verdade, mas não significa que seja desfavorável para as três grandes gravadoras. As “Big Three” têm seus pagamentos mensais assegurados, grande parte registrada como “royalties não atribuíveis” –  dinheiro que as gravadoras podem distribuir entre os artistas ou usarem como bem entenderem. Também tem outras vantagens, como por exemplo poder incluir gratuitamente músicas de seus artistas nas principais listas de reprodução. Além disso, os pagamentos ultra baixos aos artistas aumentam o valor das ações das gravadoras no Spotify, pois quanto menos o Spotify tiver que pagar pela música, melhor será sua imagem para os investidores. Assim, as Big Three – que detêm 70% de todas as músicas já gravadas no mundo, graças a uma orgia de fusões – compensam o déficit dessas baixas taxas por fluxo com pagamentos garantidos e promoções.

Mas as gravadoras independentes e os músicos, que representam os 30% restantes, ficam de fora dessa conta. Eles estão presos ao mesmo esquema de royalties fracionários de centavo por streaming que as  Big Three, mas não recebem garantias gigantescas de dinheiro mensal, além de precisarem pagar pela colocação de músicas em playlists – o que as Big Three fazem de graça.

Só porque você está do lado deles, não significa que eles estejam do seu lado. [Leia o que escrevi sobre como o Spotify rouba dos artistas

 

Em um sentido muito concreto e importante, os trabalhadores criativos – escritores, cineastas, fotógrafos, ilustradores, pintores e músicos – não estão do mesmo lado que as gravadoras, agências, estúdios e editoras que colocam nosso trabalho no mercado. Essas empresas não são instituições de caridade; elas são motivadas a maximizar os lucros e uma maneira importante de fazer isso é reduzir os custos, inclusive e principalmente o custo de nos pagar pelo nosso trabalho.

É fácil não perceber esse fato porque os trabalhadores dessas gigantescas empresas de entretenimento são nossos aliados de classe. O mesmo impulso que restringe os pagamentos aos escritores é usado quando as empresas de entretenimento pensam em quanto pagam aos editores, assistentes, publicitários e à equipe da logística. Essas são as pessoas com as quais os trabalhadores criativos lidam no dia a dia; elas, em geral, estão sim do nosso lado, e é fácil confundir essas pessoas com seus empregadores.

Essa guerra de classes não precisa ser o fato central do relacionamento dos trabalhadores criativos com nossas editoras, gravadoras, estúdios, etc. Quando há muitas dessas empresas de entretenimento, elas competem umas com as outras pelo nosso trabalho (e pelo trabalho dos funcionários que levam esse trabalho ao mercado), o que aumenta nossa participação no lucro que nosso trabalho produz.

Mas vivemos em uma era de extrema concentração de mercado em todos os setores, inclusive no de entretenimento, onde lidamos com cinco editoras, quatro estúdios, três gravadoras, duas empresas de tecnologia de publicidade e uma única empresa que controla todos os e-books e audiolivros na América do Norte. Essa concentração faz com que seja muito mais difícil para os artistas negociarem de forma eficaz com as empresas de entretenimento, o que significa que é possível – e até provável – que as empresas de entretenimento obtenham vantagens de mercado que não são compartilhadas com os trabalhadores criativos. Em outras palavras: quando seu campo é dominado por um cartel, você pode estar do lado deles, mas é quase certo que eles não estão do seu lado.

Esta semana, a Penguin Random House (PRH), a maior editora “da história da raça humana”, ganhou as manchetes quando alterou o aviso de copyrights de seus livros para proibir o treinamento de IA.

A página de copyright agora inclui esta frase:

Nenhuma parte deste livro pode ser usada ou reproduzida de qualquer maneira para fins de treinamento de tecnologias ou sistemas de inteligência artificial.

Muitos escritores estão comemorando essa mudança como uma vitória dos direitos dos trabalhadores criativos sobre as empresas de IA, que arrecadaram centenas de bilhões de dólares, em parte prometendo aos nossos chefes que podem nos demitir e nos substituir por algoritmos.

Mas esses escritores estão presumindo que, só porque estão do lado da Penguin Random House, a PRH está do lado deles. Eles estão presumindo que, se a PRH lutar contra as empresas de IA que treinam bots com seu trabalho gratuitamente, isso significa que a PRH não permitirá que bots sejam treinados com seu trabalho de forma alguma.

Essa é uma visão bastante ingênua. O que é muito mais provável é que a PRH use todos os direitos legais que possui para insistir que as empresas de IA paguem pelo direito de treinar chatbots com os livros que escrevemos. É muito improvável que a PRH compartilhe o dinheiro da licença com os escritores cujos livros são então jogados no funil de treinamento do bot. Também é extremamente provável que a PRH tente usar a produção dos chatbots para reduzir nossos salários ou nos demitir e substituir nosso trabalho por uma IA lixo.

Isso é especulação de minha parte, mas é uma especulação informada. Observe que a PRH não anunciou que permitiria aos autores reivindicar o direito contratual de impedir que seu trabalho fosse usado para treinar um chatbot. Ou que estava oferecendo aos autores uma parte de qualquer uma das taxas de licença de treinamento, ou uma parte da renda de qualquer coisa produzida por bots treinados com o nosso trabalho.

De fato, à medida que o mercado editorial se transformou das trinta e poucas editoras de médio porte que floresciam quando eu era um escritor novato para as Cinco Grandes que dominam o campo atualmente, seus contratos ficaram notavelmente e materialmente piores para os escritores.

Isso não tem nada de surpreendente. Em qualquer leilão, quanto mais licitantes sérios houver, mais alto será o preço final. Quando havia trinta possíveis licitantes para nosso trabalho, conseguíamos em média um acordo melhor do que agora, quando há no máximo cinco licitantes.

Embora isso seja evidente, a Penguin Random House insiste em dizer que não é verdade. Na época em que a PRH estava tentando comprar a Simon & Schuster (reduzindo assim as cinco grandes editoras para quatro), eles insistiram que continuariam a fazer lances contra eles mesmos: editores da Simon & Schuster (que seria uma divisão da PRH) fariam lances contra editores da Penguin (outra divisão da PRH) e da Random House (mais uma divisão da PRH).

Isso é um absurdo óbvio, como disse [o escritor] Stephen King quando testemunhou contra a fusão (que foi posteriormente bloqueada pelo tribunal): “Você poderia muito bem dizer que terá marido e mulher concorrendo um contra o outro pela mesma casa. Seria muito cavalheiresco e tipo, ‘Depois de você’ e ‘Depois de você’, disse ele, gesticulando com um movimento educado do braço”.

A Penguin Random House não se tornou a maior editora da história publicando livros melhores ou fazendo um marketing melhor. Eles atingiram sua escala comprando seus rivais. A empresa é, na verdade, uma espécie de organismo colônia formado por dezenas de editoras que antes eram independentes. Cada uma dessas aquisições reduziu o poder de barganha dos escritores, mesmo dos escritores que não escrevem para a PRH, porque o desaparecimento de um licitante confiável para o nosso trabalho no portfólio corporativo da PRH reduz os possíveis licitantes para o nosso trabalho, independentemente de para quem o estamos vendendo.

Prevejo que a PRH não permitirá que seus escritores incluam uma cláusula em seus contratos proibindo a PRH de usar seu trabalho para treinar uma IA. Essa previsão se baseia em minha experiência direta com duas das outras cinco grandes editoras, onde sei com certeza que elas se recusaram terminantemente a fazer isso e disseram ao escritor que qualquer insistência em incluir esse contrato levaria à rescisão da oferta.

As Big Five têm termos de contrato marcadamente semelhantes. Ou melhor, contratos incrivelmente semelhantes, uma vez que os setores concentrados tendem a convergir em seu comportamento operacional. As Big Five são semelhantes o suficiente para que se entenda que um escritor que processe uma delas provavelmente será excluído das demais.

Meu próprio agente me deu esse conselho quando uma das Big Fives me roubou mais de US$ 10.000 – cancelou um projeto do qual eu fazia parte porque outra pessoa envolvida com ele desistiu e, em seguida, retirou cinco dígitos da taxa de inscrição especificada em meu contrato, só porque podia. Meu agente me disse que, embora eu certamente ganhasse o processo, isso custaria a minha carreira, pois me colocaria em má situação com todos as Big Five.

Os escritores que estão aplaudindo o novo aviso de direitos autorais da Penguin Random House estão operando sob a crença equivocada de que isso tornará menos provável que nossos chefes comprem uma IA na esperança de nos substituir por ela. Isso não é verdade. Conceder à Penguin Random House o direito de exigir taxas de licença para treinamento em IA não fará nada para reduzir a probabilidade de que a Penguin Random House opte por comprar uma IA na esperança de reduzir nossos salários ou nos demitir.

Mas outra coisa fará! O Escritório de Direitos Autorais dos EUA emitiu uma série de decisões, confirmadas pelos tribunais, afirmando que nada feito por uma IA pode ser protegido por direitos autorais. Por estatuto e tratado internacional, o direito autoral é um direito reservado para obras de criatividade humana (é por isso que a “selfie do macaco” não pode ser protegida por direitos autorais).

Cryteria/CC BY 3.0, modificado

Se todas as outras coisas forem iguais, as empresas de entretenimento vão preferir pagar aos trabalhadores criativos o mínimo possível (ou nada) pelo nosso trabalho. Mas, por mais forte que seja sua preferência por reduzir os pagamentos aos artistas, elas estão muito mais comprometidas em poder controlar quem pode copiar, vender e distribuir os trabalhos que lançam.

Em outras palavras, quando confrontadas com a escolha entre “Não precisamos mais pagar aos artistas” e “Qualquer pessoa pode vender ou distribuir nossos produtos e não receberemos um centavo por isso”, as empresas de entretenimento pagarão aos artistas todo o dia.

Lembra-se daquele idiota de quem todos riram porque ele conseguiu ganhar um concurso de arte com uma porcaria de IA e depois ficou com raiva porque as pessoas estavam copiando a “sua” imagem? A insistência desse cara de que sua porcaria deveria ter direito a direitos autorais é muito mais perigosa do que o golpe original de fingir que ele pintou a porcaria em primeiro lugar.

Se a PRH estivesse intervindo nesses casos de direitos autorais de IA do Copyright Office para dizer que os trabalhos de IA não podem ser protegidos por direitos autorais, isso seria um caso em que estaríamos do lado deles – e eles estariam do nosso lado. No dia em que eles apresentarem uma petição de amicus curiae ou um comentário de regulamentação apoiando a ausência de direitos autorais para IA, eu os louvarei aos céus.

Mas essa alteração no aviso de direitos autorais do PRH não vai melhorar o saldo bancário dos escritores. Dar aos escritores a capacidade de controlar o treinamento de IA não impedirá a PRH e outras empresas gigantes de entretenimento de treinar IAs com nosso trabalho. Elas simplesmente dirão: “Se você não assinar o direito de treinar uma IA com seu trabalho, não o publicaremos”.

O maior indicador de quanto dinheiro um artista ganha com a exploração de seu trabalho não é a quantidade de direitos exclusivos que temos, mas sim o poder de negociação que temos. Quando você negocia com cinco editoras, quatro estúdios ou três gravadoras, todos os novos direitos que você obtém do Congresso ou dos tribunais são simplesmente transferidos para eles na próxima vez que você negociar um contrato.

Como Rebecca Giblin e eu escrevemos em nosso livro de 2022 “Chokepoint Capitalism”:

Dar mais direitos autorais a um trabalhador criativo é como dar mais dinheiro para o lanche de um aluno que sofre bullying. Não importa o quanto você dê a ele, os valentões ficarão com tudo. Dê a seu filho dinheiro suficiente para o lanche e os valentões poderão subornar o diretor da escola para que faça vista grossa. Continue dando dinheiro para o lanche da criança e os agressores poderão lançar um apelo global exigindo mais dinheiro para o lanche de crianças famintas!

Como a sorte dos trabalhadores criativos diminuiu durante a era neoliberal de fusões e consolidações, nós nos distraímos com campanhas para obter mais direitos autorais, em vez de mais poder de negociação.

Existem políticas de direitos autorais que nos dão mais poder de negociaçao. Proibir que trabalhos de IA obtenham direitos autorais nos dá mais poder de negociação. Afinal, só porque a IA não pode fazer nosso trabalho, não significa que os vendedores de IA não possam convencer nossos chefes a nos demitir e nos substituir por uma IA incompetente.

Depois, há a “rescisão de direitos autorais”. De acordo com o Copyright Act de 1976, nos Estados Unidos os trabalhadores criativos podem reaver os direitos autorais de suas obras após 35 anos, mesmo que assinem um contrato abrindo mão dos direitos autorais por toda a sua duração.

Trabalhadores criativos, de George Clinton a Stephen King e Stan Lee, converteram esse direito em dinheiro – ao contrário, por exemplo, de termos mais longos de direitos autorais, que são simplesmente transferidos para empresas de entretenimento por meio de cláusulas contratuais não negociáveis. Em vez de nos juntarmos aos nossos editores na luta por termos mais longos de direitos autorais, poderíamos exigir termos mais curtos para a rescisão de direitos autorais. Por exemplo, o direito de retomar um livro, música, filme ou ilustração popular após 14 anos (como era o caso no sistema original de direitos autorais dos EUA) e revendê-lo por mais dinheiro como um sucesso comprovado e sem riscos.

Até lá, lembre-se: “só porque você está do lado deles, isso não significa que eles estejam do seu lado”. A PRH não quer evitar que o conteúdo de baixa qualidade feito por IA reduza os nossos salários como escritores; eles só querem ter certeza de que é a produção da IA deles que vai fazer isso, e não outra de fora.

 

]]>
https://baixacultura.org/2024/11/01/ia-e-os-direitos-dos-escritores/feed/ 0
Ética da pirataria e o tráfico de cultura https://baixacultura.org/2024/09/06/etica-da-pirataria-e-trafico-de-cultura/ https://baixacultura.org/2024/09/06/etica-da-pirataria-e-trafico-de-cultura/#respond Fri, 06 Sep 2024 21:38:00 +0000 https://baixacultura.org/?p=15718 Como era a internet antes do Twitter? Ou melhor, como era a internet antes dos monopólios das redes sociais e das plataformas de streaming?

O que um dia pareceu oferecer um horizonte de descentralização na produção e distribuição de informação e arte definhou e se transformou em uma máquina de especulação, vigilância, roubo de dados e um terreno fértil para a extrema-direita.

Já sabemos que a internet como a conhecemos acabou, e torcemos para que o que ela se transformou também acabe – ou mude radicalmente. Mas, enquanto isso não acontece, conversei com Rodrigo Corrêa, do podcast Balanço e Fúria (e editor da SobInfluencia), sobre pirataria e a internet da subversão. Desvio, expropriação, cópia, roubo: são muitas as formas de qualificar a prática da pirataria, que desde muito tempo desempenha uma função fundamental de descentralizar e redistribuir cultura, algo que nunca deixará de ser necessário, com ou sem copyright.

Dos piratas do século XV às práticas de colagem surrealista ou détournement situacionista; das rádios livres na Itália dos anos 70 às rádios piratas do Brasil dos anos 90; do boom da internet e da popularização das práticas de difusão de conteúdo que burlam o direito à propriedade intelectual ao revés centralizador dos monopólios de streaming:
falamos um pouco disso tudo e mais um pouco. Balanço e Fúria, aliás, é um dos podcasts mais interessantes a falar de música e política, do punk reggae party ao jazz afropindorâmico, passando por cumbia, Sistas grrrl’s riot, hip hop hackers, música experimental e atonal, free jazz, blaxploitation, punk chinês, queercore, entre outros muitos temas. Não perca também o projeto paralelo deles de Memória Gráfica da Contracultura

Dá pra ouvir direto aqui, além das plataformas habituais.

]]>
https://baixacultura.org/2024/09/06/etica-da-pirataria-e-trafico-de-cultura/feed/ 0
Cultura livre como liberdade positiva https://baixacultura.org/2024/08/29/cultura-livre-como-liberdade-positiva/ https://baixacultura.org/2024/08/29/cultura-livre-como-liberdade-positiva/#comments Thu, 29 Aug 2024 22:52:29 +0000 https://baixacultura.org/?p=15712 Traduzimos um texto que nos convida a refletir sobre um tema sempre importante por aqui: a cultura livre. Foi publicado em maio de 2024 por Mariana Fossati, socióloga uruguaia e ativista da cultura livre, parte do Ártica Online, parceiro deste espaço já há muitos anos. Ao final, fiz alguns comentários a respeito de pontos do texto, como a insuficiência do acesso à informação e aos bens culturais para garantir que todos os indivíduos e coletivos possam participar livre e igualmente na vida cultural; e a necessidade de uma política do cuidado dentro das comunidades e movimentos da cultura livre.

 

CULTURA LIVRE COMO LIBERDADE POSITIVA

 

Por Mariana Fossati, em Ártica Cultural
Tradução e adaptação: Leonardo Foletto

 

Como definimos liberdade quando falamos de cultura livre? Há algum tempo, escrevi que a cultura livre não é apenas uma filosofia, expressa em práticas concretas através das quais tornamos as nossas obras livres quando as compartilhamos. A cultura livre se expressa não só na ética de “compartilhar é bom”, mas também, de modo concreto, nas licenças que utilizamos, onde e como compartilhamos – e também no apoio a reformas progressivas dos direitos de autor. Gostaria agora de voltar à dimensão filosófica da liberdade na cultura livre, com a intenção de clarificar para que é que fazemos cultura livre e porque é que a defendemos.

Muitas vezes, ao longo da minha militância neste tema, senti que falo de uma coisa quando falo de cultura livre, enquanto os críticos falam de outra. Sobretudo os críticos “de esquerda” acusam aqueles que defendem a cultura livre de serem liberais, ou associam “cultura livre” a “mercado livre”. Durante muito tempo ri destas associações grosseiras, mas sinto que hoje, mais do que nunca, e sobretudo no conceito de cultura livre, a noção de liberdade deve ser reapropriada pelos movimentos de defesa dos direitos, para nos diferenciarmos claramente dos movimentos de direita autodenominados “libertários”.

Num artigo crítico aos libertários em seu blog, Rolando Astarita, [conhecido professor de economia argentino, estudioso do marxismo] fala da diferença entre liberdade negativa e liberdade positiva, no sentido proposto por Isaiah Berlin. A liberdade negativa é a possibilidade do indivíduo atuar sem interferência ou coerção, e é limitada pela liberdade dos outros e pela lei. A liberdade positiva é a capacidade real de exercer a autonomia e de se auto-realizar, o que depende não só de cada pessoa, mas também de condicionantes sociais. É por isso que Astarita entende que a tradição marxista enfatiza sobretudo a liberdade positiva. 

O artigo de Astaria me serve como inspiração para este post, porque a cultura livre pode ser entendida desde qualquer uma destas noções de liberdade. Creio, porém, que é necessário esclarecer onde colocamos nossa ênfase.

Se entendermos a cultura livre em termos de liberdade negativa, nos resta apenas a ideia de acesso sem interferência a qualquer recurso cultural ou de informação de que um indivíduo possa necessitar. Desde que esse acesso seja legal e que não afete os direitos de propriedade de terceiros. Daí a importância da licença (que é um contrato privado) e a ênfase no fato de cada indivíduo ser livre de conceder autorizações de acesso e utilização da sua obra (sua propriedade privada). As licenças livres funcionam com base numa renúncia a uma parte dos direitos de propriedade intelectual. É minha liberdade, enquanto proprietário, de renunciar a uma parte desses direitos. Já o acesso aberto é a liberdade de acessar e utilizar toda a propriedade intelectual que outras pessoas disponibilizaram de forma aberta, dentro dos limites da licença que escolheram. É um sistema aparentemente equilibrado que reafirma a tese de que a propriedade, a liberdade e um mínimo de regulação estatal que as garanta são suficientes.

Mas se a nossa compreensão termina aqui, estamos perdendo algo fundamental. O efeito prático deste tipo particular de renúncia de cada indivíduo a uma parte da sua propriedade intelectual produz uma contribuição para o bem comum intelectual. Este bem comum, no seu conjunto, constitui uma reserva de conhecimentos que já não é uma questão individual ou contratual entre particulares, mas que nos remete para uma dimensão social e coletiva. É a partir daqui que a noção de liberdade negativa fica aquém, ao passo que a liberdade positiva permite alargar o horizonte e nos conduzir a uma noção de cultura livre que acompanha a proteção e o reforço dos bens comuns, juntamente com uma expansão dos direitos sociais.

A cultura livre, em termos de liberdade positiva, é a ideia de que deve haver recursos culturais abundantes, acessíveis e plurais, para que todos os indivíduos e coletivos possam participar livre e igualmente na vida cultural. O ativismo da cultura livre não é apenas a defesa da propriedade e da liberdade individual, mas a procura ativa do alargamento do direito de acesso, utilização e participação na cultura a toda a sociedade. Isto inclui a democratização radical da criatividade, do pensamento crítico, do conhecimento prático, do prazer estético, do entretenimento, da identidade e do patrimônio cultural.

Se persistem condições sociais que excluem muitas pessoas de usufruir efetivamente dos bens culturais, mesmo que formalmente não exista qualquer impedimento, então não podemos falar de liberdade. A falta de recursos econômicos, de acesso a infraestruturas culturais, de conetividade significativa, de educação pública de qualidade, de diversidade de propostas culturais, ou de obras acessíveis, reutilizáveis e partilháveis, limitam a liberdade positiva das pessoas. Pode não haver censura ou controle estatal autoritário sobre os conteúdos que circulam – e, no entanto, ainda pode não haver liberdade cultural.

Por isso, a nossa militância pela cultura livre não se resume à afirmação da soberania individual de dar e receber recursos culturais, num cenário de propriedade intelectual garantida pelo Estado. A nossa militância é o alargamento da fruição e da participação na cultura a nível coletivo através da defesa dos bens culturais comuns. As licenças livres são, neste quadro, uma estratégia coletiva e não apenas uma opção individual, porque entendemos que, num contexto de crescente privatização da cultura, elas ajudam a construir, proteger e reforçar os bens culturais comuns para que cheguem a toda a comunidade. Queremos construir uma cultura livre para uma sociedade livre. Mas uma sociedade livre não é uma sociedade de proprietários livres, mas uma sociedade emancipada das estruturas de poder econômico e de privilégio social que obstruem este potencial coletivo.

 

BREVE COMENTÁRIOS À CULTURA LIVRE COMO LIBERDADE POSITIVA

Leonardo Foletto

Alguns comentários para dialogar e apontar discussões futuras para uma pensmento filosófico sobre a cultura livre. O argumento principal do curto e importante texto de Mariana é detalhado pela própria nos comentários ao post no blog. Para ela, as quatro liberdades da cultura e do software livre não podem ser vistas somente na perspectiva de liberdades negativas, a partir da diferenciação entre liberdade positiva e negativa trabalhada no texto. Isso ocorre por duas razões principais: a primeira é porque, na prática, ao libertar a cultura do direito autoral, geramos um bem comum e, normalmente, uma comunidade à sua volta, passando então para o nível do coletivo. A segunda é porque entendemos que “compartilhar é bom” não só para os indivíduos, mas para a comunidade, já que o acesso ao conhecimento é um direito básico para se poder exercer qualquer liberdade criativa – e há necessidades humanas, de ligação e de cultivo da uma cultura comum que são de ordem coletiva, e que são condicionantes para a autorrealização das pessoas. É uma visão que reitera a necessidade do progresso técnico e científico não ser exclusivo para poucos, mas sim generalizado.

Faço a ressalva que um tema crucial hoje na discussão sobre cultura livre não é trabalhado com ênfase no texto de Mariana: as assimetrias de poder envolvidas na questão do acesso à informação e aos bens comuns digitais. Não foi abordado porque não era intenção inicial, e também porque certamente renderia um texto muito mais longo – ou vários. O argumento central aqui, que discutimos também a partir do prefácio de Mckenzie Wark ao seu “Um Manifesto Hacker”, é de que a liberdade de acesso não tem se mostrado suficiente para garantir que todos os indivíduos e coletivos possam participar livre e igualmente na vida cultural, como defende Mariana no texto.

É uma situação parecida com a discussão em torno da inclusão digital: qual inclusão queremos? a das plataformas das big techs, baseada em sugar nossa atenção para extrair lucro a partir da produção contínua de dados? Aqui vale se perguntar também: qual acesso queremos? o acesso a lixo informacional e cultural, que entope e cansam nossas mentes e dificultam nossa percepção de uma realidade e ação comum? Se não é esse tipo, qual é? Existe alguma forma de se trabalhar os limites de ações de acesso sem tocar em questões mais complexas como a do tempo gasto e a da organização coletiva? Como me lembrou o Alexandre Abdo, quando falamos dos Pontos de Cultura e do programa Cultura Viva no Brasil, seu sucesso enquanto política pública e ação transformadora de pessoas e locais se deu mais com a capacidade de criar condições mínimas – financeiras, sociais e humanas – para as pessoas terem tempo e organização de usar, aperfeiçoar e cuidar do que foi produzido, do que somente a questão de se ter acesso a computadores com software livre instalados. Quando se desestruturou as condições mínimas citadas, o acesso aos computadores com software livre e a cultura livre criada em torno disso se tornou uma questão gradativamente menor, a ponto de ser abandonada por muitos pontos depois.

Mais acesso à informação, à tecnologias digitais ou a bens culturais não necessariamente significa consciência crítica, como escrevi em A Cultura é Livre. Lembro da crítica que César Rendueles [em Sociofobia] fez ao copyleft: romper as barreiras de livre circulação da informação e do acesso aos bens culturais não é suficiente para uma melhoria geral das condições de vida global sem tocar nas condições sociais de produção desses bens culturais e da informação. A enorme importância hoje do tema do trabalho digital, dada à proliferação do trabalho precário a partir da plataformização, confirma isso.

Um passo aqui, talvez, seja mais em direção a uma política do cuidado do que do acesso: como criar e pôr em prática protocolos de cuidado dentro das comunidades de bens comuns livres para que estes bens não sejam apropriados sem critérios, desrespeitando as indicações das licenças (livres) e usados para o enriquecimento de ainda menos pessoas, como no caso do uso de dados sem consentimento para treinamento e sistemas de Inteligência Artificial Generativa de empresas como Meta e Open IA? Como estabelecer condições sociais dignas de produção e fruição desses bens culturais e informativos alocados dentro da perspectiva da cultura livre?

Não há resposta clara aqui, mas talvez se fazer esta pergunta nos leve a repensar a cultura livre mais em termos de cuidado do que de acesso. Organização da abundância (de informação e bens culturais) que não seja baseada em restrição econômica e técnica como a promovida pela propriedade intelectual. O que nos leva a um outro ponto de reflexão não novo, mas cada vez mais pertinente: a reinvenção do sistema de direito autoral, agora baseado na idade de uma liberdade positiva, como Mariana aponta no texto, mas que não deixa de garantir a proteção e o cuidado com os abusos e as condições sociais de produção desses bens culturais. A cultura livre, enquanto movimento, representou de alguma forma uma “reforma cidadã” do direito autoral, com as licenças produzindo um espaço de “lei alternativa” que levou a descentralizar o controle e potencializar a inteligência e experiência humana. Será ainda possível pensar numa reforma de direito autoral que potencialize esses aspectos, sem descuidar da proteção e das assimetrias de poder típicas do capitalismo? Ou é mais provável que, com a popularização das IAs generativas, vejamos uma reforma imposta pelo capital que vá na linha de permitir a livre concentração, materializada nos modelos gigantes das big techs, a fim de cada vez mais potencializar uma (pseudo) inteligência artificial desregulada sob controle dessas grandes empresas e destinada a gerar renda (cada vez mais) para esse capital?

]]>
https://baixacultura.org/2024/08/29/cultura-livre-como-liberdade-positiva/feed/ 1
O olho do mestre: a automação da inteligência geral https://baixacultura.org/2024/02/28/o-olho-do-mestre-a-automacao-da-inteligencia-geral/ https://baixacultura.org/2024/02/28/o-olho-do-mestre-a-automacao-da-inteligencia-geral/#respond Thu, 29 Feb 2024 01:07:13 +0000 https://baixacultura.org/?p=15585  

No final de 2023, não lembro onde nem como, fiquei sabendo de “The Eye of the Master”, novo livro do Matteo Pasquinelli sobre IA. Fiquei na hora empolgado. Primeiro porque a proposta do livro é a de contar uma “história social” da IA, indo desde Charles Babbage até hoje, passando e destrinchando o conceito de general intellect de Marx (hoje bastante usado nos estudos tecnopolíticos) e a onipresente cibernética, também uma área de estudos bastante retomada nos últimos anos por Yuk Hui, Letícia Cesarino e diversos outros pesquisadores, até chegar as IAs generativas de hoje. Tudo uma abordagem rigorosa, por vezes densa,  cheia de referências saborosas, e marxista – com várias aberturas típicas do autonomismo italiano e do pós-operaísmo, influências do autor.

Segundo porque Pasquinelli, professor de filosofia da ciência na Universidade Foscari, em Veneza, tem, ele próprio, um belo histórico em se debruçar nos estudos da filosofia da técnica. Eu o conheci pela primeira vez há cerca de 10 anos atrás, quando o artigo “A ideologia da cultura livre e a gramática da sabotagem” saiu como capítulo do Copyfight, importante livro organizado por Bruno Tarin e Adriano Belisário. Depois, outros textos de Pasquinelli foram publicados em português pelo coletivo Universidade Nômade; um deles, “O algoritmo do PageRank do Google: Um diagrama do capitalismo cognitivo e da exploração da inteligência social geral”, já em 2012 apontava para a exploração da “inteligência social geral” por algoritmos das big techs – o que hoje, com IAs generativas, virou um consenso global.

Ainda estou digerindo a leitura da obra e me debruçando sobre alguns tópicos e referências citados, enquanto espero minha cópia impressa do original chegar para rabiscar e estudar com mais calma. Encharcado de uma saborosa empolgação intelectual, daquelas que nos deixam ao mesmo tempo animado pelas descobertas e ansioso em compartilhar esses achados, fui ao texto que Pasquinelli publicou no E-Flux, em dezembro de 2023, “The Automation of General Intelligence” e traduzi para o português. O texto publicado é uma versão do posfácio do livro, onde o italiano sintetiza alguns pontos da obra e aponta caminhos tanto para a discussão teórica quanto para a disputa ativista. Com a ajuda do amigo Leonardo Palma, busquei traduzir cotejando e adaptando alguns conceitos para o português brasileiro, tentando quando possível trazer referências às obras já publicadas por aqui. 

Para acompanhar o texto, trouxe as imagens que ilustram a publicação no E-Flux. Disponibilizo também o livro inteiro em inglês, publicado pela Verso Books (edições em outros idiomas estão vindo) – “The Eye of the Master: A Social History of Artificial Intelligence” – para baixar – mas você sabe, não é para espalhar.

[Leonardo Foletto]

A automação da Inteligência geral (General Intelligence)

Matteo Pasquinelli

Queremos fazer as perguntas certas. Como as ferramentas funcionam? Quem as financia e as constroi, e como são usadas? A quem elas enriquecem e a quem elas empobrecem? Que futuros elas tornam viáveis e quais excluem? Não estamos procurando respostas. Estamos procurando por lógica.
—Logic Magazine Manifesto, 2017[¹]

Vivemos na era dos dados digitais e, nessa era, a matemática se tornou o parlamento da política. A lei social se entrelaçou com modelos, teoremas e algoritmos. Com os dados digitais, a matemática se tornou o meio dominante pelo qual os seres humanos se coordenam com a tecnologia… Afinal, a matemática é uma atividade humana. Como qualquer outra atividade humana, ela traz consigo as possibilidades tanto de emancipação quanto de opressão.
—Politically Mathematics manifesto, 2019[²]

“A mesma importância que as relíquias de ossos têm para o conhecimento da organização das espécies de animais extintas têm também as relíquias de meios de trabalho para a compreensão de formações socioeconômicas extintas. O que diferencia as épocas econômicas não é “o que” é produzido, mas “como”, “com que meios de trabalho”. Estes não apenas fornecem uma medida do grau de desenvolvimento da força de trabalho, mas também indicam as condições sociais nas quais se trabalha”.
—Karl Marx, Capital, 1867[³]


H
averá um dia no futuro em que a IA atual será considerada um arcaísmo, um fóssil técnico a estudar entre outros
. Na passagem de “O Capital” citada acima, Marx sugeriu uma analogia semelhante que ressoa nos estudos científicos e tecnológicos atuais: da mesma forma que os ossos fósseis revelam a natureza das espécies antigas e os ecossistemas em que viviam, os artefatos técnicos revelam a forma da sociedade que os rodeia e gere. A analogia é relevante, penso eu, para todas as máquinas e também para a aprendizagem automática, cujos modelos abstratos codificam, na realidade, uma concretização de relações sociais e comportamentos coletivos, como este livro tentou demonstrar ao reformular a teoria laboral da automação do século XIX para a era da IA.

 

 

Este livro [“ O Olho do Mestre”] começou com uma pergunta simples: Que relação existe entre o trabalho, as regras e a automação, ou seja, a invenção de novas tecnologias? Para responder a esta questão, iluminou práticas, máquinas e algoritmos a partir de diferentes perspectivas – da dimensão “concreta” da produção e da dimensão “abstrata” de disciplinas como a matemática e a informática. A preocupação, no entanto, não tem sido repetir a separação dos domínios concreto e abstrato, mas ver a sua coevolução ao longo da história: eventualmente, investigar o trabalho, as regras e a automação, dialeticamente, como abstrações materiais. O capítulo inicial sublinha este aspecto, destacando como os rituais antigos, os instrumentos de contagem e os “algoritmos sociais” contribuíram para a elaboração das ideias matemáticas. Afirmar, como o fez a introdução, que o trabalho é uma atividade lógica não é uma forma de abdicar da mentalidade das máquinas industriais e dos algoritmos empresariais, mas antes reconhecer que a práxis humana exprime a sua própria lógica (uma anti-lógica, poderia se dizer) – um poder de especulação e invenção, antes de a tecnociência o capturar e alienar [4].

A tese de que o trabalho tem de se tornar “mecânico” por si só, antes que a maquinaria o substitua, é um velho princípio fundamental que foi simplesmente esquecido. Remonta, pelo menos, à exposição de Adam Smith em “A Riqueza das Nações” (1776), que Hegel também comentou já nas suas conferências de Jena (1805-6). A noção de Hegel de “trabalho abstrato” como o trabalho que dá “forma” à maquinaria já estava em dívida para com a economia política britânica antes de Marx contribuir com a sua própria crítica radical ao conceito. Coube a Charles Babbage sistematizar a visão de Adam Smith numa consistente “teoria do trabalho da automação”. Babbage complementou esta teoria com o “princípio do cálculo do trabalho” (conhecido desde então como o “princípio de Babbage”) para indicar que a divisão do trabalho também permite o cálculo exato dos custos do trabalho. Este livro pode ser considerado uma exegese dos dois “princípios de análise do trabalho” de Babbage e da sua influência na história comum da economia política, da computação automatizada e da inteligência das máquinas. Embora possa parecer anacrônico, a teoria da automatização e da extração de mais-valia relativa de Marx partilha postulados comuns com os primeiros projetos de inteligência artificial.

Marx derrubou a perspetiva industrialista – “o olho do mestre” – que era inerente aos princípios de Babbage. Em “O Capital”, argumentou que as “relações sociais de produção” (a divisão do trabalho no sistema salarial) impulsionam o desenvolvimento dos “meios de produção” (máquinas-ferramentas, motores a vapor, etc.) e não o contrário, como as leituras tecno-deterministas têm vindo a afirmar, centrando a revolução industrial apenas na inovação tecnológica. Destes princípios de análise do trabalho, Marx fez ainda outra coisa: considerou a cooperação do trabalho não só como um princípio para explicar o design das máquinas, mas também para definir a centralidade política daquilo a que chamou o “Gesamtarbeiter“, o “trabalhador geral”. A figura do trabalhador geral era uma forma de reconhecer a dimensão maquínica do trabalho vivo e de confrontar o “vasto autômato” da fábrica industrial com a mesma escala de complexidade. Eventualmente, foi também uma figura necessária para fundamentar, numa política mais sólida, a ideia ambivalente do “intelecto geral” (general intellect) que os socialistas ricardianos, como William Thompson e Thomas Hodgskin, perseguiam.


Das linhas de montagem ao reconhecimento de padrões

Este livro apresentou uma história alargada da divisão do trabalho e das suas métricas como forma de identificar o princípio operativo da IA a longo prazo. Como vimos, na virada do século XIX, quanto mais a divisão do trabalho se estendia a um mundo globalizado, mais problemática se tornava a sua gestão, exigindo novas técnicas de comunicação, controle e “inteligência”. Se, no interior da fábrica a gestão do trabalho podia ainda ser esboçada num simples fluxograma e medida por um relógio, era muito complicado visualizar e quantificar aquilo que Émile Durkheim, já em 1893, definia como “a divisão do trabalho social“[5]. A “inteligência” do patrão da fábrica já não podia vigiar todo o processo de produção num único olhar; agora, só as infra-estruturas de comunicação podiam desempenhar esse papel de supervisão e quantificação. Os novos meios de comunicação de massas, como o telégrafo, o telefone, a rádio e as redes de televisão, tornaram possível a comunicação entre países e continentes, mas também abriram novas perspectivas sobre a sociedade e os comportamentos coletivos. James Beniger descreveu corretamente a ascensão das tecnologias da informação como uma “revolução do controle” que se revelou necessária nesse período para governar o boom econômico e o excedente comercial do Norte Global.  Após a Segunda Guerra Mundial, o controle desta logística alargada passou a ser preocupação de uma nova disciplina militar que fazia a ponte entre a matemática e a gestão: a pesquisa operacional (Operations Research). No entanto, há que ter em conta que as transformações da classe trabalhadora no interior de cada país e entre países, marcadas por ciclos de conflitos urbanos e lutas descoloniais, foram também um dos fatores que levaram ao aparecimento destas novas tecnologias de controle.

A mudança de escala da composição do trabalho do século XIX para o século XX também afetou a lógica da automatização, ou seja, os paradigmas científicos envolvidos nesta transformação. A divisão industrial do trabalho relativamente simples e as suas linhas de montagem aparentemente retilíneas podem ser facilmente comparadas a um simples algoritmo, um procedimento baseado em regras com uma estrutura “se/então“(if/then) que tem o seu equivalente na forma lógica da dedução. A dedução, não por coincidência, é a forma lógica que, através de Leibniz, Babbage, Shannon e Turing, se inervou na computação eletromecânica e, eventualmente, na IA simbólica. A lógica dedutiva é útil para modelar processos simples, mas não sistemas com uma multiplicidade de agentes autônomos, como a sociedade, o mercado ou o cérebro. Nestes casos, a lógica dedutiva é inadequada porque explodiria qualquer procedimento, máquina ou algoritmo num número exponencial de instruções. A partir de preocupações semelhantes, a cibernética começou a investigar a auto-organização em seres vivos e máquinas para simular a ordem em sistemas de alta complexidade que não podiam ser facilmente organizados de acordo com métodos hierárquicos e centralizados. Esta foi fundamentalmente a razão de ser do conexionismo e das redes neurais artificiais, bem como da investigação inicial sobre redes de comunicação distribuídas, como a Arpanet (a progenitora da Internet).

Ao longo do século XX, muitas outras disciplinas registaram a crescente complexidade das relações sociais. Os conceitos gêmeos de “Gestalt” e “padrão” (“pattern”), por exemplo, utilizados respectivamente por Kurt Lewin e Friedrich Hayek, foram um exemplo da forma como a psicologia e a economia responderam a uma nova composição da sociedade. Lewin introduziu noções holísticas como “campo de forças”(“force field”) e “espaço hodológico” (“hodological space”) para mapear a dinâmica de grupo a diferentes escalas entre o indivíduo e a sociedade de massas[6].

O pensamento francês tem sido particularmente fértil e progressivo nesta direção. Os filósofos Gaston Bachelard e Henri Lefebvre propuseram, por exemplo, o método da “ritmanálise” (“rhythmanalysis”) como estudo dos ritmos sociais no espaço urbano (que Lefebvre descreveu de acordo com as quatro tipologias de arritmia, polirritmia, eurritmia e isorritmia [7]). De forma semelhante, a arqueologia francesa dedicou-se ao estudo de formas alargadas de comportamento social nas civilizações antigas. Por exemplo, o paleoantropólogo André Leroi-Gourhan, juntamente com outros, introduziu a ideia de cadeia operacional (“chaîne opératoire”) para explicar a forma como os humanos pré-históricos produziam utensílios [8]. No culminar desta longa tradição de “diagramatização” dos comportamentos sociais no pensamento francês, Gilles Deleuze escreveu o seu célebre “Pós-escrito sobre a Sociedade de Controle”, no qual afirmava que o poder já não se preocupava com a disciplina dos indivíduos, mas com o controle dos “dividuais”, ou seja, dos fragmentos de um corpo alargado e desconstruído [9].

Os campos de força de Lewin, os ritmos urbanos de Lefebvre e os dividuais de Deleuze podem ser vistos como previsões dos princípios de “governação algorítmica” que se estabeleceram com a sociedade em rede e os seus vastos centros de dados desde o final da década de 1990. O lançamento em 1998 do algoritmo PageRank da Google – um método para organizar e pesquisar o hipertexto caótico da Web – é considerado, por convenção, a primeira elaboração em grande escala de “grandes dados” das redes digitais [10]. Atualmente, estas técnicas de mapeamento de redes tornaram-se onipresentes: O Facebook, por exemplo, utiliza o protocolo Open Graph para quantificar as redes de relações humanas que alimentam a economia da atenção da sua plataforma [11]. O exército dos EUA tem utilizado as suas próprias técnicas controversas de “análise de padrões de vida” para mapear redes sociais em zonas de guerra e identificar alvos de ataques de drones que, como é sabido, mataram civis inocentes [12]. Mais recentemente, as plataformas da gig economy (“Economia do Bico”) e os gigantes da logística, como a Uber, a Deliveroo, a Wolt e a Amazon, começaram a localizar a sua frota de passageiros e condutores através de aplicações de geolocalização [13]. Todas estas técnicas fazem parte do novo domínio da “análise de pessoas” (também conhecida como “física social” ou “psicografia”), que é a aplicação da estatística, da análise de dados e da aprendizagem automática ao problema da força de trabalho na sociedade pós-industrial [14].

 

A automação da psicometria, ou inteligência geral (general intellect)

A divisão do trabalho, tal como o design das máquinas e dos algoritmos, não é uma forma abstrata em si, mas um meio de medir o trabalho e os comportamentos sociais e de diferenciar as pessoas em função da sua capacidade produtiva. Tal como os princípios de Babbage indicam, qualquer divisão do trabalho implica uma métrica: uma medição da performatividade e da eficiência dos trabalhadores, mas também um juízo sobre as classes de competências, o que implica uma hierarquia social implícita. A métrica do trabalho foi introduzida para avaliar o que é e o que não é produtivo, para manipular uma assimetria social e, ao mesmo tempo, declarar uma equivalência ao sistema monetário. Durante a era moderna, as fábricas, os quartéis e os hospitais têm procurado disciplinar e organizar os corpos e as mentes com métodos semelhantes, tal como Michel Foucault, entre outros, pressentiu.

No final do século XIX, a metrologia do trabalho e dos comportamentos encontrou um aliado num novo campo da estatística: a psicometria. A psicometria tinha como objetivo medir as competências da população na resolução de tarefas básicas, fazendo comparações estatísticas em testes cognitivos em vez de medir o desempenho físico, como no campo anterior da psicofísica [15]. Como parte do legado controverso de Alfred Binet, Charles Spearman e Louis Thurstone, a psicometria pode ser considerada uma das principais genealogias da estatística, que nunca foi uma disciplina neutra, mas sim uma disciplina preocupada com a “medida do homem”, a instituição de normas de comportamento e a repressão de anomalias [16]. A transformação da métrica do trabalho em psicometria do trabalho é uma passagem fundamental tanto para a gestão como para o desenvolvimento tecnológico no século XX. É revelador que, ao conceber o primeiro perceptron de rede neural artificial, Frank Rosenblatt tenha se inspirado não só nas teorias da neuroplasticidade, mas também nas ferramentas de análise multivariável que a psicometria importou para a psicologia norte-americana na década de 1950.

Nesta perspetiva, este livro tenta esclarecer como o projeto de IA surgiu, na realidade, da automação da psicometria do trabalho e dos comportamentos sociais – e não da procura da solução do “enigma” da inteligência. Num resumo conciso da história da IA, pode se dizer que a mecanização do “intelecto geral” (“general intellect”) da era industrial na “inteligência artificial” do século XXI foi possível graças à medição estatística da competência, como o fator de “inteligência geral” de Spearman, e à sua posterior automatização em redes neurais artificiais. Se na era industrial a máquina era considerada uma encarnação da ciência, do conhecimento e do “intelecto geral” (“general intellect”) dos trabalhadores, na era da informação as redes neurais artificiais tornaram-se as primeiras máquinas a codificar a “inteligência geral” em ferramentas estatísticas – no início, especificamente, para automatizar o reconhecimento de padrões como uma das tarefas-chave da “inteligência artificial”. Em suma, a forma atual de IA, a aprendizagem automática, é a automatização das métricas estatísticas que foram originalmente introduzidas para quantificar as capacidades cognitivas, sociais e relacionadas com o trabalho. A aplicação da psicometria através das tecnologias da informação não é um fenômeno exclusivo da aprendizagem automática. O escândalo de dados de 2018 entre o Facebook e a Cambridge Analytica, em que a empresa de consultoria conseguiu recolher os dados pessoais de milhões de pessoas sem o seu consentimento, é um lembrete de como a psicometria em grande escala continua a ser utilizada por empresas e atores estatais numa tentativa de prever e manipular comportamentos coletivos [17].

Dado o seu legado nas ferramentas estatísticas da biometria do século XIX, também não é surpreendente que as redes neurais artificiais profundas tenham recentemente se desdobrado em técnicas avançadas de vigilância, como o reconhecimento facial e a análise de padrões de vida. Acadêmicos críticos da IA, como Ruha Benjamin e Wendy Chun, entre outros, expuseram as origens racistas destas técnicas de identificação e definição de perfis que, tal como a psicometria, quase representam uma prova técnica do viés social (“social bias”) da IA [18]. Identificaram, com razão, o poder da discriminação no cerne da aprendizagem automática e a forma como esta se alinha com os aparelhos de normatividade da era moderna, incluindo as taxonomias questionáveis da medicina, da psiquiatria e do direito penal [19].

A metrologia da inteligência iniciada nos finais do século XIX, com a sua agenda implícita e explícita de segregação social e racial, continua a funcionar no cerne da IA para disciplinar o trabalho e reproduzir as hierarquias produtivas do conhecimento. Por conseguinte, a lógica da IA não é apenas a automação do trabalho, mas o reforço destas hierarquias sociais de uma forma indireta. Ao declarar implicitamente o que pode ser automatizado e o que não pode, a IA impôs uma nova métrica da inteligência em cada fase do seu desenvolvimento. Mas comparar a inteligência humana e a inteligência das máquinas implica também um julgamento sobre que comportamento humano ou grupo social é mais inteligente do que outro, que trabalhadores podem ser substituídos e quais não podem. Em última análise, a IA não é apenas um instrumento para automatizar o trabalho, mas também para impor padrões de inteligência mecânica que propagam, de forma mais ou menos invisível, hierarquias sociais de conhecimentos e competências. Tal como acontece com qualquer forma anterior de automatização, a IA não se limita a substituir trabalhadores, mas desloca-os e reestrutura-os numa nova ordem social.

 

A automação da automação

Se observarmos atentamente como os instrumentos estatísticos concebidos para avaliar as competências cognitivas e discriminar a produtividade das pessoas se transformaram em algoritmos, torna-se evidente um aspecto mais profundo da automação. De fato, o estudo da metrologia do trabalho e dos comportamentos revela que a automação emerge, em alguns casos, da transformação dos próprios instrumentos de medição em tecnologias cinéticas. Os instrumentos de quantificação do trabalho e de discriminação social tornaram-se “robôs” por direito próprio. Antes da psicometria, se poderia referir a forma como o relógio utilizado para medir o tempo de trabalho na fábrica foi mais tarde implementado por Babbage para a automatização do trabalho mental na Máquina Diferencial. Os cibernéticos, como Norbert Wiener, continuaram a considerar o relógio como um modelo-chave tanto para o cérebro como para o computador. A este respeito, o historiador da ciência Henning Schmidgen observou como a cronometria dos estímulos nervosos contribuiu para a consolidação da metrologia cerebral e também para o modelo de redes neurais de McCulloch e Pitts [20]. A teoria da automação que este livro ilustrou não aponta, portanto, apenas para a emergência de máquinas a partir da lógica da gestão do trabalho, mas também a partir dos instrumentos e métricas para quantificar a vida humana em geral e torná-la produtiva.

Este livro procurou mostrar que a IA é o culminar da longa evolução da automação do trabalho e da quantificação da sociedade. Os modelos estatísticos da aprendizagem automática não parecem, de fato, ser radicalmente diferentes da concepção das máquinas industriais, mas antes homólogos a elas: são, de fato, constituídos pela mesma inteligência analítica das tarefas e dos comportamentos coletivos, embora com um grau de complexidade mais elevado (isto é, número de parâmetros). Tal como as máquinas industriais, cuja concepção surgiu gradualmente através de tarefas de rotina e de ajustes por tentativa e erro, os algoritmos de aprendizagem automática adaptam o seu modelo interno aos padrões dos dados de treino através de um processo comparável de tentativa e erro. Pode dizer-se que a concepção de uma máquina, bem como a de um modelo de um algoritmo estatístico, seguem uma lógica semelhante: ambos se baseiam na imitação de uma configuração externa de espaço, tempo, relações e operações. Na história da IA, isto era tão verdadeiro para o perceptron de Rosenblatt (que visava registar os movimentos do olhar e as relações espaciais do campo visual) como para qualquer outro algoritmo de aprendizagem de máquinas atual (por exemplo, máquinas de vetores de apoio, redes bayesianas, modelos de transformadores).

Enquanto a máquina industrial incorpora o diagrama da divisão do trabalho de uma forma determinada (pensemos nos componentes e nos “graus de liberdade” limitados de um tear têxtil, de um torno ou de uma escavadora mineira), os algoritmos de aprendizagem automática (especialmente os modelos recentes de IA com um vasto número de parâmetros) podem imitar atividades humanas complexas [21]. Embora com níveis problemáticos de aproximação e enviesamento, um modelo de aprendizagem automática é um artefato adaptativo que pode codificar e reproduzir as mais diversas configurações de tarefas. Por exemplo, um mesmo modelo de aprendizagem automática pode imitar tanto o movimento de braços robóticos em linhas de montagem como as operações do condutor de um automóvel autônomo; o mesmo modelo pode também traduzir entre línguas tanto como descrever imagens com palavras coloquiais.

O surgimento de grandes modelos de base nos últimos anos (por exemplo, BERT, GPT, CLIP, Codex) demonstra como um único algoritmo de aprendizagem profunda pode ser treinado num vasto conjunto de dados integrado (incluindo texto, imagens, fala, dados estruturados e sinais 3D) e utilizado para automatizar uma vasta gama das chamadas tarefas a jusante (resposta a perguntas, análise de sentimentos, extração de informações, geração de texto, legendagem de imagens, geração de imagens, transferência de estilos, reconhecimento de objectos, seguimento de instruções, etc.) [22]. Pela forma como foram construídos com base em grandes repositórios de patrimônio cultural, conhecimento coletivo e dados sociais, os grandes modelos de base são a aproximação mais próxima da mecanização do “intelecto geral” que foi prevista na era industrial. Um aspecto importante da aprendizagem automática que os modelos de base demonstram é que a automação de tarefas individuais, a codificação do patrimônio cultural e a análise de comportamentos sociais não têm qualquer distinção técnica: podem ser realizadas por um único e mesmo processo de modelação estatística.

Em conclusão, a aprendizagem automática pode ser vista como o projeto de automatizar o próprio processo de concepção de máquinas e de criação de modelos – ou seja, a automação da teoria laboral da própria automação. Neste sentido, a aprendizagem automática e, especificamente, os modelos de grandes fundações representam uma nova definição de Máquina Universal, pois a sua capacidade não se limita a executar tarefas computacionais, mas a imitar o trabalho e os comportamentos coletivos em geral. O avanço que a aprendizagem automática passou a representar não é, portanto, apenas a “automação da estatística”, como a aprendizagem automática é por vezes descrita, mas a automação da automação, trazendo este processo para a escala do conhecimento coletivo e do patrimônio cultural [23]. Além disso, a aprendizagem automática pode ser considerada como a prova técnica da integração progressiva da automação do trabalho e da governação social. Emergindo da imitação da divisão do trabalho e da psicometria, os modelos de aprendizagem automática evoluíram gradualmente para um paradigma integrado de governança que a análise de dados empresariais e os seus vastos centros de dados bem exemplificam.

 

Desfazendo o Algoritmo Mestre

Tendo em conta a dimensão crescente dos conjuntos de dados, os custos de formação dos grandes modelos e o monopólio da infraestrutura de computação em nuvem que é necessário para que algumas empresas como a Amazon, a Google e a Microsoft (e as suas congéneres asiáticas Alibaba e Tencent) hospedarem esses modelos, tornou-se evidente para todos que a soberania da IA continua a ser um assunto difícil à escala geopolítica. Além disso, a confluência de diferentes aparelhos de governança (ciência climática, logística global e até cuidados de saúde) para o mesmo hardware (computação em nuvem) e software (aprendizagem de máquina) assinala uma tendência ainda mais forte para a monopolização. Para além da notória questão da acumulação de poder, a ascensão dos monopólios de dados aponta para um fenômeno de convergência técnica que é fundamental para este livro: os meios de trabalho tornaram-se os mesmos meios de medição e, do mesmo modo, os meios de gestão e logística tornaram-se os mesmos meios de planejamento econômico.

Isto também se tornou evidente durante a pandemia de Covid-19, quando foi criada uma grande infraestrutura para acompanhar, medir e prever os comportamentos sociais [24]. Esta infraestrutura, sem precedentes na história dos cuidados de saúde e da biopolítica, não foi, no entanto, criada ex nihilo, mas construída a partir de plataformas digitais existentes que orquestram a maior parte das nossas relações sociais. Sobretudo durante os períodos de confinamento, o mesmo meio digital foi utilizado para trabalhar, fazer compras, comunicar com a família e os amigos e, eventualmente, para os cuidados de saúde. As métricas digitais do corpo social, como a geolocalização e outros metadados, foram fundamentais para os modelos preditivos do contágio global, mas elas são usadas há muito tempo para acompanhar o trabalho, a logística, o comércio e a educação. Filósofos como Giorgio Agamben afirmaram que esta infraestrutura prolongou o estado de emergência da pandemia, quando, na verdade, a sua utilização nos cuidados de saúde e na biopolítica dá continuidade a décadas de monitorização da produtividade econômica do corpo social, que passou despercebida a muitos [25].

A convergência técnica das infra estruturas de dados revela também que a automação contemporânea não se limita à automação do trabalhador individual, como na imagem estereotipada do robô humanoide, mas à automação dos patrões e gestores da fábrica, como acontece nas plataformas da gig economy. Dos gigantes de logística (Amazon, Alibaba, DHL, UPS, etc.) e da mobilidade (Uber, Share Now, Foodora, Deliveroo) às redes sociais (Facebook, TikTok, Twitter), o capitalismo de plataforma é uma forma de automação que, na realidade, não substitui os trabalhadores, mas multiplica-os e governa-os de novo. Desta vez, não se trata tanto da automação do trabalho, mas sim da automação da gestão. Sob esta nova forma de gestão algorítmica, todos nós passamos a ser trabalhadores individuais de um vasto autômato composto por utilizadores globais, “turkers“, prestadores de cuidados, condutores e cavaleiros de muitos tipos. O debate sobre o receio de que a IA venha a substituir totalmente os empregos é errôneo: na chamada economia das plataformas, os algoritmos substituem a gestão e multiplicam os empregos precários. Embora as receitas da gig economy continuem a ser pequenas em relação aos setores locais tradicionais, ao utilizarem a mesma infraestrutura a nível mundial, estas plataformas estabeleceram posições de monopólio. O poder do novo “mestre” não está na automatização de tarefas individuais, mas na gestão da divisão social do trabalho. Contra a previsão de Alan Turing, é o mestre, e não o trabalhador, que o robô veio substituir em primeiro lugar [26].

Nos perguntamos qual seria a possibilidade de intervenção política num espaço tão tecnologicamente integrado e se o apelo ao “redesign da IA” que as iniciativas populares e institucionais defendem é razoável ou praticável. Este apelo deveria começar por responder a uma questão mais premente: Como é que é possível “redesenhar” os monopólios de dados e conhecimento em grande escala [27]? À medida que grandes empresas como a Amazon, a Walmart e a Google conquistaram um acesso único às necessidades e aos problemas de todo o corpo social, um movimento crescente pede não só que estas infra-estruturas se tornem mais transparentes e responsáveis, mas também que sejam coletivizadas como serviços públicos (como sugeriu Fredric Jameson, entre outros), ou que sejam substituídas por alternativas públicas (como defendeu Nick Srnicek [28]). Mas qual seria uma forma diferente de projetar essas alternativas?

Tal como a teoria da automação deste livro sugere, qualquer aparelho tecnológico e institucional, incluindo a IA, é uma cristalização de um processo social produtivo. Os problemas surgem porque essa cristalização “ossifica” e reitera estruturas, hierarquias e desigualdades do passado. Para criticar e desconstruir artefatos complexos como os monopólios de IA, devemos começar por fazer o trabalho meticuloso do desconexão (“deconnectionism”) , desfazendo – passo a passo, arquivo a arquivo, conjunto de dados a conjunto de dados, metadado a metadado, correlação a correlação, padrão a padrão – o tecido social e econômico que os constitui na origem. Este trabalho já está sendo desenvolvido por uma nova geração de acadêmicos que estão a dissecar a cadeia de produção global de IA, especialmente os que utilizam métodos de “pesquisa-ação”. Destacam-se, entre muitos outros, a plataforma Turkopticon de Lilly Irani, utilizada para “interromper a invisibilidade do trabalhador” na plataforma de trabalho temporário Amazon Mechanical Turk; a investigação de Adam Harvey sobre conjuntos de dados de treino para reconhecimento facial, que expôs as violações maciças da privacidade das empresas de IA e da investigação acadêmica; e o trabalho do coletivo Politically Mathematics da Índia, que analisou o impacto econômico dos modelos preditivos da Covid-19 nas populações mais pobres e recuperou a matemática como um espaço de luta política (ver o seu manifesto citado no início deste texto).

A teoria laboral da automação é um princípio analítico para estudar o novo “olho do mestre” que os monopólios de IA encarnam. No entanto, precisamente devido à sua ênfase no processo de trabalho e nas relações sociais que constituem os sistemas técnicos, é também um princípio sintético e “sociogênico” (para utilizar o termo programático de Frantz Fanon e Sylvia Wynter [29]). O que está no cerne da teoria laboral da automação é, em última análise, uma prática de autonomia social. As tecnologias só podem ser julgadas, contestadas, reapropriadas e reinventadas se se inserirem na matriz das relações sociais que originalmente as constituíram. As tecnologias alternativas devem situar-se nestas relações sociais, de uma forma não muito diferente do que os movimentos cooperativos fizeram nos séculos passados. Mas construir algoritmos alternativos não significa torná-los mais éticos. Por exemplo, a proposta de codificação de regras éticas na IA e nos robôs parece altamente insuficiente e incompleta, porque não aborda diretamente a função política geral da automação no seu cerne [30].

O que é necessário não é nem o tecnosolucionismo nem o tecnopauperismo, mas sim uma cultura de invenção, concepção e planejamento que se preocupe com as comunidades e o coletivo, sem nunca ceder totalmente a agência e a inteligência à automação. O primeiro passo da tecnopolítica não é tecnológico, mas político. Trata-se de emancipar e descolonizar, quando não de abolir na totalidade, a organização do trabalho e das relações sociais em que se baseiam os sistemas técnicos complexos, os robôs industriais e os algoritmos sociais – especificamente o sistema salarial, os direitos de propriedade e as políticas de identidade que lhes estão subjacentes. As novas tecnologias do trabalho e da sociedade só podem se basear nesta transformação política. É evidente que este processo se desenrola através do desenvolvimento de conhecimentos não só técnicos mas também políticos. Um dos efeitos problemáticos da IA na sociedade é a sua influência epistêmica – a forma como transforma a inteligência em inteligência de máquina e promove implicitamente o conhecimento como conhecimento processual. O projeto de uma epistemologia política que transcenda a IA terá, no entanto, de transmutar as formas históricas do pensamento abstrato (matemático, mecânico, algorítmico e estatístico) e integrá-las como parte da caixa de ferramentas do próprio pensamento crítico. Ao confrontar a epistemologia da IA e o seu regime de extrativismo do conhecimento, é necessário aprender uma mentalidade técnica diferente, uma “contra-inteligência” coletiva.

 

NOTAS

[1]: “Disruption: A Manifesto,” Logic Magazine, no. 1, março de 2017.
[2]: Politically Mathematics collective, “Politically Mathematics Manifesto,” 2019
[3]: Karl Marx, Capital, Livro 1: O processo de produção do capital, p.330. Trad. Rubens Enderle. Boitempo, 2013
[4]: Veja o debate sobre o processo trabalhista em: Harry Braverman, Labor and Monopoly Capital: The Degradation of Work in the Twentieth Century (Monthly Review Press, 1974); David Noble, Forces of Production: A Social History of Industrial Automation (Oxford University Press, 1984).
[5]: Émile Durkheim, “Da Divisão do Trabalho Social” (1893), publicado no Brasil com esse título, por entre outras, a WMF Martins Fontes, em tradução de Eduardo Brandão.
[6]:
Kurt Lewin, “Die Sozialisierung des Taylorsystems: Eine grundsätzliche Untersuchung zur Arbeits- und Berufspsychologie,” Schriftenreihe Praktischer Sozialismus, vol. 4 (1920) – sem tradução para o português. Também ver Simon Schaupp, “Taylorismus oder Kybernetik? Eine kurze ideengeschichte der algorithmischen arbeitssteuerung,” WSI-Mitteilungen 73, no. 3, (2020).
[7]: Gaston Bachelard, “La dialectique de la durée” (Boivin & Cie, 1936), traduzido no Brasil para “A Dialética da Duração”, publicado pela Editora Ática em 1993. Henri Lefebvre, “Éléments de rythmanalyse” (Éditions Syllepse, 1992), último livro do autor, publicado no Brasil como “Elementos de Ritmanálise e outros Ensaios” pela Editora Consequência em 2021.
[8]: Frederic Sellet, “Chaîne Opératoire: The Concept and Its Applications,” Lithic Technology 18, no. 1–2 (1993). Sem tradução no Brasil
[9]: Gilles Deleuze, “Postscript on the Society of Control,” October, no. 59 (1992). Publicado no Brasil em DELEUZE, Gilles. Conversações: 1972-1990. Rio de Janeiro: Ed. 34,1992. Ver também David Savat, “Deleuze’s Objectile: From Discipline to Modulation,” in Deleuze and New Technology, ed. Mark Poster and David Savat (Edinburgh University Press, 2009).
[10]: Matthew L. Jones, “Querying the Archive: Data Mining from Apriori to PageRank,” in Science in the Archives, ed. Lorraine Daston (University of Chicago Press, 2017); Matteo Pasquinelli, “Google’s PageRank Algorithm: A Diagram of Cognitive Capitalism and the Rentier of the Common Intellect,” in Deep Search, ed. Konrad Becker and Felix Stalder (Transaction Publishers, 2009).
[11]:
Irina Kaldrack and Theo Röhle, “Divide and Share: Taxonomies, Orders, and Masses in Facebook’s Open Graph,” Computational Culture, no. 4 (November 2014); Tiziana Terranova, “Securing the Social: Foucault and Social Networks,” in Foucault and the History of Our Present, ed. S. Fuggle, Y. Lanci, and M. Tazzioli (Palgrave Macmillan, 2015).
[12]:
Grégoire Chamayou, “Pattern-of-Life Analysis,” chap. 5 in A Theory of the Drone (New Press, 2014). Publicado no Brasil como “Teoria do Drone”, pela Cosac & Naify em 2015. Veja também Matteo Pasquinelli, “Metadata Society,” keyword entry in Posthuman Glossary, ed. Rosi Braidotti and Maria Hlavajova (Bloomsbury, 2018), e “Arcana Mathematica Imperii: The Evolution of Western Computational Norms,” in Former West, ed. Maria Hlavajova and Simon Sheikh (MIT Press, 2017).
[13]:
Andrea Brighenti and Andrea Pavoni, “On Urban Trajectology: Algorithmic Mobilities and Atmocultural Navigation,” Distinktion: Journal of Social Theory 24, no. 1 (2001).
[14]:
M. Giermindl et al., “The Dark Sides of People Analytics: Reviewing the Perils for Organisations and Employees,” European Journal of Information Systems 33, no. 3 (2022). Veja também Alex Pentland, “Social Physics: How Social Networks Can Make Us Smarter” (Penguin, 2015).
[15]: A palavra “estatística” significava originalmente o conhecimento que o Estado possuía sobre seus próprios assuntos e territórios: um conhecimento que tinha de ser mantido em segredo. Em: Michel Foucault, Security, Territory, Population (Segurança, Território, População): Lectures at the Collège de France 1977-1978, trans. Graham Burchell (Palgrave Macmillan, 2009).
[16]:
Sobre a influência da metrologia cerebral na história da IA, ver Simon Schaffer: “Os julgamentos de que as máquinas são inteligentes envolveram técnicas para medir os resultados do cérebro. Essas técnicas mostram como o comportamento discricionário está ligado ao status daqueles que dependem da inteligência para sua legitimidade social.” Schaffer, “OK Computer”, em Ansichten der Wissenschaftsgeschichte, ed., Michael Hagner (Fischer, 2001) Michael Hagner (Fischer, 2001). Sobre a metrologia inicial do sistema nervoso, veja Henning Schmidgen, The Helmholtz Curves: Tracing Lost Times (Fordham University Press, 2014).
[17]:
Luke Stark, “Algorithmic Psychometrics and the Scalable Subject,” Social Studies of Science 48, no. 2 (2018).
[18]: Ruha Benjamin, Race after Technology: Abolitionist Tools for the New Jim Code (Polity, 2019); Wendy Chun, Discriminating Data: Correlation, Neighborhoods, and the New Politics of Recognition (MIT Press, 2021). Tarcízio Silva fez uma boa análise deste livro em seu blog.
[19]:
Sobre a imbricação de colonialismo, racismo e tecnologias digitais, veja Jonathan Beller, The World Computer: Derivative Conditions of Racial Capitalism (Duke University Press, 2021); Seb Franklin, The Digitally Disposed: Racial Capitalism and the Informatics of Value (University of Minnesota Press, 2021). No Brasil, ver “Racismo Algorítmico: Inteligência Artificial e Discriminação nas Redes Digitais”, de Tarcízio SIlva, lançado pelas Edições Sesc em 2022;“Colonialismo de dados: como opera a trincheira algorítmica na guerra neoliberal“”, org. de Sérgio Amadeu, Joyce Souza e Rodolfo Avelino lançada em 2021 pela Autonomia Literária; e “Colonialismo Digital: Por uma crítica hacker-fanoniana”, de Deivison Faustino e Walter Lippold, publicado pela Boitempo em 2023.
[20]:
Henning Schmidgen, “Cybernetic Times: Norbert Wiener, John Stroud, and the ‘Brain Clock’ Hypothesis”, History of the Human Sciences 33, no. 1 (2020). Sobre a cibernética e a “medição da racionalidade”, veja Orit Halpern, “Beautiful Data: A History of Vision and Reason since 1945” (Duke University Press, 2015), 173.
[21]:
Em mecânica, os graus de liberdade (DOF) de um sistema, como uma máquina, um robô ou um veículo, são o número de parâmetros independentes que definem sua configuração ou estado. Normalmente, diz-se que as bicicletas têm dois graus de liberdade. Um braço robótico pode ter muitos. Um modelo grande de aprendizado de máquina, como o GPT, pode ter mais de um trilhão.
[22]:
Rishi Bommasani et al., On the Opportunities and Risks of Foundation Models, Center for Research on Foundation Models at the Stanford Institute for Human-Centered Artificial Intelligence, 2021
[23]: Para uma leitura diferente sobre a automação da automação, ver Pedro Domingos, The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World (Basic Books, 2015); Luciana Parisi, “Critical Computation: Digital Automata and General Artificial Thinking,” Theory, Culture, and Society 36, no. 2 (March 2019).
[24]: “Breaking Models: Data Governance and New Metrics of Knowledge in the Time of the Pandemic,” workshop, Max Planck Institute for the History of Science, Berlin, and KIM research group, University of Arts and Design, Karlsruhe, September 24, 2021.
[25]:
Giorgio Agamben, Where Are We Now? The Epidemic as Politics, trans. V. Dani (Rowman & Littlefield, 2021). Publicado no Brasil como “Em que ponto estamos?”, pela n-1 edições em 2021.
[26]: Min Kyung Lee et al., “Working with Machines: The Impact of Algorithmic and Data-Driven Management on Human Workers,” in Proceedings of the 33rd Annual ACM Conference on Human Factors in Computing Systems, Association for Computing Machinery, New York, 2015; Sarah O’Connor, “When Your Boss Is an Algorithm,” Financial Times, September 8, 2016. See also Alex Wood, “Algorithmic Management Consequences for Work Organisation and Working Conditions,” no. 2021/07, European Commission JRC Technical Report, Working Papers Series on Labour, Education, and Technology, 2021.
[27]: Redesigning AI, ed. Daron Acemoglu (MIT Press), 2021.
[28]:
Leigh Phillips and Michal Rozworski, The People’s Republic of Walmart: How the World’s Biggest Corporations Are Laying the Foundation for Socialism (Verso, 2019); Frederic Jameson, Archaeologies of the Future: The Desire Called Utopia and Other Science Fictions (Verso, 2005), 153n22; Nick Srnicek, Platform Capitalism (Polity Press, 2017), 128.
[29]:
Sylvia Wynter, “Towards the Sociogenic Principle: Fanon, Identity, the Puzzle of Conscious Experience, and What It Is Like to Be ‘Black,’” in National Identities and Sociopolitical Changes in Latin America, ed. Antonio Gomez-Moriana, Mercedes Duran-Cogan (Routledge, 2001). Veja também Luciana Parisi, “Interactive Computation and Artificial Epistemologies,” Theory, Culture, and Society 38, no. 7–8 (October 2021).
[30]: Frank Pasquale, New Laws of Robotics: Defending Human Expertise in the Age of AI (Harvard University Press, 2020); Dan McQuillan, “People’s Councils for Ethical Machine Learning,” Social Media+ Society 4, no. 2 (2018).

 

 

 

 

 

 

 

 

 

]]>
https://baixacultura.org/2024/02/28/o-olho-do-mestre-a-automacao-da-inteligencia-geral/feed/ 0
Crises e ressacas em poéticas fronteiriças de Minas Gerais https://baixacultura.org/2023/07/05/crises-e-ressacas-em-poeticas-fronteiricas-de-minas-gerais/ https://baixacultura.org/2023/07/05/crises-e-ressacas-em-poeticas-fronteiricas-de-minas-gerais/#comments Wed, 05 Jul 2023 18:45:24 +0000 https://baixacultura.org/?p=15289  

Depois de alguns anos de trocas nas redes, finalmente conheci as experimentações arte tecnológicas do LabFront no 8º Congresso Internacional de Arte, Ciência e Tecnologia e Seminário de Artes Digitais, realizado no final de junho em BH. Organizado por uma rede de grupos de pesquisa desde 2015, o seminário esse ano falou de “Crises” – crise financeira, crise climática, crise de saúde, crise política, de refugiados, de recursos híbridos, saúde mental, ambiental. Teve GTs de trabalho, exposição de arte, performances e lançamento de livros em áreas que vão da arte digital à literatura expandida, da documentação de acervos ao uso do software livre na produção musical, passando até por direitos dos animais, edição de livros, paisagens da cidade, políticas e estéticas das imagens digitais, entre outros temas.
Para dialogar com o tema do evento, apresentei na abertura “Crises e ressacas da internet em tempos de inteligência artificial”, um apanhado do que tenho visto desde a ressaca da internet (texto de 2018) até as recentes discussões sobre IA, copyright/cultura livre e colonialismo de dados, temas que tenho tratado também aqui no BaixaCultura, com o acréscimo de algumas provocações de “Terra Arrasada”, livro recente (2023) de Jonathan Crary que estou terminando de ler (quem acompanha nossa newsletter sabe) mas já impactado (e digerindo), como por exemplo aqui:

“A partir de meados dos anos 1990, o complexo internético foi propagandeado como inerentemente democrático, descentralizador e anti-hierárquico. Dizia-se que se tratava de um meio inédito para a livre troca de ideias, de forma independente de controles impostos de cima para baixo, e capaz de equilibrar a arena do acesso midiático. Mas não foi nada disso. Houve uma fase breve de entusiasmo ingênuo, similar às esperanças não concretizadas veiculadas a respeito da ampla disponibilidade da televisão a cabo nos anos 1970. A narrativa de agora – aquela de uma tecnologia igualitária colocada em risco por monopólios corporativos, pela supressão da neutralidade da rede e pela invasão da privacidade – é claramente falsa. Não houve nem haverá “bens comuns digitais”. Desde o começo, o acesso de um público global á internet sempre esteve ligado à captura do tempo, ao desempoderamento e à conectividade despersonalizada. A única razão pela qual, em um primeiro momento, a internet parecia “mais livre” ou mais aberta se deveu ao fato de que os projetos de financeirização e de expropriação não foram implementados todos ao mesmo tempo, tendo levado alguns anos para alcançar um ponto de aceleração, no começo da década de 2000”.

 

Aqui está o vídeo da fala na íntegra, transmitida ao vivo no Instagram. Aqui o PPT da apresentação, que vai virar um texto que mais adiante compartilho aqui também. As fotos abaixo são da abertura, em conversa com Pablo Gobira, diretor/presidente/fundador/agitador do LabFront e do evento. Créditos das fotos para Priscila Portugal, mestranda na UEMG e pesquisadora do Labfront.

[Leonardo Foletto]

 


b

]]>
https://baixacultura.org/2023/07/05/crises-e-ressacas-em-poeticas-fronteiricas-de-minas-gerais/feed/ 1
Inteligência artificial generativa e direitos culturais https://baixacultura.org/2023/06/23/inteligencia-artificial-generativa-e-direitos-culturais/ https://baixacultura.org/2023/06/23/inteligencia-artificial-generativa-e-direitos-culturais/#respond Fri, 23 Jun 2023 20:29:01 +0000 https://baixacultura.org/?p=15282 Publicado originalmente em Artica por Jorge Gemetto e Mariana Fossati em duas partes: 1º em 28/5/2023 e 2º em 5 de junho de 2023. Traduzido e adaptado do espanhol por Leonardo Foletto.

 

PARTE 1: Alguém quer pensar nas pessoas usuárias?

A partir da disponibilidade de ferramentas como DALL-E, Stable Diffusion ou Midjourney para geração de imagens, e do ChatGPT, Bard, Open Assistant ou as centenas de bots de conversação baseados em LLaMA, milhões de pessoas começaram a fazer experimentos com a criação de textos e imagens assistidos por IA generativa. As motivações para o uso das ferramentas são variadas: vão desde a geração de ilustrações e pôsteres amadores para ilustrar postagens (como esta) até a experimentação de novas possibilidades na arte digital, a alimentação de ideias para escritas criativas e a exploração lúdica das respostas paradoxais que surgem quando se pergunta ao software sobre seus sentimentos ou intenções.

Também houve debates sobre supostos “riscos existenciais” e supostas violações de direitos autorais. Esses debates foram, em parte, alimentados pelas próprias empresas que desenvolvem essas ferramentas, cuja estratégia retórica tem sido inflar tanto as virtudes quanto os riscos dos modelos que desenvolvem – duas formas complementares de exagerar seu poder. Menos visíveis, na maioria das vezes, são os vieses, as falhas e as limitações significativas que permanecem nessas ferramentas, muitas vezes lançadas às pressas.

 

A ameaça para a humanidade

Começamos mencionando brevemente o discurso da “ameaça à humanidade“. O risco real desse discurso é que ele funciona para a mistificação e o sigilo em torno de uma tecnologia cujo conhecimento e desenvolvimento deveriam, ao contrário, ser democratizados o máximo possível. Projetos de código aberto, como o ChaosGPT, um bot de conversação que recebeu ordens para “conquistar o mundo” e “destruir a humanidade”, destacam de forma criativa o ridículo das afirmações mais exageradas sobre IA.

Por outro lado, há uma pressa em censurar solicitações e conteúdos “inadequados” ou “violentos”, que geralmente são definidos de acordo com uma moral rígida e ideologia de ordem. No entanto, as pesquisas sobre os verdadeiros vieses e falhas desses programas costumam ser menos divulgadas. É por meio da pesquisa participativa que podem ser criados modelos e conjuntos de dados que representem melhor a diversidade real do mundo. Para isso, é fundamental que os conjuntos de dados sejam abertos e os modelos sejam software livre. Quanto mais pessoas puderem aprender como essas tecnologias são feitas, pesquisar com elas, testá-las e desenvolvê-las, mais olhos e mãos haverá para criar ferramentas melhores, que ajudarão em tarefas mais úteis e promoverão a criatividade em vez de reproduzir preconceitos. Um exemplo na América Latina é o EDIA, um conjunto de ferramentas desenvolvido pela Fundación Vía Libre para identificar estereótipos e discriminação em modelos de linguagem.


Plágio massivo

Na discussão sobre direitos autorais, felizmente já parece estabelecido que os trabalhos resultantes da IA generativa são de domínio público, especialmente desde o recente parecer do escritório de direitos autorais dos EUA. Essa é uma boa notícia, pois, caso contrário, as empresas que desenvolvem os modelos poderiam ter imenso poder sobre o conteúdo gerado a partir da interação entre usuários, ferramentas de IA e o conjunto comum de dados e conteúdo cultural.

Entretanto, o que gera mais debate atualmente é se a coleta de conteúdo para criar os conjuntos de dados, bem como o processamento computadorizado desses dados por modelos de inteligência artificial, são usos justos (fair use) ou, ao contrário, infringem os direitos autorais.

Recentemente, houve uma proliferação de artigos e manifestos pedindo maiores controles e restrições à IA generativa para proteger a propriedade intelectual. Um exemplo de tais manifestos no mundo de língua espanhola é o chamado “Arte es Ética”. Esse manifesto afirma, entre outras coisas, que o que as tecnologias de IA generativa geram são “derivados não consensuais e parasitários”, “plágio maciço” e “automatizado”, “pilhagem” e “roubo”; pede a implementação de ferramentas de filtragem de conteúdo; a proibição de prompts que incluam nomes de pessoas e até mesmo nomes de movimentos estéticos inteiros; pede marca d’água obrigatória e identificação compulsória de usuários que inserem prompts; e aponta contra a criação de novas exceções de direitos autorais para mineração de dados – mesmo que tais exceções hoje sejam fundamentais para o progresso de muitos campos científicos. As demandas mencionadas acima estão misturadas de forma desordenada com outras que são dignas de atenção genuína, como a criação de fundos para a promoção da cultura ou a proteção de trabalhadores contra demissões em massa injustificadas. Mas o impulso geral das demandas não é direcionado a reivindicações trabalhistas ou à promoção da arte, mas sim a uma expansão direta da propriedade intelectual. Isso é visto, por exemplo, no apoio a ações judiciais como a do banco de imagens Getty contra a Stability AI; na caracterização negativa e grosseira da IA como uma tecnologia somente de pilhagem; e, em geral, no fato de que o principal alvo dos ataques são os projetos de código aberto, ou seja, aqueles com maior probabilidade de democratizar o uso da tecnologia.

Lamentavelmente, abordagens semelhantes surgiram de pessoas que, há alguns anos, participaram do movimento de cultura livre. Marta Peirano , jornalista e escritora, publicou recentemente um artigo no El País que identifica modelos de inteligência artificial como “máquina automática de plágio em massa”, que serve para “roubar (…) o conteúdo de outras pessoas”. Peirano também faz eco à ação judicial da Getty contra a Stability AI e a apresenta como parte da reação supostamente legítima a esse roubo em grande escala, tomando partido da empresa de conteúdo (Getty) contra a empresa de tecnologia (Stability AI). O artigo parece negar a militância anterior da autora em favor do acesso ao conhecimento; os argumentos de Peirano nesse período de militância teriam sido usados por empresas de tecnologia para roubar propriedade intelectual.

Há um ponto real no que Peirano diz: na sociedade atual, as empresas capitalistas sempre serão as que melhor podem explorar o conhecimento livre em seu benefício. Isso não é novidade; há muitos outros exemplos análogos, como a educação pública e a infraestrutura de transporte. Na sociedade capitalista, as enormes somas de dinheiro gastas em educação pública treinam trabalhadores que, inevitavelmente, passam a ocupar cargos assalariados em empresas capitalistas. O fato de as empresas capitalistas se apropriarem dos lucros da educação pública não deve ser um argumento contra a educação pública, que é um direito do povo. Pelo contrário: deve nos fazer refletir sobre que outra sociedade precisamos para que a educação pública esteja a serviço de uma produção não capitalista exploradora.

O mesmo ocorre com o conhecimento livre. É preciso ressaltar sempre que a ampla disponibilidade de cultura e conhecimento é um avanço para os direitos culturais das pessoas, possibilitado pelo desenvolvimento das forças produtivas. O conhecimento humano é um patrimônio construído coletivamente que deve servir à toda sociedade. Qualquer retrocesso nesse sentido é reacionário. É claro que, em nossa sociedade, as empresas de tecnologia têm uma enorme vantagem quando se trata de aproveitar o conhecimento livre. Esse fato deve nos levar a aprofundar a crítica iniciada com o questionamento da propriedade do conhecimento para transformá-la em uma crítica do sistema social como um todo. Para Peirano parece impossível dar esse passo, o que a leva a optar por uma espécie de mea culpa e recuar para a típica defesa da propriedade intelectual. Talvez não seja irônico que o artigo de Peirano esteja protegido por um paywall.


Uma necessária mudança de enfoque

Visto em perspectiva, os discursos inflamados contra a IA generativa parecem um renascimento das campanhas contrárias à Internet no final dos anos 90 e início dos anos 2000, com prognósticos apocalípticos parecidos sobre a morte da arte, o empobrecimento da vida cultural e o declínio cognitivo das novas gerações expostas a essas tecnologias imediatistas. Mais atrás, discursos da mesma natureza podem ser encontrados no nascimento da música gravada, da fotografia e até mesmo da imprensa.

De um lado, estariam os detentores de direitos autorais supostamente saqueados, que incluem artistas, editoras e empresas de conteúdo de todos os tipos. Por outro lado, as corporações de tecnologia. A oposição, como se vê, não seria entre os artistas que trabalham e seus empregadores nas empresas de conteúdo, mas entre dois setores industriais: o criativo e o tecnológico. Portanto, não seria uma reivindicação baseada em classe, mas intersetorial.

Contra essa visão que enquadra o problema como uma disputa entre dois setores industriais, vale a pena complexificar o cenário apontando a existência de outros atores sociais. Um deles é a comunidade educacional, científica e acadêmica que pesquisa usando técnicas de inteligência artificial. Sobre a importância das exceções de direitos autorais para a mineração de textos e dados para fins de pesquisa, vale ler o relatório “Políticas de Inteligência Artificial e Direitos Autorais na América Latina“, publicado pela Aliança Latino-Americana para o Acesso Justo ao Conhecimento.

Outro ator esquecido são as pessoas que usam ferramentas de IA generativas. Muitas pessoas começaram a usar essas ferramentas como uma forma de expressão: artistas digitais que usam prompts para gerar imagens, escritores ou amadores que usam chatbots para obter ideias de textos, pessoas comuns que simplesmente querem se divertir ou se expressar com essas IAs e interagir com os resultados. Talvez seja hora de o direito das pessoas de participar da vida cultural ser também considerado na discussão.

O direito de participar da vida cultural tem certos requisitos. De acordo com Lea Shaver, esses requisitos incluem:

_ A liberdade de acesso a materiais culturais, ou seja, obras, ideias, idiomas e mídias existentes.

_ A liberdade de acesso a ferramentas e tecnologias indispensáveis para desfrutar e usar esses materiais e obras, bem como para criar novos materiais.

_ A liberdade de usar esses materiais e obras, transformá-los, fazê-los circular e colocá-los em diferentes contextos.

Seguindo essa ideia, a possibilidade de usar ferramentas de IA generativas sem censura pode ser entendida como parte do direito de acessar ferramentas e tecnologias para se expressar de forma criativa. Assim como o acesso a instrumentos musicais é fundamental para a criação de música, ou os computadores e outros dispositivos digitais são importantes para a fotografia, o vídeo e outras formas de expressão visual, as ferramentas generativas de IA podem ser uma ferramenta essencial para a expressão criativa e estética. Esse princípio não envolve apenas artistas e seus procedimentos, ferramentas e materiais profissionais, mas todos os usuários dessas tecnologias, que, por meio da arte e de outros conteúdos gerados por IA, acessam e participam de uma experiência estética peculiar e pessoal.

Mas os direitos dos usuários são ameaçados de diferentes maneiras. Por um lado, as empresas que prestam serviços de IA generativa criam expectativas enganosas sobre as ferramentas que oferecem; manipulam arbitrariamente os resultados e censuram o conteúdo; violam a privacidade de seus usuários; impõem barreiras econômicas abusivas; e investem pouco para lidar com os vieses das ferramentas.

Por outro lado, os setores de conteúdo e os detentores de direitos autorais, alegando que essas ferramentas facilitam a violação de direitos autorais por aqueles que as utilizam, promovem regulamentações draconianas que incluem controle e filtragem de conteúdo; estigmatizam o uso de IA generativa como antiético ou até mesmo criminoso; e, por meio de seu ataque a projetos de código aberto, contribuem para a concentração de poder das grandes corporações de tecnologia. As restrições e os controles que esses setores exigem para a IA generativa não podem ser implementados sem limitar severamente a capacidade das pessoas usuárias de fazer uso expressivo legítimo das ferramentas.

Uma coisa podemos ter certeza: não haverá saída progressiva para esse debate se os direitos das pessoas que usam inteligência artificial generativa não começarem a ser levados em conta. E ninguém levará esses direitos em consideração se os próprios usuários não se manifestarem.

 

PARTE 2: Quatro mitos e algumas reflexões sobre a liberdade artística

 

Gerado no Stable Diffusion com o prompt inspirado no do post de Artica: Uma dadaísta digital imaginando mundo possiveis ao estilo dadaísta europeu dos anos 1920

Nas conversas atuais sobre arte e inteligência artificial generativa, é comum que esses dois termos sejam colocados como opostos polares. Mas essa polaridade é limitante, por isso aqui vamos tornar a conversa mais complexa. Se em nosso post anterior apontamos que restringir a IA generativa de acordo com os desejos de determinados setores de conteúdo pode afetar gravemente os direitos dos usuários, nesta parte falaremos sobre como essas restrições acabariam afetando práticas artísticas emergentes que não são prejudiciais. Mas, pelo contrário, representam novas explorações criativas que não devem ser censuradas.

A ideia de que o uso de ferramentas de IA generativas precisa ser restringido para proteger os direitos dos artistas talvez seja produto de uma leitura equivocada dos “riscos” que essas ferramentas representam para o trabalho artístico. Como dissemos na primeira postagem desta série, não é nosso objetivo falar sobre os “riscos” da IA em geral, nem sobre sua aplicação em campos em que ela pode ser particularmente problemática (como na segurança pública e na justiça). No campo da arte e da criatividade, vemos mais aspectos interessantes do que perigosos, mas há maneiras sensacionalistas de falar sobre esse debate que incentivam a falsa dicotomia “Artista X IA” e que gostaríamos de ajudar a desmistificar.

MITO 1: A IA VAI TORNAR OBSOLETA A CRIATIVIDADE HUMANA

Um primeiro mito é o da capacidade da IA geradora de potencialmente “alcançar” a criatividade humana e torná-la obsoleta. Ele engloba a ideia simplista e enganosa de que a IA e o artista são entidades comparáveis e que a IA é, portanto, uma séria concorrente dos artistas. Em primeiro lugar, entendemos a IA generativa como uma ferramenta que não “faz arte”, mas que a arte pode ser feita com ela. Ela não é uma entidade com capacidade criativa própria e, portanto, seus resultados não devem ser cobertos por direitos autorais.

Apesar das manchetes da mídia que dizem “uma inteligência artificial cria uma obra exibida em um grande museu”, “uma inteligência artificial vence uma competição de arte” etc., não há de fato nenhuma atividade autoral da inteligência artificial, porque não há criação como conhecemos em seus produtos estéticos. Eventualmente, quando os artistas desenvolvem seu próprio trabalho usando essas ferramentas, são eles que criam coisas com a inteligência artificial.

Nas palavras do escritor de ficção científica Bruce Sterling na conferência “AI for All, From the Dark Side to the Light”, essas IAs “não têm senso comum… Elas não têm imagens. Elas não têm imagens. Elas têm uma relação estatística entre texto e grupos de pixels. E há uma beleza nisso. Não é uma beleza humana. É uma imagem incrível com a qual nenhum ser humano jamais poderia ter sonhado. Ela realmente tem presença, é surreal!”.

Essa posição cética e fascinada nos permite escapar de noções estereotipadas e dicotomias enganosas. Nos leva também a perguntar quais coisas concretas os artistas estão fazendo com as inteligências artificiais generativa. Como eles estão trabalhando com essa “relação estatística entre textos e grupos de pixels” que abre as portas para a exploração criativa de um imaginário não humano e surreal. Quais processos e procedimentos artísticos estão surgindo dessa exploração.

Os artistas sempre usaram novas tecnologias. Tanto de forma “correta”, aprendendo a técnica e seguindo o cânone, quanto de forma subversiva, desafiando a tendência dominante e invadindo as formas comuns de fazer. Isso não é diferente com a inteligência artificial generativa. Para pensar em práticas artísticas com IA, é preciso analisar suas potencialidades e limitações, entendendo que os artistas trabalham em ambos os campos: no reino do possível e de suas limitações. E que eles não apenas tomam os desenvolvimentos da tecnologia como dados, mas também modificam esses termos – o que é possível, quais são os limites, quais estratégias artísticas podem resistir e desafiar a ordem tecnosocial.

Para entender melhor isso, vale trazer o exemplo da prática de uma artista, Kira Xonorica, que trabalha com base na geração de imagens que desafiam as noções binárias de gênero e os limites entre natureza, humanidade e tecnologia, para criar visões feministas futuristas e utópicas.

Obra digital de Kira Xonorica realizada com processos generativos

Em uma entrevista para o site expanded.art, Kira diz que o potencial da IA generativa está justamente na capacidade de visualizar e explorar perspectivas do mundo por meio de dados de uma forma que talvez não fosse possível sem essas ferramentas computacionais, já que a IA generativa se baseia na análise de milhões de imagens, descrições e rótulos. Mas também há limitações para as imagens visuais que essas tecnologias nos permitem explorar, devido aos vieses introduzidos nos modelos e nos dados de treinamento. Kira acredita que “a tendência inerente aos conjuntos de dados não é surpreendente. Ao fim e ao cabo, o banco de imagens no qual eles se baseiam se baseia em séculos de história da arte e em outras disciplinas que produzem e moldam nossa imaginação visual coletiva”.

As visões alarmistas e proibicionistas, que ignoram esses processos de exploração de limites e possibilidades, são perigosas porque censuram e inibem as buscas criativas. Os vieses e outros problemas sérios com essas ferramentas não devem nos levar ao pânico, mas a uma análise crítica que leve em conta os contextos de criação e uso de imagens geradas por IA, incluindo os conjuntos de dados de treinamento nos quais as várias ferramentas se baseiam, bem como as maneiras pelas quais essas ferramentas são projetadas e desenvolvidas. A análise também deve incorporar os custos ambientais e as condições de trabalho nas empresas de IA, sobre os quais não vamos discorrer nesta postagem.

 

MITO 2: CRIAR IMAGENS DE PESSOAS REAIS É INERENTEMENTE PERIGOSO

A geração de imagens com pessoas reais reconhecíveis é uma prática considerada uma das mais arriscadas, pois pode ser usada para ataques à honra e à dignidade dessas pessoas. Entretanto, essa prática também pode ser uma maneira de explorar histórias alternativas de forma imaginativa, sem ser confundida com uma imagem da realidade ou necessariamente causar danos a qualquer pessoa. Esse é o caso, por exemplo, de @arteficialismo, que fez uma série que nos faz imaginar como seriam as pessoas famosas se, depois de perderem tudo, fossem morar em uma favela brasileira.

 

MITO 3: AS OBRAS GERADAS POR IA SÃO SEMPRE IMITAÇÕES

E o que dizer do uso de obras artísticas já existentes para criar novas obras com inteligência artificial? Esse talvez seja um dos maiores debates atuais. A questão é dividida em duas dimensões.

A primeira é se uma nova criação de IA generativa, baseada em obras ou estilos preexistentes, pode infringir o direito dos criadores dessas obras ou dos artistas de referência desses estilos. Embora estas infrações de fato possam ocorrer, elas não podem ser dadas a priori; tudo depende do caso específico. O que deve ficar claro é que os estilos artísticos em si não são protegidos por direitos autorais e que a grande maioria das obras geradas em um determinado estilo ou com determinados criadores de referência não são necessariamente obras derivadas. Elas podem ou não ser – assim como muitas obras não geradas com inteligência artificial também podem ser. Acreditamos que, em grande parte, nossa análise de vários anos atrás sobre a cultura remix e a necessidade de distinguir, em cada caso, o conceito de plágio, trabalho derivado e usos transformadores pode enquadrar muito bem essa discussão.

A segunda dimensão é se a criação de ferramentas de IA generativas infringe os copyrights de obras de direitos reservados que são parte de coleções de dados de treinamento. Para responder a essa pergunta, é importante saber que o treinamento de modelos de IA generativa não envolve a cópia dos aspectos expressivos das obras, mas sim a análise e a sistematização de dados sobre essas obras, com base em um grande número de parâmetros que vão novas imagens, textos ou outros conteúdos. O modelo nem sequer mantém cópias das imagens de treinamento, como explica o analista de políticas de propriedade intelectual Matthew Lane: “Depois que cada imagem é incorporada ao modelo, ela é basicamente lixo. Ela não é armazenada no modelo, apenas os conceitos [são armazenados]. E, idealmente, esses conceitos não devem ser vinculados a uma única imagem”. Em outras palavras: a expressão autoral das obras não é armazenada, copiada, redistribuída ou comunicada, mas analisada em grandes quantidades para estabelecer conceitos a partir dos quais gerar imagens.

É por isso que não se pode presumir a priori que os modelos serão usados apenas para gerar imitações, mas que cada caso deverá ser avaliado a posteriori e de modo concreto. Nem aqueles que desenvolvem a ferramenta nem aqueles que a utilizam devem, em nenhum caso, ser impedidos de se basear em referências culturais e artísticas anteriores. Caso contrário, o patrimônio cultural e estético seria privatizado de uma forma sem precedentes, prejudicando a liberdade criativa atual e futura. E, já que estamos falando disso, não devemos nos esquecer de que, muitas vezes, são os próprios artistas que trabalham com ferramentas de IA, treinando modelos com coleções de dados específicas ou até mesmo participando do desenvolvimento e da adaptação de ferramentas de IA a partir de ferramentas de IA de código aberto.

 

MITO 4: NÃO SE PODE CRIAR GENUINAMENTE USANDO IA

Por fim, se estivermos falando de liberdade criativa, podemos perguntar até que ponto os artistas estão realmente criando algo novo com a IA generativa. Dissemos anteriormente que a IA não tem agência nem capacidade criativa própria, mas onde fica o processo criativo das pessoas que usam essas ferramentas? Até que ponto podemos ir além da geração automática de imagens para desenvolver algo que possa ser chamado de “obra” e o criador de “artista”? A resposta, mais uma vez, depende do uso e do contexto da criação, e de como cada pessoa que cria com IA generativa define sua atividade.

Em outro trabalho compartilhado por @arteficialismo no Instagram, no qual retratos famosos da história da arte são representados como pessoas de carne e osso, alguém pergunta: “como você pode se considerar um artista? Ao que @arteficialismo responde: “Nunca me considerei… durante toda a minha vida fiz desenhos, photoshop, etc… e as pessoas sempre tentaram me rotular como artista e eu sempre rejeitei esse ‘título’. Agora eu só faço essas imagens de IA e as pessoas tentam dizer que eu não sou um artista, como se isso significasse alguma coisa para mim ou me fizesse parar de fazer as imagens por algum motivo.”

 

Por sua vez, Kira Xonorica, na entrevista citada acima, disse: “O que eu adoro na IA é que ela envolve um processo de contar histórias. Quando você cria, é como assistir a um filme ou escrever seu próprio romance. Você nunca sabe aonde isso vai levá-lo, você só tem ideias generativas e as sobrepõe umas às outras, essa é a beleza do jogo”.

Em última análise, a criação por meio de métodos generativos abrange uma variedade de processos que não podemos determinar a priori como artísticos ou não artísticos. Muitas vezes, esses processos envolvem longas horas de aprendizado e experimentos com e a partir de resultados gerados por IA. Mas não são nem as horas nem o esforço que dão significado artístico a esses trabalhos; muito menos uma IA. Argumentamos, por fim, que a arte pode ser feita com IA generativa e que isso ainda depende, como sempre, do contexto da criação pessoal e da recepção cultural. A análise diante da massificação da IA generativa deve ser crítica, matizada e situada, não moldada nem pelas empresas que vendem essas tecnologias e nem guiada por mensagens de pânico que apenas impedirão os artistas de participar do debate sobre seu desenvolvimento e de se apropriar criativamente dessas ferramentas.

 

]]>
https://baixacultura.org/2023/06/23/inteligencia-artificial-generativa-e-direitos-culturais/feed/ 0
Communication, free culture and copy in the age of Artificial Intelligence https://baixacultura.org/2023/06/13/communication-free-culture-and-copy-in-the-age-of-artificial-intelligence/ https://baixacultura.org/2023/06/13/communication-free-culture-and-copy-in-the-age-of-artificial-intelligence/#respond Wed, 14 Jun 2023 02:09:34 +0000 https://baixacultura.org/?p=15273 This text comes from the class of 24 march of 2023 in PPGCOM of UFRGS (Graduate Program in Communication at Federal Universisity of Rio Grande do Sul, Brazil). Originally published in Portuguese in april 2023

 

 

Two years ago I launched, during the pandemic, the book “The Culture is Free: a history of anti-proprietary resistance,” the result of almost 10 years of research with BaixaCultura – online laboratory, collective, blog. The book was born as an attempt to conceptualize, situate and contextualize free culture, an idea that spread from free software in the 1990s and gained prominence with the discussions around the free sharing of files (“piracy”) on the Internet in the 2000s. For this, the work done was that of a genealogy that recovers part of the circulation of cultural goods in antiquity, the great transformation of the invention of Gutenberg’s printing press in the Middle Ages, and the subsequent rise of Capitalism with the mode of production having property as its basis. From this originated the notion of intellectual property, which resulted in the consolidation of cultural goods as merchandise and copyright as the system to regulate these goods, starting in the 19th century. It also gave birth to some of the resistances to this system, especially in the artistic and political avant-garde field of the 20th century, first in more conceptual terms, such as the works of Dada, the French situationists of the 1950s and 1960s, then also in practical terms, especially in punk rock and the fanzine and mail art culture of the 1970s. What would hip-hop and rap be if it were not for the disrespect of intellectual property in the creation of samplers?

These 20th century movements also accompanied the remarkable proliferation of technological means of reproduction – from the photocopier to the VCR, from record players to cassette tapes – and the rise of the so-called mass media, with film, radio, and TV becoming part of the daily lives of billions of people. I portray some of this period and the reproduction technologies from the beginning of the 20th century until the computer in chapter 4 of the book, not by chance called “Recombinant Culture”.

Near the halfway point, the book finally reaches the 1970s, the creation of the personal computer, free software, and two decades later, the internet. From there it focuses on the discussions around free culture starting from the concept of copyleft, one of the great hacks in the intellectual property system created in the 19th century. I wrote on page 149: “As a pun or literally, copyleft was the concept, expressed in the GPL license and others linked to the GNU Project that follow it to this day, of requiring legal ownership in order, in practice, to relinquish it by allowing everyone to make whatever use they want of the work, as long as they pass on their same freedoms to others. The formal requirement of ownership means that no one else can put a copyright on a copyleft work and try to limit its use”.

From copyleft originates, in the early 2000s, Creative Commons, a set of licenses (and an NGO) that will help expand the idea of free culture and free knowledge worldwide, also giving rise to the Open Education, Open Science and OpenGlam (“open galleries, libraries, archives and museums”) movements, still active today. The discussion (and also the criticism) about free culture is followed by the transformations in Internet and digital communication, in which the “human” curatorship – random and loose, exemplified by the habit of flanking through blogs and websites, common practice of Internet users in the 2000s – is gradually being replaced by algorithmic curatorship. What can be seen mainly from the consolidation of social networks – especially with Facebook’s “Timeline” model (which will influence other networks from the 2010s on) and streaming as algorithmic systems of selection and recommendation of information and content of predominance on the Internet.

 

In the end, “Culture is Free” brings the perspective on the question of free culture and knowledge to other modes of existence than the hegemonic Western one, seeing how Amerindians and peoples from the far east (like the Chinese) have to this day historically very distinct notions about what is intellectual property, copy and original, open and collective knowledge. With these perspectives I try to remember that there are ways of seeing the world, present in many traditional places and communities, that who oppose with certain Western ideas and ways of acting notion that created intellectual property.

For example, in China, I talk in the book about “Shanzai,” a Chinese neologism created in the 2000s to say what is fake. It ranges from literature to Nobel prizes, MPs, amusement parks, tennis, music, movies, stories of the most diverse kind. At first, the term referred only to smartphones or counterfeit products made by brands such as Nokia or Samsung and sold under the name Nokir, Samsing or Anycat. Soon, however, they expanded to all areas, in plays that, in the manner of Dada, used creativity and parodic and subversive effects with the “original” brands to create other names – Adidas, for example, becomes Adidos, Adadas, Adis, Dasida… They are, however, more than mere fakes: their designs and functionalities owe nothing to the originals, and the technical or aesthetic modifications made give them an identity of their own.

The commodity system known in the West is, as is well known, different for the perspectives of traditional peoples – it is no accident that Davi Kopenawa calls us white people the “commodity people” in the monumental “The Falling Sky“. In the words of anthropologist Marilyn Strathern (1984), it is the opposition of the commodity economy, in which people and things take the social form of things, with the gift economy, in which people and things take the social form of people. As I wrote on p.216 of the book, “It is in this sense that, in originary societies in various parts of the world, the model of property (particularly intellectual property), based on the relation of the work of art as a commodity of consumption, becomes insufficient to deal with the more durable and complex relation of the circulation of objects. In the cultural system of the original societies, it is perceptible, for example, the centrality of collective values, linked to the plurality and survival of the community, in relation to individual values, of exclusive use and individual choice. This, in turn, makes it more difficult for cultural and knowledge goods in this context to become just another commodity sold as merchandise, because there are principles and responsibilities of reciprocity and solidarity that seek to value the moral substance itself – which we could also call “soul” – of the objects in their relations with people and the world.

From this brief panorama, we can finally ask ourselves: how can we talk about original and copy if a two-thousand-year-old culture from the Far East encourages reproduction and treats its content and permanence as more important than the origin of an idea, even if modified and reinvented in each context? Or how can we say that there is only one human owner of ideas when for many native peoples, among them some Amerindians, there is no separation between subject and object as we know it in the West, and the creative subjectivity, to whom one should attribute the “authorship” or the “ownership” of goods, is distributed in a vast network that includes people and objects, nature and society in an almost symmetrical way?

AND WE FINALLY GET TO AI

It is in the discussion about copy and original that we finally get to the hottest discussion of the moment, artificial intelligence. With the growing popularization of generative Artificial Intelligence systems (which are able to generate text and images autonomously), such as ChatGPT and MidJourney, it seems that we are heading for another historical moment to discuss both digital communication and free culture and knowledge, copyright and intellectual property. Some computational researchers indicate that soon the amount of text/image generated by AIs tends to surpass all human production. It’s not hard to imagine: based on machine learning, the potential is tending to be infinite for creating works. But given that these systems work primarily with new presentations of ideas that have already been generated (and recorded on computers), is it possible to recognize the sources and identify the authorship of an information brought by these AIs? Will “artificial” systems – and also “human” systems, or would it be better to say for both “hybrids”? – of information control will be able to impose limits to this proliferation and check the veracity of what is reported? How can we speak of copy and original in a world increasingly dominated by multiple copies reproduced ad infinitum by “intelligent” algorithmic systems?

I propose, of course, more questions than answers. Both because it is still an initial research, which is starting as, say, formal academic research, structured from FGV ECMI, where I work today as a researcher and professor. But mostly because nobody knows yet how to answer these and other questions about AIs; the very companies that are at the leading edge of this discussion in 2023, like Open AI, are learning about the impacts of the systems they create from feedback from millions of users. The responses and different uses invented by people bring new responses and new hallucinations from the systems, which are having to be corrected in almost real time.

There is, of course, a great risk in experimenting live with a technology that has such a transformative impact on information production, and it is no wonder that the discussion about AI ethics has been one of the big issues in debate for some years (or decades) now. The ONU has already given recommendations, in 2021, to suspend the use of AI in facial recognition systems until there is regulation on the use of the technology, just as recently a letter signed by over a thousand experts and personalities, such as Steve Wozniak, co-creator of Apple, Yuval Noah Harari, famous historian, and the unscrupulous billionaire Elon Musk, called for a moratorium, a “mandatory stop to think” about the consequences of the unbridled development of AI, especially generative ones like ChatGPT.

I like the image created by one of the best texts of the many that have been published on the subject between January 2023 and now. It is called “ChatGPT is a blurry JPEG of the Web” and was written by Ted Chiang for the February 2023 New Yorker.

“Think of ChatGPT as a blurry JPEG of all the text on the Web. It retains much of the information on the Web, in the same way that a JPEG retains much of the information of a higher-resolution image, but, if you’re looking for an exact sequence of bits, you won’t find it; all you will ever get is an approximation. But, because the approximation is presented in the form of grammatical text, which ChatGPT excels at creating, it’s usually acceptable. You’re still looking at a blurry JPEG, but the blurriness occurs in a way that doesn’t make the picture as a whole look less sharp.”

The image of the blurred JPEG helps us understand that the system created by Open IA “swallows” (almost) the entire internet and regurgitates by rephrasing what it has swallowed, not word for word. That despite inventing references and other wrong information (those who have used it have certainly been surprised with a book, a non-existent article), it does not “lie”, but writes “probable” answers – or “blurbs”, following the metaphor – based on the weights and calculations made from each token (input) generated. There are thousands of recombinations of ideas that have already been generated by the human mind, shown from a statistical analysis of a gigantic database. A database that, giant as it already is (and we are not sure how giant it is, another big problem caused by the lack of transparency), tends to grow more and more, fed by information collected on the web without authorization. Do they need to have authorization for this? Doesn’t data collection further reinforce datacolonialism, the unequal extraction (and exploitation) of data from the global south?

Other questions I bring here today give a taste of the transformative potentialities, for “good or bad,” of generative AIs also for the discussion in communication and circulation of information and cultural goods:
If on the one hand the increasing use of generative AI systems in everyday work favors users (including in the creation of new “occupations” such as design or prompt engineer), on the other hand it is a competitive problem for intellectual creators, especially for those kinds of so-called functional creations, such as a poster for an event, a “card” for a social network, a track for a short advertising video, an illustration for some work;

The problem of market concentration, just like big tech today. AI companies need a high initial investment, but a low maintenance cost to keep producing works and increasing supply, which is done without being accompanied by a proportional increase in demand (this issue I bring from the book by Pedro Lana called: “Artificial Intelligence and Authorship: Issues of Copyright and Public Domain“, released this 2023)

_ The “appropriation” of the common space (public domain) of ideas. A very large number of works produced can exhaust the amount of possible expressions of an idea in a certain medium – music, for example, where there are already cases of AIs, such as Google Assistant, which recognizes the samplers of a song, excerpts of even less than 1s. Identifying can also mean controlling and restricting; anyone who has ever uploaded a video with a song protected by copyright on Youtube, Instagram or any other platform knows how, for the justification of “defending property”, technology companies already identify and quickly bar the circulation of information. Would hip hop have been born if all samplers used were identified, controlled and restricted? Brazilian rapper Don L saw this danger and wrote on Twitter: “capitalism will end up with the art of the sample. i am totally against having to pay for samples unrecognizable by a human. if you go by this logic, there should be copyrights for instruments. pay for yamaha, korg etc in every song kk”.

_ The biases, the hallucinations; and the sources? Again: where is the transparency?

Here are perhaps some of the biggest problems today. They involve, for example, the biases, hallucinations, mistakes made by ChatGPT and exploitation of workers to manually “correct” the AIs, which make us glimpse a scenario closer and closer to a “Dark Digital Age”.The history of fascist hallucination of the last AIs is not the best; will it be different now? If so, how? What regulatory measures are possible to prevent these machines from turning into racist, misogynistic, and fake news propagating monsters? There is a lot of discussion on the subject, especially about possible legislation – some of which I brought up in this text from BaixaCultura. It is worth following the work of the Rights in Network Coalition, which is involved in this and other important issues in defense of digital rights.

On the legal side, it is also worth remembering fair use, fair use and its limitations and exceptions that have become one of the legal pillars on which AI applications depend. Its defense and amplification, as Lukas Ruthes Gonçalves says in this text, “are paramount so that creators and inventors can continue to recombine existing knowledge to create new and exciting possibilities, as they did before with the camera and image editing programs like photoshop.

Finally, I recall Benjamin to remix an already classic question: how does one identify a work of art in the age of its “algorithmic reproducibility”? If, as Hal Foster wrote in “What Comes After Farce?“, the negative force of automation is less the loss of “aura,” as Benjamin believed, and more the loss of “individual risk” and “communal participation,” what would we say of processes that are not only automated but autonomous? For that matter, how autonomous are these systems? Another question: is the work of art only the fruit of the human spirit? Has the time come, as the indigenous people have been doing for a long time, to review anthropocentrism, giving the status of creators to non-human, “artificial” or “natural” beings? Would reviewing the anthropocentrism in intellectual property be the end of copyright as we know it today?

That’s a lot of questions, I leave it to you to bring more others. Thank you!”

[Leonardo Foletto]

*Image created in Stable Diffusion from the prompt: An androgynous cyborg hybrid of machines and living organisms, with lots of plants, animals and insects, tending to a digital orchid, in 19th century Italian naturalist style

]]>
https://baixacultura.org/2023/06/13/communication-free-culture-and-copy-in-the-age-of-artificial-intelligence/feed/ 0
Como o ChatGPT está influenciando na disputa pelo controle do conhecimento https://baixacultura.org/2023/05/29/como-o-chatgpt-esta-influenciando-na-disputa-pelo-controle-do-conhecimento/ https://baixacultura.org/2023/05/29/como-o-chatgpt-esta-influenciando-na-disputa-pelo-controle-do-conhecimento/#respond Mon, 29 May 2023 22:40:00 +0000 https://baixacultura.org/?p=15255 É quase impossível identificar retroativamente as fontes e autorias retiradas sem autorização de bases de dados pelos bots. Apropriação do saber comum pode estar mais ameaçada – abrindo uma disputa sobre os direitos do autor

Por Leonardo Foletto*

O ano de 2023 tem sido permeado pelo tema de Inteligência Artificial (IA) quando se fala sobre tecnologias digitais e internet. Isso se deve em grande parte ao sucesso estrondoso do ChatGPT, uma IA generativa desenvolvida pela OpenAI, uma empresa dos Estados Unidos fundada em 2015 com um investimento inicial de U$ 1 bilhão, cerca de R$ 4,9 bilhões na cotação atual.

Seus sócios incluem personalidades notáveis como Sam Altman, CEO da empresa. Elon Musk, o bilionário excêntrico e segundo homem mais rico do mundo de acordo com a Bloomberg, foi um dos co-fundadores da empresa em 2015, mas abandonou o projeto após discordâncias com princípios éticos e modelos de financiamento da empresa.

O ChatGPT foi disponibilizado publicamente gratuitamente em 30 de novembro de 2022 e, em janeiro de 2023, já havia alcançado 100 milhões de usuários. Isso o torna a tecnologia de crescimento mais rápido da história até o momento. É importante ressaltar que essa IA generativa consegue gerar textos e imagens de forma automatizada, baseada no aprendizado de máquina.

Direito autoral e propriedade intelectual

Há inúmeras formas de abordar a discussão acerca dos impactos da Inteligência Artificial (IA) no cotidiano global. Podemos falar sobre as questões éticas que envolvem a adoção desses sistemas em salas de aula, por exemplo, assim como sobre mecanismos possíveis para regulamentar IAs e assegurar que evitem a disseminação de racismo algorítmico, discursos de ódio e desinformação;

Podemos falar também da precarização do trabalho digital, agora também o trabalho criativo (designers, ilustradores, produção de “conteúdos” em geral) às implicações políticas no extrativismo desigual de dados norte-sul global, a partir da acentuação do colonialismo de dados (Couldry e Mejías, 2019; Lippold e Faustino, 2022), o que pode nos levar a um modo de produção ainda pior que o capitalismo (Mckenzie Wark, 2023), agora baseado também no controle do “vetor da informação”, aquelas tecnologias que coletam grandes quantidades de dados, os ordenam, gerenciam e processam para extrair valor – como as IAs generativas.

Podemos, ainda, discutir como as IAs são utilizadas em trabalhos criativos de texto e imagem, ou refletir sobre as questões filosóficas que envolvem a simbiose entre a realidade humana e a realidade das máquinas — incluindo a possibilidade de uma superação da inteligência humana pela maquínica.

Contudo, eu opto por abordar a questão sob uma perspectiva diferente: a discussão sobre criação, cópia e propriedade intelectual na internet. O fato é que nem todo mundo está satisfeito com que as IAs generativas, como o ChatGPT e o Midjourney (usado para geração de imagens), consigam escrever livros infantis, ganhar competições de arte ou produzir artigos acadêmicos. Isso levanta uma série de questões sobre a autoria, a originalidade e a propriedade intelectual, que ainda carecem de respostas claras.

Cópia da cópia da cópia

A importância da cultura livre e dos movimentos que a promovem se torna ainda mais relevante em tempos de avanço das IAs generativas. Como mencionado anteriormente, essas tecnologias são capazes de criar obras artísticas, textos e outros tipos de conteúdo de forma automatizada, o que levanta questionamentos sobre a autoria e a propriedade dessas obras.

O copyleft e as licenças Creative Commons poderiam se mostrar, nesse contexto, ferramentas poderosas para garantir que as obras geradas pelas IAs generativas possam ser utilizadas e compartilhadas livremente, sem restrições ou limitações impostas pelos detentores de direitos autorais.

No entanto, é importante lembrar que a cultura livre não é apenas uma questão de licenciamento. Ela envolve uma transformação mais ampla na forma como a sociedade entende a cultura, o conhecimento e a criatividade, e busca colocá-los ao alcance de todos, promovendo a participação e a colaboração em vez da exclusão e da monopolização.

Nesse sentido, a cultura livre se apresenta como uma alternativa à lógica mercantilista que rege a indústria cultural e as políticas de propriedade intelectual, permitindo o florescimento de novas formas de criação, expressão e compartilhamento que fogem do controle das grandes corporações e das elites intelectuais.

Do copyleft emergiram, no início dos anos 2000, os Creative Commons: um conjunto de licenças e, posteriormente, uma ONG presente em mais de cinquenta países. A partir daí, expandiu-se a ideia de cultura e conhecimento livre, e potencializados movimentos como a Educação Aberta (Recursos Educacionais Abertos no Brasil), Ciência Aberta e OpenGlam (galerias, bibliotecas, arquivos e museus abertos), ainda em plena atividade globalmente.

Esses movimentos promovem o acesso a conhecimentos de interesse público, tais como produções científicas, livros didáticos e obras presentes em museus e bibliotecas públicas, frente às restrições impostas pelas empresas detentoras de direitos autorais em obras culturais e educacionais. Nesse sentido, a defesa da cultura livre e dos movimentos que a promovem se torna ainda mais urgente em um mundo cada vez mais dominado pelas IAs generativas e pela lógica da propriedade intelectual restritiva, garantindo que a criatividade e o conhecimento possam ser compartilhados e apropriados por todos, e não apenas por uma elite privilegiada.

O livre direito a cultura para IAs?

A partir desse panorama sobre a cultura livre, discutido em “A Cultura é Livre: uma história da resistência antipropriedade”, é possível estabelecer uma conexão com a Inteligência Artificial (IA). A popularização de sistemas como o ChatGPT coloca a propriedade intelectual em um momento histórico importante, já que vivemos em um mundo cada vez mais dominado por múltiplas cópias reproduzidas por sistemas algorítmicos “inteligentes”.

Nesse contexto, torna-se difícil reconhecer as fontes e identificar a autoria. É praticamente impossível fazer isso retroativamente, pois muitos sistemas de IA já extraíram informações de bases de dados da internet sem autorização e seguem produzindo novas ideias a partir do que aprenderam.

No âmbito jurídico, já há denúncias que questionam essa apropriação; três artistas iniciaram uma ação coletiva contra Stability.ai e Midjourney alegando violação direta e indireta de direitos autorais, uma vez que “estes sistemas pegaram bilhões de imagens de treinamento extraídas de sites públicos” e as usaram “para produzir imagens aparentemente novas por meio de um processo de software matemático”.

Entre especialistas em direito autoral, muitos se perguntam se a extração de conteúdo de terceiros por estas IAs generativas pode ser considerado “fair use” (uso justo), mecanismo da Lei dos Estados Unidos que estabelece como uso justo a reprodução de trechos para fins como crítica, comentário, notícias, ensino ou pesquisa.

Esse tipo de mecanismo de exceção, que sempre foi uma defesa do movimento da cultura livre para que grandes empresas da cultura não impedissem práticas como as pequenas citações musicais e de vídeo para fins de estudo ou paródia, por exemplo, agora tem sido estabelecido como a interpretação usada pelos tribunais dos Estados Unidos para permitir alguns usos de mineração de dados necessários para estes sistemas de IA funcionarem.

Pesquisadores da área indicam que, em breve, a quantidade de texto e imagem gerada por IAs tende a superar toda produção humana. Esse fato levanta a discussão sobre a apropriação do espaço comum (domínio público) das ideias.

Apropriação do espaço comum de ideias

Um número muito grande de obras produzidas pode exaurir a quantidade de expressões possíveis de uma ideia em um certo meio — música, por exemplo, onde já há casos de IAs, como a do Google Assistente, que reconhece amostras de uma música, trechos de até menos de um segundo.

Identificar pode significar também controlar e restringir; empresas de tecnologia já identificam e barram rapidamente a circulação de informações para defender a propriedade.

O rapper brasileiro Don L reconheceu o perigo e expressou sua opinião no Twitter: “O capitalismo vai acabar com a arte do sample. Sou totalmente contra ter que pagar por samples irreconhecíveis por um humano. Se for por essa lógica, deveria ter direito autoral pros instrumentos. Pagar pra Yamaha, Korg etc em toda música”.

Se todos os samples usados no hip hop fossem identificados, controlados e restritos, teria sido possível o nascimento do gênero musical? Quantos novos estilos literários, expressões artísticas e gêneros musicais deixariam de surgir se houvesse barreiras econômicas como essa?

Diante dessas questões, que surgem diante das dúvidas sobre como regular processos tecnológicos ainda em pleno desenvolvimento, parece ser importante discutir novamente o uso justo.

Manter a exceção de uso justo no direito autoral pode permitir que criadores e inventores continuem a combinar conhecimentos existentes para criar novas possibilidades, como faziam antes com a câmera e o sampler. Porém, é importante considerar as consequências do colonialismo de dados caso a mineração de milhares de textos e dados necessários para o funcionamento de sistemas de Inteligência Artificial privados e fechados seja considerada uso justo.

Seria possível invocar o copyleft novamente para equilibrar a discussão, garantindo que obras geradas por Inteligência Artificial (a partir de comandos humanos) sejam licenciadas abertamente apenas para determinados usos? Seria tecnicamente possível licenciar e controlar o copyleft, dada a dificuldade de distinguir cópia e original nesse contexto e o número crescente de obras geradas?

Seria também possível questionar se a obra de arte é realmente fruto apenas do espírito humano, como proposto no final de “A Cultura é Livre”. Se não for, seria hora de, assim como os povos indígenas já fazem há muito tempo, rever o antropocentrismo e dar a classificação de criadores a seres não-humanos, “artificiais” ou “naturais”?

As muitas perguntas sem resposta apenas reforçam o desafio que a popularização das IAs generativas nos apresenta ao pensar sobre o futuro da criação e da cultura livre.

* Texto publicado originalmente na revista Jacobin, por sua vez adaptado de outro, chamado “Cultura e conhecimento livre em tempos de IAs”, que pode ser visto no site da Fundação Rosa Luxemburgo Brasil-Paraguai.

]]>
https://baixacultura.org/2023/05/29/como-o-chatgpt-esta-influenciando-na-disputa-pelo-controle-do-conhecimento/feed/ 0
Uma nova primavera para o direito Autoral das IAs https://baixacultura.org/2023/04/24/uma-nova-primavera-para-o-direito-autoral-das-ias/ https://baixacultura.org/2023/04/24/uma-nova-primavera-para-o-direito-autoral-das-ias/#respond Mon, 24 Apr 2023 13:00:57 +0000 https://baixacultura.org/?p=15230  

As tecnologias de IA atingiram um nível de popularidade nunca antes visto. Como essa nova onipresença afeta o uso justo e a criação de novas obras?

Por Lukas Ruthes Gonçalves*

O primeiro inverno da IA ​​aconteceu em 1974, depois que um relatório encomendado pelo Conselho de Pesquisa Científica do Reino Unido criticou como a IA não conseguiu atingir seus objetivos na época e observou que “em nenhuma parte do campo as descobertas feitas até agora produziram o grande impacto que então se prometia**.”O que se seguiu foi uma queda na popularidade das tecnologias relacionadas ao campo que durou até 1980, após uma empolgação inicial com criações feitas pelo próprio computador.

Voltando aos conceitos fundamentais: um aplicativo de IA, não diferente de qualquer computador, precisa de 3 elementos-chave para funcionar corretamente: hardware, que roda um software que depende de dados para produzir resultados. A principal diferença é que a inteligência artificial executa “tarefas que normalmente exigiriam inteligência humana, como percepção visual, reconhecimento de fala, tomada de decisão e tradução de idiomas”. Essa é uma definição de John McCarthy, um dos principais pesquisadores da área, durante a Conferência de Dartmouth de 1956, que buscava unificar os diversos esforços de pesquisa da época sob uma única bandeira. Até Alan Turing faria a pergunta se as máquinas podem pensar em sua obra seminal “Computing Machinery and Intelligence”, de 1950.

A principal razão para aquele primeiro inverno de IA foi a falta de capacidade de processamento do hardware na época. Pesquisadores de IA durante a década de 1970 perceberam que era muito mais fácil ensinar um aplicativo a jogar xadrez do que levantar uma caneta, em um fenômeno apelidado de Paradoxo de Moravec. Habilidades mentais que são tidas como certas (como andar ou reconhecer um rosto) acabam exigindo um poder computacional muito maior do que calcular o pi, por exemplo. Isso torna os problemas difíceis fáceis e os fáceis difíceis. É por isso que a pesquisa em visão computacional e robótica fez pouco progresso durante a década de 1970.

Na década de 1980, o hardware havia melhorado, com sistemas como máquinas LISP se tornando mais populares e sendo anunciados como capazes de simular as capacidades de tomada de decisão dos humanos. No entanto, computadores pessoais menores de empresas como Apple e IBM começaram a ganhar força entre a população, pois hardware especializado como as máquinas LISP eram muito caros para manter e incapazes de lidar adequadamente com entradas incomuns. Isso trouxe o segundo inverno de IA em 1993, com a popularidade na área atingindo um novo ponto baixo.

Desde então muita coisa mudou. O hardware continuou a melhorar (de acordo com a Lei de Moore), com os computadores ficando menores e mais potentes a cada geração. E com o crescimento da internet toda a capacidade computacional não precisava mais estar localizada em um único lugar. Em vez disso, para empresas como o Google, ele pode ser distribuído em todo o mundo. Além disso, o aumento da popularidade da internet com o público em geral criou a oportunidade para mais pontos de dados do que nunca. Os aplicativos de IA mais recentes começaram a utilizar o hardware em rápido desenvolvimento, o software em evolução e o aumento dos dados para florescer.

Em uma nova primavera para aplicativos de IA, podemos encontrar hoje aqueles que podem gerar arte (Dall-E 2), criar textos de vários tipos (ChatGPT) e traduzir com mais precisão, entre outros inúmeros usos. No entanto, a rápida implantação dessas ferramentas de IA está atraindo novos desafios. Existem preocupações sobre o uso de obras protegidas por direitos autorais para treinar IA; nem todo mundo está feliz com o fato de que esses aplicativos podem repentinamente escrever livros infantis ou ganhar competições de arte. Com o escrutínio dessas aplicações cada vez maiores, os legisladores e o público em todo o mundo começaram a olhar para essas caixas misteriosas com maior interesse.

Gerado usando ChatGPT com o seguinte prompt: “Como você escreveria ‘A Dream of Spring for AI Copyright’ no estilo de George R. R. Martin?”

Enquanto alguns recepcionam com entusiasmo esses desenvolvimentos de IA, outros vêem isso com ceticismo, já entrando com ações judiciais contra aplicações de IA de geração de obras de arte nos EUA e no Reino Unido. O cerne da questão é se esses sistemas infringiram os direitos autorais dos artistas para gerar suas criações. Um caso iniciado em solo americano tem como autores três artistas que iniciaram uma ação coletiva contra os aplicativos de IA Stability.ai e Midjourney, e contra o repositório de imagens DeviantArt alegando violação direta e indireta de direitos autorais, violações de DMCA e concorrência desleal. A denúncia pode ser encontrada aqui. Especificamente, os artistas afirmam que os réus “pegaram bilhões de imagens de treinamento extraídas de sites públicos” e as usaram “para produzir imagens aparentemente novas por meio de um processo de software matemático”.

O caso do Reino Unido segue na mesma linha, com a Getty Images processando a Stability.ai alegando que esta “violou direitos de propriedade intelectual, incluindo direitos autorais em conteúdo de propriedade ou representado pela Getty Images”. O argumento é semelhante ao caso dos EUA, em que o réu “copiou e processou ilegalmente milhões de imagens protegidas por direitos autorais e os metadados associados pertencentes ou representados pela Getty Images, sem uma licença, para beneficiar os interesses comerciais da Stability AI e em detrimento dos criadores de conteúdo”.

Deixando de lado os aspectos técnicos de como é feito o treinamento de uma aplicação de IA (veja aqui uma ótima explicação sobre o assunto), o cerne não só dessas duas ações, mas do funcionamento dos aplicativos de IA como um todo, é se a extração de conteúdo de terceiros para ser utilizado como dados de treinamento de uma aplicação do tipo pode ser considerada fair use (uso justo). Conceitualmente, a mineração de dados é a digitalização de grandes quantidades de dados para uso em um software com o objetivo de analisar e extrair informações dessas bases.

Nos EUA, este tópico é regulado pelo §107 da Lei de Direitos Autorais, que estabelece como uso justo de uma obra protegida por direitos autorais – portanto, não violação – a reprodução para fins como crítica, comentário, notícias, ensino, bolsa de estudos ou pesquisa. A lei estabelece quatro fatores para determinar se um uso seria considerado “justo”: a finalidade e o caráter do uso; a natureza da obra protegida por direitos autorais; a quantidade que foi copiada; e seu efeito potencial no mercado dessa obra. Esse tipo de exceção flexível estabelecida pelo fair use tem sido a interpretação usada pelos tribunais dos Estados Unidos para permitir alguns usos de mineração de textos e dados (em inglês, TDM) necessários para aplicativos de IA poderem gerar imagens, como aponta Jonathan Band.

Um caso marcante para o tópico, Authors Guild, Inc. v. Google, Inc., ouvido pelo Tribunal de Apelações do Segundo Circuito (Court of Appeals for the Second Circuit) entre 2005 e 2015, chegou à conclusão de que a tentativa do Google de digitalizar livros para uso em seu buscador foi vista como um passo transformador para as bibliotecas – mesmo que a empresa não tenha solicitado autorização para este uso. Com este julgamento, que considerou tais práticas de TDM como uso justo, abriu-se um precedente chave que atualmente é invocado pelos fabricantes de aplicativos de IA para apoiar legalmente suas práticas.

No entanto, essa decisão é cada vez mais questionada, com os veículos de notícia agora mais cautelosos com a “dieta de mídia” dos chatbots do Bing e o governo do Reino Unido restringindo a expansão das exceções do TDM. Os casos mencionados acima desafiarão esse entendimento? O entendimento de como essa tecnologia funciona é incipiente e levará tempo até que os advogados consigam entender completamente o conceito para considerar propostas que não freiam o avanço de tecnologias inovadoras como a IA.

Este é apenas mais um exemplo de como o uso justo e as limitações e exceções são importantes para o avanço de novas tecnologias. A doutrina de uso justo tornou-se um dos pilares legais dos quais os aplicativos de IA dependem. Sua defesa e ampliação são primordiais para que criadores e inventores possam continuar a recombinar conhecimentos existentes para criar novas e excitantes possibilidades, como faziam anteriormente com a câmera e programas de edição de imagens como o Photoshop. Isso garantirá uma longa primavera para as ferramentas de IA e as novas obras de arte e inovações que artistas, músicos, pesquisadores e o público em geral criarão utilizando-as.

*: Lukas Ruthes Gonçalves é Mestre em Direito pela Universidade Federal do Paraná (UFPR), apresentando dissertação sobre Autoria de IA orientada pelo Professor Marcos Wachowicz e é agora Doutorando pela mesma instituição. É também membro do Grupo de Estudos em Direito Autoral e Industrial (GEDAI/UFPR), liderado pelo Professor Marcos Wachowicz e LLM em Propriedade Intelectual e Tecnologia pela American University Washington College of Law.  Texto originalmente publicado em inglês no Projeto Disco. Tradução: Leonardo Foletto

**: Lighthill, J. (1973), “Artificial intelligence: a general survey”, Artificial intelligence: a paper symposium

A imagem de capa do post foi gerada usando DALL-E com o seguinte prompt: “Um desenho realista de uma paisagem de primavera com um pequeno robô no meio olhando para o horizonte”.

]]>
https://baixacultura.org/2023/04/24/uma-nova-primavera-para-o-direito-autoral-das-ias/feed/ 0