tecnopolítica – BaixaCultura https://baixacultura.org Cultura livre & (contra) cultura digital Fri, 14 Feb 2025 14:17:31 +0000 pt-BR hourly 1 https://wordpress.org/?v=6.0.9 https://baixacultura.org/wp-content/uploads/2022/09/cropped-adesivo1-32x32.jpeg tecnopolítica – BaixaCultura https://baixacultura.org 32 32 A crise é cognitiva – a guerra cultural e os fins da internet https://baixacultura.org/2025/02/14/a-crise-e-cognitiva-a-guerra-cultural-e-os-fins-da-internet/ https://baixacultura.org/2025/02/14/a-crise-e-cognitiva-a-guerra-cultural-e-os-fins-da-internet/#respond Fri, 14 Feb 2025 14:09:45 +0000 https://baixacultura.org/?p=15788 Semana passada participei novamente no Balanço & Fúria para falar sobre as transformações da internet, das raízes rebeldes à ascensão da plataforma aliada (e potencializadora) da extrema direita. Falamos um pouco sobre como essa mudança impactou a cognição, o trabalho e a cultura, levando a uma crise de consenso e à ascensão da desinformação, entre outras coisas. No final destacamos a necessidade urgente de repensar a forma como interagimos com a tecnologia e de buscar alternativas que promovam a descentralização, a transparência e o bem comum. A ascensão do DeepSeek, com seu modelo de código aberto, oferece uma faísca de esperança em meio a um cenário de crescente preocupação com o poder das Big Techs e o impacto da desinformação. 

“Quem teve acesso à internet do fim dos anos 90 e começo dos anos 2000 jamais imaginaria que ela se tornaria um dos principais instrumentos para a elaboração do fascismo de nosso tempo, um impulsionador da crise política e estética, seguido da crise cognitiva que determinaria uma nova subjetividade em seus usuários, assim como uma nova definição de capitalismo ultraprecarizado e ultraliberal, que confundiu ainda mais os limites do trabalho, das liberdades e da democracia liberal.

Da guerra cultural à plataformização, passando pela monopolização das Big Techs e a disputa geopolítica baseada nas tecnologias criadas a partir do que resta da internet, Leonardo Foletto caminha sobre uma breve história das redes de compartilhamento, da pirataria, do hackativismo até o apodrecimento algorítmico fascista em que nos encontramos agora.”

Dá pra ouvir/baixar no site e também aqui abaixo.

[Leonardo Foletto]

 

 

 

]]>
https://baixacultura.org/2025/02/14/a-crise-e-cognitiva-a-guerra-cultural-e-os-fins-da-internet/feed/ 0
Software livre pode derrotar as big techs? https://baixacultura.org/2025/02/07/codigo-aberto-pode-derrotar-as-big-techs/ https://baixacultura.org/2025/02/07/codigo-aberto-pode-derrotar-as-big-techs/#respond Fri, 07 Feb 2025 17:09:28 +0000 https://baixacultura.org/?p=15779 Falei para o programa “Outra Manhã”, do Outras Palavras, na segunda 3/2/25 sobre DeepSeek e a questão do open source, a partir do texto publicado aqui – que foi republicado pelo OP também

Na conversa, de cerca de 1h, busquei enfatizar o potencial dos modelos de código aberto para desafiar o domínio de grandes empresas de tecnologia. Trouxe também questões éticas e práticas sobre o uso de dados, as implicações políticas da IA ​​e possibilidades futuras de desenvolvimento de IAs descentralizadas, locais e de código aberto. A manchete é um pouco sensacionalista, como o jornalismo tem costumado ser (às vezes por questão de sobrevivência).

[Leonardo Foletto]

Na semana seguinte, Antônio Martins e Glauco Faria conversaram com Uirã Porã sobre como o software livre vive no Brasil e como ele pode ser base da autonomia tecnológica, numa conversa que vale a pena escutar:

]]>
https://baixacultura.org/2025/02/07/codigo-aberto-pode-derrotar-as-big-techs/feed/ 0
A corrida da IA ganha um novo capítulo – chinês e open source https://baixacultura.org/2025/01/29/a-corrida-da-ia-ganha-um-novo-capitulo-chines-e-open-source/ https://baixacultura.org/2025/01/29/a-corrida-da-ia-ganha-um-novo-capitulo-chines-e-open-source/#comments Thu, 30 Jan 2025 01:31:18 +0000 https://baixacultura.org/?p=15766  

Segunda-feira, 27 de janeiro, Wall Street atravessou um de seus dias mais turbulentos. As previsões para o setor de inteligência artificial desmoronaram, “players” viram seus papéis derreterem. As ações da Nvidia, inflacionada pela corrida por chips instalados nas IAs generativas, tombaram 17%, resultando em uma perda de US$ 589 bilhões em valor de mercado – a maior queda diária já registrada na história do mercado financeiro americano, que virou matéria e foco de atenção de diversos jornais. Sete bigtechs (Apple, Amazon, Alphabet, Meta, Microsoft, Nvidia e Tesla) viram uma perda de US$ 643 bilhões em suas ações. O responsável por essa reviravolta? Um chatbot de baixo custo lançado por uma startup chinesa, a DeepSeek, criado em 2024 como um braço de pesquisa de um fundo chamado High Flyer, também chinês. Segundo a empresa, o custo de treinamento do modelo por trás da IA, o DeepSeek-R1, foi de aproximadamente US$ 6 milhões – um décimo do que a Meta investiu no desenvolvimento do Llama 3.1, por exemplo, ou menos ainda dos US$ 100 milhões que a OpenIA investiu no seu último modelo. Além disso, a startup informou que seu chatbot apresentou um desempenho superior ao GPT-4, da OpenAI, em 20 das 22 métricas analisadas.

Não entrando nos pormenores econômicos especulativos do mercado de ações (o tombo se deu no valor do mercado destas big techs a partir da desvalorização de suas ações), o fato principal aqui é: a queda foi sobretudo porque a DeepSeek mostrou ao mundo que existe possibilidade de se competir na área com menos dinheiro, investido de forma eficiente. Com menos processadores, chips e data centers, a empresa destravou a possibilidade de operar com custos menores, justo semanas depois de Trump, ao lado de Sam Altman (Open IA) e Larry Ellison (Oracle), anunciar o “Stargate”, um mega programa de investimentos em IA no Texas com potencial anunciado de alavancar até US$ 500 bilhões de dólares em cinco anos. O lançamento do modelo da DeepSeek redesenha a disputa entre EUA e China pela inteligência artificial e mostra que, mesmo com as travas colocadas pelo Governo Biden na compra de chips da Nvidia pela China, ainda assim é possível fazer sistemas robustos de IA de forma mais barata do que Altman e cia afirmam.

As diferenças técnicas do sistema chinês

Vamos tentar explicar aqui brevemente como funciona o DeepSeek e as principais diferenças em relação ao seus modelos concorrentes. O recém-lançado R1 é um modelo de linguagem em grande escala (LLM) que conta com mais de 670 bilhões de parâmetros, projetado a partir de 2.048 chips H800 da Nvidia – estima-se, por exemplo, que os modelos desenvolvidos pelas big techs utilizem cerca de 16 mil chips para treinar os robôs. Utiliza-se de aprendizado por reforço, uma técnica de aprendizado de máquina (machine learning) em que o sistema aprende automaticamente com os dados e a própria experiência, sem depender de supervisão humana,  a partir de mecanismos de recompensa/punição.

Para aumentar sua eficiência, a DeepSeek adotou a arquitetura Mixture-of-Experts (MoE), uma abordagem dentro do aprendizado de máquina que, em vez de utilizar todos os parâmetros do modelo (ou toda as redes neurais) em cada tarefa, ativa só os necessários de acordo com a demanda. Isso torna o R1 mais ágil e reduz o consumo de energia computacional, executando as operações de forma mais leve e rápida. É como se o modelo fosse uma grande equipe de especialistas e, ao invés de todos trabalharem sem parar, apenas os mais relevantes para o trabalho em questão são chamados, economizando tempo e energia.

Outra técnica utilizada pelo R1 é a Multi-Head Latent Attention (MLA), que permite ao modelo identificar padrões complexos em grandes volumes de dados, usando de 5 a 13% da capacidade de modelos semelhantes como a MHA (Multi-Head Attention), o que a torna mais eficiente, segundo essa análise bem técnica publicada por Zain ul Abideen, especialista em LLM e aprendizado de máquina, em dezembro 2024. Grosso modo, a MLA analisa de forma simultânea diferentes partes dos dados, a partir de várias “perspectivas”, o que possibilita ao DeepSeek-R1 processar informações de maneira mais precisa gastando menos recursos de processamento. A MLA funciona como um grupo de pessoas olhando para o mesmo problema de diferentes ângulos, sempre buscando a melhor solução — de novo e de novo e de novo, a cada novo desafio.

Além de seu baixo custo de treinamento, um dos maiores atrativos do modelo está no baixo custo da operação geral. Grandes empresas de tecnologia costumam cobrar valores altos para acessar suas APIs, ferramentas que permitem que outras empresas usem seus modelos de inteligência artificial em seus próprios aplicativos. A DeepSeek, por outro lado, adota uma abordagem mais acessível; a API do R1 custa entre 20 e 50 vezes menos do que a da OpenAI, de acordo com a empresa. O preço de uma API é calculado com base na quantidade de dados processados pelo modelo, medido em “tokens”. No caso da DeepSeek, a API cobra US$ 0,88 por milhão de tokens de entrada e US$ 3,49 por milhão de tokens de saída. Em comparação, a OpenAI cobra US$ 23,92 e US$ 95,70, respectivamente. Ou seja, empresas que optarem pela tecnologia da chinesa podem economizar substancialmente ao integrar o modelo R1 em suas plataformas.

A DeepSeek declarou que usou 5,5 milhões de dólares (32 milhões de reais) em capacidade computacional, utilizando apenas as 2.048 GPUs Nvidia H800 que a empresa chinesa tinha, porque não podia comprar as GPUs H100 ou A100, superiores, que as big techs acumulam às centenas de milhares. Para ter uma ideia: Elon Musk tem 100 mil GPUs, a OpenAI treinou seu modelo GPT-4 em aproximadamente 25 mil GPUs A100.

Em entrevista à TV estatal chinesa, Liang Wenfeng, CEO da DeepSeek e também do fundo que bancou o modelo (High Flyer), disse que a empresa nunca pretendeu ser disruptiva, e que o “estrelato” teria vindo por “acidente”. “Não esperávamos que o preço fosse uma questão tão sensível. Estávamos simplesmente seguindo nosso próprio ritmo, calculando custos e definindo preços de acordo. Nosso princípio não é vender com prejuízo nem buscar lucros excessivos. O preço atual permite uma margem de lucro modesta acima de nossos custos”, afirmou o fundador da DeepSeek.

“Capturar usuários não era nosso objetivo principal. Reduzimos os preços porque, primeiro, ao explorar estruturas de modelos de próxima geração, nossos custos diminuíram; segundo, acreditamos que os serviços de IA e API devem ser acessíveis e baratos para todos.”

Wenfeng é bacharel e mestre em engenharia eletrônica e da informação pela Universidade de Zhejiang. Entre muitas especulações momentâneas sobre sua vida pessoal, o que se sabe é que o empresário de 40 anos parece “mais um nerd do que um chefe” e que é um entusiasta do modelo open source de desenvolvimento, o que nos leva para o próximo tópico.

As vantagens do código aberto 

Um componente fundamental do sucesso (atual) do modelo chinês é o fato de estar em código aberto. O DeepSeek-V3, lançado no final de 2024, está disponível no GitHub, com uma documentação detalhada sobre como foi feito e como pode ser replicado.

Isso, na prática, tem fomentado uma corrida de várias pessoas e grupos para experimentar fazer seus próprios modelos a partir das instruções dadas pela equipe do DeepSeek. Dê uma busca no Reddit e nos próprios buscadores nestes últimos dias de janeiro de 2025 e você já verá uma enxurrada de gente fazendo.

Como vocês já ouviram falar no “A Cultura é Livre”, a natureza do código aberto, de origem filosófica no liberalismo clássico do século XVII e XVIII, permite mais colaborações, e acaba por impulsionar tanto a concorrência de outras empresas no setor quanto diferentes forks independentes e autônomos individuais. Vale, porém, aqui dizer que o código aberto não é o mesmo que um software livre. Software de código aberto (free/libre/open source software, acrônimo Floss adotado pela primeira vez em 2001) é um nome usado para um tipo de software que surgiu a partir da chamada Open Source Initiative (OSI), estabelecida em 1998 como uma dissidência com alguns princípios mais pragmáticos que os do software livre. A flexibilização na filosofia de respeito à liberdade dos usuários (mais rígida e comprometida com a justiça social no software livre, mais pragmática e aplicável como metodologia de desenvolvimento no open source) propiciou uma expansão considerável tanto do software de código aberto quanto de projetos e empresas que têm este tipo de software como produto e motor de seus negócios. A OSI tem como texto filosófico central “A catedral e o bazar”, de Eric Raymond, publicado em 1999. Nele, Raymond trabalha com a ideia de que “havendo olhos suficientes, todos os erros são óbvios”, para dizer que, se o código fonte está disponível para teste, escrutínio e experimentação pública, os erros serão descobertos mais rapidamente.

A definição da OSI diz que um sistema open source é:

The program must include source code, and must allow distribution in source code as well as compiled form. Where some form of a product is not distributed with source code, there must be a well-publicized means of obtaining the source code for no more than a reasonable reproduction cost, preferably downloading via the Internet without charge. The source code must be the preferred form in which a programmer would modify the program. Deliberately obfuscated source code is not allowed. Intermediate forms such as the output of a preprocessor or translator are not allowed.

O esclarecimento sobre o que é código aberto é importante porque, na esteira do desenvolvimento das IAs de código aberto, vem também surgindo um movimento de open washing, ou seja: a prática de empresas privadas dizerem que os códigos de seus sistemas algorítmicos são abertos – quando na verdade não são tão abertos assim. Ou então quando grandes corporações (ou startups) iniciam projetos em código aberto para incorporar o trabalho colaborativo de colaboradores (desenvolvedores, tradutores, cientistas de dados) – para logo depois, quando o projeto se torna mais robusto, fecharem o código e nunca mais abrirem. “O Google tem um histórico nessa prática, a própria OPEN IA fez isso – e foi processada por Elon Musk (!) justamente por não seguir os princípios abertos.

Escrevemos em nossa última newsletter do BaixaCultura que a Meta, ao dizer que seu modelo LLama é aberto, vem “poluindo” e “confundindo” o open source, como afirma Stefano Maffulli, diretor da Open Source Initiative (OSI). Mas o que o Llama traz como aberto, porém, são os pesos que influenciam a forma como o modelo responde a determinadas solicitações. Um elemento importante para a transparência, mas que por si só não faz se encaixar na definição do open source. A licença sob a qual o Llama foi lançado não permite o uso gratuito da tecnologia por outras empresas, por exemplo, o que não está em conformidade com as definições de código aberto reconhecidas pela OSI. “Programadores que utilizam modelos como o Llama não têm conseguido ver como estes sistemas foram desenvolvidos, ou construir sobre eles para criar novos produtos próprios, como aconteceu com o software de código aberto”, acrescenta Maffuli.

Mas existem IAs totalmente abertas?

A disputa (velha, aliás) pelo que de fato é open source – e principalmente o que não é – também ganha um novo capítulo com o DeepSeek. A “OSI AI Definition – 1.0-RC1” aponta que uma IA de código aberto deve oferecer quatro liberdades aos seus utilizadores:

_ Utilizar o sistema para qualquer fim e sem ter de pedir autorização;

_ Estudar o funcionamento do sistema e inspecionar os seus componentes;

_ Modificar o sistema para qualquer fim, incluindo para alterar os seus resultados;

_ Partilhar o sistema para que outros o utilizem, com ou sem modificações, para qualquer fim;

Nos quatro pontos o DeepSeek v-1 se encaixa. Tanto é que, como mencionamos antes, já tem muita gente fazendo os seus; seja criando modelos ainda mais abertos quanto para ser executada localmente em um dispositivo separado, com boas possibilidades de customização e com exigência técnica possível na maior parte dos computadores bons de hoje em dia. Para não falar em modelos parecidos que já estão surgindo na China, como o Kimi k1.5, lançado enquanto esse texto estava sendo escrito – o que motivou memes de que a competição real na geopolítica de IA está sendo feita entre regiões da China, e não entre EUA X China.

O fato de ser de código aberto faz com que o DeepSeek, diferente do ChatGPT ou do LLama, possa ser acoplado e inserido com diferentes funcionalidades por outras empresas, grupos, pessoas com mais facilidade e menor custo. Ao permitir que novas soluções surjam, torna a barreira de entrada da inteligência artificial muito menor e estoura a bolha especulativa dos financistas globais sobre o futuro da tecnologia – o que talvez seja a melhor notícia da semana.

Mas há um porém importante nessa discussão do código aberto: as bases de dados usadas para treinamento dos sistemas. Para treinar um modelo de IA generativa, parte fundamental do processo são os dados utilizados e como eles são utilizados. Como analisa o filósofo e programador Tante nesse ótimo texto, os sistemas de IA generativa (os LLMs) são especiais porque não consistem em muito código em comparação com o seu tamanho. Uma implementação de uma rede neural é constituída por algumas centenas de linhas de Python, por exemplo, mas um LLM moderno é composto por algum código e uma arquitetura de rede – que depois vai ser parametrizada com os chamados “pesos”, que são os milhares de milhões de números necessários para que o sistema faça o que quer que seja, a partir dos dados de entrada. Assim como os dados, estes “pesos” também precisam ser deixados claros quando se fala em open source, afirma Tante.

Não está claro, ainda, quais foram os dados de treinamento do DeepSeek e como estes pesos foram distribuídos. Endossando Tante, Timnit Gibru disse neste post que para ser open source de fato teria que mostrar quais os dados usados e como foram treinados e avaliados. O que talvez nunca ocorra de fato, pois isso significa assumir que a DeepSeek pegou dados de forma ilegal na internet tal qual o Gemini, a LLama e a OpenIA – que está acusando a DeepSeek de fazer o mesmo que ela fez (!). Outras IAs de código aberto também não deixam muito claro como funcionam suas bases, embora as proprietárias muito menos. Ainda assim, são os modelos de IA identificados como open source, com seus códigos disponíveis no Github, os que lideram o nível de transparência, segundo este índice criado por pesquisadores da Universidade de Stanford, que identificou como os mais transparentes o StarCoder e o Jurassic 2.

Podemos concluir que na escala em que estamos falando desses sistemas estatísticos atualmente, e entendendo o acesso e o tratamento dos dados como elementos constituintes do códigos a ser aberto, uma IA totalmente open source pode ser quase uma utopia. Muitos modelos menores foram e estão sendo treinados com base em conjuntos de dados públicos explicitamente selecionados e com curadoria. Estes podem fornecer todos os processos, os pesos e dados, e assim serem considerados, de fato, como IA de código aberto. Os grandes modelos de linguagem que passamos a chamar de IA generativa, porém, baseiam-se todos em material adquirido e utilizado ilegalmente também porque os conjuntos de dados são demasiado grandes para fazer uma filtragem efetiva de copyright e garantir a sua legalidade – e, talvez, mesmo a sua origem definitiva, dado que muitas vezes podemos ter acesso ao conjunto de uma determinada base de dados, mas não exatamente que tipo de dado desta base foi utilizada para treinamento. Aliás, não é surpresa que hoje muitos dos que estão procurando saber exatamente o dado utilizado são detentores de copyright em busca de processar a Open AI por roubo de conteúdo.

Mesmo que siga o desafio de sabermos como vamos lidar com o treinamento e a rastreabilidade dos dados usados pelos modelos de IA, a chegada do DeepSeek como um modelo de código aberto (ou quase) tem enorme importância sobretudo na ampliação das possibilidades de concorrência frente aos sistemas da big techs. Não é como se o império das grandes empresas de tecnologia dos Estados Unidos tivesse ruído da noite pro dia, mas houve uma grande demonstração de como a financeirização da economia global amarrou uma parte gigantesca do valor financeiro do mundo às promessas de engenheiros que claramente estavam equivocados nas suas projeções do que era preciso para viabilizar a inteligência artificial – seja para ganhos especulativos ou por puro desconhecimento.

A parte ainda não solucionada da equação é uma repetição do antigo episódio envolvendo o lançamento do Linux: se essa solução estará disponível para ser destrinchada por qualquer um, como isso vai gerar mais independência aos cidadãos? A inteligência artificial tem milhares de aplicações imaginadas, e até agora se pensava em utilizá-la nos processos produtivos de diversas indústrias e serviços pelo mundo. Mas como ela pode sugerir independência e autonomia para comunidades, por exemplo? Espera-se, talvez de maneira inocente, que suas soluções sejam aproveitadas pela sociedade como um todo, e que não sejam meramente cooptadas pelo mercado para usos privados como tem ocorrido até aqui. Por fim, o que se apresenta é mais um marco na história da tecnologia, onde ela pode dobrar a curva da independência, ou seguir no caminho da instrumentalização subserviente às taxas de lucro.

[Leonardo Foletto e Victor Wolffenbüttel]

]]>
https://baixacultura.org/2025/01/29/a-corrida-da-ia-ganha-um-novo-capitulo-chines-e-open-source/feed/ 1
Cultura livre como liberdade positiva https://baixacultura.org/2024/08/29/cultura-livre-como-liberdade-positiva/ https://baixacultura.org/2024/08/29/cultura-livre-como-liberdade-positiva/#comments Thu, 29 Aug 2024 22:52:29 +0000 https://baixacultura.org/?p=15712 Traduzimos um texto que nos convida a refletir sobre um tema sempre importante por aqui: a cultura livre. Foi publicado em maio de 2024 por Mariana Fossati, socióloga uruguaia e ativista da cultura livre, parte do Ártica Online, parceiro deste espaço já há muitos anos. Ao final, fiz alguns comentários a respeito de pontos do texto, como a insuficiência do acesso à informação e aos bens culturais para garantir que todos os indivíduos e coletivos possam participar livre e igualmente na vida cultural; e a necessidade de uma política do cuidado dentro das comunidades e movimentos da cultura livre.

 

CULTURA LIVRE COMO LIBERDADE POSITIVA

 

Por Mariana Fossati, em Ártica Cultural
Tradução e adaptação: Leonardo Foletto

 

Como definimos liberdade quando falamos de cultura livre? Há algum tempo, escrevi que a cultura livre não é apenas uma filosofia, expressa em práticas concretas através das quais tornamos as nossas obras livres quando as compartilhamos. A cultura livre se expressa não só na ética de “compartilhar é bom”, mas também, de modo concreto, nas licenças que utilizamos, onde e como compartilhamos – e também no apoio a reformas progressivas dos direitos de autor. Gostaria agora de voltar à dimensão filosófica da liberdade na cultura livre, com a intenção de clarificar para que é que fazemos cultura livre e porque é que a defendemos.

Muitas vezes, ao longo da minha militância neste tema, senti que falo de uma coisa quando falo de cultura livre, enquanto os críticos falam de outra. Sobretudo os críticos “de esquerda” acusam aqueles que defendem a cultura livre de serem liberais, ou associam “cultura livre” a “mercado livre”. Durante muito tempo ri destas associações grosseiras, mas sinto que hoje, mais do que nunca, e sobretudo no conceito de cultura livre, a noção de liberdade deve ser reapropriada pelos movimentos de defesa dos direitos, para nos diferenciarmos claramente dos movimentos de direita autodenominados “libertários”.

Num artigo crítico aos libertários em seu blog, Rolando Astarita, [conhecido professor de economia argentino, estudioso do marxismo] fala da diferença entre liberdade negativa e liberdade positiva, no sentido proposto por Isaiah Berlin. A liberdade negativa é a possibilidade do indivíduo atuar sem interferência ou coerção, e é limitada pela liberdade dos outros e pela lei. A liberdade positiva é a capacidade real de exercer a autonomia e de se auto-realizar, o que depende não só de cada pessoa, mas também de condicionantes sociais. É por isso que Astarita entende que a tradição marxista enfatiza sobretudo a liberdade positiva. 

O artigo de Astaria me serve como inspiração para este post, porque a cultura livre pode ser entendida desde qualquer uma destas noções de liberdade. Creio, porém, que é necessário esclarecer onde colocamos nossa ênfase.

Se entendermos a cultura livre em termos de liberdade negativa, nos resta apenas a ideia de acesso sem interferência a qualquer recurso cultural ou de informação de que um indivíduo possa necessitar. Desde que esse acesso seja legal e que não afete os direitos de propriedade de terceiros. Daí a importância da licença (que é um contrato privado) e a ênfase no fato de cada indivíduo ser livre de conceder autorizações de acesso e utilização da sua obra (sua propriedade privada). As licenças livres funcionam com base numa renúncia a uma parte dos direitos de propriedade intelectual. É minha liberdade, enquanto proprietário, de renunciar a uma parte desses direitos. Já o acesso aberto é a liberdade de acessar e utilizar toda a propriedade intelectual que outras pessoas disponibilizaram de forma aberta, dentro dos limites da licença que escolheram. É um sistema aparentemente equilibrado que reafirma a tese de que a propriedade, a liberdade e um mínimo de regulação estatal que as garanta são suficientes.

Mas se a nossa compreensão termina aqui, estamos perdendo algo fundamental. O efeito prático deste tipo particular de renúncia de cada indivíduo a uma parte da sua propriedade intelectual produz uma contribuição para o bem comum intelectual. Este bem comum, no seu conjunto, constitui uma reserva de conhecimentos que já não é uma questão individual ou contratual entre particulares, mas que nos remete para uma dimensão social e coletiva. É a partir daqui que a noção de liberdade negativa fica aquém, ao passo que a liberdade positiva permite alargar o horizonte e nos conduzir a uma noção de cultura livre que acompanha a proteção e o reforço dos bens comuns, juntamente com uma expansão dos direitos sociais.

A cultura livre, em termos de liberdade positiva, é a ideia de que deve haver recursos culturais abundantes, acessíveis e plurais, para que todos os indivíduos e coletivos possam participar livre e igualmente na vida cultural. O ativismo da cultura livre não é apenas a defesa da propriedade e da liberdade individual, mas a procura ativa do alargamento do direito de acesso, utilização e participação na cultura a toda a sociedade. Isto inclui a democratização radical da criatividade, do pensamento crítico, do conhecimento prático, do prazer estético, do entretenimento, da identidade e do patrimônio cultural.

Se persistem condições sociais que excluem muitas pessoas de usufruir efetivamente dos bens culturais, mesmo que formalmente não exista qualquer impedimento, então não podemos falar de liberdade. A falta de recursos econômicos, de acesso a infraestruturas culturais, de conetividade significativa, de educação pública de qualidade, de diversidade de propostas culturais, ou de obras acessíveis, reutilizáveis e partilháveis, limitam a liberdade positiva das pessoas. Pode não haver censura ou controle estatal autoritário sobre os conteúdos que circulam – e, no entanto, ainda pode não haver liberdade cultural.

Por isso, a nossa militância pela cultura livre não se resume à afirmação da soberania individual de dar e receber recursos culturais, num cenário de propriedade intelectual garantida pelo Estado. A nossa militância é o alargamento da fruição e da participação na cultura a nível coletivo através da defesa dos bens culturais comuns. As licenças livres são, neste quadro, uma estratégia coletiva e não apenas uma opção individual, porque entendemos que, num contexto de crescente privatização da cultura, elas ajudam a construir, proteger e reforçar os bens culturais comuns para que cheguem a toda a comunidade. Queremos construir uma cultura livre para uma sociedade livre. Mas uma sociedade livre não é uma sociedade de proprietários livres, mas uma sociedade emancipada das estruturas de poder econômico e de privilégio social que obstruem este potencial coletivo.

 

BREVE COMENTÁRIOS À CULTURA LIVRE COMO LIBERDADE POSITIVA

Leonardo Foletto

Alguns comentários para dialogar e apontar discussões futuras para uma pensmento filosófico sobre a cultura livre. O argumento principal do curto e importante texto de Mariana é detalhado pela própria nos comentários ao post no blog. Para ela, as quatro liberdades da cultura e do software livre não podem ser vistas somente na perspectiva de liberdades negativas, a partir da diferenciação entre liberdade positiva e negativa trabalhada no texto. Isso ocorre por duas razões principais: a primeira é porque, na prática, ao libertar a cultura do direito autoral, geramos um bem comum e, normalmente, uma comunidade à sua volta, passando então para o nível do coletivo. A segunda é porque entendemos que “compartilhar é bom” não só para os indivíduos, mas para a comunidade, já que o acesso ao conhecimento é um direito básico para se poder exercer qualquer liberdade criativa – e há necessidades humanas, de ligação e de cultivo da uma cultura comum que são de ordem coletiva, e que são condicionantes para a autorrealização das pessoas. É uma visão que reitera a necessidade do progresso técnico e científico não ser exclusivo para poucos, mas sim generalizado.

Faço a ressalva que um tema crucial hoje na discussão sobre cultura livre não é trabalhado com ênfase no texto de Mariana: as assimetrias de poder envolvidas na questão do acesso à informação e aos bens comuns digitais. Não foi abordado porque não era intenção inicial, e também porque certamente renderia um texto muito mais longo – ou vários. O argumento central aqui, que discutimos também a partir do prefácio de Mckenzie Wark ao seu “Um Manifesto Hacker”, é de que a liberdade de acesso não tem se mostrado suficiente para garantir que todos os indivíduos e coletivos possam participar livre e igualmente na vida cultural, como defende Mariana no texto.

É uma situação parecida com a discussão em torno da inclusão digital: qual inclusão queremos? a das plataformas das big techs, baseada em sugar nossa atenção para extrair lucro a partir da produção contínua de dados? Aqui vale se perguntar também: qual acesso queremos? o acesso a lixo informacional e cultural, que entope e cansam nossas mentes e dificultam nossa percepção de uma realidade e ação comum? Se não é esse tipo, qual é? Existe alguma forma de se trabalhar os limites de ações de acesso sem tocar em questões mais complexas como a do tempo gasto e a da organização coletiva? Como me lembrou o Alexandre Abdo, quando falamos dos Pontos de Cultura e do programa Cultura Viva no Brasil, seu sucesso enquanto política pública e ação transformadora de pessoas e locais se deu mais com a capacidade de criar condições mínimas – financeiras, sociais e humanas – para as pessoas terem tempo e organização de usar, aperfeiçoar e cuidar do que foi produzido, do que somente a questão de se ter acesso a computadores com software livre instalados. Quando se desestruturou as condições mínimas citadas, o acesso aos computadores com software livre e a cultura livre criada em torno disso se tornou uma questão gradativamente menor, a ponto de ser abandonada por muitos pontos depois.

Mais acesso à informação, à tecnologias digitais ou a bens culturais não necessariamente significa consciência crítica, como escrevi em A Cultura é Livre. Lembro da crítica que César Rendueles [em Sociofobia] fez ao copyleft: romper as barreiras de livre circulação da informação e do acesso aos bens culturais não é suficiente para uma melhoria geral das condições de vida global sem tocar nas condições sociais de produção desses bens culturais e da informação. A enorme importância hoje do tema do trabalho digital, dada à proliferação do trabalho precário a partir da plataformização, confirma isso.

Um passo aqui, talvez, seja mais em direção a uma política do cuidado do que do acesso: como criar e pôr em prática protocolos de cuidado dentro das comunidades de bens comuns livres para que estes bens não sejam apropriados sem critérios, desrespeitando as indicações das licenças (livres) e usados para o enriquecimento de ainda menos pessoas, como no caso do uso de dados sem consentimento para treinamento e sistemas de Inteligência Artificial Generativa de empresas como Meta e Open IA? Como estabelecer condições sociais dignas de produção e fruição desses bens culturais e informativos alocados dentro da perspectiva da cultura livre?

Não há resposta clara aqui, mas talvez se fazer esta pergunta nos leve a repensar a cultura livre mais em termos de cuidado do que de acesso. Organização da abundância (de informação e bens culturais) que não seja baseada em restrição econômica e técnica como a promovida pela propriedade intelectual. O que nos leva a um outro ponto de reflexão não novo, mas cada vez mais pertinente: a reinvenção do sistema de direito autoral, agora baseado na idade de uma liberdade positiva, como Mariana aponta no texto, mas que não deixa de garantir a proteção e o cuidado com os abusos e as condições sociais de produção desses bens culturais. A cultura livre, enquanto movimento, representou de alguma forma uma “reforma cidadã” do direito autoral, com as licenças produzindo um espaço de “lei alternativa” que levou a descentralizar o controle e potencializar a inteligência e experiência humana. Será ainda possível pensar numa reforma de direito autoral que potencialize esses aspectos, sem descuidar da proteção e das assimetrias de poder típicas do capitalismo? Ou é mais provável que, com a popularização das IAs generativas, vejamos uma reforma imposta pelo capital que vá na linha de permitir a livre concentração, materializada nos modelos gigantes das big techs, a fim de cada vez mais potencializar uma (pseudo) inteligência artificial desregulada sob controle dessas grandes empresas e destinada a gerar renda (cada vez mais) para esse capital?

]]>
https://baixacultura.org/2024/08/29/cultura-livre-como-liberdade-positiva/feed/ 1
Reflorestar a internet https://baixacultura.org/2024/07/26/reflorestar-a-internet/ https://baixacultura.org/2024/07/26/reflorestar-a-internet/#comments Fri, 26 Jul 2024 18:45:45 +0000 https://baixacultura.org/?p=15683 Li nas últimas semanas um artigo instigante, chamado “We Need to Rewild the Internet”, publicado pela também interessante Revista Noemag, feita pelo Instituto Berggruen, sediado nos Estados Unidos – o artigo também saiu em ptbr pelo Outras Palavras. As autoras são Maria Farrel e Robin Berjon; a primeira é escritora que trabalhou com políticas de tecnologia em espaços como a Câmara Internacional de Comércio e o Banco Mundial; o segundo, especialista em governança digital que trabalhou em diversos lugares, inclusive no board de diretores do World Wide Web Consortium. Estamos falando então de duas pessoas da área de governança e policy digital, não cientistas, ativistas nem filósofos ou antropólogos da tecnologia. 

A “alternativa refloresta”, como fala a versão publicada no Brasil, traz a inspiração da agroecologia para repovoar a internet de forma mais saudável, de modo a afastar os oligopólios, refazer as estruturas e esperar, assim, que a diversidade da internet, tal como uma floresta, renasça. O artigo começa pela história da silvicultura científica alemã para apresentar  “uma verdade atemporal: quando simplificamos sistemas complexos, os destruímos e as consequências devastadoras por vezes só são óbvias quando é tarde demais”. A “patologia do comando e controle” realizada nas florestas alemãs está ocorrendo com a Internet, levando ambas ao mesmo destino: devastação. 

Maria Farrell e Robin Berjon trazem também exemplos do urbanismo para defender a diversidade como resiliência. “Os bairros de uso misto eram os mais seguros, mais felizes, mais prósperos do que os bairros planejados e controlados”, citando o clássico publicado em 1961 “The Death and Life of Great American Cities”, de Jane Jacobs, para defender a diversidade como resiliência. “Quanto mais soluções proprietárias são construídas e implantadas em vez de soluções colaborativas baseadas em padrões abertos, menos a Internet sobrevive como plataforma para inovação futura”.

Daí vem o rewilding, um termo que, na biologia, visa restaurar ecossistemas saudáveis criando espaços selvagens e biodiversos, o que pode abrir espaço a redes alimentares complexas para o surgimento de relações inesperadas entre espécies. Fazer um rewilding com a Internet, argumenta o texto, é mais do que uma metáfora, mas uma estrutura e um plano, que busca respostas para diversas questões, entre elas: como continuamos a trabalhar quando os monopólios têm mais dinheiro e poder? Como agimos coletivamente quando eles subornam nossos espaços comunitários, financiamentos e redes? E como comunicamos aos nossos aliados a sensação (e a necessidade) de consertar tudo isso?

Pôr em prática este plano passa por muitos fatores, entre eles dois principais: descentralizar o acesso e dar mais autonomia aos usuários. Algo como o que já fazem sistemas como o conhecido Fediverse, um conjunto de servidores federados usados para publicação na web e hospedagem de arquivos, base por trás de Mastodon e GnuSocial – uma proposta, aliás, que já está em nosso “Pequeno Compêndio da Independência Independência Digital”, criado 2021 em parceria com o Goethe Institut de Porto Alegre.

O texto fala que devemos garantir incentivos, tanto regulatórios e financeiros, para apoiar alternativas que incluam o gerenciamento de recursos comuns, redes comunitárias e “uma infinidade de outros mecanismos de colaboração que as pessoas têm usado para fornecer bens públicos essenciais, como estradas, defesa e água potável”. A construção de novos imaginários tecnopolíticos – algo que falamos com alguma frequência aqui e balizador do projeto de Experimentações Tecnopolíticas dentro da Coalizão Direitos na Rede – aqui é incentivada por autores que não estão trabalhando diretamente no campo ativista ou político, mas no de policy makers. Embora em áreas teóricas distintas, o trecho a seguir dialoga com Geert Lovink em seu “Extinção da Internet” que publicamos ano passado: “Acomodados em plantações tecnológicas rígidas em vez de ecossistemas funcionais e diversificados, é difícil imaginar alternativas. Mesmo aqueles que conseguem enxergar com clareza podem se sentir desamparados e sozinhos. Rewilding une tudo o que sabemos que precisamos fazer e traz consigo uma caixa de ferramentas e uma visão totalmente novas”.

Nessa linha, a ideia de “escolha algorítmica”, citada no texto a partir da rede Bluesky, lembra o ecossistema de produção de software de código aberto: é uma proposta que permite que a comunidade traga novos algoritmos aos usuários, com o objetivo de substituir o “algoritmo mestre” convencional, controlado por uma única empresa, por um “mercado de algoritmos” aberto e diversificado, dando mais transparência para o processo de escolha das informações a serem mostradas em feeds diversos. Tal qual na ecologia, o papel do Estado aqui é pensado para potencializar as alternativas de substituição aos monopólios/monoculturas, sejam elas de produção de alimentos ou de algorítmicos. A posição da alternativa rewilding é a de usar agressivamente o Estado de Direito para primeiro nivelar o capital e o poder desiguais e, em seguida, correr para preencher as lacunas com melhores maneiras de fazer as coisas.

Outra ideia importante da proposta é a de descentralização da infraestrutura. Não é novidade que Google, Amazon, Microsoft e Meta estão consolidando profundamente seu controle na infraestrutura da internet a partir de aquisições, integração de cima pra baixo, construção de redes proprietárias, criação de pontos de estrangulamento e concentração de funções de diferentes camadas técnicas em um único “silo” de controle. Você também deve saber que quem controla a infraestrutura determina o futuro – inclusive o energético, tema cada vez mais comentado hoje devido às gigantescas necessidades de água e energia que os data centers necessitam para fazer tantas IAs generativas funcionarem.

Contra isso, a proposta do texto é não consertar, mas refazer a infraestrutura. Proposta ousada: regenerar uma infraestrutura aberta e competitiva para as gerações “que foram criadas para assumir que duas ou três plataformas, duas lojas de aplicativos, dois sistemas operacionais, dois navegadores, uma nuvem/megaloja e um único mecanismo de busca para o mundo compreende a Internet” . Se a Internet para você é o enorme silo de arranha-céus em que você mora e a única coisa que você pode ver do lado de fora é o outro enorme silo de arranha-céus, então como você pode imaginar outra coisa?

Na etapa final, o artigo fala que apesar da enorme dificuldade da tarefa, “muito do que precisamos já está aqui”. Os autores comentam, nesse ponto, dos limites das políticas regulatórias: “além de os reguladores buscarem coragem, visão e novas e ousadas estratégias de litígio, precisamos de políticas governamentais vigorosas e pró-competitivas em relação a aquisições, investimentos e infraestrutura física.”

Aqui também citam duas questões ligadas à soberania digital – embora não usem o termo. Defendem que as universidades devem rejeitar o financiamento de pesquisas de empresas de tecnologia, “pois ele sempre vem acompanhado de condições, sejam elas ditas ou não”. Em vez disso, precisamos de mais pesquisas tecnológicas financiadas publicamente com resultados divulgados publicamente – pesquisas que, por exemplo, possam investigar a concentração de poder no ecossistema da Internet e as alternativas práticas a ela. 

Ao final da leitura, saúdo o fato de que mesmo pessoas de “dentro do sistema” (ou quase isso) reconheçam que devemos recuperar o controle de grande parte da infraestrutura da Internet e propor uma alternativa à monocultura algorítmica imposta pelas big techs a partir da plataformização da vida. Não deixo de notar também que as saídas apontadas por eles também não são novidades, mas caminhos que outras pessoas já comentam faz alguns anos. Por exemplo: uma destas saídas escrita no texto é manter a internet, a internet – ou seja: defender que se mantenha aberta e colaborativa a forma como foram feitos os protocolos e padrões técnicos que sustentam a infraestrutura da Internet. Algo que muita gente da área vem dizendo há anos, seja o criador da WWW Tim Berners-Lee, ou eu mesmo, em 2011, num texto hoje ingênuo de defesa de uma internet livre, onde citava Yochai Benkler e Lawrence Lessig para falar que podemos manter a internet – também tecnicamente – do jeito que ela foi feita a partir de nossa luta ativista. 

Curioso que, neste mesmo texto, cito como espaço de proteção desses princípios o Fórum da Internet, evento que naquele ano (2011) era criado pelo Comitê Gestor da Internet no Brasil justamente para defender a internet como ela foi construída. Participei desse primeiro fórum como relator e lembro bem dos 10 princípios defendidos, que incluía a defesa da neutralidade (privilégios de tráfego devem respeitar apenas critérios técnicos e éticos, não sendo admissíveis motivos políticos, comerciais, religiosos ou qualquer outra forma de discriminação ou favorecimento), da inimputabilidade (a internet é meio, não fim; as medidas de combates a crimes na rede deve atingir os responsáveis finais e não os meios), dentre outros oito. De lá pra cá, o CGI continuou defendendo esses princípios, que, por sua vez, foram ou violados – zero rating manda lembranças à neutralidade da rede – ou se tornaram questionáveis – hoje é quase consenso por quem defende a regulação das plataformas a defesa da responsabilidade dos intermediários, os meios, as plataformas, e não apenas os usuários finais.

Outro princípio elencado como saída na alternativa “refloresta” soa um tanto velho também: que os prestadores de serviços – e não os usuários – sejam transparentes. Uma frase que poderia ser bem uma variação do que Julian Assange e o Wikileaks já traziam nos anos 2000: “Transparência para os fortes, privacidade para os fracos”. Este era o lema  quando defendiam uma ética da transparência contra o muito falado fim da privacidade, especialmente a partir do uso de criptografia forte – outro ponto que nós já discutimos por aqui, ainda em 2015, e que por sua vez é a base conceitual dos Manifestos Cypherpunks do início dos anos 1990.

O fato dos caminhos apontados em “We Need To Rewild The Internet“ soarem um tanto velhos não desmerece a leitura do texto e a reflexão (e ação) a partir dele. Pelo contrário: nesse momento de aceleração contínua a partir do impulso das tecnologias digitais e dos algoritmos proprietários na modulação de nossas vidas, parece que se faz necessário dizer novamente o que já foi dito. Repetição como estratégia de fixação, documentação,  memória, ou de lembrança de que, de fato, muita coisa “já está aqui”, falta levar adiante.

[Leonardo Foletto]

P.s: Depois de publicado, me lembrei que essa metáfora do reflorestar se relaciona com a ideia de permacultura digital, que vem sido trabalhada faz anos pelas Redes das Produtoras Culturais Colaborativas, especialmente a partir de Fabs Balvedi. Inclusive foi tema da Conferência Nacional de Cultura Digital neste 2024, como contamos aqui. Outro texto que comenta a ideia de ir contra a monocultura algorítmica da internet é este, recentemente publicado no blog Sou Ciência, da Folha de S. Paulo, por Soraya Smaili , Maria Angélica Minhoto , Pedro Arantes e Alexsandro Carvalho. As metáforas estão parecidas não são por acaso.

 

]]>
https://baixacultura.org/2024/07/26/reflorestar-a-internet/feed/ 1
Milton Santos inaugura os Estudos Livres BaixaCultura https://baixacultura.org/2024/06/18/milton-santos-inaugura-os-estudos-livres-baixacultura/ https://baixacultura.org/2024/06/18/milton-santos-inaugura-os-estudos-livres-baixacultura/#comments Tue, 18 Jun 2024 22:40:36 +0000 https://baixacultura.org/?p=15668 Depois de alguns meses (ou seria anos?) ensaiando, criamos finalmente um grupos de estudos: Estudos Livres BaixaCultura. A proposta é nos reunirmos mensalmente para discutir algum texto que esteja alinhado em nossas pautas e perspectivas de uma (contra) cultura digital & tecnopolítica da internet. Ainda em formato beta, como quase tudo que fazemos, começaremos na quinta, 27/6, 18h30, com os capítulos 1 e 2 do livro “O Brasil: Território e Sociedade no início do século XXI”, de Maria Laura Silveira e Milton Santos. O livro, publicado em 2001, é um dos mais importantes escritos por um dos maiores intelectuais brasileiros do século XX, Milton Santos (aqui em parceria com Maria Laura Silveira) e começa um processo nosso de discutirmos intelectuais do sul global para (re) pensar a cultura digital e as relações entre tecnologia, política e cultura. 

“O Brasil” lança um olhar sobre as dinâmicas socioespaciais do território brasileiro. Para isso, eles se esforçam em relacionar essas dinâmicas com a tipologia dos meios geográficos, o que já vinha sendo discutido por Milton Santos em obras anteriores. Milton e Maria Laura acabam por nos dar diversas pistas sobre a disposição e os fluxos dos objetos técnicos no início do século XXI, o que nos traz subsídios para as discussões sobre as tecnopolíticas dos objetos técnicos hoje. 

O livro será relatado por Carlos Lunna, cientista social, geógrafo e articulador cultural na rede de Produtoras Culturais Colaborativas. Está disponível aqui para leitura/download. Criamos também um link no Plantaformas para organizarmos os encontros – o Plataformas, como já contamos, é um sistema digital criado pela Casa Preta Amazônia em software livre a partir do Decidim, usada para participação cidadã em diversos lugares do mundo. Tem sido utilizada na retomada das políticas de cultura digital por parte do MINC, como comentamos nesse texto em janeiro de 2024. Os encontros serão remotos, online via Jitsi, neste link: http://meet.jit.si/estudoslivresbaixacultura Não descartamos, porém, fazermos alguns encontros presenciais.

 

]]>
https://baixacultura.org/2024/06/18/milton-santos-inaugura-os-estudos-livres-baixacultura/feed/ 1
Os interrompidos sonhos aceleracionistas da cultura popular https://baixacultura.org/2024/05/16/os-interrompidos-sonhos-aceleracionistas-da-cultura-popular/ https://baixacultura.org/2024/05/16/os-interrompidos-sonhos-aceleracionistas-da-cultura-popular/#comments Fri, 17 May 2024 00:02:48 +0000 https://baixacultura.org/?p=15653  

A proliferação da inteligência artificial generativa tem nos feito, nos últimos meses, redobrar o interesse por um conjunto de ideias agrupadas em torno do nome aceleracionismo. O termo tem lastro na teoria e filosofia política há pelo menos uma década. Nos últimos anos, tem ganhado repercussão também a partir da busca recente de empresas de IA generativa, como a Open IA, por uma “Inteligência Artificial Geral” que vá substituir ou superar a capacidade humana de pensar. Isso implica também na popularidade de ideias semelhantes como a singularidade, popularizada por Ray Kurzweil, que relaciona o crescimento tecnológico desenfreado da “super inteligência artificial” à mudanças irreversíveis ​​na civilização humana.

Usado a partir de “The persistence of Negative”, artigo de Benjamin Noys de 2010, o aceleracionismo tem como premissa a aceleração das forças do capital como meio de desterritorializar o sistema capitalista. É uma heresia política: “a insistência de que a única resposta política radical ao capitalismo não é protestar, agitar, criticar, nem tão pouco esperar seu colapso nas mãos de suas próprias contradições, mas sim acelerar suas tendências ao desenraizamento, à alienação, à decodificação, à abstração”, na definição de Armen Avanessian e Mauro Reis na introdução do ótimo “Aceleracionismo: estrategias para una transición hacia el postcapitalismo

O livro, publicado pela editora argentina Caja Negra em 2017, compila vários textos ainda não muito conhecidos no Brasil, como o “Manifesto por uma Política Aceleracionista”, de Nick Srnicek e Alex Willians, “Meltdow” e “Crítica do Miserabilismo Transcendental” de Nick Land, “Reflexões sobre o Manifesto por uma política aceleracionista” de Antonio Negri , “O Aceleracionismo questionado desde o ponto de vista do corpo” de Bifo Berardi, “Red Stack Attack! Algoritmos, capital e a automatização do comumde Tiziana Terranova, “O labor do inumano” de Reza Negarestani, entre outros, inclusive o texto apresentado logo abaixo, de Mark Fisher.

Duas visões disputam o aceleracionismo. A primeira é a apocalíptica, elaborada principalmente por Nick Land, filósofo cocriador (ao lado de Sadie Plant) do CCRU (Cybernetic Culture Research Unit) – herético grupo de pesquisa/coletivo teórico criado em 1995 na Universidade de Warwick, do qual Mark Fisher fez parte. Mais tarde, Land se tornaria um dos principais ideólogos da extrema direita mundial, apoiador de Trump e até mesmo de Bolsonaro, mentor de gente como Mencius Moldbug e Peter Thiel, reza a lenda que auto-exilado em Shangai já há alguns anos – uma parte de seus textos entre 1987 e 2007 estão compilados no livro “Fanged Noumena”, de 2011.

Figura excêntrica, Land falava já em 1993 (no texto “Meltdown”) que os humanos são apenas “meat puppets” (fantoches de carne) do capital, um obstáculo a ser superado para que o capitalismo alcance seus objetivos transhumanistas de adquirir agência própria a partir da aceleração descontrolada das finanças e da Inteligência Artificial, rumo ao caos e a destruição do planeta. Esta visão anti-humanista e monstruosa, que parece sair de um filme de terror gore, nasce de “uma crítica ao tom celebratório às tendências desterritorializantes do capitalismo”, como afirmam Victor Marques e Rodrigo Gonsalves no posfácio à edição brasileira de “Realismo Capitalista”, de Mark Fisher, lançada em 2020 pela Autonomia Literária. Ela dobra a aposta em orientação a um futuro onde a humanidade se tornaria um entrave ao desenvolvimento do tecno-capital, uma ideia que, por mais estranha e grotesca que possa parecer, serve de pano de fundo hoje para gente como Elon Musk e sua obsessão com a colonização de outros planetas, e também para o “anarcocapitalismo” de Javier Milei, na Argentina. Land considera o tecno-capital como o verdadeiro sujeito da história, sendo a humanidade o seu hospedeiro e não seu mestre – um tipo de frase que poderia sair da boca do presidente argentino num programa ruim de TV transmitido por streaming, com Milei vociferando ferozmente ladeado por seus quatro cachorros clonados pela empresa PerPETuate a partir do DNA do Conan, seu enorme mastim inglês morto em 2017.

A outra visão em disputa do aceleracionismo seria aquela mais à esquerda, adotada por Fisher a partir de 2010, onde ela afirma que ser aceleracionista é, seguindo a máxima de Bertold Brecht, “não começar das coisas boas e velhas, mas das coisas novas e ruins”. Um “recuar para a frente”, mesmo que “através da merda do capital”, para adotar uma postura não contrária à tecnologia ou neoludista, como às vezes ecoa em certa parte da esquerda, mas sim uma que possa avaliar “que tipo de inovações técnicas podem ser apropriadas a serviço da emancipação humana”, como afirmam Marques e Gonsales no posfácio à Realismo Capitalista. Nessa visão, é forte a presença do imaginário do fim do trabalho, de longa tradição teórica (remetendo inclusive ao primeiro livro escrito pelo já citado Bifo, “Contra Il lavoro”, publicado em 1970) em que a inteligência artificial, por exemplo, poderia estar à serviço da humanidade, reduzindo o trabalho repetitivo e deixando as pessoas com mais tempo para o lazer, os cuidados e o prazer. Este imaginário utópico-otimista está presente em obras como “Pós-Capitalismo: um guia para o nosso futuro”, de Paul Mason (2017), publicado (e fora de catálogo) no Brasil pela Cia das Letras, e “Comunismo de Luxo Totalmente Automatizado”, de Aaron Bastani, lançado em 2022 pela Autonomia Literária.

O texto “Manifesto por uma política aceleracionista”, de Nick Srnicek e Alex Willians, é central nessa visão, pois sintetiza uma disputa de imaginário de futuro à esquerda, pós-capitalista, para também desnaturalizar a ideia do realismo capitalista de Mark Fisher em que o capitalismo virou o “padrão” com o qual nenhuma outra forma política estrangeira pode disputar. Como escrevem Srnicek e Willians, “o que o aceleracionismo promove é um futuro mais moderno; uma modernidade alternativa que o neoliberalismo é intrinsecamente incapaz de gerar”. Ainda que esse futuro pós-capitalista seja uma incógnita, é necessário tentar imaginá-lo para que se consiga mobilizar coletivamente uma renovação política, econômica e social na esfera do desejo. Algo que, hoje, a extrema-direita consegue fazer muito bem ao se apropriar do discurso “anti-sistema” ultraliberal e neorreacionário, idealizado por figuras como Land.

Aqui entra o conceito elaborado pelo CCRU de hiperstição, que fala da necessidade de inventar futuros ficcionais para que eles possam se tornar reais. Para Fisher, seria necessário pensar uma prática hipersticional comunista que, por sua vez, tivesse algo de pragmático, para que não caia na utopia vazia que nos deixa na posição cômoda de estar com as mãos limpas, mas inúteis – e derrotadas. No campo da disputa de imaginários tecnológicos, ainda que não associados ao aceleracionismo, o resgate da história do Cybersin, por Evgeny Morozov em “The Santiago Boys”, entraria nessa linha, ao relembrar os erros da tentativa de construção de um sistema técnico que ligasse dezenas de fábricas no Chile de Salvador Allende nos anos 1970 [a principal referência aqui é “Cybernetic Revolutionaries: Technology and Politics in Allende’s Chile”, de Éden Medina]. Poderíamos incluir aqui também o Cooperativismo de Plataforma e a sua potente ideia da posse das plataformas ser distribuída de forma coletiva entre seus cooperados, e também o “Oráculo de Tecnologias Transfeministas”, criado pela Coding Rights (por Joana Varon e Sasha Constanza-Chok, com ilustrações de Clarote), um projeto que fornece ferramentas para permitir um brainstorming coletivo sobre imaginários alternativos, mais inclusivos e diversos, em torno das tecnologias.

O texto abaixo, produzido em 2013 (quatro anos antes da morte de Fisher), se apresenta não como um programa de ações do aceleracionismo, tal qual o já citado “Manifesto por uma política aceleracionista”, mas como uma análise política da cultura – a cultura musical, como Fisher costumava gostar de trazer, mas também a comportamental. A partir da crítica musical e cultural de Ellen Wilis, Fisher analisa como a direita neoliberal individualizou os desejos coletivos que a contracultura abriu nos anos 1960 para, então, reivindicar esse novo terreno – e a partir daí, cooptar a contracultura e reduzir seus ideias libertários a “relíquias estéticas” destituídas de sua radicalidade política inicial.

Nesse ponto, a esquerda dos final da década de 1990 e do início dos 2000, algo perdida após o altermundismo e a proliferação massiva da internet e das tecnologias digitais, passa a ser até mesmo anti-aceleracionista: “é reduzida a defender, sem competência, relíquias na forma de compromissos antigos (a social-democracia, o New Deal) ou a extrair um gozo tíbio de seu próprio fracasso em superar o capitalismo”, como Fisher escreve. Citando Wendy Brown, ele afirma que esta esquerda passa a buscar refúgio no familiar e no tradicional sem qualquer impulso para a frente ou orientação própria, um tipo de melancolia que contribui para o fracasso da cultura popular em gerar sonhos – inclusive estéticos – novos, que avancem radicalmente na direção de um “outro” ainda não existente. Daí vem a sugestão do aceleracionismo de Fisher em reforçar a necessidade também de um imaginário aceleracionista para a cultura. Ele, porém, não chega a apontar diretamente elementos desse imaginário, embora critique em outro texto (“Fantasmas da Minha Vida”, lançado no Brasil em 2022) o  “modo nostalgia”, expressão criada por Fredric Jameson nos anos 1980 para se referir aos cada vez mais comuns pastiches pós-modernos dos anos 1980 que se apegam à forma e as técnicas do passado. O “modo nostalgia” reverbera a sensação, compartilhada também por Bifo em “Depois do Futuro” (lançado no Brasil em 2019 e já comentado por aqui), de um “lento cancelamento do futuro”, ou da dificuldade de imaginar futuros na arte decorrente também do afogamento pela superoferta de informação libertada na rede.

Fisher provavelmente não tinha conhecimento dos avanços transfeministas, indígenas e afro futuristas das ações autônomas tecnológicas na América Latina, na África e na Ásia. Possivelmente também não conhecia o kuduro angolano ou o funk brasileiro, ritmos e estéticas musicais que, na nossa visão, apontam para o futuro – um futuro algo precário, muito remixador e globo periférico [como já falávamos em 2010!]. Um futuro que, mesmo olhando para o passado, traz elementos novos, talvez ainda não compreendidos o suficiente por uma classe intelectual política de esquerda. Ainda assim, a análise de Fisher é importante como diagnóstico e organização de caminhos possíveis para novos imaginários também tecnológicos – aceleracionistas ou não.

 

[Leonardo Foletto e Victor Wolfenbüttel]

“Uma revolução social e psíquica de magnitude quase inconcebível”: os interrompidos sonhos aceleracionistas da cultura popular 

Mark Fisher

Tradução: Victor Wolfenbüttel e Leonardo Foletto. Originalmente publicado no e-flux #46, junho de 2013

Vivemos um momento de profunda desaceleração cultural. As primeiras duas décadas deste século têm sido marcadas até agora por um senso extraordinário de inércia, repetição e retrospecção, estranhamente alinhado com as análises proféticas da cultura pós-moderna que Fredric Jameson começou a desenvolver na década de 1980. Sintonize o rádio em uma estação que toque as músicas mais contemporâneas, e você não encontrará nada que não pudesse ter ouvido na década de 1990. A afirmação de Jameson de que o pós-modernismo era a lógica cultural do capitalismo tardio representa agora um presságio ameaçador do (não) futuro da produção cultural capitalista: tanto política como esteticamente, parece que agora só podemos esperar mais do mesmo, para sempre.

Pelo menos por enquanto, parece que a crise financeira de 2008 fortaleceu o poder do capital. Os programas de austeridade implementados com tanta agilidade na sequência da crise viram uma intensificação – em vez de um desaparecimento ou diluição – do neoliberalismo. A crise pode ter retirado a legitimidade do neoliberalismo, mas isso serviu apenas para mostrar que, na falta de qualquer força contrária eficaz, o poder capitalista pode agora prosseguir sem a necessidade de legitimidade. As ideias neoliberais são como a litania de uma religião cujo poder social sobreviveu à capacidade de ter fé dos crentes. O neoliberalismo está morto, mas continua. As explosões militantes de 2011 pouco fizeram para perturbar a sensação generalizada de que as únicas mudanças serão para pior.

Women packaging the Beatles’ album Rubber Soul at the Hayes Vynil Factory, England. A number of Beatles vynils bore the sentence “Manufactured in Hayes.”

Para entender o que pode estar em jogo no conceito de aceleracionismo estético, talvez valha a pena contrastar o estado de espírito dominante em nossos tempos com o tom afetivo de um período anterior. Em seu ensaio de 1979, “The Family: Love It or Leave It” (A família: ame-a ou deixe-a), a crítica musical e cultural Ellen Willis observou que o desejo da contracultura de substituir a família por um sistema de criação coletiva dos filhos implicaria “uma revolução social e psíquica de magnitude quase inconcebível [1]”. É muito difícil, em nossos tempos de esvaziamento, recriar a confiança da contracultura de que tal “revolução social e psíquica” não só poderia acontecer, como já estaria em processo de desenvolvimento. A vida de Willis, assim como a de muitos da sua geração, foi moldada pelo embalo dessas esperanças e por depois vê-las murchar gradualmente à medida que as forças de reação recuperavam o controle da história. Provavelmente, não há melhor relato do recuo da contracultura dos anos 60, da ambição prometeica para a autodestruição, a resignação e o pragmatismo, do que a coleção de ensaios de Willis, “Beginning To See The Light. A contracultura dos anos 60 pode ter sido reduzida a uma série de relíquias estéticas “icônicas” – demasiado familiares, de circulação interminável, des-historicizadas –, despojadas de conteúdo político, mas o trabalho de Willis permanece como uma dolorosa lembrança do fracasso da esquerda. Como Willis deixa claro na introdução do livro, ela se via frequentemente em desacordo com o que considerava o autoritarismo e o estatismo do socialismo dominante. Embora a música que ela ouvisse na época falasse de liberdade, o socialismo parecia ter mais a ver com centralização e controle estatal. A história de como a contracultura foi cooptada pela direita neoliberal nos é familiar agora, mas o outro lado desta narrativa fala sobre a incapacidade da esquerda de se transformar face às novas formas de desejo às quais a contracultura deu voz.

A ideia de que os “anos 60 conduziram ao neoliberalismo” se complica se damos ênfase no desafio às estruturas familiares. Porque então fica claro que a direita não absorveu correntes e energias contraculturais sem deixar vestígios. A conversão da rebelião contracultural em prazeres de consumo capitalistas necessariamente ignora a ambição da contracultura de acabar com as instituições da sociedade burguesa. Uma ambição que, da perspectiva do novo “realismo” que a direita impôs com sucesso, parece ingênua e sem esperança.

A política da contracultura era anticapitalista, argumenta Willis, mas isso não implicava em uma rejeição direta de tudo o que era produzido no capitalismo. O prazer e o individualismo certamente foram importantes para o que Willis caracterizava como a sua “disputa com a esquerda [2]”. Contudo, o desejo de acabar com a família não poderia ser construído apenas nestes termos; tratava-se inevitavelmente também de formas novas e sem precedentes de organização coletiva (porém não estatistas). A polêmica de Willis “contra as noções correntes da esquerda sobre o capitalismo avançado” considerava, na melhor das hipóteses, apenas como parcialmente verdadeiras as ideias de que “a economia de consumo nos torna escravos das mercadorias, que a função dos meios de comunicação de massa é manipular as nossas fantasias, e que por isso atingiremos a satisfação pessoal com a compra de mercadorias do sistema [3]”. A cultura popular – e a música em particular – era um terreno de luta mais do que de domínio do capital. A relação entre formas estéticas e política era instável e incipiente – a cultura não apenas “expressava” posições políticas já existentes, mas também antecipava uma política por vir (que também foi, muitas vezes, uma política que nunca de fato chegou).

Ellen Willis reading ‟No More Fun and Games,” a Journal of Female Liberation. Courtesy of the Ellen Willis’ family.

O papel da música como um dos motores da aceleração cultural do final dos anos 50 até o ano 2000 teve a ver com a sua capacidade de sintetizar diversas energias, tropos [4] e formas culturais, tanto quanto qualquer outra característica específica da própria música. A partir do final dos anos 50, a música tornou-se a zona onde as drogas, as novas tecnologias, as ficções (científicas) e os movimentos sociais podiam combinar-se para produzir sonhos – vislumbres sugestivos de mundos radicalmente diferentes da ordem social existente. (A ascensão do “realismo” de direita implicou não apenas a destruição de formas particulares de sonho, mas a própria supressão da função de sonhar na cultura popular.) Por um momento, bem no coração da música comercial, abriu-se um espaço de autonomia para os músicos explorarem e experimentarem. Neste período, a música popular foi definida por uma tensão entre os desejos e imperativos (geralmente) incompatíveis dos artistas, do público e do capital. Sua conversão em mercadoria não era o ponto em que esta tensão seria sempre e inevitavelmente resolvida em favor do capital; em vez disso, as próprias mercadorias poderiam ser os meios pelos quais correntes rebeldes poderiam se propagar: “Os meios de comunicação de massa ajudaram a espalhar a rebelião, e o sistema gentilmente comercializou produtos que a encorajaram, pela simples razão de que havia dinheiro a ser ganho com os rebeldes que também eram consumidores. Num certo nível, a revolta dos anos 60 foi uma ilustração impressionante da observação de Lênin de que “o capitalista te venderá a corda para enforcá-lo [5]”.

Isso agora parece bastante otimista, uma vez que, como todos nós sabemos, não foi o capitalista quem acabou enforcado. O marketing da rebelião acabou sendo mais sobre o triunfo do marketing do que da rebelião. O golpe da direita neoliberal consistiu em individualizar os desejos que a contracultura abriu, e, em seguida, reivindicar o novo terreno libidinal. A ascensão da nova direita foi baseada no repúdio à ideia de que a vida, o trabalho e a reprodução poderiam ser transformados coletivamente – agora, o capital seria o único agente de transformação. O recuo de qualquer contestação séria à família é um lembrete de que o clima de reação que cresceu a partir da década de 1980 não foi apenas sobre a restauração de algum poder econômico estritamente definido: foi também sobre o retorno – no nível da ideologia, não necessariamente do fato empírico – de instituições sociais e culturais que pareciam possíveis de serem eliminadas na década de 1960.

No seu ensaio de 1979, Willis insiste que o regresso do familiarismo foi central para a ascensão da nova direita, que estava prestes a ser confirmada, em grande estilo, com a eleição de Ronald Reagan nos EUA e de Margaret Thatcher no Reino Unido. “Se existe uma tendência cultural que definiu os anos 70”, escreve Willis, “foi o ressurgimento agressivo do chauvinismo familiar [6]”. Para Willis, talvez o sinal mais perturbador deste novo conservadorismo tenha sido a aceitação da família por partes da esquerda [7] – uma direção reforçada pela tendência dos antigos adeptos da contracultura (inclusive ela própria) de (re)tornar-se à família, devido a um misto de exaustão e derrotismo. “Lutei, fiz minha parte, cansei de ser marginal. Eu quero entrar!” [8]. A impaciência – o desejo de uma mudança súbita, total e irrevogável; do fim da família dentro do tempo de uma geração – deu lugar a uma resignação amarga quando isso (inevitavelmente) não aconteceu.

Cover of The Alien Critic # 7, Nov 1973. Cover artist: Steven Fabian.

Agora podemos nos voltar para a controversa questão do aceleracionismo. Quero situar o aceleracionismo não como uma forma herética de marxismo, mas como uma tentativa de convergir, intensificar e politizar as dimensões mais desafiadoras e exploratórias da cultura popular. O desejo de Willis de “uma revolução social e psíquica de magnitude quase inconcebível” e a sua “disputa com a esquerda” sobre o desejo e a liberdade podem oferecer uma maneira diferente de pensar o que está em jogo neste conceito tão mal compreendido. Uma certa visão do aceleracionismo, talvez agora dominante, afirma que a posição equivale a uma torcida pela intensificação de qualquer processo capitalista, especialmente o “pior”, na esperança de que isso leve o sistema a um ponto de crise terminal. (Um exemplo disto seria a ideia de que votar em Reagan e Thatcher nos anos 80 foi a estratégia revolucionária mais eficaz, uma vez que suas políticas supostamente levariam à insurreição). No entanto, esta formulação é questionável, na medida em que assume aquilo que o aceleracionismo rejeita – a ideia de que tudo o que é produzido “sob” o capitalismo pertence integralmente ao capitalismo. Em contraste, o aceleracionismo sustenta que existem desejos e processos que o capitalismo dá origem e dos quais se alimenta, mas que não consegue conter. É a aceleração destes processos que empurrará o capitalismo para além dos seus limites. O aceleracionismo é também a convicção de que o mundo desejado pela esquerda é pós-capitalista – que não há possibilidade de retorno a um mundo pré-capitalista e que não há desejo sério de regressar a este mundo, mesmo que pudéssemos.

A artimanha aceleracionista depende de uma certa compreensão do capitalismo, melhor articulada por Deleuze e Guattari em Anti-Édipo (um texto que, não por coincidência, surgiu na esteira da contracultura). Na famosa formulação do Anti-Édipo, o capitalismo é definido pela sua tendência a descodificar/desterritorializar ao mesmo tempo que recodifica/reterritorializa. Por um lado, o capitalismo desmantela todas as estruturas, normas e modelos sociais e culturais existentes do sagrado; por outro, revive inúmeras formações aparentemente atávicas (identidades tribais, religiões, poder dinástico…):

“A axiomática social das sociedades modernas está contida entre dois polos, e não para de oscilar de um polo a outro. Tais sociedades, nascidas da descodificação e da desterritorialização, sobre as ruínas da máquina despótica, estão contidas entre o Urstaat, que bem gostariam de ressuscitar como unidade sobrecodificante e reterritorializante, e os fluxos desencadeados que as levam em direção a um limiar absoluto. Elas recodificam com toda a força, a golpes de ditadura mundial, de ditadores locais e de polícia toda-poderosa, enquanto descodificam ou deixam descodificar as quantidades fluentes de seus capitais e de suas populações. Elas estão contidas entre duas direções: arcaísmo e futurismo, neoarcaísmo e ex-futurismo, paranoia e esquizofrenia [9]”.

Esta descrição capta estranhamente a forma como a cultura capitalista se desenvolveu a partir da década de 1970, com a desregulamentação neoliberal amoral almejando um projeto de dessacralização e mercantilização sem limites, complementada por um neoconservadorismo explicitamente moralizante, que procura reavivar e reforçar tradições e instituições mais antigas. No nível do conteúdo proposto, esses futurismos e neoarcaísmos se contradizem, mas e daí?

“Nunca uma discordância ou um disfuncionamento anunciaram a morte de uma máquina social que, ao contrário, se alimenta habitualmente das contradições que provoca, das crises que suscita, das angústias que engendra e das operações infernais que a revigoram: o capitalismo aprendeu isso e deixou de duvidar de si, e até os socialistas deixavam de acreditar na possibilidade da sua morte natural por desgaste. As contradições nunca mataram ninguém [10]”.

Se o capitalismo é definido como a tensão entre desterritorialização e reterritorialização, entende-se então que uma forma (talvez a única) de superar o capitalismo seja remover os amortecedores da reterritorialização. Daí a notória passagem do Anti-Édipo, que poderia servir de epígrafe ao aceleracionismo:

“Então, qual solução, qual via revolucionária? (…) Retirar-se do mercado mundial, como Samir Amin aconselha aos países do Terceiro Mundo, numa curiosa renovação da “solução econômica” fascista? Ou ir no sentido contrário, isto é, ir ainda mais longe no movimento do mercado, da descodificação e da desterritorialização? Pois talvez os fluxos ainda não estejam suficientemente desterritorializados e suficientemente descodificados, do ponto de vista de uma teoria e de uma prática dos fluxos com alto teor esquizofrênico. Não retirar-se do processo, mas ir mais longe, “acelerar o processo”, como dizia Nietzsche: na verdade, a esse respeito, nós ainda não vimos nada [11]”.

A passagem é enigmática e provocadora – o que Deleuze e Guattari querem dizer ao associar o “movimento do mercado” com “descodificação e desterritorialização”? Infelizmente eles não explicam, o que tornou fácil para os marxistas ortodoxos enquadrarem esta passagem como um exemplo clássico de como 1968 conduziu à hegemonia neoliberal – mais uma capitulação da esquerda à lógica da nova direita. Esta leitura foi facilitada pela utilização desta passagem na década de 1990 por Nick Land para fins explicitamente antimarxistas. Mas e se lermos esta seção do Anti-Édipo não como uma retratação do marxismo, mas como um novo modelo para o que o marxismo poderia ser? É possível que o que Deleuze e Guattari delineavam aqui fosse o tipo de política que Ellen Willis defendia: uma política que fosse hostil ao capital, mas viva ao desejo; uma política que rejeitasse todas as formas do velho mundo em favor de uma “nova terra”; isto é, uma política que exigisse “uma revolução social e psíquica de magnitude quase inconcebível”?

Um ponto de convergência entre Willis e Deleuze e Guattari foi a sua crença comum de que a família estava no centro da política de reação. Para Deleuze e Guattari, talvez seja a família, mais do que qualquer outra instituição, a principal agência da reterritorialização capitalista: a família como estrutura transcendental (“mamãe-papai-eu”) assegura provisoriamente a identidade em meio e contra as tendências líquidas do capital, sua propensão a dissolver todas as certezas preexistentes. É por esta razão, sem dúvida, que alguns esquerdistas recorrem à família como um antídoto e escape ao colapso capitalista – mas isto é ignorar a forma como o capitalismo depende da função reterritorializadora da família.

Não é por acaso que a infame afirmação de Margaret Thatcher de que “não existe sociedade, apenas indivíduos” teve de ser complementada por “… e as suas famílias”. É também significativo que em Deleuze e Guattari, tal como noutros teóricos anti psiquiátricos como R. D. Laing e David Cooper, o ataque à família estivesse associado a um ataque às formas dominantes de psiquiatria e psicoterapia. A crítica de Deleuze e Guattari à psicanálise baseia-se na maneira como ela isola o indivíduo do campo social mais amplo, privatizando as origens do sofrimento no “teatro” edipiano das relações familiares. Eles argumentam que a psicanálise, em vez de analisar a forma como o capitalismo realiza esta privatização psíquica, apenas a repete. Também é notável que as lutas antipsiquiátricas retrocederam tanto quanto as lutas pela família: para que o sistema de realidade da nova direita fosse naturalizado, era necessário que essas lutas, indissociáveis da contracultura, fossem não apenas derrotadas, mas sim que desaparecessem.

Vale a pena parar aqui para refletir sobre o quão longe a esquerda está de defender com confiança o tipo de revolução que Deleuze e Guattari e Ellen Willis esperavam. A análise de Wendy Brown sobre a “melancolia de esquerda” no final da década de 1990 ainda capta dolorosamente (e de forma embaraçosa) os impasses libidinais e ideológicos em que a esquerda muitas vezes se vê presa. Na verdade, Brown descreve o que é uma esquerda anti-aceleracionista: uma esquerda que, sem qualquer impulso para a frente ou orientação própria, é reduzida a defender, sem competência, relíquias na forma de compromissos antigos (a social-democracia, o New Deal) ou a extrair um gozo tíbio de seu próprio fracasso em superar o capitalismo. Muito longe de estar do lado do inimaginável e do inédito, esta é uma esquerda que se refugia no familiar e no tradicional. “O que surge”, escreve Brown,

“é uma esquerda que opera sem uma crítica profunda e radical do status quo ou sem uma alternativa convincente à ordem existente das coisas. Mas talvez ainda mais preocupante, é uma esquerda que se tornou mais apegada à sua impossibilidade do que à sua potencial fecundidade; uma esquerda que se sente mais à vontade vivendo não na esperança, mas na sua própria marginalidade e fracasso; uma esquerda que está presa em uma estrutura de apego melancólico a um certo nicho de seu próprio passado morto, cujo espírito é fantasmagórico, cuja estrutura de desejo é retrógrada e punitiva [12]”.

Foi precisamente esta tendência esquerdista para o conservadorismo, a defensiva e a nostalgia que permitiram que Nick Land provocasse a esquerda dos anos 90 com o Anti-Édipo, argumentando que a “destruição criativa” do capital era muito mais revolucionária do que qualquer coisa que a esquerda fosse capaz de projetar agora.

Margret Thatcher supporting pro-market campaigners in Parliament Square, on the eve of polling for the common market referendum, 1975. Photo: A/P.

Não há dúvidas de que esta melancolia persistente contribuiu para o fracasso da esquerda em tomar a iniciativa após a crise financeira de 2008. A crise e suas consequências até agora justificaram a visão de Deleuze e Guattari de que “as máquinas sociais têm o hábito de se alimentar… das crises que provocam.” O domínio contínuo do capital pode ter tanto a ver com o fracasso da cultura popular em gerar novos sonhos como com a qualidade inercial das posições e estratégias políticas oficiais. Onde a cultura popular de vanguarda do século XX permitiu todos os tipos de ensaios experimentais daquilo que Hardt e Negri chamam de “monstruoso, violento e traumático… processo revolucionário de abolição da identidade [13]”, os recursos culturais para este tipo de desmantelamento do eu estão agora um tanto desnudados. Michael Hardt disse que “o conteúdo positivo do comunismo, que corresponde à abolição da propriedade privada, é a produção autônoma da humanidade – uma nova visão, uma nova maneira de ouvir, pensar, amar [14]”. O tipo de reconstrução da subjetividade e das categorias cognitivas que o pós-capitalismo irá implicar é tanto um projeto estético como algo que pode ser entregue por qualquer tipo de agente parlamentar ou estatista. Hardt refere-se à discussão de Foucault sobre a frase de Marx “o homem produz o homem”. O programa que Foucault descreve na sua explicação sobre esta frase (abaixo) precisa ser recuperado pela cultura caso se almeje alguma esperança de alcançar a “revolução social e psíquica de magnitude quase inconcebível” com que a cultura popular uma vez sonhou:

“O problema não é recuperar a nossa identidade “perdida”, libertar nossa natureza aprisionada, nossa verdade mais profunda; em vez disso, o problema é avançar em direção a algo radicalmente Outro. O centro da questão ainda parece estar na frase de Marx: o homem produz o homem… Para mim, o que deve ser produzido não é um homem idêntico a si mesmo, exatamente como a natureza o teria desenhado ou de acordo com a sua essência; pelo contrário, devemos produzir algo que ainda não existe e sobre o qual ainda não podemos saber como e nem o que será [15]”.

NOTAS

[1]: Ellen Willis, Beginning To See The Light: Sex, Hope and Rock-and-Roll (Hannover and London: Wesleyan University Press, 1992), p. 158.
[2]: No original, “quarrel with the left”. Ellen Willis, Beginning To See The Light: Sex, Hope and Rock-and-Roll (Hannover and London: Wesleyan University Press, 1992), p.16
[3]: Ellen Willis, Beginning To See The Light: Sex, Hope and Rock-and-Roll. Hannover and London: Wesleyan University Press, 1992.
[4]: No original, “tropes“, que significa literalmente tropo, mas que possui proximidade de sentido à metáfora.
[5]: Ellen Willis, Beginning To See The Light: Sex, Hope and Rock-and-Roll. Hannover and London: Wesleyan University Press, 1992, p.16.
[6]: Ibid., 150.
[7]: “On the left, family chauvinism often takes the form of nostalgic declarations that the family, with its admitted faults, has been vitiated by modern capitalism, which is much worse (at least the family is based on personal relations rather than soulless cash, etc., etc.).” Ibid., 152.
[8]: Ibid., 161.
[9]: Gilles Deleuze e Félix Guattari, O Anti-Édipo: Capitalismo e Esquizofrenia 1. Trad. Luiz B. L. Orlandi. São Paulo; Editora 34, 2010. p.345.
[10]: Ibid., p. 202.
[11]: Ibid., p.318
[12]: Wendy Brown, “Resisting Left Melancholy,” Boundary 2 26:3 (1999): 19–27.
[13]: “Para muitas pessoas, de fato, a família é o principal se não exclusivo local de experiencia social coletiva, acordos de trabalho cooperativo, carinho e intimidade. Baseia-se nos commons, mas ao mesmo tempo o corrompe, impondo uma série de hierarquias, restrições, exclusões e distorções.” Tradução. de Clarice Pelotas. Antonio Negri e Michael Hardt, Commonwealth. Cambridge, MA: Belknap Press, 2009. p 339.
[14]: Michel Hardt, “The Common in Communism,” in eds. Costas Douzinas and Slavoj Žižek, The Idea of Communism. New York: Verso, 2010. p.141.
[15]: Michel Foucault, Observações sobre Marx (Nova York: Semiotext(e), 1991), 121.

 

 

 

]]>
https://baixacultura.org/2024/05/16/os-interrompidos-sonhos-aceleracionistas-da-cultura-popular/feed/ 2
Extinção da Internet no Rio de Janeiro https://baixacultura.org/2024/04/05/extincao-da-internet-no-rio-de-janeiro/ https://baixacultura.org/2024/04/05/extincao-da-internet-no-rio-de-janeiro/#respond Fri, 05 Apr 2024 16:01:03 +0000 https://baixacultura.org/?p=15628 Na próxima quinta-feira (11/4), 18h, vai acontecer um debate de lançamento do “Extinção da Internet”, de Geert Lovink, no Rio de Janeiro. Será na Livraria da Vinci (Av. Rio Branco, 185 – Subsolo), no Centro da cidade, com a presença de:

_ Leonardo Foletto, autor do prefácio e editor do BaixaCultura, professor e pesquisador (FGV ECMI);
_ Debora Pio, doutoranda em Comunicação e pesquisadora do MediaLab UFRJ;
_ Joana Varon, fundadora e diretora-executiva da Coding Rights, afiliada ao Berkman Klein Center for Internet and Society em Harvard;

A proposta da mesa é debater as utopias e distopias da internet nos últimos anos a partir das provocações presentes no livro de Geert. Como salvar o “tecnossocial” das mãos do Vale do Silício e do controle estatal, sem cair no romantismo offline ou no comunalismo defensivo e voltado para dentro? Será que uma outra internet — descentralizada, menos vigilante, mais das pessoas do que de empresas e robôs, transfeminista, decolonial e antirracista — ainda é possível?

Extinção da Internet”, o livro, não é apenas uma fantasia de fim de mundo da tecnologia digital que um dia será exterminada por um pulso eletromagnético ou pelo corte de cabos. Em vez disso, marca o fim de uma era de possibilidades e especulações, quando a adaptação já não é uma opção. Como pergunta Geert: “O que deve ser feito para defender o inevitável? Precisamos de ferramentas que descolonizem, redistribuam valor, conspirem e organizem. Junte-se ao êxodo da plataforma, é hora de atacar a otimização. Existe beleza no colapso”.

Além de convocar os leitores a examinar o status atual da internet, o livro tenta pensar, criativamente, em alternativas bifurcativas. Para isso, usa memes, cita fóruns da internet, ativistas conhecidos e chama um time de pensadores que estão, quase todos, se debruçando hoje sobre a relação do capitalismo neoliberal com a tecnologia digital.

Professor da Universidade de Amsterdam de Ciências Aplicadas, Geert Lovink tem um longo histórico no ativismo midiático e ciberativista europeu. Membro fundador da rede Nettime (1996), é diretor do Institute of Network Cultures, em Amsterdam, e autor de livros como “Networks Without a Case” (2012), “Social Media Abyss” (2016), Sad by Design (2019, em tradução para o português) e Stuck on the Platform (2022).

O livro é o primeiro da coleção “Âncoras do Futuro”, organizada pela Funilaria e o BaixaCultura, com publicações que buscam politizar o mal-estar que nos acomete hoje sobre os rumos da internet e das tecnologias digitais. Os próximos lançamentos da coleção estão marcados para o segundo semestre de 2024. Ele pode ser aquirido e/ou baixado aqui.

Uma transcrição automática, sem edições, via PinPoint, da conversa pode ser vista aqui.

]]>
https://baixacultura.org/2024/04/05/extincao-da-internet-no-rio-de-janeiro/feed/ 0
O olho do mestre: a automação da inteligência geral https://baixacultura.org/2024/02/28/o-olho-do-mestre-a-automacao-da-inteligencia-geral/ https://baixacultura.org/2024/02/28/o-olho-do-mestre-a-automacao-da-inteligencia-geral/#respond Thu, 29 Feb 2024 01:07:13 +0000 https://baixacultura.org/?p=15585  

No final de 2023, não lembro onde nem como, fiquei sabendo de “The Eye of the Master”, novo livro do Matteo Pasquinelli sobre IA. Fiquei na hora empolgado. Primeiro porque a proposta do livro é a de contar uma “história social” da IA, indo desde Charles Babbage até hoje, passando e destrinchando o conceito de general intellect de Marx (hoje bastante usado nos estudos tecnopolíticos) e a onipresente cibernética, também uma área de estudos bastante retomada nos últimos anos por Yuk Hui, Letícia Cesarino e diversos outros pesquisadores, até chegar as IAs generativas de hoje. Tudo uma abordagem rigorosa, por vezes densa,  cheia de referências saborosas, e marxista – com várias aberturas típicas do autonomismo italiano e do pós-operaísmo, influências do autor.

Segundo porque Pasquinelli, professor de filosofia da ciência na Universidade Foscari, em Veneza, tem, ele próprio, um belo histórico em se debruçar nos estudos da filosofia da técnica. Eu o conheci pela primeira vez há cerca de 10 anos atrás, quando o artigo “A ideologia da cultura livre e a gramática da sabotagem” saiu como capítulo do Copyfight, importante livro organizado por Bruno Tarin e Adriano Belisário. Depois, outros textos de Pasquinelli foram publicados em português pelo coletivo Universidade Nômade; um deles, “O algoritmo do PageRank do Google: Um diagrama do capitalismo cognitivo e da exploração da inteligência social geral”, já em 2012 apontava para a exploração da “inteligência social geral” por algoritmos das big techs – o que hoje, com IAs generativas, virou um consenso global.

Ainda estou digerindo a leitura da obra e me debruçando sobre alguns tópicos e referências citados, enquanto espero minha cópia impressa do original chegar para rabiscar e estudar com mais calma. Encharcado de uma saborosa empolgação intelectual, daquelas que nos deixam ao mesmo tempo animado pelas descobertas e ansioso em compartilhar esses achados, fui ao texto que Pasquinelli publicou no E-Flux, em dezembro de 2023, “The Automation of General Intelligence” e traduzi para o português. O texto publicado é uma versão do posfácio do livro, onde o italiano sintetiza alguns pontos da obra e aponta caminhos tanto para a discussão teórica quanto para a disputa ativista. Com a ajuda do amigo Leonardo Palma, busquei traduzir cotejando e adaptando alguns conceitos para o português brasileiro, tentando quando possível trazer referências às obras já publicadas por aqui. 

Para acompanhar o texto, trouxe as imagens que ilustram a publicação no E-Flux. Disponibilizo também o livro inteiro em inglês, publicado pela Verso Books (edições em outros idiomas estão vindo) – “The Eye of the Master: A Social History of Artificial Intelligence” – para baixar – mas você sabe, não é para espalhar.

[Leonardo Foletto]

A automação da Inteligência geral (General Intelligence)

Matteo Pasquinelli

Queremos fazer as perguntas certas. Como as ferramentas funcionam? Quem as financia e as constroi, e como são usadas? A quem elas enriquecem e a quem elas empobrecem? Que futuros elas tornam viáveis e quais excluem? Não estamos procurando respostas. Estamos procurando por lógica.
—Logic Magazine Manifesto, 2017[¹]

Vivemos na era dos dados digitais e, nessa era, a matemática se tornou o parlamento da política. A lei social se entrelaçou com modelos, teoremas e algoritmos. Com os dados digitais, a matemática se tornou o meio dominante pelo qual os seres humanos se coordenam com a tecnologia… Afinal, a matemática é uma atividade humana. Como qualquer outra atividade humana, ela traz consigo as possibilidades tanto de emancipação quanto de opressão.
—Politically Mathematics manifesto, 2019[²]

“A mesma importância que as relíquias de ossos têm para o conhecimento da organização das espécies de animais extintas têm também as relíquias de meios de trabalho para a compreensão de formações socioeconômicas extintas. O que diferencia as épocas econômicas não é “o que” é produzido, mas “como”, “com que meios de trabalho”. Estes não apenas fornecem uma medida do grau de desenvolvimento da força de trabalho, mas também indicam as condições sociais nas quais se trabalha”.
—Karl Marx, Capital, 1867[³]


H
averá um dia no futuro em que a IA atual será considerada um arcaísmo, um fóssil técnico a estudar entre outros
. Na passagem de “O Capital” citada acima, Marx sugeriu uma analogia semelhante que ressoa nos estudos científicos e tecnológicos atuais: da mesma forma que os ossos fósseis revelam a natureza das espécies antigas e os ecossistemas em que viviam, os artefatos técnicos revelam a forma da sociedade que os rodeia e gere. A analogia é relevante, penso eu, para todas as máquinas e também para a aprendizagem automática, cujos modelos abstratos codificam, na realidade, uma concretização de relações sociais e comportamentos coletivos, como este livro tentou demonstrar ao reformular a teoria laboral da automação do século XIX para a era da IA.

 

 

Este livro [“ O Olho do Mestre”] começou com uma pergunta simples: Que relação existe entre o trabalho, as regras e a automação, ou seja, a invenção de novas tecnologias? Para responder a esta questão, iluminou práticas, máquinas e algoritmos a partir de diferentes perspectivas – da dimensão “concreta” da produção e da dimensão “abstrata” de disciplinas como a matemática e a informática. A preocupação, no entanto, não tem sido repetir a separação dos domínios concreto e abstrato, mas ver a sua coevolução ao longo da história: eventualmente, investigar o trabalho, as regras e a automação, dialeticamente, como abstrações materiais. O capítulo inicial sublinha este aspecto, destacando como os rituais antigos, os instrumentos de contagem e os “algoritmos sociais” contribuíram para a elaboração das ideias matemáticas. Afirmar, como o fez a introdução, que o trabalho é uma atividade lógica não é uma forma de abdicar da mentalidade das máquinas industriais e dos algoritmos empresariais, mas antes reconhecer que a práxis humana exprime a sua própria lógica (uma anti-lógica, poderia se dizer) – um poder de especulação e invenção, antes de a tecnociência o capturar e alienar [4].

A tese de que o trabalho tem de se tornar “mecânico” por si só, antes que a maquinaria o substitua, é um velho princípio fundamental que foi simplesmente esquecido. Remonta, pelo menos, à exposição de Adam Smith em “A Riqueza das Nações” (1776), que Hegel também comentou já nas suas conferências de Jena (1805-6). A noção de Hegel de “trabalho abstrato” como o trabalho que dá “forma” à maquinaria já estava em dívida para com a economia política britânica antes de Marx contribuir com a sua própria crítica radical ao conceito. Coube a Charles Babbage sistematizar a visão de Adam Smith numa consistente “teoria do trabalho da automação”. Babbage complementou esta teoria com o “princípio do cálculo do trabalho” (conhecido desde então como o “princípio de Babbage”) para indicar que a divisão do trabalho também permite o cálculo exato dos custos do trabalho. Este livro pode ser considerado uma exegese dos dois “princípios de análise do trabalho” de Babbage e da sua influência na história comum da economia política, da computação automatizada e da inteligência das máquinas. Embora possa parecer anacrônico, a teoria da automatização e da extração de mais-valia relativa de Marx partilha postulados comuns com os primeiros projetos de inteligência artificial.

Marx derrubou a perspetiva industrialista – “o olho do mestre” – que era inerente aos princípios de Babbage. Em “O Capital”, argumentou que as “relações sociais de produção” (a divisão do trabalho no sistema salarial) impulsionam o desenvolvimento dos “meios de produção” (máquinas-ferramentas, motores a vapor, etc.) e não o contrário, como as leituras tecno-deterministas têm vindo a afirmar, centrando a revolução industrial apenas na inovação tecnológica. Destes princípios de análise do trabalho, Marx fez ainda outra coisa: considerou a cooperação do trabalho não só como um princípio para explicar o design das máquinas, mas também para definir a centralidade política daquilo a que chamou o “Gesamtarbeiter“, o “trabalhador geral”. A figura do trabalhador geral era uma forma de reconhecer a dimensão maquínica do trabalho vivo e de confrontar o “vasto autômato” da fábrica industrial com a mesma escala de complexidade. Eventualmente, foi também uma figura necessária para fundamentar, numa política mais sólida, a ideia ambivalente do “intelecto geral” (general intellect) que os socialistas ricardianos, como William Thompson e Thomas Hodgskin, perseguiam.


Das linhas de montagem ao reconhecimento de padrões

Este livro apresentou uma história alargada da divisão do trabalho e das suas métricas como forma de identificar o princípio operativo da IA a longo prazo. Como vimos, na virada do século XIX, quanto mais a divisão do trabalho se estendia a um mundo globalizado, mais problemática se tornava a sua gestão, exigindo novas técnicas de comunicação, controle e “inteligência”. Se, no interior da fábrica a gestão do trabalho podia ainda ser esboçada num simples fluxograma e medida por um relógio, era muito complicado visualizar e quantificar aquilo que Émile Durkheim, já em 1893, definia como “a divisão do trabalho social“[5]. A “inteligência” do patrão da fábrica já não podia vigiar todo o processo de produção num único olhar; agora, só as infra-estruturas de comunicação podiam desempenhar esse papel de supervisão e quantificação. Os novos meios de comunicação de massas, como o telégrafo, o telefone, a rádio e as redes de televisão, tornaram possível a comunicação entre países e continentes, mas também abriram novas perspectivas sobre a sociedade e os comportamentos coletivos. James Beniger descreveu corretamente a ascensão das tecnologias da informação como uma “revolução do controle” que se revelou necessária nesse período para governar o boom econômico e o excedente comercial do Norte Global.  Após a Segunda Guerra Mundial, o controle desta logística alargada passou a ser preocupação de uma nova disciplina militar que fazia a ponte entre a matemática e a gestão: a pesquisa operacional (Operations Research). No entanto, há que ter em conta que as transformações da classe trabalhadora no interior de cada país e entre países, marcadas por ciclos de conflitos urbanos e lutas descoloniais, foram também um dos fatores que levaram ao aparecimento destas novas tecnologias de controle.

A mudança de escala da composição do trabalho do século XIX para o século XX também afetou a lógica da automatização, ou seja, os paradigmas científicos envolvidos nesta transformação. A divisão industrial do trabalho relativamente simples e as suas linhas de montagem aparentemente retilíneas podem ser facilmente comparadas a um simples algoritmo, um procedimento baseado em regras com uma estrutura “se/então“(if/then) que tem o seu equivalente na forma lógica da dedução. A dedução, não por coincidência, é a forma lógica que, através de Leibniz, Babbage, Shannon e Turing, se inervou na computação eletromecânica e, eventualmente, na IA simbólica. A lógica dedutiva é útil para modelar processos simples, mas não sistemas com uma multiplicidade de agentes autônomos, como a sociedade, o mercado ou o cérebro. Nestes casos, a lógica dedutiva é inadequada porque explodiria qualquer procedimento, máquina ou algoritmo num número exponencial de instruções. A partir de preocupações semelhantes, a cibernética começou a investigar a auto-organização em seres vivos e máquinas para simular a ordem em sistemas de alta complexidade que não podiam ser facilmente organizados de acordo com métodos hierárquicos e centralizados. Esta foi fundamentalmente a razão de ser do conexionismo e das redes neurais artificiais, bem como da investigação inicial sobre redes de comunicação distribuídas, como a Arpanet (a progenitora da Internet).

Ao longo do século XX, muitas outras disciplinas registaram a crescente complexidade das relações sociais. Os conceitos gêmeos de “Gestalt” e “padrão” (“pattern”), por exemplo, utilizados respectivamente por Kurt Lewin e Friedrich Hayek, foram um exemplo da forma como a psicologia e a economia responderam a uma nova composição da sociedade. Lewin introduziu noções holísticas como “campo de forças”(“force field”) e “espaço hodológico” (“hodological space”) para mapear a dinâmica de grupo a diferentes escalas entre o indivíduo e a sociedade de massas[6].

O pensamento francês tem sido particularmente fértil e progressivo nesta direção. Os filósofos Gaston Bachelard e Henri Lefebvre propuseram, por exemplo, o método da “ritmanálise” (“rhythmanalysis”) como estudo dos ritmos sociais no espaço urbano (que Lefebvre descreveu de acordo com as quatro tipologias de arritmia, polirritmia, eurritmia e isorritmia [7]). De forma semelhante, a arqueologia francesa dedicou-se ao estudo de formas alargadas de comportamento social nas civilizações antigas. Por exemplo, o paleoantropólogo André Leroi-Gourhan, juntamente com outros, introduziu a ideia de cadeia operacional (“chaîne opératoire”) para explicar a forma como os humanos pré-históricos produziam utensílios [8]. No culminar desta longa tradição de “diagramatização” dos comportamentos sociais no pensamento francês, Gilles Deleuze escreveu o seu célebre “Pós-escrito sobre a Sociedade de Controle”, no qual afirmava que o poder já não se preocupava com a disciplina dos indivíduos, mas com o controle dos “dividuais”, ou seja, dos fragmentos de um corpo alargado e desconstruído [9].

Os campos de força de Lewin, os ritmos urbanos de Lefebvre e os dividuais de Deleuze podem ser vistos como previsões dos princípios de “governação algorítmica” que se estabeleceram com a sociedade em rede e os seus vastos centros de dados desde o final da década de 1990. O lançamento em 1998 do algoritmo PageRank da Google – um método para organizar e pesquisar o hipertexto caótico da Web – é considerado, por convenção, a primeira elaboração em grande escala de “grandes dados” das redes digitais [10]. Atualmente, estas técnicas de mapeamento de redes tornaram-se onipresentes: O Facebook, por exemplo, utiliza o protocolo Open Graph para quantificar as redes de relações humanas que alimentam a economia da atenção da sua plataforma [11]. O exército dos EUA tem utilizado as suas próprias técnicas controversas de “análise de padrões de vida” para mapear redes sociais em zonas de guerra e identificar alvos de ataques de drones que, como é sabido, mataram civis inocentes [12]. Mais recentemente, as plataformas da gig economy (“Economia do Bico”) e os gigantes da logística, como a Uber, a Deliveroo, a Wolt e a Amazon, começaram a localizar a sua frota de passageiros e condutores através de aplicações de geolocalização [13]. Todas estas técnicas fazem parte do novo domínio da “análise de pessoas” (também conhecida como “física social” ou “psicografia”), que é a aplicação da estatística, da análise de dados e da aprendizagem automática ao problema da força de trabalho na sociedade pós-industrial [14].

 

A automação da psicometria, ou inteligência geral (general intellect)

A divisão do trabalho, tal como o design das máquinas e dos algoritmos, não é uma forma abstrata em si, mas um meio de medir o trabalho e os comportamentos sociais e de diferenciar as pessoas em função da sua capacidade produtiva. Tal como os princípios de Babbage indicam, qualquer divisão do trabalho implica uma métrica: uma medição da performatividade e da eficiência dos trabalhadores, mas também um juízo sobre as classes de competências, o que implica uma hierarquia social implícita. A métrica do trabalho foi introduzida para avaliar o que é e o que não é produtivo, para manipular uma assimetria social e, ao mesmo tempo, declarar uma equivalência ao sistema monetário. Durante a era moderna, as fábricas, os quartéis e os hospitais têm procurado disciplinar e organizar os corpos e as mentes com métodos semelhantes, tal como Michel Foucault, entre outros, pressentiu.

No final do século XIX, a metrologia do trabalho e dos comportamentos encontrou um aliado num novo campo da estatística: a psicometria. A psicometria tinha como objetivo medir as competências da população na resolução de tarefas básicas, fazendo comparações estatísticas em testes cognitivos em vez de medir o desempenho físico, como no campo anterior da psicofísica [15]. Como parte do legado controverso de Alfred Binet, Charles Spearman e Louis Thurstone, a psicometria pode ser considerada uma das principais genealogias da estatística, que nunca foi uma disciplina neutra, mas sim uma disciplina preocupada com a “medida do homem”, a instituição de normas de comportamento e a repressão de anomalias [16]. A transformação da métrica do trabalho em psicometria do trabalho é uma passagem fundamental tanto para a gestão como para o desenvolvimento tecnológico no século XX. É revelador que, ao conceber o primeiro perceptron de rede neural artificial, Frank Rosenblatt tenha se inspirado não só nas teorias da neuroplasticidade, mas também nas ferramentas de análise multivariável que a psicometria importou para a psicologia norte-americana na década de 1950.

Nesta perspetiva, este livro tenta esclarecer como o projeto de IA surgiu, na realidade, da automação da psicometria do trabalho e dos comportamentos sociais – e não da procura da solução do “enigma” da inteligência. Num resumo conciso da história da IA, pode se dizer que a mecanização do “intelecto geral” (“general intellect”) da era industrial na “inteligência artificial” do século XXI foi possível graças à medição estatística da competência, como o fator de “inteligência geral” de Spearman, e à sua posterior automatização em redes neurais artificiais. Se na era industrial a máquina era considerada uma encarnação da ciência, do conhecimento e do “intelecto geral” (“general intellect”) dos trabalhadores, na era da informação as redes neurais artificiais tornaram-se as primeiras máquinas a codificar a “inteligência geral” em ferramentas estatísticas – no início, especificamente, para automatizar o reconhecimento de padrões como uma das tarefas-chave da “inteligência artificial”. Em suma, a forma atual de IA, a aprendizagem automática, é a automatização das métricas estatísticas que foram originalmente introduzidas para quantificar as capacidades cognitivas, sociais e relacionadas com o trabalho. A aplicação da psicometria através das tecnologias da informação não é um fenômeno exclusivo da aprendizagem automática. O escândalo de dados de 2018 entre o Facebook e a Cambridge Analytica, em que a empresa de consultoria conseguiu recolher os dados pessoais de milhões de pessoas sem o seu consentimento, é um lembrete de como a psicometria em grande escala continua a ser utilizada por empresas e atores estatais numa tentativa de prever e manipular comportamentos coletivos [17].

Dado o seu legado nas ferramentas estatísticas da biometria do século XIX, também não é surpreendente que as redes neurais artificiais profundas tenham recentemente se desdobrado em técnicas avançadas de vigilância, como o reconhecimento facial e a análise de padrões de vida. Acadêmicos críticos da IA, como Ruha Benjamin e Wendy Chun, entre outros, expuseram as origens racistas destas técnicas de identificação e definição de perfis que, tal como a psicometria, quase representam uma prova técnica do viés social (“social bias”) da IA [18]. Identificaram, com razão, o poder da discriminação no cerne da aprendizagem automática e a forma como esta se alinha com os aparelhos de normatividade da era moderna, incluindo as taxonomias questionáveis da medicina, da psiquiatria e do direito penal [19].

A metrologia da inteligência iniciada nos finais do século XIX, com a sua agenda implícita e explícita de segregação social e racial, continua a funcionar no cerne da IA para disciplinar o trabalho e reproduzir as hierarquias produtivas do conhecimento. Por conseguinte, a lógica da IA não é apenas a automação do trabalho, mas o reforço destas hierarquias sociais de uma forma indireta. Ao declarar implicitamente o que pode ser automatizado e o que não pode, a IA impôs uma nova métrica da inteligência em cada fase do seu desenvolvimento. Mas comparar a inteligência humana e a inteligência das máquinas implica também um julgamento sobre que comportamento humano ou grupo social é mais inteligente do que outro, que trabalhadores podem ser substituídos e quais não podem. Em última análise, a IA não é apenas um instrumento para automatizar o trabalho, mas também para impor padrões de inteligência mecânica que propagam, de forma mais ou menos invisível, hierarquias sociais de conhecimentos e competências. Tal como acontece com qualquer forma anterior de automatização, a IA não se limita a substituir trabalhadores, mas desloca-os e reestrutura-os numa nova ordem social.

 

A automação da automação

Se observarmos atentamente como os instrumentos estatísticos concebidos para avaliar as competências cognitivas e discriminar a produtividade das pessoas se transformaram em algoritmos, torna-se evidente um aspecto mais profundo da automação. De fato, o estudo da metrologia do trabalho e dos comportamentos revela que a automação emerge, em alguns casos, da transformação dos próprios instrumentos de medição em tecnologias cinéticas. Os instrumentos de quantificação do trabalho e de discriminação social tornaram-se “robôs” por direito próprio. Antes da psicometria, se poderia referir a forma como o relógio utilizado para medir o tempo de trabalho na fábrica foi mais tarde implementado por Babbage para a automatização do trabalho mental na Máquina Diferencial. Os cibernéticos, como Norbert Wiener, continuaram a considerar o relógio como um modelo-chave tanto para o cérebro como para o computador. A este respeito, o historiador da ciência Henning Schmidgen observou como a cronometria dos estímulos nervosos contribuiu para a consolidação da metrologia cerebral e também para o modelo de redes neurais de McCulloch e Pitts [20]. A teoria da automação que este livro ilustrou não aponta, portanto, apenas para a emergência de máquinas a partir da lógica da gestão do trabalho, mas também a partir dos instrumentos e métricas para quantificar a vida humana em geral e torná-la produtiva.

Este livro procurou mostrar que a IA é o culminar da longa evolução da automação do trabalho e da quantificação da sociedade. Os modelos estatísticos da aprendizagem automática não parecem, de fato, ser radicalmente diferentes da concepção das máquinas industriais, mas antes homólogos a elas: são, de fato, constituídos pela mesma inteligência analítica das tarefas e dos comportamentos coletivos, embora com um grau de complexidade mais elevado (isto é, número de parâmetros). Tal como as máquinas industriais, cuja concepção surgiu gradualmente através de tarefas de rotina e de ajustes por tentativa e erro, os algoritmos de aprendizagem automática adaptam o seu modelo interno aos padrões dos dados de treino através de um processo comparável de tentativa e erro. Pode dizer-se que a concepção de uma máquina, bem como a de um modelo de um algoritmo estatístico, seguem uma lógica semelhante: ambos se baseiam na imitação de uma configuração externa de espaço, tempo, relações e operações. Na história da IA, isto era tão verdadeiro para o perceptron de Rosenblatt (que visava registar os movimentos do olhar e as relações espaciais do campo visual) como para qualquer outro algoritmo de aprendizagem de máquinas atual (por exemplo, máquinas de vetores de apoio, redes bayesianas, modelos de transformadores).

Enquanto a máquina industrial incorpora o diagrama da divisão do trabalho de uma forma determinada (pensemos nos componentes e nos “graus de liberdade” limitados de um tear têxtil, de um torno ou de uma escavadora mineira), os algoritmos de aprendizagem automática (especialmente os modelos recentes de IA com um vasto número de parâmetros) podem imitar atividades humanas complexas [21]. Embora com níveis problemáticos de aproximação e enviesamento, um modelo de aprendizagem automática é um artefato adaptativo que pode codificar e reproduzir as mais diversas configurações de tarefas. Por exemplo, um mesmo modelo de aprendizagem automática pode imitar tanto o movimento de braços robóticos em linhas de montagem como as operações do condutor de um automóvel autônomo; o mesmo modelo pode também traduzir entre línguas tanto como descrever imagens com palavras coloquiais.

O surgimento de grandes modelos de base nos últimos anos (por exemplo, BERT, GPT, CLIP, Codex) demonstra como um único algoritmo de aprendizagem profunda pode ser treinado num vasto conjunto de dados integrado (incluindo texto, imagens, fala, dados estruturados e sinais 3D) e utilizado para automatizar uma vasta gama das chamadas tarefas a jusante (resposta a perguntas, análise de sentimentos, extração de informações, geração de texto, legendagem de imagens, geração de imagens, transferência de estilos, reconhecimento de objectos, seguimento de instruções, etc.) [22]. Pela forma como foram construídos com base em grandes repositórios de patrimônio cultural, conhecimento coletivo e dados sociais, os grandes modelos de base são a aproximação mais próxima da mecanização do “intelecto geral” que foi prevista na era industrial. Um aspecto importante da aprendizagem automática que os modelos de base demonstram é que a automação de tarefas individuais, a codificação do patrimônio cultural e a análise de comportamentos sociais não têm qualquer distinção técnica: podem ser realizadas por um único e mesmo processo de modelação estatística.

Em conclusão, a aprendizagem automática pode ser vista como o projeto de automatizar o próprio processo de concepção de máquinas e de criação de modelos – ou seja, a automação da teoria laboral da própria automação. Neste sentido, a aprendizagem automática e, especificamente, os modelos de grandes fundações representam uma nova definição de Máquina Universal, pois a sua capacidade não se limita a executar tarefas computacionais, mas a imitar o trabalho e os comportamentos coletivos em geral. O avanço que a aprendizagem automática passou a representar não é, portanto, apenas a “automação da estatística”, como a aprendizagem automática é por vezes descrita, mas a automação da automação, trazendo este processo para a escala do conhecimento coletivo e do patrimônio cultural [23]. Além disso, a aprendizagem automática pode ser considerada como a prova técnica da integração progressiva da automação do trabalho e da governação social. Emergindo da imitação da divisão do trabalho e da psicometria, os modelos de aprendizagem automática evoluíram gradualmente para um paradigma integrado de governança que a análise de dados empresariais e os seus vastos centros de dados bem exemplificam.

 

Desfazendo o Algoritmo Mestre

Tendo em conta a dimensão crescente dos conjuntos de dados, os custos de formação dos grandes modelos e o monopólio da infraestrutura de computação em nuvem que é necessário para que algumas empresas como a Amazon, a Google e a Microsoft (e as suas congéneres asiáticas Alibaba e Tencent) hospedarem esses modelos, tornou-se evidente para todos que a soberania da IA continua a ser um assunto difícil à escala geopolítica. Além disso, a confluência de diferentes aparelhos de governança (ciência climática, logística global e até cuidados de saúde) para o mesmo hardware (computação em nuvem) e software (aprendizagem de máquina) assinala uma tendência ainda mais forte para a monopolização. Para além da notória questão da acumulação de poder, a ascensão dos monopólios de dados aponta para um fenômeno de convergência técnica que é fundamental para este livro: os meios de trabalho tornaram-se os mesmos meios de medição e, do mesmo modo, os meios de gestão e logística tornaram-se os mesmos meios de planejamento econômico.

Isto também se tornou evidente durante a pandemia de Covid-19, quando foi criada uma grande infraestrutura para acompanhar, medir e prever os comportamentos sociais [24]. Esta infraestrutura, sem precedentes na história dos cuidados de saúde e da biopolítica, não foi, no entanto, criada ex nihilo, mas construída a partir de plataformas digitais existentes que orquestram a maior parte das nossas relações sociais. Sobretudo durante os períodos de confinamento, o mesmo meio digital foi utilizado para trabalhar, fazer compras, comunicar com a família e os amigos e, eventualmente, para os cuidados de saúde. As métricas digitais do corpo social, como a geolocalização e outros metadados, foram fundamentais para os modelos preditivos do contágio global, mas elas são usadas há muito tempo para acompanhar o trabalho, a logística, o comércio e a educação. Filósofos como Giorgio Agamben afirmaram que esta infraestrutura prolongou o estado de emergência da pandemia, quando, na verdade, a sua utilização nos cuidados de saúde e na biopolítica dá continuidade a décadas de monitorização da produtividade econômica do corpo social, que passou despercebida a muitos [25].

A convergência técnica das infra estruturas de dados revela também que a automação contemporânea não se limita à automação do trabalhador individual, como na imagem estereotipada do robô humanoide, mas à automação dos patrões e gestores da fábrica, como acontece nas plataformas da gig economy. Dos gigantes de logística (Amazon, Alibaba, DHL, UPS, etc.) e da mobilidade (Uber, Share Now, Foodora, Deliveroo) às redes sociais (Facebook, TikTok, Twitter), o capitalismo de plataforma é uma forma de automação que, na realidade, não substitui os trabalhadores, mas multiplica-os e governa-os de novo. Desta vez, não se trata tanto da automação do trabalho, mas sim da automação da gestão. Sob esta nova forma de gestão algorítmica, todos nós passamos a ser trabalhadores individuais de um vasto autômato composto por utilizadores globais, “turkers“, prestadores de cuidados, condutores e cavaleiros de muitos tipos. O debate sobre o receio de que a IA venha a substituir totalmente os empregos é errôneo: na chamada economia das plataformas, os algoritmos substituem a gestão e multiplicam os empregos precários. Embora as receitas da gig economy continuem a ser pequenas em relação aos setores locais tradicionais, ao utilizarem a mesma infraestrutura a nível mundial, estas plataformas estabeleceram posições de monopólio. O poder do novo “mestre” não está na automatização de tarefas individuais, mas na gestão da divisão social do trabalho. Contra a previsão de Alan Turing, é o mestre, e não o trabalhador, que o robô veio substituir em primeiro lugar [26].

Nos perguntamos qual seria a possibilidade de intervenção política num espaço tão tecnologicamente integrado e se o apelo ao “redesign da IA” que as iniciativas populares e institucionais defendem é razoável ou praticável. Este apelo deveria começar por responder a uma questão mais premente: Como é que é possível “redesenhar” os monopólios de dados e conhecimento em grande escala [27]? À medida que grandes empresas como a Amazon, a Walmart e a Google conquistaram um acesso único às necessidades e aos problemas de todo o corpo social, um movimento crescente pede não só que estas infra-estruturas se tornem mais transparentes e responsáveis, mas também que sejam coletivizadas como serviços públicos (como sugeriu Fredric Jameson, entre outros), ou que sejam substituídas por alternativas públicas (como defendeu Nick Srnicek [28]). Mas qual seria uma forma diferente de projetar essas alternativas?

Tal como a teoria da automação deste livro sugere, qualquer aparelho tecnológico e institucional, incluindo a IA, é uma cristalização de um processo social produtivo. Os problemas surgem porque essa cristalização “ossifica” e reitera estruturas, hierarquias e desigualdades do passado. Para criticar e desconstruir artefatos complexos como os monopólios de IA, devemos começar por fazer o trabalho meticuloso do desconexão (“deconnectionism”) , desfazendo – passo a passo, arquivo a arquivo, conjunto de dados a conjunto de dados, metadado a metadado, correlação a correlação, padrão a padrão – o tecido social e econômico que os constitui na origem. Este trabalho já está sendo desenvolvido por uma nova geração de acadêmicos que estão a dissecar a cadeia de produção global de IA, especialmente os que utilizam métodos de “pesquisa-ação”. Destacam-se, entre muitos outros, a plataforma Turkopticon de Lilly Irani, utilizada para “interromper a invisibilidade do trabalhador” na plataforma de trabalho temporário Amazon Mechanical Turk; a investigação de Adam Harvey sobre conjuntos de dados de treino para reconhecimento facial, que expôs as violações maciças da privacidade das empresas de IA e da investigação acadêmica; e o trabalho do coletivo Politically Mathematics da Índia, que analisou o impacto econômico dos modelos preditivos da Covid-19 nas populações mais pobres e recuperou a matemática como um espaço de luta política (ver o seu manifesto citado no início deste texto).

A teoria laboral da automação é um princípio analítico para estudar o novo “olho do mestre” que os monopólios de IA encarnam. No entanto, precisamente devido à sua ênfase no processo de trabalho e nas relações sociais que constituem os sistemas técnicos, é também um princípio sintético e “sociogênico” (para utilizar o termo programático de Frantz Fanon e Sylvia Wynter [29]). O que está no cerne da teoria laboral da automação é, em última análise, uma prática de autonomia social. As tecnologias só podem ser julgadas, contestadas, reapropriadas e reinventadas se se inserirem na matriz das relações sociais que originalmente as constituíram. As tecnologias alternativas devem situar-se nestas relações sociais, de uma forma não muito diferente do que os movimentos cooperativos fizeram nos séculos passados. Mas construir algoritmos alternativos não significa torná-los mais éticos. Por exemplo, a proposta de codificação de regras éticas na IA e nos robôs parece altamente insuficiente e incompleta, porque não aborda diretamente a função política geral da automação no seu cerne [30].

O que é necessário não é nem o tecnosolucionismo nem o tecnopauperismo, mas sim uma cultura de invenção, concepção e planejamento que se preocupe com as comunidades e o coletivo, sem nunca ceder totalmente a agência e a inteligência à automação. O primeiro passo da tecnopolítica não é tecnológico, mas político. Trata-se de emancipar e descolonizar, quando não de abolir na totalidade, a organização do trabalho e das relações sociais em que se baseiam os sistemas técnicos complexos, os robôs industriais e os algoritmos sociais – especificamente o sistema salarial, os direitos de propriedade e as políticas de identidade que lhes estão subjacentes. As novas tecnologias do trabalho e da sociedade só podem se basear nesta transformação política. É evidente que este processo se desenrola através do desenvolvimento de conhecimentos não só técnicos mas também políticos. Um dos efeitos problemáticos da IA na sociedade é a sua influência epistêmica – a forma como transforma a inteligência em inteligência de máquina e promove implicitamente o conhecimento como conhecimento processual. O projeto de uma epistemologia política que transcenda a IA terá, no entanto, de transmutar as formas históricas do pensamento abstrato (matemático, mecânico, algorítmico e estatístico) e integrá-las como parte da caixa de ferramentas do próprio pensamento crítico. Ao confrontar a epistemologia da IA e o seu regime de extrativismo do conhecimento, é necessário aprender uma mentalidade técnica diferente, uma “contra-inteligência” coletiva.

 

NOTAS

[1]: “Disruption: A Manifesto,” Logic Magazine, no. 1, março de 2017.
[2]: Politically Mathematics collective, “Politically Mathematics Manifesto,” 2019
[3]: Karl Marx, Capital, Livro 1: O processo de produção do capital, p.330. Trad. Rubens Enderle. Boitempo, 2013
[4]: Veja o debate sobre o processo trabalhista em: Harry Braverman, Labor and Monopoly Capital: The Degradation of Work in the Twentieth Century (Monthly Review Press, 1974); David Noble, Forces of Production: A Social History of Industrial Automation (Oxford University Press, 1984).
[5]: Émile Durkheim, “Da Divisão do Trabalho Social” (1893), publicado no Brasil com esse título, por entre outras, a WMF Martins Fontes, em tradução de Eduardo Brandão.
[6]:
Kurt Lewin, “Die Sozialisierung des Taylorsystems: Eine grundsätzliche Untersuchung zur Arbeits- und Berufspsychologie,” Schriftenreihe Praktischer Sozialismus, vol. 4 (1920) – sem tradução para o português. Também ver Simon Schaupp, “Taylorismus oder Kybernetik? Eine kurze ideengeschichte der algorithmischen arbeitssteuerung,” WSI-Mitteilungen 73, no. 3, (2020).
[7]: Gaston Bachelard, “La dialectique de la durée” (Boivin & Cie, 1936), traduzido no Brasil para “A Dialética da Duração”, publicado pela Editora Ática em 1993. Henri Lefebvre, “Éléments de rythmanalyse” (Éditions Syllepse, 1992), último livro do autor, publicado no Brasil como “Elementos de Ritmanálise e outros Ensaios” pela Editora Consequência em 2021.
[8]: Frederic Sellet, “Chaîne Opératoire: The Concept and Its Applications,” Lithic Technology 18, no. 1–2 (1993). Sem tradução no Brasil
[9]: Gilles Deleuze, “Postscript on the Society of Control,” October, no. 59 (1992). Publicado no Brasil em DELEUZE, Gilles. Conversações: 1972-1990. Rio de Janeiro: Ed. 34,1992. Ver também David Savat, “Deleuze’s Objectile: From Discipline to Modulation,” in Deleuze and New Technology, ed. Mark Poster and David Savat (Edinburgh University Press, 2009).
[10]: Matthew L. Jones, “Querying the Archive: Data Mining from Apriori to PageRank,” in Science in the Archives, ed. Lorraine Daston (University of Chicago Press, 2017); Matteo Pasquinelli, “Google’s PageRank Algorithm: A Diagram of Cognitive Capitalism and the Rentier of the Common Intellect,” in Deep Search, ed. Konrad Becker and Felix Stalder (Transaction Publishers, 2009).
[11]:
Irina Kaldrack and Theo Röhle, “Divide and Share: Taxonomies, Orders, and Masses in Facebook’s Open Graph,” Computational Culture, no. 4 (November 2014); Tiziana Terranova, “Securing the Social: Foucault and Social Networks,” in Foucault and the History of Our Present, ed. S. Fuggle, Y. Lanci, and M. Tazzioli (Palgrave Macmillan, 2015).
[12]:
Grégoire Chamayou, “Pattern-of-Life Analysis,” chap. 5 in A Theory of the Drone (New Press, 2014). Publicado no Brasil como “Teoria do Drone”, pela Cosac & Naify em 2015. Veja também Matteo Pasquinelli, “Metadata Society,” keyword entry in Posthuman Glossary, ed. Rosi Braidotti and Maria Hlavajova (Bloomsbury, 2018), e “Arcana Mathematica Imperii: The Evolution of Western Computational Norms,” in Former West, ed. Maria Hlavajova and Simon Sheikh (MIT Press, 2017).
[13]:
Andrea Brighenti and Andrea Pavoni, “On Urban Trajectology: Algorithmic Mobilities and Atmocultural Navigation,” Distinktion: Journal of Social Theory 24, no. 1 (2001).
[14]:
M. Giermindl et al., “The Dark Sides of People Analytics: Reviewing the Perils for Organisations and Employees,” European Journal of Information Systems 33, no. 3 (2022). Veja também Alex Pentland, “Social Physics: How Social Networks Can Make Us Smarter” (Penguin, 2015).
[15]: A palavra “estatística” significava originalmente o conhecimento que o Estado possuía sobre seus próprios assuntos e territórios: um conhecimento que tinha de ser mantido em segredo. Em: Michel Foucault, Security, Territory, Population (Segurança, Território, População): Lectures at the Collège de France 1977-1978, trans. Graham Burchell (Palgrave Macmillan, 2009).
[16]:
Sobre a influência da metrologia cerebral na história da IA, ver Simon Schaffer: “Os julgamentos de que as máquinas são inteligentes envolveram técnicas para medir os resultados do cérebro. Essas técnicas mostram como o comportamento discricionário está ligado ao status daqueles que dependem da inteligência para sua legitimidade social.” Schaffer, “OK Computer”, em Ansichten der Wissenschaftsgeschichte, ed., Michael Hagner (Fischer, 2001) Michael Hagner (Fischer, 2001). Sobre a metrologia inicial do sistema nervoso, veja Henning Schmidgen, The Helmholtz Curves: Tracing Lost Times (Fordham University Press, 2014).
[17]:
Luke Stark, “Algorithmic Psychometrics and the Scalable Subject,” Social Studies of Science 48, no. 2 (2018).
[18]: Ruha Benjamin, Race after Technology: Abolitionist Tools for the New Jim Code (Polity, 2019); Wendy Chun, Discriminating Data: Correlation, Neighborhoods, and the New Politics of Recognition (MIT Press, 2021). Tarcízio Silva fez uma boa análise deste livro em seu blog.
[19]:
Sobre a imbricação de colonialismo, racismo e tecnologias digitais, veja Jonathan Beller, The World Computer: Derivative Conditions of Racial Capitalism (Duke University Press, 2021); Seb Franklin, The Digitally Disposed: Racial Capitalism and the Informatics of Value (University of Minnesota Press, 2021). No Brasil, ver “Racismo Algorítmico: Inteligência Artificial e Discriminação nas Redes Digitais”, de Tarcízio SIlva, lançado pelas Edições Sesc em 2022;“Colonialismo de dados: como opera a trincheira algorítmica na guerra neoliberal“”, org. de Sérgio Amadeu, Joyce Souza e Rodolfo Avelino lançada em 2021 pela Autonomia Literária; e “Colonialismo Digital: Por uma crítica hacker-fanoniana”, de Deivison Faustino e Walter Lippold, publicado pela Boitempo em 2023.
[20]:
Henning Schmidgen, “Cybernetic Times: Norbert Wiener, John Stroud, and the ‘Brain Clock’ Hypothesis”, History of the Human Sciences 33, no. 1 (2020). Sobre a cibernética e a “medição da racionalidade”, veja Orit Halpern, “Beautiful Data: A History of Vision and Reason since 1945” (Duke University Press, 2015), 173.
[21]:
Em mecânica, os graus de liberdade (DOF) de um sistema, como uma máquina, um robô ou um veículo, são o número de parâmetros independentes que definem sua configuração ou estado. Normalmente, diz-se que as bicicletas têm dois graus de liberdade. Um braço robótico pode ter muitos. Um modelo grande de aprendizado de máquina, como o GPT, pode ter mais de um trilhão.
[22]:
Rishi Bommasani et al., On the Opportunities and Risks of Foundation Models, Center for Research on Foundation Models at the Stanford Institute for Human-Centered Artificial Intelligence, 2021
[23]: Para uma leitura diferente sobre a automação da automação, ver Pedro Domingos, The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World (Basic Books, 2015); Luciana Parisi, “Critical Computation: Digital Automata and General Artificial Thinking,” Theory, Culture, and Society 36, no. 2 (March 2019).
[24]: “Breaking Models: Data Governance and New Metrics of Knowledge in the Time of the Pandemic,” workshop, Max Planck Institute for the History of Science, Berlin, and KIM research group, University of Arts and Design, Karlsruhe, September 24, 2021.
[25]:
Giorgio Agamben, Where Are We Now? The Epidemic as Politics, trans. V. Dani (Rowman & Littlefield, 2021). Publicado no Brasil como “Em que ponto estamos?”, pela n-1 edições em 2021.
[26]: Min Kyung Lee et al., “Working with Machines: The Impact of Algorithmic and Data-Driven Management on Human Workers,” in Proceedings of the 33rd Annual ACM Conference on Human Factors in Computing Systems, Association for Computing Machinery, New York, 2015; Sarah O’Connor, “When Your Boss Is an Algorithm,” Financial Times, September 8, 2016. See also Alex Wood, “Algorithmic Management Consequences for Work Organisation and Working Conditions,” no. 2021/07, European Commission JRC Technical Report, Working Papers Series on Labour, Education, and Technology, 2021.
[27]: Redesigning AI, ed. Daron Acemoglu (MIT Press), 2021.
[28]:
Leigh Phillips and Michal Rozworski, The People’s Republic of Walmart: How the World’s Biggest Corporations Are Laying the Foundation for Socialism (Verso, 2019); Frederic Jameson, Archaeologies of the Future: The Desire Called Utopia and Other Science Fictions (Verso, 2005), 153n22; Nick Srnicek, Platform Capitalism (Polity Press, 2017), 128.
[29]:
Sylvia Wynter, “Towards the Sociogenic Principle: Fanon, Identity, the Puzzle of Conscious Experience, and What It Is Like to Be ‘Black,’” in National Identities and Sociopolitical Changes in Latin America, ed. Antonio Gomez-Moriana, Mercedes Duran-Cogan (Routledge, 2001). Veja também Luciana Parisi, “Interactive Computation and Artificial Epistemologies,” Theory, Culture, and Society 38, no. 7–8 (October 2021).
[30]: Frank Pasquale, New Laws of Robotics: Defending Human Expertise in the Age of AI (Harvard University Press, 2020); Dan McQuillan, “People’s Councils for Ethical Machine Learning,” Social Media+ Society 4, no. 2 (2018).

 

 

 

 

 

 

 

 

 

]]>
https://baixacultura.org/2024/02/28/o-olho-do-mestre-a-automacao-da-inteligencia-geral/feed/ 0
A Extinção da Internet https://baixacultura.org/2023/11/20/a-extincao-da-internet/ https://baixacultura.org/2023/11/20/a-extincao-da-internet/#comments Tue, 21 Nov 2023 02:10:24 +0000 https://baixacultura.org/?p=15477  

Será que uma outra internet — uma mais próxima à que acreditávamos nos anos 2000, descentralizada, menos vigilante, mais das pessoas do que de empresas e robôs — ainda é possível? “Extinção da Internet”, de Geert Lovink, é um esforço para tentar responder a esta pergunta. Geert convoca os leitores a examinar o status atual da internet para se pensar, criativamente, em alternativas bifurcativas. Para isso, usa memes, cita fóruns da internet, ativistas conhecidos e chama um time de pensadores que estão, quase todos, se debruçando hoje sobre a relação do capitalismo neoliberal com a tecnologia digital. Professor da Universidade de Amsterdam de Ciências Aplicadas, Geert Lovink tem um longo histórico no ativismo midiático e ciberativista europeu. Membro fundador da Nettime (1996), é diretor do Institute of Network Cultures. Escrevi o prefácio e acompanhei o processo de tradução, já que ele faz parte de uma coleção que estamos organizando aqui no BaixaCultura, em parceria com a Editora Funilaria, com livros que buscam politizar o mal-estar que nos acomete hoje sobre os rumos da internet: Âncora do Futuro. Em 2024 vem mais livros! “Extinção da Internet” tem tradução de Dafne Melo, está em pré-venda e será lançado durante a Flipei neste mês de novembro de 2023. Com pequenas variações, segue abaixo o texto publicado como prefácio de “Extinção da Internet”, também republicado impresso no Jornal da Flipei e na Jacobin Brasil.

 

Construindo bifurcações na (história da) internet

Há alguns anos, ativistas, pesquisadores, filósofos e intelectuais comentam que a internet não é mais o que já foi. A esperança de construir um mundo mais justo via rede — com menos discriminação e mais respeito aos outros, com todos sendo também mídia, a partir de uma saudável proliferação de pontos de vista causada pela liberação do polo emissor da informação — tem dado lugar a um pesadelo de desinformação. Realidades paralelas são construídas a partir de informações mentirosas proliferadas em dispositivos acessados por, pelo menos, dois terços da população mundial, turbinadas por uma defesa por vezes absolutista da liberdade de expressão e pela plataformização de nossas vidas online.

A consequência tem sido conhecida: circulação de discursos de ódio e espalhamento de desinformação “como nunca antes na história”; captura ativa de nossa atenção e do nosso olhar, transformados em dados que, coletados em quase todos os lugares da rede, estão a serviço de poucas empresas que lucram cada vez mais oferecendo tudo para o nosso consumo; precarização das relações de trabalho a partir de novas formas de exploração do trabalho digital*, atomizada e globalizada também para tentar dificultar qualquer tipo de reação organizada dos trabalhadores; continuação das relações coloniais, agora a partir de um colonialismo digital (ou de dados), criado a partir de um processo de extração de valor que reproduz e amplia o racismo, incrustando também na técnica os vieses de raça (e gênero), em um fenômeno chamado de racismo algorítmico. Essa exploração também tem levado dados do sul global para o enriquecimento de empresas de tecnologia do norte, especialmente dos Estados Unidos e da Europa, o que também traz consequências para a soberania digital dos países que não constroem uma infraestrutura própria para armazenar e cuidar de suas informações, jogando conhecimento precioso de forma silenciosa em datacenters privados que não sabemos bem como funcionam, como no caso das universidades que adotam nuvens (“Não existe nuvem: é apenas os computadores de outras pessoas” diz o meme) das big techs. E isso é apenas um resumo: poderíamos falar também das consequências ambientais de um modo de vida conectado que demanda muita energia em um planeta cada vez mais quente e colapsado, ou dos efeitos psicológicos que a hiperexposição a telas e informações rasas que abundam nas redes sociais têm sobre o cérebro humano – mas, por hora, você já entendeu o que estou dizendo.

 

Diante de tudo isso, é inevitável pensar que, de fato, a internet deu ruim — ou, pelo menos, não cumpriu nossas expectativas de melhora global e pode estar acelerando os problemas do planeta. O que nos leva a um outro pensamento: o que vamos fazer diante desse colapso? Há alguns anos, muita gente tem diagnosticado esse cenário e tentado apontar caminhos, entre os quais se encontra o autor deste livro. A questão, hoje mais clara do que duas décadas atrás, é muito mais política e econômica do que tecnológica. E quando falamos nestas duas palavras — política e economia —, sabemos que toda e qualquer bifurcação não será fácil nem suave. “É mais fácil imaginar o fim do mundo do que o fim do capitalismo”, como disse Mark Fisher, numa frase hoje bastante ouvida e que sintetiza bem a encruzilhada que nos traz o chamado Realismo Capitalista. Será que uma outra internet — uma mais próxima à que acreditávamos nos anos 2000, descentralizada, menos vigilante, mais das pessoas do que de empresas
e robôs — ainda é possível?

É a essa pergunta inquietante que buscamos, nesta coleção, tentar responder. Sem a pretensão de trazer respostas definitivas nem únicas, porque não existem. Mas com a esperança de politizar esse mal-estar que nos acomete para jogar luz a bifurcações possíveis — já existentes ou a serem criadas. Falar bastante do problema é um primeiro passo para tentar resolvê-lo, nos ensina a psicanálise. O livro que você tem em mãos, portanto, é o primeiro desse esforço. Geert Lovink, seu autor, é alguém que faz a crítica da internet tal como ela se tornou há algum tempo; já no final dos anos 1990, a partir do conceito de mídia tática (da qual é o seu principal proponente) e de uma corrente de estudos chamada net-criticism, apontava para os perigos da internet estar diretamente relacionada com a expansão do poder de empresas privadas em sua maioria oriundas de um único país, os Estados Unidos. Em coro com A Ideologia Californiana, , ensaio seminal (publicado em 1995) de Richard Barbrook e Andy Cameron sobre a tecnopolítica da rede, Geert aponta, há mais de 20 anos, também para a necessidade de criação de infraestruturas e redes autônomas, organizadas coletivamente e independentes de grandes empresas, para que não deixássemos o desenvolvimento, o controle e a inovação das tecnologias digitais em rede apenas na mão de um punhado de organizações privadas do Vale do Silício.

Geert Lovink

 

Professor da Universidade de Amsterdam de Ciências Aplicadas, Geert tem um longo histórico no ativismo midiático e ciberativista europeu. Membro fundador da Nettime — um grupo e uma lista de e-mails sobre cultura digital (ou networked cultures), política e tática que, desde 1996 (!), reúne uma série de pesquisadores, professores, teóricos e práticos europeus —, também fundou, em 2004, o Institute of Network Cultures, que trabalha com pesquisas e publicações ligadas a arte digital, cultura da imagem, design e publicação digital a partir de uma perspectiva interdisciplinar e crítica. É autor de livros como Networks Without a Case (2012), Social Media Abyss (2016) e Organization after Social Media (com Ned Rossiter) — todos sem edição brasileira, mas traduzidos para o alemão, espanhol e italiano. Nos últimos anos, Geert tem reforçado sua posição crítica ao que a internet se transformou em livros como Sad by Design (2019) e Stuck on the Platform (2022), nos quais ele analisa o crescimento das plataformas de mídias sociais e a relação do design pela qual foram feitas com a proliferação da desinformação, da circulação de memes tóxicos e discursos de ódio, da fadiga online a partir das telas (explorado durante a pandemia no chamado “zoom bombing”) e da adicção online.

Neste Extinção da Internet, ele segue nessa análise, agora de modo sintético e dialético, trazendo um resumo de suas principais questões atuais sobre essa “ressaca da internet”, como eu mesmo já a chamei em 2018. Provoca sua plateia — o texto parte de uma aula inaugural dada em 18 de novembro de 2022 na Universidade de Amsterdam — a examinar o status atual da internet para se pensar, criativamente, em alternativas de bifurcação. Para isso, usa memes, cita fóruns da internet, menciona ativistas conhecidos e chama um time de pensadores que estão, quase todos, se debruçando sobre a relação do capitalismo neoliberal com a tecnologia digital: há Bernard Stiegler, Franco “Bifo” Berardi, Tiziana Terranova, Donatella Della Ratta, Yuk Hui, mas também outros, como Mark Fisher, Jacques Derrida, Bertold Brecht e Walter Benjamin. De Stiegler, vem uma máxima que também percorre as intenções deste livro: “colocar os automatismos a serviço de uma desautomização negantrópica”. De Benjamin, um convite à uma tarefa de hoje: “escovar a história a contrapelo”. Propor bifurcações é uma forma de lutar contra o imobilismo do “não há nada a fazer”, que a leitura dos primeiros parágrafos dessa introdução pode sugerir. Geert faz, diversas vezes neste livro, perguntas para nos tirar dessa posição exclusivamente niilista e nos chamar à ação. Por exemplo: “Como transformar descontentamento e contra-hegemonia em uma verdadeira transição de poder nesta era da plataforma tardia? O que pode ocupar o vazio em nossos cérebros desfragmentados depois que a internet desocupar a cena? Em que pode consistir a vida depois que nossas mentes frágeis não forem mais atacadas pelos efeitos entorpecentes e deprimentes de descer a barra de rolagem do apocalipse (doomscrolling)?”

Embora fale em colonialismo, a perspectiva de Geert ainda é a europeia branca. Nesse caso, sua visão nos ajuda a entender os problemas do ocidente em que a internet foi concebida, capturando um zeitgeist de quem — com menos problemas de conexão, mais produção de tecnologias digitais e a caminho (neste 2023) de uma regulação razoável das plataformas — ainda se pergunta o que pode ser feito para reinventar a internet. Nos próximos volumes da coleção, trataremos perspectivas sobre as bifurcações possíveis a partir de pontos de vista do sul global. Acreditamos que nossa região, ainda com todos os problemas de acesso, regulação possível e desigualdade generalizada, tem o potencial real de alternativas novas ao incorporar e incubar soluções desde abajo, baseadas na inventividade gambiarrística de quem cria porque entende melhor que não há outro caminho para (sobre)viver.

[Leonardo Foletto]

*: Que tem dado origem a outras denominações e hipóteses sobre o sistema econômico político hoje. Cito aqui duas delas: 1) “tecno-feudalismo”, que afirma que o capitalismo industrial, enquanto um modo de produção progressivo e gerador de crescimento econômico, foi já substituído por um capitalismo rentista, depredador, que deve ser agora chamado de tecno-feudalismo, termo popularizado especialmente a partir de Cédric Durand em Technoféodalisme: Critique de l’économie numérique (2020); e 2) “o capital está morto”, como defende McKenzie Wark no livro homônimo, que anuncia o que seria um novo modo de produção, não mais capitalista, mas pior, que não baseia mais seu poder na propriedade privada dos meios de produção, mas sim no controle do “vetor de informação”, formado por aquelas tecnologias que não apenas coletam grandes quantidades de dados, mas também os ordenam, gerenciam e processam para extrair seu valor.

 

 

]]>
https://baixacultura.org/2023/11/20/a-extincao-da-internet/feed/ 2