Tradução – BaixaCultura https://baixacultura.org Cultura livre & (contra) cultura digital Thu, 29 Aug 2024 22:52:29 +0000 pt-BR hourly 1 https://wordpress.org/?v=6.0.9 https://baixacultura.org/wp-content/uploads/2022/09/cropped-adesivo1-32x32.jpeg Tradução – BaixaCultura https://baixacultura.org 32 32 Cultura livre como liberdade positiva https://baixacultura.org/2024/08/29/cultura-livre-como-liberdade-positiva/ https://baixacultura.org/2024/08/29/cultura-livre-como-liberdade-positiva/#comments Thu, 29 Aug 2024 22:52:29 +0000 https://baixacultura.org/?p=15712 Traduzimos um texto que nos convida a refletir sobre um tema sempre importante por aqui: a cultura livre. Foi publicado em maio de 2024 por Mariana Fossati, socióloga uruguaia e ativista da cultura livre, parte do Ártica Online, parceiro deste espaço já há muitos anos. Ao final, fiz alguns comentários a respeito de pontos do texto, como a insuficiência do acesso à informação e aos bens culturais para garantir que todos os indivíduos e coletivos possam participar livre e igualmente na vida cultural; e a necessidade de uma política do cuidado dentro das comunidades e movimentos da cultura livre.

 

CULTURA LIVRE COMO LIBERDADE POSITIVA

 

Por Mariana Fossati, em Ártica Cultural
Tradução e adaptação: Leonardo Foletto

 

Como definimos liberdade quando falamos de cultura livre? Há algum tempo, escrevi que a cultura livre não é apenas uma filosofia, expressa em práticas concretas através das quais tornamos as nossas obras livres quando as compartilhamos. A cultura livre se expressa não só na ética de “compartilhar é bom”, mas também, de modo concreto, nas licenças que utilizamos, onde e como compartilhamos – e também no apoio a reformas progressivas dos direitos de autor. Gostaria agora de voltar à dimensão filosófica da liberdade na cultura livre, com a intenção de clarificar para que é que fazemos cultura livre e porque é que a defendemos.

Muitas vezes, ao longo da minha militância neste tema, senti que falo de uma coisa quando falo de cultura livre, enquanto os críticos falam de outra. Sobretudo os críticos “de esquerda” acusam aqueles que defendem a cultura livre de serem liberais, ou associam “cultura livre” a “mercado livre”. Durante muito tempo ri destas associações grosseiras, mas sinto que hoje, mais do que nunca, e sobretudo no conceito de cultura livre, a noção de liberdade deve ser reapropriada pelos movimentos de defesa dos direitos, para nos diferenciarmos claramente dos movimentos de direita autodenominados “libertários”.

Num artigo crítico aos libertários em seu blog, Rolando Astarita, [conhecido professor de economia argentino, estudioso do marxismo] fala da diferença entre liberdade negativa e liberdade positiva, no sentido proposto por Isaiah Berlin. A liberdade negativa é a possibilidade do indivíduo atuar sem interferência ou coerção, e é limitada pela liberdade dos outros e pela lei. A liberdade positiva é a capacidade real de exercer a autonomia e de se auto-realizar, o que depende não só de cada pessoa, mas também de condicionantes sociais. É por isso que Astarita entende que a tradição marxista enfatiza sobretudo a liberdade positiva. 

O artigo de Astaria me serve como inspiração para este post, porque a cultura livre pode ser entendida desde qualquer uma destas noções de liberdade. Creio, porém, que é necessário esclarecer onde colocamos nossa ênfase.

Se entendermos a cultura livre em termos de liberdade negativa, nos resta apenas a ideia de acesso sem interferência a qualquer recurso cultural ou de informação de que um indivíduo possa necessitar. Desde que esse acesso seja legal e que não afete os direitos de propriedade de terceiros. Daí a importância da licença (que é um contrato privado) e a ênfase no fato de cada indivíduo ser livre de conceder autorizações de acesso e utilização da sua obra (sua propriedade privada). As licenças livres funcionam com base numa renúncia a uma parte dos direitos de propriedade intelectual. É minha liberdade, enquanto proprietário, de renunciar a uma parte desses direitos. Já o acesso aberto é a liberdade de acessar e utilizar toda a propriedade intelectual que outras pessoas disponibilizaram de forma aberta, dentro dos limites da licença que escolheram. É um sistema aparentemente equilibrado que reafirma a tese de que a propriedade, a liberdade e um mínimo de regulação estatal que as garanta são suficientes.

Mas se a nossa compreensão termina aqui, estamos perdendo algo fundamental. O efeito prático deste tipo particular de renúncia de cada indivíduo a uma parte da sua propriedade intelectual produz uma contribuição para o bem comum intelectual. Este bem comum, no seu conjunto, constitui uma reserva de conhecimentos que já não é uma questão individual ou contratual entre particulares, mas que nos remete para uma dimensão social e coletiva. É a partir daqui que a noção de liberdade negativa fica aquém, ao passo que a liberdade positiva permite alargar o horizonte e nos conduzir a uma noção de cultura livre que acompanha a proteção e o reforço dos bens comuns, juntamente com uma expansão dos direitos sociais.

A cultura livre, em termos de liberdade positiva, é a ideia de que deve haver recursos culturais abundantes, acessíveis e plurais, para que todos os indivíduos e coletivos possam participar livre e igualmente na vida cultural. O ativismo da cultura livre não é apenas a defesa da propriedade e da liberdade individual, mas a procura ativa do alargamento do direito de acesso, utilização e participação na cultura a toda a sociedade. Isto inclui a democratização radical da criatividade, do pensamento crítico, do conhecimento prático, do prazer estético, do entretenimento, da identidade e do patrimônio cultural.

Se persistem condições sociais que excluem muitas pessoas de usufruir efetivamente dos bens culturais, mesmo que formalmente não exista qualquer impedimento, então não podemos falar de liberdade. A falta de recursos econômicos, de acesso a infraestruturas culturais, de conetividade significativa, de educação pública de qualidade, de diversidade de propostas culturais, ou de obras acessíveis, reutilizáveis e partilháveis, limitam a liberdade positiva das pessoas. Pode não haver censura ou controle estatal autoritário sobre os conteúdos que circulam – e, no entanto, ainda pode não haver liberdade cultural.

Por isso, a nossa militância pela cultura livre não se resume à afirmação da soberania individual de dar e receber recursos culturais, num cenário de propriedade intelectual garantida pelo Estado. A nossa militância é o alargamento da fruição e da participação na cultura a nível coletivo através da defesa dos bens culturais comuns. As licenças livres são, neste quadro, uma estratégia coletiva e não apenas uma opção individual, porque entendemos que, num contexto de crescente privatização da cultura, elas ajudam a construir, proteger e reforçar os bens culturais comuns para que cheguem a toda a comunidade. Queremos construir uma cultura livre para uma sociedade livre. Mas uma sociedade livre não é uma sociedade de proprietários livres, mas uma sociedade emancipada das estruturas de poder econômico e de privilégio social que obstruem este potencial coletivo.

 

BREVE COMENTÁRIOS À CULTURA LIVRE COMO LIBERDADE POSITIVA

Leonardo Foletto

Alguns comentários para dialogar e apontar discussões futuras para uma pensmento filosófico sobre a cultura livre. O argumento principal do curto e importante texto de Mariana é detalhado pela própria nos comentários ao post no blog. Para ela, as quatro liberdades da cultura e do software livre não podem ser vistas somente na perspectiva de liberdades negativas, a partir da diferenciação entre liberdade positiva e negativa trabalhada no texto. Isso ocorre por duas razões principais: a primeira é porque, na prática, ao libertar a cultura do direito autoral, geramos um bem comum e, normalmente, uma comunidade à sua volta, passando então para o nível do coletivo. A segunda é porque entendemos que “compartilhar é bom” não só para os indivíduos, mas para a comunidade, já que o acesso ao conhecimento é um direito básico para se poder exercer qualquer liberdade criativa – e há necessidades humanas, de ligação e de cultivo da uma cultura comum que são de ordem coletiva, e que são condicionantes para a autorrealização das pessoas. É uma visão que reitera a necessidade do progresso técnico e científico não ser exclusivo para poucos, mas sim generalizado.

Faço a ressalva que um tema crucial hoje na discussão sobre cultura livre não é trabalhado com ênfase no texto de Mariana: as assimetrias de poder envolvidas na questão do acesso à informação e aos bens comuns digitais. Não foi abordado porque não era intenção inicial, e também porque certamente renderia um texto muito mais longo – ou vários. O argumento central aqui, que discutimos também a partir do prefácio de Mckenzie Wark ao seu “Um Manifesto Hacker”, é de que a liberdade de acesso não tem se mostrado suficiente para garantir que todos os indivíduos e coletivos possam participar livre e igualmente na vida cultural, como defende Mariana no texto.

É uma situação parecida com a discussão em torno da inclusão digital: qual inclusão queremos? a das plataformas das big techs, baseada em sugar nossa atenção para extrair lucro a partir da produção contínua de dados? Aqui vale se perguntar também: qual acesso queremos? o acesso a lixo informacional e cultural, que entope e cansam nossas mentes e dificultam nossa percepção de uma realidade e ação comum? Se não é esse tipo, qual é? Existe alguma forma de se trabalhar os limites de ações de acesso sem tocar em questões mais complexas como a do tempo gasto e a da organização coletiva? Como me lembrou o Alexandre Abdo, quando falamos dos Pontos de Cultura e do programa Cultura Viva no Brasil, seu sucesso enquanto política pública e ação transformadora de pessoas e locais se deu mais com a capacidade de criar condições mínimas – financeiras, sociais e humanas – para as pessoas terem tempo e organização de usar, aperfeiçoar e cuidar do que foi produzido, do que somente a questão de se ter acesso a computadores com software livre instalados. Quando se desestruturou as condições mínimas citadas, o acesso aos computadores com software livre e a cultura livre criada em torno disso se tornou uma questão gradativamente menor, a ponto de ser abandonada por muitos pontos depois.

Mais acesso à informação, à tecnologias digitais ou a bens culturais não necessariamente significa consciência crítica, como escrevi em A Cultura é Livre. Lembro da crítica que César Rendueles [em Sociofobia] fez ao copyleft: romper as barreiras de livre circulação da informação e do acesso aos bens culturais não é suficiente para uma melhoria geral das condições de vida global sem tocar nas condições sociais de produção desses bens culturais e da informação. A enorme importância hoje do tema do trabalho digital, dada à proliferação do trabalho precário a partir da plataformização, confirma isso.

Um passo aqui, talvez, seja mais em direção a uma política do cuidado do que do acesso: como criar e pôr em prática protocolos de cuidado dentro das comunidades de bens comuns livres para que estes bens não sejam apropriados sem critérios, desrespeitando as indicações das licenças (livres) e usados para o enriquecimento de ainda menos pessoas, como no caso do uso de dados sem consentimento para treinamento e sistemas de Inteligência Artificial Generativa de empresas como Meta e Open IA? Como estabelecer condições sociais dignas de produção e fruição desses bens culturais e informativos alocados dentro da perspectiva da cultura livre?

Não há resposta clara aqui, mas talvez se fazer esta pergunta nos leve a repensar a cultura livre mais em termos de cuidado do que de acesso. Organização da abundância (de informação e bens culturais) que não seja baseada em restrição econômica e técnica como a promovida pela propriedade intelectual. O que nos leva a um outro ponto de reflexão não novo, mas cada vez mais pertinente: a reinvenção do sistema de direito autoral, agora baseado na idade de uma liberdade positiva, como Mariana aponta no texto, mas que não deixa de garantir a proteção e o cuidado com os abusos e as condições sociais de produção desses bens culturais. A cultura livre, enquanto movimento, representou de alguma forma uma “reforma cidadã” do direito autoral, com as licenças produzindo um espaço de “lei alternativa” que levou a descentralizar o controle e potencializar a inteligência e experiência humana. Será ainda possível pensar numa reforma de direito autoral que potencialize esses aspectos, sem descuidar da proteção e das assimetrias de poder típicas do capitalismo? Ou é mais provável que, com a popularização das IAs generativas, vejamos uma reforma imposta pelo capital que vá na linha de permitir a livre concentração, materializada nos modelos gigantes das big techs, a fim de cada vez mais potencializar uma (pseudo) inteligência artificial desregulada sob controle dessas grandes empresas e destinada a gerar renda (cada vez mais) para esse capital?

]]>
https://baixacultura.org/2024/08/29/cultura-livre-como-liberdade-positiva/feed/ 1
Os interrompidos sonhos aceleracionistas da cultura popular https://baixacultura.org/2024/05/16/os-interrompidos-sonhos-aceleracionistas-da-cultura-popular/ https://baixacultura.org/2024/05/16/os-interrompidos-sonhos-aceleracionistas-da-cultura-popular/#comments Fri, 17 May 2024 00:02:48 +0000 https://baixacultura.org/?p=15653  

A proliferação da inteligência artificial generativa tem nos feito, nos últimos meses, redobrar o interesse por um conjunto de ideias agrupadas em torno do nome aceleracionismo. O termo tem lastro na teoria e filosofia política há pelo menos uma década. Nos últimos anos, tem ganhado repercussão também a partir da busca recente de empresas de IA generativa, como a Open IA, por uma “Inteligência Artificial Geral” que vá substituir ou superar a capacidade humana de pensar. Isso implica também na popularidade de ideias semelhantes como a singularidade, popularizada por Ray Kurzweil, que relaciona o crescimento tecnológico desenfreado da “super inteligência artificial” à mudanças irreversíveis ​​na civilização humana.

Usado a partir de “The persistence of Negative”, artigo de Benjamin Noys de 2010, o aceleracionismo tem como premissa a aceleração das forças do capital como meio de desterritorializar o sistema capitalista. É uma heresia política: “a insistência de que a única resposta política radical ao capitalismo não é protestar, agitar, criticar, nem tão pouco esperar seu colapso nas mãos de suas próprias contradições, mas sim acelerar suas tendências ao desenraizamento, à alienação, à decodificação, à abstração”, na definição de Armen Avanessian e Mauro Reis na introdução do ótimo “Aceleracionismo: estrategias para una transición hacia el postcapitalismo

O livro, publicado pela editora argentina Caja Negra em 2017, compila vários textos ainda não muito conhecidos no Brasil, como o “Manifesto por uma Política Aceleracionista”, de Nick Srnicek e Alex Willians, “Meltdow” e “Crítica do Miserabilismo Transcendental” de Nick Land, “Reflexões sobre o Manifesto por uma política aceleracionista” de Antonio Negri , “O Aceleracionismo questionado desde o ponto de vista do corpo” de Bifo Berardi, “Red Stack Attack! Algoritmos, capital e a automatização do comumde Tiziana Terranova, “O labor do inumano” de Reza Negarestani, entre outros, inclusive o texto apresentado logo abaixo, de Mark Fisher.

Duas visões disputam o aceleracionismo. A primeira é a apocalíptica, elaborada principalmente por Nick Land, filósofo cocriador (ao lado de Sadie Plant) do CCRU (Cybernetic Culture Research Unit) – herético grupo de pesquisa/coletivo teórico criado em 1995 na Universidade de Warwick, do qual Mark Fisher fez parte. Mais tarde, Land se tornaria um dos principais ideólogos da extrema direita mundial, apoiador de Trump e até mesmo de Bolsonaro, mentor de gente como Mencius Moldbug e Peter Thiel, reza a lenda que auto-exilado em Shangai já há alguns anos – uma parte de seus textos entre 1987 e 2007 estão compilados no livro “Fanged Noumena”, de 2011.

Figura excêntrica, Land falava já em 1993 (no texto “Meltdown”) que os humanos são apenas “meat puppets” (fantoches de carne) do capital, um obstáculo a ser superado para que o capitalismo alcance seus objetivos transhumanistas de adquirir agência própria a partir da aceleração descontrolada das finanças e da Inteligência Artificial, rumo ao caos e a destruição do planeta. Esta visão anti-humanista e monstruosa, que parece sair de um filme de terror gore, nasce de “uma crítica ao tom celebratório às tendências desterritorializantes do capitalismo”, como afirmam Victor Marques e Rodrigo Gonsalves no posfácio à edição brasileira de “Realismo Capitalista”, de Mark Fisher, lançada em 2020 pela Autonomia Literária. Ela dobra a aposta em orientação a um futuro onde a humanidade se tornaria um entrave ao desenvolvimento do tecno-capital, uma ideia que, por mais estranha e grotesca que possa parecer, serve de pano de fundo hoje para gente como Elon Musk e sua obsessão com a colonização de outros planetas, e também para o “anarcocapitalismo” de Javier Milei, na Argentina. Land considera o tecno-capital como o verdadeiro sujeito da história, sendo a humanidade o seu hospedeiro e não seu mestre – um tipo de frase que poderia sair da boca do presidente argentino num programa ruim de TV transmitido por streaming, com Milei vociferando ferozmente ladeado por seus quatro cachorros clonados pela empresa PerPETuate a partir do DNA do Conan, seu enorme mastim inglês morto em 2017.

A outra visão em disputa do aceleracionismo seria aquela mais à esquerda, adotada por Fisher a partir de 2010, onde ela afirma que ser aceleracionista é, seguindo a máxima de Bertold Brecht, “não começar das coisas boas e velhas, mas das coisas novas e ruins”. Um “recuar para a frente”, mesmo que “através da merda do capital”, para adotar uma postura não contrária à tecnologia ou neoludista, como às vezes ecoa em certa parte da esquerda, mas sim uma que possa avaliar “que tipo de inovações técnicas podem ser apropriadas a serviço da emancipação humana”, como afirmam Marques e Gonsales no posfácio à Realismo Capitalista. Nessa visão, é forte a presença do imaginário do fim do trabalho, de longa tradição teórica (remetendo inclusive ao primeiro livro escrito pelo já citado Bifo, “Contra Il lavoro”, publicado em 1970) em que a inteligência artificial, por exemplo, poderia estar à serviço da humanidade, reduzindo o trabalho repetitivo e deixando as pessoas com mais tempo para o lazer, os cuidados e o prazer. Este imaginário utópico-otimista está presente em obras como “Pós-Capitalismo: um guia para o nosso futuro”, de Paul Mason (2017), publicado (e fora de catálogo) no Brasil pela Cia das Letras, e “Comunismo de Luxo Totalmente Automatizado”, de Aaron Bastani, lançado em 2022 pela Autonomia Literária.

O texto “Manifesto por uma política aceleracionista”, de Nick Srnicek e Alex Willians, é central nessa visão, pois sintetiza uma disputa de imaginário de futuro à esquerda, pós-capitalista, para também desnaturalizar a ideia do realismo capitalista de Mark Fisher em que o capitalismo virou o “padrão” com o qual nenhuma outra forma política estrangeira pode disputar. Como escrevem Srnicek e Willians, “o que o aceleracionismo promove é um futuro mais moderno; uma modernidade alternativa que o neoliberalismo é intrinsecamente incapaz de gerar”. Ainda que esse futuro pós-capitalista seja uma incógnita, é necessário tentar imaginá-lo para que se consiga mobilizar coletivamente uma renovação política, econômica e social na esfera do desejo. Algo que, hoje, a extrema-direita consegue fazer muito bem ao se apropriar do discurso “anti-sistema” ultraliberal e neorreacionário, idealizado por figuras como Land.

Aqui entra o conceito elaborado pelo CCRU de hiperstição, que fala da necessidade de inventar futuros ficcionais para que eles possam se tornar reais. Para Fisher, seria necessário pensar uma prática hipersticional comunista que, por sua vez, tivesse algo de pragmático, para que não caia na utopia vazia que nos deixa na posição cômoda de estar com as mãos limpas, mas inúteis – e derrotadas. No campo da disputa de imaginários tecnológicos, ainda que não associados ao aceleracionismo, o resgate da história do Cybersin, por Evgeny Morozov em “The Santiago Boys”, entraria nessa linha, ao relembrar os erros da tentativa de construção de um sistema técnico que ligasse dezenas de fábricas no Chile de Salvador Allende nos anos 1970 [a principal referência aqui é “Cybernetic Revolutionaries: Technology and Politics in Allende’s Chile”, de Éden Medina]. Poderíamos incluir aqui também o Cooperativismo de Plataforma e a sua potente ideia da posse das plataformas ser distribuída de forma coletiva entre seus cooperados, e também o “Oráculo de Tecnologias Transfeministas”, criado pela Coding Rights (por Joana Varon e Sasha Constanza-Chok, com ilustrações de Clarote), um projeto que fornece ferramentas para permitir um brainstorming coletivo sobre imaginários alternativos, mais inclusivos e diversos, em torno das tecnologias.

O texto abaixo, produzido em 2013 (quatro anos antes da morte de Fisher), se apresenta não como um programa de ações do aceleracionismo, tal qual o já citado “Manifesto por uma política aceleracionista”, mas como uma análise política da cultura – a cultura musical, como Fisher costumava gostar de trazer, mas também a comportamental. A partir da crítica musical e cultural de Ellen Wilis, Fisher analisa como a direita neoliberal individualizou os desejos coletivos que a contracultura abriu nos anos 1960 para, então, reivindicar esse novo terreno – e a partir daí, cooptar a contracultura e reduzir seus ideias libertários a “relíquias estéticas” destituídas de sua radicalidade política inicial.

Nesse ponto, a esquerda dos final da década de 1990 e do início dos 2000, algo perdida após o altermundismo e a proliferação massiva da internet e das tecnologias digitais, passa a ser até mesmo anti-aceleracionista: “é reduzida a defender, sem competência, relíquias na forma de compromissos antigos (a social-democracia, o New Deal) ou a extrair um gozo tíbio de seu próprio fracasso em superar o capitalismo”, como Fisher escreve. Citando Wendy Brown, ele afirma que esta esquerda passa a buscar refúgio no familiar e no tradicional sem qualquer impulso para a frente ou orientação própria, um tipo de melancolia que contribui para o fracasso da cultura popular em gerar sonhos – inclusive estéticos – novos, que avancem radicalmente na direção de um “outro” ainda não existente. Daí vem a sugestão do aceleracionismo de Fisher em reforçar a necessidade também de um imaginário aceleracionista para a cultura. Ele, porém, não chega a apontar diretamente elementos desse imaginário, embora critique em outro texto (“Fantasmas da Minha Vida”, lançado no Brasil em 2022) o  “modo nostalgia”, expressão criada por Fredric Jameson nos anos 1980 para se referir aos cada vez mais comuns pastiches pós-modernos dos anos 1980 que se apegam à forma e as técnicas do passado. O “modo nostalgia” reverbera a sensação, compartilhada também por Bifo em “Depois do Futuro” (lançado no Brasil em 2019 e já comentado por aqui), de um “lento cancelamento do futuro”, ou da dificuldade de imaginar futuros na arte decorrente também do afogamento pela superoferta de informação libertada na rede.

Fisher provavelmente não tinha conhecimento dos avanços transfeministas, indígenas e afro futuristas das ações autônomas tecnológicas na América Latina, na África e na Ásia. Possivelmente também não conhecia o kuduro angolano ou o funk brasileiro, ritmos e estéticas musicais que, na nossa visão, apontam para o futuro – um futuro algo precário, muito remixador e globo periférico [como já falávamos em 2010!]. Um futuro que, mesmo olhando para o passado, traz elementos novos, talvez ainda não compreendidos o suficiente por uma classe intelectual política de esquerda. Ainda assim, a análise de Fisher é importante como diagnóstico e organização de caminhos possíveis para novos imaginários também tecnológicos – aceleracionistas ou não.

 

[Leonardo Foletto e Victor Wolfenbüttel]

“Uma revolução social e psíquica de magnitude quase inconcebível”: os interrompidos sonhos aceleracionistas da cultura popular 

Mark Fisher

Tradução: Victor Wolfenbüttel e Leonardo Foletto. Originalmente publicado no e-flux #46, junho de 2013

Vivemos um momento de profunda desaceleração cultural. As primeiras duas décadas deste século têm sido marcadas até agora por um senso extraordinário de inércia, repetição e retrospecção, estranhamente alinhado com as análises proféticas da cultura pós-moderna que Fredric Jameson começou a desenvolver na década de 1980. Sintonize o rádio em uma estação que toque as músicas mais contemporâneas, e você não encontrará nada que não pudesse ter ouvido na década de 1990. A afirmação de Jameson de que o pós-modernismo era a lógica cultural do capitalismo tardio representa agora um presságio ameaçador do (não) futuro da produção cultural capitalista: tanto política como esteticamente, parece que agora só podemos esperar mais do mesmo, para sempre.

Pelo menos por enquanto, parece que a crise financeira de 2008 fortaleceu o poder do capital. Os programas de austeridade implementados com tanta agilidade na sequência da crise viram uma intensificação – em vez de um desaparecimento ou diluição – do neoliberalismo. A crise pode ter retirado a legitimidade do neoliberalismo, mas isso serviu apenas para mostrar que, na falta de qualquer força contrária eficaz, o poder capitalista pode agora prosseguir sem a necessidade de legitimidade. As ideias neoliberais são como a litania de uma religião cujo poder social sobreviveu à capacidade de ter fé dos crentes. O neoliberalismo está morto, mas continua. As explosões militantes de 2011 pouco fizeram para perturbar a sensação generalizada de que as únicas mudanças serão para pior.

Women packaging the Beatles’ album Rubber Soul at the Hayes Vynil Factory, England. A number of Beatles vynils bore the sentence “Manufactured in Hayes.”

Para entender o que pode estar em jogo no conceito de aceleracionismo estético, talvez valha a pena contrastar o estado de espírito dominante em nossos tempos com o tom afetivo de um período anterior. Em seu ensaio de 1979, “The Family: Love It or Leave It” (A família: ame-a ou deixe-a), a crítica musical e cultural Ellen Willis observou que o desejo da contracultura de substituir a família por um sistema de criação coletiva dos filhos implicaria “uma revolução social e psíquica de magnitude quase inconcebível [1]”. É muito difícil, em nossos tempos de esvaziamento, recriar a confiança da contracultura de que tal “revolução social e psíquica” não só poderia acontecer, como já estaria em processo de desenvolvimento. A vida de Willis, assim como a de muitos da sua geração, foi moldada pelo embalo dessas esperanças e por depois vê-las murchar gradualmente à medida que as forças de reação recuperavam o controle da história. Provavelmente, não há melhor relato do recuo da contracultura dos anos 60, da ambição prometeica para a autodestruição, a resignação e o pragmatismo, do que a coleção de ensaios de Willis, “Beginning To See The Light. A contracultura dos anos 60 pode ter sido reduzida a uma série de relíquias estéticas “icônicas” – demasiado familiares, de circulação interminável, des-historicizadas –, despojadas de conteúdo político, mas o trabalho de Willis permanece como uma dolorosa lembrança do fracasso da esquerda. Como Willis deixa claro na introdução do livro, ela se via frequentemente em desacordo com o que considerava o autoritarismo e o estatismo do socialismo dominante. Embora a música que ela ouvisse na época falasse de liberdade, o socialismo parecia ter mais a ver com centralização e controle estatal. A história de como a contracultura foi cooptada pela direita neoliberal nos é familiar agora, mas o outro lado desta narrativa fala sobre a incapacidade da esquerda de se transformar face às novas formas de desejo às quais a contracultura deu voz.

A ideia de que os “anos 60 conduziram ao neoliberalismo” se complica se damos ênfase no desafio às estruturas familiares. Porque então fica claro que a direita não absorveu correntes e energias contraculturais sem deixar vestígios. A conversão da rebelião contracultural em prazeres de consumo capitalistas necessariamente ignora a ambição da contracultura de acabar com as instituições da sociedade burguesa. Uma ambição que, da perspectiva do novo “realismo” que a direita impôs com sucesso, parece ingênua e sem esperança.

A política da contracultura era anticapitalista, argumenta Willis, mas isso não implicava em uma rejeição direta de tudo o que era produzido no capitalismo. O prazer e o individualismo certamente foram importantes para o que Willis caracterizava como a sua “disputa com a esquerda [2]”. Contudo, o desejo de acabar com a família não poderia ser construído apenas nestes termos; tratava-se inevitavelmente também de formas novas e sem precedentes de organização coletiva (porém não estatistas). A polêmica de Willis “contra as noções correntes da esquerda sobre o capitalismo avançado” considerava, na melhor das hipóteses, apenas como parcialmente verdadeiras as ideias de que “a economia de consumo nos torna escravos das mercadorias, que a função dos meios de comunicação de massa é manipular as nossas fantasias, e que por isso atingiremos a satisfação pessoal com a compra de mercadorias do sistema [3]”. A cultura popular – e a música em particular – era um terreno de luta mais do que de domínio do capital. A relação entre formas estéticas e política era instável e incipiente – a cultura não apenas “expressava” posições políticas já existentes, mas também antecipava uma política por vir (que também foi, muitas vezes, uma política que nunca de fato chegou).

Ellen Willis reading ‟No More Fun and Games,” a Journal of Female Liberation. Courtesy of the Ellen Willis’ family.

O papel da música como um dos motores da aceleração cultural do final dos anos 50 até o ano 2000 teve a ver com a sua capacidade de sintetizar diversas energias, tropos [4] e formas culturais, tanto quanto qualquer outra característica específica da própria música. A partir do final dos anos 50, a música tornou-se a zona onde as drogas, as novas tecnologias, as ficções (científicas) e os movimentos sociais podiam combinar-se para produzir sonhos – vislumbres sugestivos de mundos radicalmente diferentes da ordem social existente. (A ascensão do “realismo” de direita implicou não apenas a destruição de formas particulares de sonho, mas a própria supressão da função de sonhar na cultura popular.) Por um momento, bem no coração da música comercial, abriu-se um espaço de autonomia para os músicos explorarem e experimentarem. Neste período, a música popular foi definida por uma tensão entre os desejos e imperativos (geralmente) incompatíveis dos artistas, do público e do capital. Sua conversão em mercadoria não era o ponto em que esta tensão seria sempre e inevitavelmente resolvida em favor do capital; em vez disso, as próprias mercadorias poderiam ser os meios pelos quais correntes rebeldes poderiam se propagar: “Os meios de comunicação de massa ajudaram a espalhar a rebelião, e o sistema gentilmente comercializou produtos que a encorajaram, pela simples razão de que havia dinheiro a ser ganho com os rebeldes que também eram consumidores. Num certo nível, a revolta dos anos 60 foi uma ilustração impressionante da observação de Lênin de que “o capitalista te venderá a corda para enforcá-lo [5]”.

Isso agora parece bastante otimista, uma vez que, como todos nós sabemos, não foi o capitalista quem acabou enforcado. O marketing da rebelião acabou sendo mais sobre o triunfo do marketing do que da rebelião. O golpe da direita neoliberal consistiu em individualizar os desejos que a contracultura abriu, e, em seguida, reivindicar o novo terreno libidinal. A ascensão da nova direita foi baseada no repúdio à ideia de que a vida, o trabalho e a reprodução poderiam ser transformados coletivamente – agora, o capital seria o único agente de transformação. O recuo de qualquer contestação séria à família é um lembrete de que o clima de reação que cresceu a partir da década de 1980 não foi apenas sobre a restauração de algum poder econômico estritamente definido: foi também sobre o retorno – no nível da ideologia, não necessariamente do fato empírico – de instituições sociais e culturais que pareciam possíveis de serem eliminadas na década de 1960.

No seu ensaio de 1979, Willis insiste que o regresso do familiarismo foi central para a ascensão da nova direita, que estava prestes a ser confirmada, em grande estilo, com a eleição de Ronald Reagan nos EUA e de Margaret Thatcher no Reino Unido. “Se existe uma tendência cultural que definiu os anos 70”, escreve Willis, “foi o ressurgimento agressivo do chauvinismo familiar [6]”. Para Willis, talvez o sinal mais perturbador deste novo conservadorismo tenha sido a aceitação da família por partes da esquerda [7] – uma direção reforçada pela tendência dos antigos adeptos da contracultura (inclusive ela própria) de (re)tornar-se à família, devido a um misto de exaustão e derrotismo. “Lutei, fiz minha parte, cansei de ser marginal. Eu quero entrar!” [8]. A impaciência – o desejo de uma mudança súbita, total e irrevogável; do fim da família dentro do tempo de uma geração – deu lugar a uma resignação amarga quando isso (inevitavelmente) não aconteceu.

Cover of The Alien Critic # 7, Nov 1973. Cover artist: Steven Fabian.

Agora podemos nos voltar para a controversa questão do aceleracionismo. Quero situar o aceleracionismo não como uma forma herética de marxismo, mas como uma tentativa de convergir, intensificar e politizar as dimensões mais desafiadoras e exploratórias da cultura popular. O desejo de Willis de “uma revolução social e psíquica de magnitude quase inconcebível” e a sua “disputa com a esquerda” sobre o desejo e a liberdade podem oferecer uma maneira diferente de pensar o que está em jogo neste conceito tão mal compreendido. Uma certa visão do aceleracionismo, talvez agora dominante, afirma que a posição equivale a uma torcida pela intensificação de qualquer processo capitalista, especialmente o “pior”, na esperança de que isso leve o sistema a um ponto de crise terminal. (Um exemplo disto seria a ideia de que votar em Reagan e Thatcher nos anos 80 foi a estratégia revolucionária mais eficaz, uma vez que suas políticas supostamente levariam à insurreição). No entanto, esta formulação é questionável, na medida em que assume aquilo que o aceleracionismo rejeita – a ideia de que tudo o que é produzido “sob” o capitalismo pertence integralmente ao capitalismo. Em contraste, o aceleracionismo sustenta que existem desejos e processos que o capitalismo dá origem e dos quais se alimenta, mas que não consegue conter. É a aceleração destes processos que empurrará o capitalismo para além dos seus limites. O aceleracionismo é também a convicção de que o mundo desejado pela esquerda é pós-capitalista – que não há possibilidade de retorno a um mundo pré-capitalista e que não há desejo sério de regressar a este mundo, mesmo que pudéssemos.

A artimanha aceleracionista depende de uma certa compreensão do capitalismo, melhor articulada por Deleuze e Guattari em Anti-Édipo (um texto que, não por coincidência, surgiu na esteira da contracultura). Na famosa formulação do Anti-Édipo, o capitalismo é definido pela sua tendência a descodificar/desterritorializar ao mesmo tempo que recodifica/reterritorializa. Por um lado, o capitalismo desmantela todas as estruturas, normas e modelos sociais e culturais existentes do sagrado; por outro, revive inúmeras formações aparentemente atávicas (identidades tribais, religiões, poder dinástico…):

“A axiomática social das sociedades modernas está contida entre dois polos, e não para de oscilar de um polo a outro. Tais sociedades, nascidas da descodificação e da desterritorialização, sobre as ruínas da máquina despótica, estão contidas entre o Urstaat, que bem gostariam de ressuscitar como unidade sobrecodificante e reterritorializante, e os fluxos desencadeados que as levam em direção a um limiar absoluto. Elas recodificam com toda a força, a golpes de ditadura mundial, de ditadores locais e de polícia toda-poderosa, enquanto descodificam ou deixam descodificar as quantidades fluentes de seus capitais e de suas populações. Elas estão contidas entre duas direções: arcaísmo e futurismo, neoarcaísmo e ex-futurismo, paranoia e esquizofrenia [9]”.

Esta descrição capta estranhamente a forma como a cultura capitalista se desenvolveu a partir da década de 1970, com a desregulamentação neoliberal amoral almejando um projeto de dessacralização e mercantilização sem limites, complementada por um neoconservadorismo explicitamente moralizante, que procura reavivar e reforçar tradições e instituições mais antigas. No nível do conteúdo proposto, esses futurismos e neoarcaísmos se contradizem, mas e daí?

“Nunca uma discordância ou um disfuncionamento anunciaram a morte de uma máquina social que, ao contrário, se alimenta habitualmente das contradições que provoca, das crises que suscita, das angústias que engendra e das operações infernais que a revigoram: o capitalismo aprendeu isso e deixou de duvidar de si, e até os socialistas deixavam de acreditar na possibilidade da sua morte natural por desgaste. As contradições nunca mataram ninguém [10]”.

Se o capitalismo é definido como a tensão entre desterritorialização e reterritorialização, entende-se então que uma forma (talvez a única) de superar o capitalismo seja remover os amortecedores da reterritorialização. Daí a notória passagem do Anti-Édipo, que poderia servir de epígrafe ao aceleracionismo:

“Então, qual solução, qual via revolucionária? (…) Retirar-se do mercado mundial, como Samir Amin aconselha aos países do Terceiro Mundo, numa curiosa renovação da “solução econômica” fascista? Ou ir no sentido contrário, isto é, ir ainda mais longe no movimento do mercado, da descodificação e da desterritorialização? Pois talvez os fluxos ainda não estejam suficientemente desterritorializados e suficientemente descodificados, do ponto de vista de uma teoria e de uma prática dos fluxos com alto teor esquizofrênico. Não retirar-se do processo, mas ir mais longe, “acelerar o processo”, como dizia Nietzsche: na verdade, a esse respeito, nós ainda não vimos nada [11]”.

A passagem é enigmática e provocadora – o que Deleuze e Guattari querem dizer ao associar o “movimento do mercado” com “descodificação e desterritorialização”? Infelizmente eles não explicam, o que tornou fácil para os marxistas ortodoxos enquadrarem esta passagem como um exemplo clássico de como 1968 conduziu à hegemonia neoliberal – mais uma capitulação da esquerda à lógica da nova direita. Esta leitura foi facilitada pela utilização desta passagem na década de 1990 por Nick Land para fins explicitamente antimarxistas. Mas e se lermos esta seção do Anti-Édipo não como uma retratação do marxismo, mas como um novo modelo para o que o marxismo poderia ser? É possível que o que Deleuze e Guattari delineavam aqui fosse o tipo de política que Ellen Willis defendia: uma política que fosse hostil ao capital, mas viva ao desejo; uma política que rejeitasse todas as formas do velho mundo em favor de uma “nova terra”; isto é, uma política que exigisse “uma revolução social e psíquica de magnitude quase inconcebível”?

Um ponto de convergência entre Willis e Deleuze e Guattari foi a sua crença comum de que a família estava no centro da política de reação. Para Deleuze e Guattari, talvez seja a família, mais do que qualquer outra instituição, a principal agência da reterritorialização capitalista: a família como estrutura transcendental (“mamãe-papai-eu”) assegura provisoriamente a identidade em meio e contra as tendências líquidas do capital, sua propensão a dissolver todas as certezas preexistentes. É por esta razão, sem dúvida, que alguns esquerdistas recorrem à família como um antídoto e escape ao colapso capitalista – mas isto é ignorar a forma como o capitalismo depende da função reterritorializadora da família.

Não é por acaso que a infame afirmação de Margaret Thatcher de que “não existe sociedade, apenas indivíduos” teve de ser complementada por “… e as suas famílias”. É também significativo que em Deleuze e Guattari, tal como noutros teóricos anti psiquiátricos como R. D. Laing e David Cooper, o ataque à família estivesse associado a um ataque às formas dominantes de psiquiatria e psicoterapia. A crítica de Deleuze e Guattari à psicanálise baseia-se na maneira como ela isola o indivíduo do campo social mais amplo, privatizando as origens do sofrimento no “teatro” edipiano das relações familiares. Eles argumentam que a psicanálise, em vez de analisar a forma como o capitalismo realiza esta privatização psíquica, apenas a repete. Também é notável que as lutas antipsiquiátricas retrocederam tanto quanto as lutas pela família: para que o sistema de realidade da nova direita fosse naturalizado, era necessário que essas lutas, indissociáveis da contracultura, fossem não apenas derrotadas, mas sim que desaparecessem.

Vale a pena parar aqui para refletir sobre o quão longe a esquerda está de defender com confiança o tipo de revolução que Deleuze e Guattari e Ellen Willis esperavam. A análise de Wendy Brown sobre a “melancolia de esquerda” no final da década de 1990 ainda capta dolorosamente (e de forma embaraçosa) os impasses libidinais e ideológicos em que a esquerda muitas vezes se vê presa. Na verdade, Brown descreve o que é uma esquerda anti-aceleracionista: uma esquerda que, sem qualquer impulso para a frente ou orientação própria, é reduzida a defender, sem competência, relíquias na forma de compromissos antigos (a social-democracia, o New Deal) ou a extrair um gozo tíbio de seu próprio fracasso em superar o capitalismo. Muito longe de estar do lado do inimaginável e do inédito, esta é uma esquerda que se refugia no familiar e no tradicional. “O que surge”, escreve Brown,

“é uma esquerda que opera sem uma crítica profunda e radical do status quo ou sem uma alternativa convincente à ordem existente das coisas. Mas talvez ainda mais preocupante, é uma esquerda que se tornou mais apegada à sua impossibilidade do que à sua potencial fecundidade; uma esquerda que se sente mais à vontade vivendo não na esperança, mas na sua própria marginalidade e fracasso; uma esquerda que está presa em uma estrutura de apego melancólico a um certo nicho de seu próprio passado morto, cujo espírito é fantasmagórico, cuja estrutura de desejo é retrógrada e punitiva [12]”.

Foi precisamente esta tendência esquerdista para o conservadorismo, a defensiva e a nostalgia que permitiram que Nick Land provocasse a esquerda dos anos 90 com o Anti-Édipo, argumentando que a “destruição criativa” do capital era muito mais revolucionária do que qualquer coisa que a esquerda fosse capaz de projetar agora.

Margret Thatcher supporting pro-market campaigners in Parliament Square, on the eve of polling for the common market referendum, 1975. Photo: A/P.

Não há dúvidas de que esta melancolia persistente contribuiu para o fracasso da esquerda em tomar a iniciativa após a crise financeira de 2008. A crise e suas consequências até agora justificaram a visão de Deleuze e Guattari de que “as máquinas sociais têm o hábito de se alimentar… das crises que provocam.” O domínio contínuo do capital pode ter tanto a ver com o fracasso da cultura popular em gerar novos sonhos como com a qualidade inercial das posições e estratégias políticas oficiais. Onde a cultura popular de vanguarda do século XX permitiu todos os tipos de ensaios experimentais daquilo que Hardt e Negri chamam de “monstruoso, violento e traumático… processo revolucionário de abolição da identidade [13]”, os recursos culturais para este tipo de desmantelamento do eu estão agora um tanto desnudados. Michael Hardt disse que “o conteúdo positivo do comunismo, que corresponde à abolição da propriedade privada, é a produção autônoma da humanidade – uma nova visão, uma nova maneira de ouvir, pensar, amar [14]”. O tipo de reconstrução da subjetividade e das categorias cognitivas que o pós-capitalismo irá implicar é tanto um projeto estético como algo que pode ser entregue por qualquer tipo de agente parlamentar ou estatista. Hardt refere-se à discussão de Foucault sobre a frase de Marx “o homem produz o homem”. O programa que Foucault descreve na sua explicação sobre esta frase (abaixo) precisa ser recuperado pela cultura caso se almeje alguma esperança de alcançar a “revolução social e psíquica de magnitude quase inconcebível” com que a cultura popular uma vez sonhou:

“O problema não é recuperar a nossa identidade “perdida”, libertar nossa natureza aprisionada, nossa verdade mais profunda; em vez disso, o problema é avançar em direção a algo radicalmente Outro. O centro da questão ainda parece estar na frase de Marx: o homem produz o homem… Para mim, o que deve ser produzido não é um homem idêntico a si mesmo, exatamente como a natureza o teria desenhado ou de acordo com a sua essência; pelo contrário, devemos produzir algo que ainda não existe e sobre o qual ainda não podemos saber como e nem o que será [15]”.

NOTAS

[1]: Ellen Willis, Beginning To See The Light: Sex, Hope and Rock-and-Roll (Hannover and London: Wesleyan University Press, 1992), p. 158.
[2]: No original, “quarrel with the left”. Ellen Willis, Beginning To See The Light: Sex, Hope and Rock-and-Roll (Hannover and London: Wesleyan University Press, 1992), p.16
[3]: Ellen Willis, Beginning To See The Light: Sex, Hope and Rock-and-Roll. Hannover and London: Wesleyan University Press, 1992.
[4]: No original, “tropes“, que significa literalmente tropo, mas que possui proximidade de sentido à metáfora.
[5]: Ellen Willis, Beginning To See The Light: Sex, Hope and Rock-and-Roll. Hannover and London: Wesleyan University Press, 1992, p.16.
[6]: Ibid., 150.
[7]: “On the left, family chauvinism often takes the form of nostalgic declarations that the family, with its admitted faults, has been vitiated by modern capitalism, which is much worse (at least the family is based on personal relations rather than soulless cash, etc., etc.).” Ibid., 152.
[8]: Ibid., 161.
[9]: Gilles Deleuze e Félix Guattari, O Anti-Édipo: Capitalismo e Esquizofrenia 1. Trad. Luiz B. L. Orlandi. São Paulo; Editora 34, 2010. p.345.
[10]: Ibid., p. 202.
[11]: Ibid., p.318
[12]: Wendy Brown, “Resisting Left Melancholy,” Boundary 2 26:3 (1999): 19–27.
[13]: “Para muitas pessoas, de fato, a família é o principal se não exclusivo local de experiencia social coletiva, acordos de trabalho cooperativo, carinho e intimidade. Baseia-se nos commons, mas ao mesmo tempo o corrompe, impondo uma série de hierarquias, restrições, exclusões e distorções.” Tradução. de Clarice Pelotas. Antonio Negri e Michael Hardt, Commonwealth. Cambridge, MA: Belknap Press, 2009. p 339.
[14]: Michel Hardt, “The Common in Communism,” in eds. Costas Douzinas and Slavoj Žižek, The Idea of Communism. New York: Verso, 2010. p.141.
[15]: Michel Foucault, Observações sobre Marx (Nova York: Semiotext(e), 1991), 121.

 

 

 

]]>
https://baixacultura.org/2024/05/16/os-interrompidos-sonhos-aceleracionistas-da-cultura-popular/feed/ 2
O olho do mestre: a automação da inteligência geral https://baixacultura.org/2024/02/28/o-olho-do-mestre-a-automacao-da-inteligencia-geral/ https://baixacultura.org/2024/02/28/o-olho-do-mestre-a-automacao-da-inteligencia-geral/#respond Thu, 29 Feb 2024 01:07:13 +0000 https://baixacultura.org/?p=15585  

No final de 2023, não lembro onde nem como, fiquei sabendo de “The Eye of the Master”, novo livro do Matteo Pasquinelli sobre IA. Fiquei na hora empolgado. Primeiro porque a proposta do livro é a de contar uma “história social” da IA, indo desde Charles Babbage até hoje, passando e destrinchando o conceito de general intellect de Marx (hoje bastante usado nos estudos tecnopolíticos) e a onipresente cibernética, também uma área de estudos bastante retomada nos últimos anos por Yuk Hui, Letícia Cesarino e diversos outros pesquisadores, até chegar as IAs generativas de hoje. Tudo uma abordagem rigorosa, por vezes densa,  cheia de referências saborosas, e marxista – com várias aberturas típicas do autonomismo italiano e do pós-operaísmo, influências do autor.

Segundo porque Pasquinelli, professor de filosofia da ciência na Universidade Foscari, em Veneza, tem, ele próprio, um belo histórico em se debruçar nos estudos da filosofia da técnica. Eu o conheci pela primeira vez há cerca de 10 anos atrás, quando o artigo “A ideologia da cultura livre e a gramática da sabotagem” saiu como capítulo do Copyfight, importante livro organizado por Bruno Tarin e Adriano Belisário. Depois, outros textos de Pasquinelli foram publicados em português pelo coletivo Universidade Nômade; um deles, “O algoritmo do PageRank do Google: Um diagrama do capitalismo cognitivo e da exploração da inteligência social geral”, já em 2012 apontava para a exploração da “inteligência social geral” por algoritmos das big techs – o que hoje, com IAs generativas, virou um consenso global.

Ainda estou digerindo a leitura da obra e me debruçando sobre alguns tópicos e referências citados, enquanto espero minha cópia impressa do original chegar para rabiscar e estudar com mais calma. Encharcado de uma saborosa empolgação intelectual, daquelas que nos deixam ao mesmo tempo animado pelas descobertas e ansioso em compartilhar esses achados, fui ao texto que Pasquinelli publicou no E-Flux, em dezembro de 2023, “The Automation of General Intelligence” e traduzi para o português. O texto publicado é uma versão do posfácio do livro, onde o italiano sintetiza alguns pontos da obra e aponta caminhos tanto para a discussão teórica quanto para a disputa ativista. Com a ajuda do amigo Leonardo Palma, busquei traduzir cotejando e adaptando alguns conceitos para o português brasileiro, tentando quando possível trazer referências às obras já publicadas por aqui. 

Para acompanhar o texto, trouxe as imagens que ilustram a publicação no E-Flux. Disponibilizo também o livro inteiro em inglês, publicado pela Verso Books (edições em outros idiomas estão vindo) – “The Eye of the Master: A Social History of Artificial Intelligence” – para baixar – mas você sabe, não é para espalhar.

[Leonardo Foletto]

A automação da Inteligência geral (General Intelligence)

Matteo Pasquinelli

Queremos fazer as perguntas certas. Como as ferramentas funcionam? Quem as financia e as constroi, e como são usadas? A quem elas enriquecem e a quem elas empobrecem? Que futuros elas tornam viáveis e quais excluem? Não estamos procurando respostas. Estamos procurando por lógica.
—Logic Magazine Manifesto, 2017[¹]

Vivemos na era dos dados digitais e, nessa era, a matemática se tornou o parlamento da política. A lei social se entrelaçou com modelos, teoremas e algoritmos. Com os dados digitais, a matemática se tornou o meio dominante pelo qual os seres humanos se coordenam com a tecnologia… Afinal, a matemática é uma atividade humana. Como qualquer outra atividade humana, ela traz consigo as possibilidades tanto de emancipação quanto de opressão.
—Politically Mathematics manifesto, 2019[²]

“A mesma importância que as relíquias de ossos têm para o conhecimento da organização das espécies de animais extintas têm também as relíquias de meios de trabalho para a compreensão de formações socioeconômicas extintas. O que diferencia as épocas econômicas não é “o que” é produzido, mas “como”, “com que meios de trabalho”. Estes não apenas fornecem uma medida do grau de desenvolvimento da força de trabalho, mas também indicam as condições sociais nas quais se trabalha”.
—Karl Marx, Capital, 1867[³]


H
averá um dia no futuro em que a IA atual será considerada um arcaísmo, um fóssil técnico a estudar entre outros
. Na passagem de “O Capital” citada acima, Marx sugeriu uma analogia semelhante que ressoa nos estudos científicos e tecnológicos atuais: da mesma forma que os ossos fósseis revelam a natureza das espécies antigas e os ecossistemas em que viviam, os artefatos técnicos revelam a forma da sociedade que os rodeia e gere. A analogia é relevante, penso eu, para todas as máquinas e também para a aprendizagem automática, cujos modelos abstratos codificam, na realidade, uma concretização de relações sociais e comportamentos coletivos, como este livro tentou demonstrar ao reformular a teoria laboral da automação do século XIX para a era da IA.

 

 

Este livro [“ O Olho do Mestre”] começou com uma pergunta simples: Que relação existe entre o trabalho, as regras e a automação, ou seja, a invenção de novas tecnologias? Para responder a esta questão, iluminou práticas, máquinas e algoritmos a partir de diferentes perspectivas – da dimensão “concreta” da produção e da dimensão “abstrata” de disciplinas como a matemática e a informática. A preocupação, no entanto, não tem sido repetir a separação dos domínios concreto e abstrato, mas ver a sua coevolução ao longo da história: eventualmente, investigar o trabalho, as regras e a automação, dialeticamente, como abstrações materiais. O capítulo inicial sublinha este aspecto, destacando como os rituais antigos, os instrumentos de contagem e os “algoritmos sociais” contribuíram para a elaboração das ideias matemáticas. Afirmar, como o fez a introdução, que o trabalho é uma atividade lógica não é uma forma de abdicar da mentalidade das máquinas industriais e dos algoritmos empresariais, mas antes reconhecer que a práxis humana exprime a sua própria lógica (uma anti-lógica, poderia se dizer) – um poder de especulação e invenção, antes de a tecnociência o capturar e alienar [4].

A tese de que o trabalho tem de se tornar “mecânico” por si só, antes que a maquinaria o substitua, é um velho princípio fundamental que foi simplesmente esquecido. Remonta, pelo menos, à exposição de Adam Smith em “A Riqueza das Nações” (1776), que Hegel também comentou já nas suas conferências de Jena (1805-6). A noção de Hegel de “trabalho abstrato” como o trabalho que dá “forma” à maquinaria já estava em dívida para com a economia política britânica antes de Marx contribuir com a sua própria crítica radical ao conceito. Coube a Charles Babbage sistematizar a visão de Adam Smith numa consistente “teoria do trabalho da automação”. Babbage complementou esta teoria com o “princípio do cálculo do trabalho” (conhecido desde então como o “princípio de Babbage”) para indicar que a divisão do trabalho também permite o cálculo exato dos custos do trabalho. Este livro pode ser considerado uma exegese dos dois “princípios de análise do trabalho” de Babbage e da sua influência na história comum da economia política, da computação automatizada e da inteligência das máquinas. Embora possa parecer anacrônico, a teoria da automatização e da extração de mais-valia relativa de Marx partilha postulados comuns com os primeiros projetos de inteligência artificial.

Marx derrubou a perspetiva industrialista – “o olho do mestre” – que era inerente aos princípios de Babbage. Em “O Capital”, argumentou que as “relações sociais de produção” (a divisão do trabalho no sistema salarial) impulsionam o desenvolvimento dos “meios de produção” (máquinas-ferramentas, motores a vapor, etc.) e não o contrário, como as leituras tecno-deterministas têm vindo a afirmar, centrando a revolução industrial apenas na inovação tecnológica. Destes princípios de análise do trabalho, Marx fez ainda outra coisa: considerou a cooperação do trabalho não só como um princípio para explicar o design das máquinas, mas também para definir a centralidade política daquilo a que chamou o “Gesamtarbeiter“, o “trabalhador geral”. A figura do trabalhador geral era uma forma de reconhecer a dimensão maquínica do trabalho vivo e de confrontar o “vasto autômato” da fábrica industrial com a mesma escala de complexidade. Eventualmente, foi também uma figura necessária para fundamentar, numa política mais sólida, a ideia ambivalente do “intelecto geral” (general intellect) que os socialistas ricardianos, como William Thompson e Thomas Hodgskin, perseguiam.


Das linhas de montagem ao reconhecimento de padrões

Este livro apresentou uma história alargada da divisão do trabalho e das suas métricas como forma de identificar o princípio operativo da IA a longo prazo. Como vimos, na virada do século XIX, quanto mais a divisão do trabalho se estendia a um mundo globalizado, mais problemática se tornava a sua gestão, exigindo novas técnicas de comunicação, controle e “inteligência”. Se, no interior da fábrica a gestão do trabalho podia ainda ser esboçada num simples fluxograma e medida por um relógio, era muito complicado visualizar e quantificar aquilo que Émile Durkheim, já em 1893, definia como “a divisão do trabalho social“[5]. A “inteligência” do patrão da fábrica já não podia vigiar todo o processo de produção num único olhar; agora, só as infra-estruturas de comunicação podiam desempenhar esse papel de supervisão e quantificação. Os novos meios de comunicação de massas, como o telégrafo, o telefone, a rádio e as redes de televisão, tornaram possível a comunicação entre países e continentes, mas também abriram novas perspectivas sobre a sociedade e os comportamentos coletivos. James Beniger descreveu corretamente a ascensão das tecnologias da informação como uma “revolução do controle” que se revelou necessária nesse período para governar o boom econômico e o excedente comercial do Norte Global.  Após a Segunda Guerra Mundial, o controle desta logística alargada passou a ser preocupação de uma nova disciplina militar que fazia a ponte entre a matemática e a gestão: a pesquisa operacional (Operations Research). No entanto, há que ter em conta que as transformações da classe trabalhadora no interior de cada país e entre países, marcadas por ciclos de conflitos urbanos e lutas descoloniais, foram também um dos fatores que levaram ao aparecimento destas novas tecnologias de controle.

A mudança de escala da composição do trabalho do século XIX para o século XX também afetou a lógica da automatização, ou seja, os paradigmas científicos envolvidos nesta transformação. A divisão industrial do trabalho relativamente simples e as suas linhas de montagem aparentemente retilíneas podem ser facilmente comparadas a um simples algoritmo, um procedimento baseado em regras com uma estrutura “se/então“(if/then) que tem o seu equivalente na forma lógica da dedução. A dedução, não por coincidência, é a forma lógica que, através de Leibniz, Babbage, Shannon e Turing, se inervou na computação eletromecânica e, eventualmente, na IA simbólica. A lógica dedutiva é útil para modelar processos simples, mas não sistemas com uma multiplicidade de agentes autônomos, como a sociedade, o mercado ou o cérebro. Nestes casos, a lógica dedutiva é inadequada porque explodiria qualquer procedimento, máquina ou algoritmo num número exponencial de instruções. A partir de preocupações semelhantes, a cibernética começou a investigar a auto-organização em seres vivos e máquinas para simular a ordem em sistemas de alta complexidade que não podiam ser facilmente organizados de acordo com métodos hierárquicos e centralizados. Esta foi fundamentalmente a razão de ser do conexionismo e das redes neurais artificiais, bem como da investigação inicial sobre redes de comunicação distribuídas, como a Arpanet (a progenitora da Internet).

Ao longo do século XX, muitas outras disciplinas registaram a crescente complexidade das relações sociais. Os conceitos gêmeos de “Gestalt” e “padrão” (“pattern”), por exemplo, utilizados respectivamente por Kurt Lewin e Friedrich Hayek, foram um exemplo da forma como a psicologia e a economia responderam a uma nova composição da sociedade. Lewin introduziu noções holísticas como “campo de forças”(“force field”) e “espaço hodológico” (“hodological space”) para mapear a dinâmica de grupo a diferentes escalas entre o indivíduo e a sociedade de massas[6].

O pensamento francês tem sido particularmente fértil e progressivo nesta direção. Os filósofos Gaston Bachelard e Henri Lefebvre propuseram, por exemplo, o método da “ritmanálise” (“rhythmanalysis”) como estudo dos ritmos sociais no espaço urbano (que Lefebvre descreveu de acordo com as quatro tipologias de arritmia, polirritmia, eurritmia e isorritmia [7]). De forma semelhante, a arqueologia francesa dedicou-se ao estudo de formas alargadas de comportamento social nas civilizações antigas. Por exemplo, o paleoantropólogo André Leroi-Gourhan, juntamente com outros, introduziu a ideia de cadeia operacional (“chaîne opératoire”) para explicar a forma como os humanos pré-históricos produziam utensílios [8]. No culminar desta longa tradição de “diagramatização” dos comportamentos sociais no pensamento francês, Gilles Deleuze escreveu o seu célebre “Pós-escrito sobre a Sociedade de Controle”, no qual afirmava que o poder já não se preocupava com a disciplina dos indivíduos, mas com o controle dos “dividuais”, ou seja, dos fragmentos de um corpo alargado e desconstruído [9].

Os campos de força de Lewin, os ritmos urbanos de Lefebvre e os dividuais de Deleuze podem ser vistos como previsões dos princípios de “governação algorítmica” que se estabeleceram com a sociedade em rede e os seus vastos centros de dados desde o final da década de 1990. O lançamento em 1998 do algoritmo PageRank da Google – um método para organizar e pesquisar o hipertexto caótico da Web – é considerado, por convenção, a primeira elaboração em grande escala de “grandes dados” das redes digitais [10]. Atualmente, estas técnicas de mapeamento de redes tornaram-se onipresentes: O Facebook, por exemplo, utiliza o protocolo Open Graph para quantificar as redes de relações humanas que alimentam a economia da atenção da sua plataforma [11]. O exército dos EUA tem utilizado as suas próprias técnicas controversas de “análise de padrões de vida” para mapear redes sociais em zonas de guerra e identificar alvos de ataques de drones que, como é sabido, mataram civis inocentes [12]. Mais recentemente, as plataformas da gig economy (“Economia do Bico”) e os gigantes da logística, como a Uber, a Deliveroo, a Wolt e a Amazon, começaram a localizar a sua frota de passageiros e condutores através de aplicações de geolocalização [13]. Todas estas técnicas fazem parte do novo domínio da “análise de pessoas” (também conhecida como “física social” ou “psicografia”), que é a aplicação da estatística, da análise de dados e da aprendizagem automática ao problema da força de trabalho na sociedade pós-industrial [14].

 

A automação da psicometria, ou inteligência geral (general intellect)

A divisão do trabalho, tal como o design das máquinas e dos algoritmos, não é uma forma abstrata em si, mas um meio de medir o trabalho e os comportamentos sociais e de diferenciar as pessoas em função da sua capacidade produtiva. Tal como os princípios de Babbage indicam, qualquer divisão do trabalho implica uma métrica: uma medição da performatividade e da eficiência dos trabalhadores, mas também um juízo sobre as classes de competências, o que implica uma hierarquia social implícita. A métrica do trabalho foi introduzida para avaliar o que é e o que não é produtivo, para manipular uma assimetria social e, ao mesmo tempo, declarar uma equivalência ao sistema monetário. Durante a era moderna, as fábricas, os quartéis e os hospitais têm procurado disciplinar e organizar os corpos e as mentes com métodos semelhantes, tal como Michel Foucault, entre outros, pressentiu.

No final do século XIX, a metrologia do trabalho e dos comportamentos encontrou um aliado num novo campo da estatística: a psicometria. A psicometria tinha como objetivo medir as competências da população na resolução de tarefas básicas, fazendo comparações estatísticas em testes cognitivos em vez de medir o desempenho físico, como no campo anterior da psicofísica [15]. Como parte do legado controverso de Alfred Binet, Charles Spearman e Louis Thurstone, a psicometria pode ser considerada uma das principais genealogias da estatística, que nunca foi uma disciplina neutra, mas sim uma disciplina preocupada com a “medida do homem”, a instituição de normas de comportamento e a repressão de anomalias [16]. A transformação da métrica do trabalho em psicometria do trabalho é uma passagem fundamental tanto para a gestão como para o desenvolvimento tecnológico no século XX. É revelador que, ao conceber o primeiro perceptron de rede neural artificial, Frank Rosenblatt tenha se inspirado não só nas teorias da neuroplasticidade, mas também nas ferramentas de análise multivariável que a psicometria importou para a psicologia norte-americana na década de 1950.

Nesta perspetiva, este livro tenta esclarecer como o projeto de IA surgiu, na realidade, da automação da psicometria do trabalho e dos comportamentos sociais – e não da procura da solução do “enigma” da inteligência. Num resumo conciso da história da IA, pode se dizer que a mecanização do “intelecto geral” (“general intellect”) da era industrial na “inteligência artificial” do século XXI foi possível graças à medição estatística da competência, como o fator de “inteligência geral” de Spearman, e à sua posterior automatização em redes neurais artificiais. Se na era industrial a máquina era considerada uma encarnação da ciência, do conhecimento e do “intelecto geral” (“general intellect”) dos trabalhadores, na era da informação as redes neurais artificiais tornaram-se as primeiras máquinas a codificar a “inteligência geral” em ferramentas estatísticas – no início, especificamente, para automatizar o reconhecimento de padrões como uma das tarefas-chave da “inteligência artificial”. Em suma, a forma atual de IA, a aprendizagem automática, é a automatização das métricas estatísticas que foram originalmente introduzidas para quantificar as capacidades cognitivas, sociais e relacionadas com o trabalho. A aplicação da psicometria através das tecnologias da informação não é um fenômeno exclusivo da aprendizagem automática. O escândalo de dados de 2018 entre o Facebook e a Cambridge Analytica, em que a empresa de consultoria conseguiu recolher os dados pessoais de milhões de pessoas sem o seu consentimento, é um lembrete de como a psicometria em grande escala continua a ser utilizada por empresas e atores estatais numa tentativa de prever e manipular comportamentos coletivos [17].

Dado o seu legado nas ferramentas estatísticas da biometria do século XIX, também não é surpreendente que as redes neurais artificiais profundas tenham recentemente se desdobrado em técnicas avançadas de vigilância, como o reconhecimento facial e a análise de padrões de vida. Acadêmicos críticos da IA, como Ruha Benjamin e Wendy Chun, entre outros, expuseram as origens racistas destas técnicas de identificação e definição de perfis que, tal como a psicometria, quase representam uma prova técnica do viés social (“social bias”) da IA [18]. Identificaram, com razão, o poder da discriminação no cerne da aprendizagem automática e a forma como esta se alinha com os aparelhos de normatividade da era moderna, incluindo as taxonomias questionáveis da medicina, da psiquiatria e do direito penal [19].

A metrologia da inteligência iniciada nos finais do século XIX, com a sua agenda implícita e explícita de segregação social e racial, continua a funcionar no cerne da IA para disciplinar o trabalho e reproduzir as hierarquias produtivas do conhecimento. Por conseguinte, a lógica da IA não é apenas a automação do trabalho, mas o reforço destas hierarquias sociais de uma forma indireta. Ao declarar implicitamente o que pode ser automatizado e o que não pode, a IA impôs uma nova métrica da inteligência em cada fase do seu desenvolvimento. Mas comparar a inteligência humana e a inteligência das máquinas implica também um julgamento sobre que comportamento humano ou grupo social é mais inteligente do que outro, que trabalhadores podem ser substituídos e quais não podem. Em última análise, a IA não é apenas um instrumento para automatizar o trabalho, mas também para impor padrões de inteligência mecânica que propagam, de forma mais ou menos invisível, hierarquias sociais de conhecimentos e competências. Tal como acontece com qualquer forma anterior de automatização, a IA não se limita a substituir trabalhadores, mas desloca-os e reestrutura-os numa nova ordem social.

 

A automação da automação

Se observarmos atentamente como os instrumentos estatísticos concebidos para avaliar as competências cognitivas e discriminar a produtividade das pessoas se transformaram em algoritmos, torna-se evidente um aspecto mais profundo da automação. De fato, o estudo da metrologia do trabalho e dos comportamentos revela que a automação emerge, em alguns casos, da transformação dos próprios instrumentos de medição em tecnologias cinéticas. Os instrumentos de quantificação do trabalho e de discriminação social tornaram-se “robôs” por direito próprio. Antes da psicometria, se poderia referir a forma como o relógio utilizado para medir o tempo de trabalho na fábrica foi mais tarde implementado por Babbage para a automatização do trabalho mental na Máquina Diferencial. Os cibernéticos, como Norbert Wiener, continuaram a considerar o relógio como um modelo-chave tanto para o cérebro como para o computador. A este respeito, o historiador da ciência Henning Schmidgen observou como a cronometria dos estímulos nervosos contribuiu para a consolidação da metrologia cerebral e também para o modelo de redes neurais de McCulloch e Pitts [20]. A teoria da automação que este livro ilustrou não aponta, portanto, apenas para a emergência de máquinas a partir da lógica da gestão do trabalho, mas também a partir dos instrumentos e métricas para quantificar a vida humana em geral e torná-la produtiva.

Este livro procurou mostrar que a IA é o culminar da longa evolução da automação do trabalho e da quantificação da sociedade. Os modelos estatísticos da aprendizagem automática não parecem, de fato, ser radicalmente diferentes da concepção das máquinas industriais, mas antes homólogos a elas: são, de fato, constituídos pela mesma inteligência analítica das tarefas e dos comportamentos coletivos, embora com um grau de complexidade mais elevado (isto é, número de parâmetros). Tal como as máquinas industriais, cuja concepção surgiu gradualmente através de tarefas de rotina e de ajustes por tentativa e erro, os algoritmos de aprendizagem automática adaptam o seu modelo interno aos padrões dos dados de treino através de um processo comparável de tentativa e erro. Pode dizer-se que a concepção de uma máquina, bem como a de um modelo de um algoritmo estatístico, seguem uma lógica semelhante: ambos se baseiam na imitação de uma configuração externa de espaço, tempo, relações e operações. Na história da IA, isto era tão verdadeiro para o perceptron de Rosenblatt (que visava registar os movimentos do olhar e as relações espaciais do campo visual) como para qualquer outro algoritmo de aprendizagem de máquinas atual (por exemplo, máquinas de vetores de apoio, redes bayesianas, modelos de transformadores).

Enquanto a máquina industrial incorpora o diagrama da divisão do trabalho de uma forma determinada (pensemos nos componentes e nos “graus de liberdade” limitados de um tear têxtil, de um torno ou de uma escavadora mineira), os algoritmos de aprendizagem automática (especialmente os modelos recentes de IA com um vasto número de parâmetros) podem imitar atividades humanas complexas [21]. Embora com níveis problemáticos de aproximação e enviesamento, um modelo de aprendizagem automática é um artefato adaptativo que pode codificar e reproduzir as mais diversas configurações de tarefas. Por exemplo, um mesmo modelo de aprendizagem automática pode imitar tanto o movimento de braços robóticos em linhas de montagem como as operações do condutor de um automóvel autônomo; o mesmo modelo pode também traduzir entre línguas tanto como descrever imagens com palavras coloquiais.

O surgimento de grandes modelos de base nos últimos anos (por exemplo, BERT, GPT, CLIP, Codex) demonstra como um único algoritmo de aprendizagem profunda pode ser treinado num vasto conjunto de dados integrado (incluindo texto, imagens, fala, dados estruturados e sinais 3D) e utilizado para automatizar uma vasta gama das chamadas tarefas a jusante (resposta a perguntas, análise de sentimentos, extração de informações, geração de texto, legendagem de imagens, geração de imagens, transferência de estilos, reconhecimento de objectos, seguimento de instruções, etc.) [22]. Pela forma como foram construídos com base em grandes repositórios de patrimônio cultural, conhecimento coletivo e dados sociais, os grandes modelos de base são a aproximação mais próxima da mecanização do “intelecto geral” que foi prevista na era industrial. Um aspecto importante da aprendizagem automática que os modelos de base demonstram é que a automação de tarefas individuais, a codificação do patrimônio cultural e a análise de comportamentos sociais não têm qualquer distinção técnica: podem ser realizadas por um único e mesmo processo de modelação estatística.

Em conclusão, a aprendizagem automática pode ser vista como o projeto de automatizar o próprio processo de concepção de máquinas e de criação de modelos – ou seja, a automação da teoria laboral da própria automação. Neste sentido, a aprendizagem automática e, especificamente, os modelos de grandes fundações representam uma nova definição de Máquina Universal, pois a sua capacidade não se limita a executar tarefas computacionais, mas a imitar o trabalho e os comportamentos coletivos em geral. O avanço que a aprendizagem automática passou a representar não é, portanto, apenas a “automação da estatística”, como a aprendizagem automática é por vezes descrita, mas a automação da automação, trazendo este processo para a escala do conhecimento coletivo e do patrimônio cultural [23]. Além disso, a aprendizagem automática pode ser considerada como a prova técnica da integração progressiva da automação do trabalho e da governação social. Emergindo da imitação da divisão do trabalho e da psicometria, os modelos de aprendizagem automática evoluíram gradualmente para um paradigma integrado de governança que a análise de dados empresariais e os seus vastos centros de dados bem exemplificam.

 

Desfazendo o Algoritmo Mestre

Tendo em conta a dimensão crescente dos conjuntos de dados, os custos de formação dos grandes modelos e o monopólio da infraestrutura de computação em nuvem que é necessário para que algumas empresas como a Amazon, a Google e a Microsoft (e as suas congéneres asiáticas Alibaba e Tencent) hospedarem esses modelos, tornou-se evidente para todos que a soberania da IA continua a ser um assunto difícil à escala geopolítica. Além disso, a confluência de diferentes aparelhos de governança (ciência climática, logística global e até cuidados de saúde) para o mesmo hardware (computação em nuvem) e software (aprendizagem de máquina) assinala uma tendência ainda mais forte para a monopolização. Para além da notória questão da acumulação de poder, a ascensão dos monopólios de dados aponta para um fenômeno de convergência técnica que é fundamental para este livro: os meios de trabalho tornaram-se os mesmos meios de medição e, do mesmo modo, os meios de gestão e logística tornaram-se os mesmos meios de planejamento econômico.

Isto também se tornou evidente durante a pandemia de Covid-19, quando foi criada uma grande infraestrutura para acompanhar, medir e prever os comportamentos sociais [24]. Esta infraestrutura, sem precedentes na história dos cuidados de saúde e da biopolítica, não foi, no entanto, criada ex nihilo, mas construída a partir de plataformas digitais existentes que orquestram a maior parte das nossas relações sociais. Sobretudo durante os períodos de confinamento, o mesmo meio digital foi utilizado para trabalhar, fazer compras, comunicar com a família e os amigos e, eventualmente, para os cuidados de saúde. As métricas digitais do corpo social, como a geolocalização e outros metadados, foram fundamentais para os modelos preditivos do contágio global, mas elas são usadas há muito tempo para acompanhar o trabalho, a logística, o comércio e a educação. Filósofos como Giorgio Agamben afirmaram que esta infraestrutura prolongou o estado de emergência da pandemia, quando, na verdade, a sua utilização nos cuidados de saúde e na biopolítica dá continuidade a décadas de monitorização da produtividade econômica do corpo social, que passou despercebida a muitos [25].

A convergência técnica das infra estruturas de dados revela também que a automação contemporânea não se limita à automação do trabalhador individual, como na imagem estereotipada do robô humanoide, mas à automação dos patrões e gestores da fábrica, como acontece nas plataformas da gig economy. Dos gigantes de logística (Amazon, Alibaba, DHL, UPS, etc.) e da mobilidade (Uber, Share Now, Foodora, Deliveroo) às redes sociais (Facebook, TikTok, Twitter), o capitalismo de plataforma é uma forma de automação que, na realidade, não substitui os trabalhadores, mas multiplica-os e governa-os de novo. Desta vez, não se trata tanto da automação do trabalho, mas sim da automação da gestão. Sob esta nova forma de gestão algorítmica, todos nós passamos a ser trabalhadores individuais de um vasto autômato composto por utilizadores globais, “turkers“, prestadores de cuidados, condutores e cavaleiros de muitos tipos. O debate sobre o receio de que a IA venha a substituir totalmente os empregos é errôneo: na chamada economia das plataformas, os algoritmos substituem a gestão e multiplicam os empregos precários. Embora as receitas da gig economy continuem a ser pequenas em relação aos setores locais tradicionais, ao utilizarem a mesma infraestrutura a nível mundial, estas plataformas estabeleceram posições de monopólio. O poder do novo “mestre” não está na automatização de tarefas individuais, mas na gestão da divisão social do trabalho. Contra a previsão de Alan Turing, é o mestre, e não o trabalhador, que o robô veio substituir em primeiro lugar [26].

Nos perguntamos qual seria a possibilidade de intervenção política num espaço tão tecnologicamente integrado e se o apelo ao “redesign da IA” que as iniciativas populares e institucionais defendem é razoável ou praticável. Este apelo deveria começar por responder a uma questão mais premente: Como é que é possível “redesenhar” os monopólios de dados e conhecimento em grande escala [27]? À medida que grandes empresas como a Amazon, a Walmart e a Google conquistaram um acesso único às necessidades e aos problemas de todo o corpo social, um movimento crescente pede não só que estas infra-estruturas se tornem mais transparentes e responsáveis, mas também que sejam coletivizadas como serviços públicos (como sugeriu Fredric Jameson, entre outros), ou que sejam substituídas por alternativas públicas (como defendeu Nick Srnicek [28]). Mas qual seria uma forma diferente de projetar essas alternativas?

Tal como a teoria da automação deste livro sugere, qualquer aparelho tecnológico e institucional, incluindo a IA, é uma cristalização de um processo social produtivo. Os problemas surgem porque essa cristalização “ossifica” e reitera estruturas, hierarquias e desigualdades do passado. Para criticar e desconstruir artefatos complexos como os monopólios de IA, devemos começar por fazer o trabalho meticuloso do desconexão (“deconnectionism”) , desfazendo – passo a passo, arquivo a arquivo, conjunto de dados a conjunto de dados, metadado a metadado, correlação a correlação, padrão a padrão – o tecido social e econômico que os constitui na origem. Este trabalho já está sendo desenvolvido por uma nova geração de acadêmicos que estão a dissecar a cadeia de produção global de IA, especialmente os que utilizam métodos de “pesquisa-ação”. Destacam-se, entre muitos outros, a plataforma Turkopticon de Lilly Irani, utilizada para “interromper a invisibilidade do trabalhador” na plataforma de trabalho temporário Amazon Mechanical Turk; a investigação de Adam Harvey sobre conjuntos de dados de treino para reconhecimento facial, que expôs as violações maciças da privacidade das empresas de IA e da investigação acadêmica; e o trabalho do coletivo Politically Mathematics da Índia, que analisou o impacto econômico dos modelos preditivos da Covid-19 nas populações mais pobres e recuperou a matemática como um espaço de luta política (ver o seu manifesto citado no início deste texto).

A teoria laboral da automação é um princípio analítico para estudar o novo “olho do mestre” que os monopólios de IA encarnam. No entanto, precisamente devido à sua ênfase no processo de trabalho e nas relações sociais que constituem os sistemas técnicos, é também um princípio sintético e “sociogênico” (para utilizar o termo programático de Frantz Fanon e Sylvia Wynter [29]). O que está no cerne da teoria laboral da automação é, em última análise, uma prática de autonomia social. As tecnologias só podem ser julgadas, contestadas, reapropriadas e reinventadas se se inserirem na matriz das relações sociais que originalmente as constituíram. As tecnologias alternativas devem situar-se nestas relações sociais, de uma forma não muito diferente do que os movimentos cooperativos fizeram nos séculos passados. Mas construir algoritmos alternativos não significa torná-los mais éticos. Por exemplo, a proposta de codificação de regras éticas na IA e nos robôs parece altamente insuficiente e incompleta, porque não aborda diretamente a função política geral da automação no seu cerne [30].

O que é necessário não é nem o tecnosolucionismo nem o tecnopauperismo, mas sim uma cultura de invenção, concepção e planejamento que se preocupe com as comunidades e o coletivo, sem nunca ceder totalmente a agência e a inteligência à automação. O primeiro passo da tecnopolítica não é tecnológico, mas político. Trata-se de emancipar e descolonizar, quando não de abolir na totalidade, a organização do trabalho e das relações sociais em que se baseiam os sistemas técnicos complexos, os robôs industriais e os algoritmos sociais – especificamente o sistema salarial, os direitos de propriedade e as políticas de identidade que lhes estão subjacentes. As novas tecnologias do trabalho e da sociedade só podem se basear nesta transformação política. É evidente que este processo se desenrola através do desenvolvimento de conhecimentos não só técnicos mas também políticos. Um dos efeitos problemáticos da IA na sociedade é a sua influência epistêmica – a forma como transforma a inteligência em inteligência de máquina e promove implicitamente o conhecimento como conhecimento processual. O projeto de uma epistemologia política que transcenda a IA terá, no entanto, de transmutar as formas históricas do pensamento abstrato (matemático, mecânico, algorítmico e estatístico) e integrá-las como parte da caixa de ferramentas do próprio pensamento crítico. Ao confrontar a epistemologia da IA e o seu regime de extrativismo do conhecimento, é necessário aprender uma mentalidade técnica diferente, uma “contra-inteligência” coletiva.

 

NOTAS

[1]: “Disruption: A Manifesto,” Logic Magazine, no. 1, março de 2017.
[2]: Politically Mathematics collective, “Politically Mathematics Manifesto,” 2019
[3]: Karl Marx, Capital, Livro 1: O processo de produção do capital, p.330. Trad. Rubens Enderle. Boitempo, 2013
[4]: Veja o debate sobre o processo trabalhista em: Harry Braverman, Labor and Monopoly Capital: The Degradation of Work in the Twentieth Century (Monthly Review Press, 1974); David Noble, Forces of Production: A Social History of Industrial Automation (Oxford University Press, 1984).
[5]: Émile Durkheim, “Da Divisão do Trabalho Social” (1893), publicado no Brasil com esse título, por entre outras, a WMF Martins Fontes, em tradução de Eduardo Brandão.
[6]:
Kurt Lewin, “Die Sozialisierung des Taylorsystems: Eine grundsätzliche Untersuchung zur Arbeits- und Berufspsychologie,” Schriftenreihe Praktischer Sozialismus, vol. 4 (1920) – sem tradução para o português. Também ver Simon Schaupp, “Taylorismus oder Kybernetik? Eine kurze ideengeschichte der algorithmischen arbeitssteuerung,” WSI-Mitteilungen 73, no. 3, (2020).
[7]: Gaston Bachelard, “La dialectique de la durée” (Boivin & Cie, 1936), traduzido no Brasil para “A Dialética da Duração”, publicado pela Editora Ática em 1993. Henri Lefebvre, “Éléments de rythmanalyse” (Éditions Syllepse, 1992), último livro do autor, publicado no Brasil como “Elementos de Ritmanálise e outros Ensaios” pela Editora Consequência em 2021.
[8]: Frederic Sellet, “Chaîne Opératoire: The Concept and Its Applications,” Lithic Technology 18, no. 1–2 (1993). Sem tradução no Brasil
[9]: Gilles Deleuze, “Postscript on the Society of Control,” October, no. 59 (1992). Publicado no Brasil em DELEUZE, Gilles. Conversações: 1972-1990. Rio de Janeiro: Ed. 34,1992. Ver também David Savat, “Deleuze’s Objectile: From Discipline to Modulation,” in Deleuze and New Technology, ed. Mark Poster and David Savat (Edinburgh University Press, 2009).
[10]: Matthew L. Jones, “Querying the Archive: Data Mining from Apriori to PageRank,” in Science in the Archives, ed. Lorraine Daston (University of Chicago Press, 2017); Matteo Pasquinelli, “Google’s PageRank Algorithm: A Diagram of Cognitive Capitalism and the Rentier of the Common Intellect,” in Deep Search, ed. Konrad Becker and Felix Stalder (Transaction Publishers, 2009).
[11]:
Irina Kaldrack and Theo Röhle, “Divide and Share: Taxonomies, Orders, and Masses in Facebook’s Open Graph,” Computational Culture, no. 4 (November 2014); Tiziana Terranova, “Securing the Social: Foucault and Social Networks,” in Foucault and the History of Our Present, ed. S. Fuggle, Y. Lanci, and M. Tazzioli (Palgrave Macmillan, 2015).
[12]:
Grégoire Chamayou, “Pattern-of-Life Analysis,” chap. 5 in A Theory of the Drone (New Press, 2014). Publicado no Brasil como “Teoria do Drone”, pela Cosac & Naify em 2015. Veja também Matteo Pasquinelli, “Metadata Society,” keyword entry in Posthuman Glossary, ed. Rosi Braidotti and Maria Hlavajova (Bloomsbury, 2018), e “Arcana Mathematica Imperii: The Evolution of Western Computational Norms,” in Former West, ed. Maria Hlavajova and Simon Sheikh (MIT Press, 2017).
[13]:
Andrea Brighenti and Andrea Pavoni, “On Urban Trajectology: Algorithmic Mobilities and Atmocultural Navigation,” Distinktion: Journal of Social Theory 24, no. 1 (2001).
[14]:
M. Giermindl et al., “The Dark Sides of People Analytics: Reviewing the Perils for Organisations and Employees,” European Journal of Information Systems 33, no. 3 (2022). Veja também Alex Pentland, “Social Physics: How Social Networks Can Make Us Smarter” (Penguin, 2015).
[15]: A palavra “estatística” significava originalmente o conhecimento que o Estado possuía sobre seus próprios assuntos e territórios: um conhecimento que tinha de ser mantido em segredo. Em: Michel Foucault, Security, Territory, Population (Segurança, Território, População): Lectures at the Collège de France 1977-1978, trans. Graham Burchell (Palgrave Macmillan, 2009).
[16]:
Sobre a influência da metrologia cerebral na história da IA, ver Simon Schaffer: “Os julgamentos de que as máquinas são inteligentes envolveram técnicas para medir os resultados do cérebro. Essas técnicas mostram como o comportamento discricionário está ligado ao status daqueles que dependem da inteligência para sua legitimidade social.” Schaffer, “OK Computer”, em Ansichten der Wissenschaftsgeschichte, ed., Michael Hagner (Fischer, 2001) Michael Hagner (Fischer, 2001). Sobre a metrologia inicial do sistema nervoso, veja Henning Schmidgen, The Helmholtz Curves: Tracing Lost Times (Fordham University Press, 2014).
[17]:
Luke Stark, “Algorithmic Psychometrics and the Scalable Subject,” Social Studies of Science 48, no. 2 (2018).
[18]: Ruha Benjamin, Race after Technology: Abolitionist Tools for the New Jim Code (Polity, 2019); Wendy Chun, Discriminating Data: Correlation, Neighborhoods, and the New Politics of Recognition (MIT Press, 2021). Tarcízio Silva fez uma boa análise deste livro em seu blog.
[19]:
Sobre a imbricação de colonialismo, racismo e tecnologias digitais, veja Jonathan Beller, The World Computer: Derivative Conditions of Racial Capitalism (Duke University Press, 2021); Seb Franklin, The Digitally Disposed: Racial Capitalism and the Informatics of Value (University of Minnesota Press, 2021). No Brasil, ver “Racismo Algorítmico: Inteligência Artificial e Discriminação nas Redes Digitais”, de Tarcízio SIlva, lançado pelas Edições Sesc em 2022;“Colonialismo de dados: como opera a trincheira algorítmica na guerra neoliberal“”, org. de Sérgio Amadeu, Joyce Souza e Rodolfo Avelino lançada em 2021 pela Autonomia Literária; e “Colonialismo Digital: Por uma crítica hacker-fanoniana”, de Deivison Faustino e Walter Lippold, publicado pela Boitempo em 2023.
[20]:
Henning Schmidgen, “Cybernetic Times: Norbert Wiener, John Stroud, and the ‘Brain Clock’ Hypothesis”, History of the Human Sciences 33, no. 1 (2020). Sobre a cibernética e a “medição da racionalidade”, veja Orit Halpern, “Beautiful Data: A History of Vision and Reason since 1945” (Duke University Press, 2015), 173.
[21]:
Em mecânica, os graus de liberdade (DOF) de um sistema, como uma máquina, um robô ou um veículo, são o número de parâmetros independentes que definem sua configuração ou estado. Normalmente, diz-se que as bicicletas têm dois graus de liberdade. Um braço robótico pode ter muitos. Um modelo grande de aprendizado de máquina, como o GPT, pode ter mais de um trilhão.
[22]:
Rishi Bommasani et al., On the Opportunities and Risks of Foundation Models, Center for Research on Foundation Models at the Stanford Institute for Human-Centered Artificial Intelligence, 2021
[23]: Para uma leitura diferente sobre a automação da automação, ver Pedro Domingos, The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World (Basic Books, 2015); Luciana Parisi, “Critical Computation: Digital Automata and General Artificial Thinking,” Theory, Culture, and Society 36, no. 2 (March 2019).
[24]: “Breaking Models: Data Governance and New Metrics of Knowledge in the Time of the Pandemic,” workshop, Max Planck Institute for the History of Science, Berlin, and KIM research group, University of Arts and Design, Karlsruhe, September 24, 2021.
[25]:
Giorgio Agamben, Where Are We Now? The Epidemic as Politics, trans. V. Dani (Rowman & Littlefield, 2021). Publicado no Brasil como “Em que ponto estamos?”, pela n-1 edições em 2021.
[26]: Min Kyung Lee et al., “Working with Machines: The Impact of Algorithmic and Data-Driven Management on Human Workers,” in Proceedings of the 33rd Annual ACM Conference on Human Factors in Computing Systems, Association for Computing Machinery, New York, 2015; Sarah O’Connor, “When Your Boss Is an Algorithm,” Financial Times, September 8, 2016. See also Alex Wood, “Algorithmic Management Consequences for Work Organisation and Working Conditions,” no. 2021/07, European Commission JRC Technical Report, Working Papers Series on Labour, Education, and Technology, 2021.
[27]: Redesigning AI, ed. Daron Acemoglu (MIT Press), 2021.
[28]:
Leigh Phillips and Michal Rozworski, The People’s Republic of Walmart: How the World’s Biggest Corporations Are Laying the Foundation for Socialism (Verso, 2019); Frederic Jameson, Archaeologies of the Future: The Desire Called Utopia and Other Science Fictions (Verso, 2005), 153n22; Nick Srnicek, Platform Capitalism (Polity Press, 2017), 128.
[29]:
Sylvia Wynter, “Towards the Sociogenic Principle: Fanon, Identity, the Puzzle of Conscious Experience, and What It Is Like to Be ‘Black,’” in National Identities and Sociopolitical Changes in Latin America, ed. Antonio Gomez-Moriana, Mercedes Duran-Cogan (Routledge, 2001). Veja também Luciana Parisi, “Interactive Computation and Artificial Epistemologies,” Theory, Culture, and Society 38, no. 7–8 (October 2021).
[30]: Frank Pasquale, New Laws of Robotics: Defending Human Expertise in the Age of AI (Harvard University Press, 2020); Dan McQuillan, “People’s Councils for Ethical Machine Learning,” Social Media+ Society 4, no. 2 (2018).

 

 

 

 

 

 

 

 

 

]]>
https://baixacultura.org/2024/02/28/o-olho-do-mestre-a-automacao-da-inteligencia-geral/feed/ 0
Inteligência artificial generativa e direitos culturais https://baixacultura.org/2023/06/23/inteligencia-artificial-generativa-e-direitos-culturais/ https://baixacultura.org/2023/06/23/inteligencia-artificial-generativa-e-direitos-culturais/#respond Fri, 23 Jun 2023 20:29:01 +0000 https://baixacultura.org/?p=15282 Publicado originalmente em Artica por Jorge Gemetto e Mariana Fossati em duas partes: 1º em 28/5/2023 e 2º em 5 de junho de 2023. Traduzido e adaptado do espanhol por Leonardo Foletto.

 

PARTE 1: Alguém quer pensar nas pessoas usuárias?

A partir da disponibilidade de ferramentas como DALL-E, Stable Diffusion ou Midjourney para geração de imagens, e do ChatGPT, Bard, Open Assistant ou as centenas de bots de conversação baseados em LLaMA, milhões de pessoas começaram a fazer experimentos com a criação de textos e imagens assistidos por IA generativa. As motivações para o uso das ferramentas são variadas: vão desde a geração de ilustrações e pôsteres amadores para ilustrar postagens (como esta) até a experimentação de novas possibilidades na arte digital, a alimentação de ideias para escritas criativas e a exploração lúdica das respostas paradoxais que surgem quando se pergunta ao software sobre seus sentimentos ou intenções.

Também houve debates sobre supostos “riscos existenciais” e supostas violações de direitos autorais. Esses debates foram, em parte, alimentados pelas próprias empresas que desenvolvem essas ferramentas, cuja estratégia retórica tem sido inflar tanto as virtudes quanto os riscos dos modelos que desenvolvem – duas formas complementares de exagerar seu poder. Menos visíveis, na maioria das vezes, são os vieses, as falhas e as limitações significativas que permanecem nessas ferramentas, muitas vezes lançadas às pressas.

 

A ameaça para a humanidade

Começamos mencionando brevemente o discurso da “ameaça à humanidade“. O risco real desse discurso é que ele funciona para a mistificação e o sigilo em torno de uma tecnologia cujo conhecimento e desenvolvimento deveriam, ao contrário, ser democratizados o máximo possível. Projetos de código aberto, como o ChaosGPT, um bot de conversação que recebeu ordens para “conquistar o mundo” e “destruir a humanidade”, destacam de forma criativa o ridículo das afirmações mais exageradas sobre IA.

Por outro lado, há uma pressa em censurar solicitações e conteúdos “inadequados” ou “violentos”, que geralmente são definidos de acordo com uma moral rígida e ideologia de ordem. No entanto, as pesquisas sobre os verdadeiros vieses e falhas desses programas costumam ser menos divulgadas. É por meio da pesquisa participativa que podem ser criados modelos e conjuntos de dados que representem melhor a diversidade real do mundo. Para isso, é fundamental que os conjuntos de dados sejam abertos e os modelos sejam software livre. Quanto mais pessoas puderem aprender como essas tecnologias são feitas, pesquisar com elas, testá-las e desenvolvê-las, mais olhos e mãos haverá para criar ferramentas melhores, que ajudarão em tarefas mais úteis e promoverão a criatividade em vez de reproduzir preconceitos. Um exemplo na América Latina é o EDIA, um conjunto de ferramentas desenvolvido pela Fundación Vía Libre para identificar estereótipos e discriminação em modelos de linguagem.


Plágio massivo

Na discussão sobre direitos autorais, felizmente já parece estabelecido que os trabalhos resultantes da IA generativa são de domínio público, especialmente desde o recente parecer do escritório de direitos autorais dos EUA. Essa é uma boa notícia, pois, caso contrário, as empresas que desenvolvem os modelos poderiam ter imenso poder sobre o conteúdo gerado a partir da interação entre usuários, ferramentas de IA e o conjunto comum de dados e conteúdo cultural.

Entretanto, o que gera mais debate atualmente é se a coleta de conteúdo para criar os conjuntos de dados, bem como o processamento computadorizado desses dados por modelos de inteligência artificial, são usos justos (fair use) ou, ao contrário, infringem os direitos autorais.

Recentemente, houve uma proliferação de artigos e manifestos pedindo maiores controles e restrições à IA generativa para proteger a propriedade intelectual. Um exemplo de tais manifestos no mundo de língua espanhola é o chamado “Arte es Ética”. Esse manifesto afirma, entre outras coisas, que o que as tecnologias de IA generativa geram são “derivados não consensuais e parasitários”, “plágio maciço” e “automatizado”, “pilhagem” e “roubo”; pede a implementação de ferramentas de filtragem de conteúdo; a proibição de prompts que incluam nomes de pessoas e até mesmo nomes de movimentos estéticos inteiros; pede marca d’água obrigatória e identificação compulsória de usuários que inserem prompts; e aponta contra a criação de novas exceções de direitos autorais para mineração de dados – mesmo que tais exceções hoje sejam fundamentais para o progresso de muitos campos científicos. As demandas mencionadas acima estão misturadas de forma desordenada com outras que são dignas de atenção genuína, como a criação de fundos para a promoção da cultura ou a proteção de trabalhadores contra demissões em massa injustificadas. Mas o impulso geral das demandas não é direcionado a reivindicações trabalhistas ou à promoção da arte, mas sim a uma expansão direta da propriedade intelectual. Isso é visto, por exemplo, no apoio a ações judiciais como a do banco de imagens Getty contra a Stability AI; na caracterização negativa e grosseira da IA como uma tecnologia somente de pilhagem; e, em geral, no fato de que o principal alvo dos ataques são os projetos de código aberto, ou seja, aqueles com maior probabilidade de democratizar o uso da tecnologia.

Lamentavelmente, abordagens semelhantes surgiram de pessoas que, há alguns anos, participaram do movimento de cultura livre. Marta Peirano , jornalista e escritora, publicou recentemente um artigo no El País que identifica modelos de inteligência artificial como “máquina automática de plágio em massa”, que serve para “roubar (…) o conteúdo de outras pessoas”. Peirano também faz eco à ação judicial da Getty contra a Stability AI e a apresenta como parte da reação supostamente legítima a esse roubo em grande escala, tomando partido da empresa de conteúdo (Getty) contra a empresa de tecnologia (Stability AI). O artigo parece negar a militância anterior da autora em favor do acesso ao conhecimento; os argumentos de Peirano nesse período de militância teriam sido usados por empresas de tecnologia para roubar propriedade intelectual.

Há um ponto real no que Peirano diz: na sociedade atual, as empresas capitalistas sempre serão as que melhor podem explorar o conhecimento livre em seu benefício. Isso não é novidade; há muitos outros exemplos análogos, como a educação pública e a infraestrutura de transporte. Na sociedade capitalista, as enormes somas de dinheiro gastas em educação pública treinam trabalhadores que, inevitavelmente, passam a ocupar cargos assalariados em empresas capitalistas. O fato de as empresas capitalistas se apropriarem dos lucros da educação pública não deve ser um argumento contra a educação pública, que é um direito do povo. Pelo contrário: deve nos fazer refletir sobre que outra sociedade precisamos para que a educação pública esteja a serviço de uma produção não capitalista exploradora.

O mesmo ocorre com o conhecimento livre. É preciso ressaltar sempre que a ampla disponibilidade de cultura e conhecimento é um avanço para os direitos culturais das pessoas, possibilitado pelo desenvolvimento das forças produtivas. O conhecimento humano é um patrimônio construído coletivamente que deve servir à toda sociedade. Qualquer retrocesso nesse sentido é reacionário. É claro que, em nossa sociedade, as empresas de tecnologia têm uma enorme vantagem quando se trata de aproveitar o conhecimento livre. Esse fato deve nos levar a aprofundar a crítica iniciada com o questionamento da propriedade do conhecimento para transformá-la em uma crítica do sistema social como um todo. Para Peirano parece impossível dar esse passo, o que a leva a optar por uma espécie de mea culpa e recuar para a típica defesa da propriedade intelectual. Talvez não seja irônico que o artigo de Peirano esteja protegido por um paywall.


Uma necessária mudança de enfoque

Visto em perspectiva, os discursos inflamados contra a IA generativa parecem um renascimento das campanhas contrárias à Internet no final dos anos 90 e início dos anos 2000, com prognósticos apocalípticos parecidos sobre a morte da arte, o empobrecimento da vida cultural e o declínio cognitivo das novas gerações expostas a essas tecnologias imediatistas. Mais atrás, discursos da mesma natureza podem ser encontrados no nascimento da música gravada, da fotografia e até mesmo da imprensa.

De um lado, estariam os detentores de direitos autorais supostamente saqueados, que incluem artistas, editoras e empresas de conteúdo de todos os tipos. Por outro lado, as corporações de tecnologia. A oposição, como se vê, não seria entre os artistas que trabalham e seus empregadores nas empresas de conteúdo, mas entre dois setores industriais: o criativo e o tecnológico. Portanto, não seria uma reivindicação baseada em classe, mas intersetorial.

Contra essa visão que enquadra o problema como uma disputa entre dois setores industriais, vale a pena complexificar o cenário apontando a existência de outros atores sociais. Um deles é a comunidade educacional, científica e acadêmica que pesquisa usando técnicas de inteligência artificial. Sobre a importância das exceções de direitos autorais para a mineração de textos e dados para fins de pesquisa, vale ler o relatório “Políticas de Inteligência Artificial e Direitos Autorais na América Latina“, publicado pela Aliança Latino-Americana para o Acesso Justo ao Conhecimento.

Outro ator esquecido são as pessoas que usam ferramentas de IA generativas. Muitas pessoas começaram a usar essas ferramentas como uma forma de expressão: artistas digitais que usam prompts para gerar imagens, escritores ou amadores que usam chatbots para obter ideias de textos, pessoas comuns que simplesmente querem se divertir ou se expressar com essas IAs e interagir com os resultados. Talvez seja hora de o direito das pessoas de participar da vida cultural ser também considerado na discussão.

O direito de participar da vida cultural tem certos requisitos. De acordo com Lea Shaver, esses requisitos incluem:

_ A liberdade de acesso a materiais culturais, ou seja, obras, ideias, idiomas e mídias existentes.

_ A liberdade de acesso a ferramentas e tecnologias indispensáveis para desfrutar e usar esses materiais e obras, bem como para criar novos materiais.

_ A liberdade de usar esses materiais e obras, transformá-los, fazê-los circular e colocá-los em diferentes contextos.

Seguindo essa ideia, a possibilidade de usar ferramentas de IA generativas sem censura pode ser entendida como parte do direito de acessar ferramentas e tecnologias para se expressar de forma criativa. Assim como o acesso a instrumentos musicais é fundamental para a criação de música, ou os computadores e outros dispositivos digitais são importantes para a fotografia, o vídeo e outras formas de expressão visual, as ferramentas generativas de IA podem ser uma ferramenta essencial para a expressão criativa e estética. Esse princípio não envolve apenas artistas e seus procedimentos, ferramentas e materiais profissionais, mas todos os usuários dessas tecnologias, que, por meio da arte e de outros conteúdos gerados por IA, acessam e participam de uma experiência estética peculiar e pessoal.

Mas os direitos dos usuários são ameaçados de diferentes maneiras. Por um lado, as empresas que prestam serviços de IA generativa criam expectativas enganosas sobre as ferramentas que oferecem; manipulam arbitrariamente os resultados e censuram o conteúdo; violam a privacidade de seus usuários; impõem barreiras econômicas abusivas; e investem pouco para lidar com os vieses das ferramentas.

Por outro lado, os setores de conteúdo e os detentores de direitos autorais, alegando que essas ferramentas facilitam a violação de direitos autorais por aqueles que as utilizam, promovem regulamentações draconianas que incluem controle e filtragem de conteúdo; estigmatizam o uso de IA generativa como antiético ou até mesmo criminoso; e, por meio de seu ataque a projetos de código aberto, contribuem para a concentração de poder das grandes corporações de tecnologia. As restrições e os controles que esses setores exigem para a IA generativa não podem ser implementados sem limitar severamente a capacidade das pessoas usuárias de fazer uso expressivo legítimo das ferramentas.

Uma coisa podemos ter certeza: não haverá saída progressiva para esse debate se os direitos das pessoas que usam inteligência artificial generativa não começarem a ser levados em conta. E ninguém levará esses direitos em consideração se os próprios usuários não se manifestarem.

 

PARTE 2: Quatro mitos e algumas reflexões sobre a liberdade artística

 

Gerado no Stable Diffusion com o prompt inspirado no do post de Artica: Uma dadaísta digital imaginando mundo possiveis ao estilo dadaísta europeu dos anos 1920

Nas conversas atuais sobre arte e inteligência artificial generativa, é comum que esses dois termos sejam colocados como opostos polares. Mas essa polaridade é limitante, por isso aqui vamos tornar a conversa mais complexa. Se em nosso post anterior apontamos que restringir a IA generativa de acordo com os desejos de determinados setores de conteúdo pode afetar gravemente os direitos dos usuários, nesta parte falaremos sobre como essas restrições acabariam afetando práticas artísticas emergentes que não são prejudiciais. Mas, pelo contrário, representam novas explorações criativas que não devem ser censuradas.

A ideia de que o uso de ferramentas de IA generativas precisa ser restringido para proteger os direitos dos artistas talvez seja produto de uma leitura equivocada dos “riscos” que essas ferramentas representam para o trabalho artístico. Como dissemos na primeira postagem desta série, não é nosso objetivo falar sobre os “riscos” da IA em geral, nem sobre sua aplicação em campos em que ela pode ser particularmente problemática (como na segurança pública e na justiça). No campo da arte e da criatividade, vemos mais aspectos interessantes do que perigosos, mas há maneiras sensacionalistas de falar sobre esse debate que incentivam a falsa dicotomia “Artista X IA” e que gostaríamos de ajudar a desmistificar.

MITO 1: A IA VAI TORNAR OBSOLETA A CRIATIVIDADE HUMANA

Um primeiro mito é o da capacidade da IA geradora de potencialmente “alcançar” a criatividade humana e torná-la obsoleta. Ele engloba a ideia simplista e enganosa de que a IA e o artista são entidades comparáveis e que a IA é, portanto, uma séria concorrente dos artistas. Em primeiro lugar, entendemos a IA generativa como uma ferramenta que não “faz arte”, mas que a arte pode ser feita com ela. Ela não é uma entidade com capacidade criativa própria e, portanto, seus resultados não devem ser cobertos por direitos autorais.

Apesar das manchetes da mídia que dizem “uma inteligência artificial cria uma obra exibida em um grande museu”, “uma inteligência artificial vence uma competição de arte” etc., não há de fato nenhuma atividade autoral da inteligência artificial, porque não há criação como conhecemos em seus produtos estéticos. Eventualmente, quando os artistas desenvolvem seu próprio trabalho usando essas ferramentas, são eles que criam coisas com a inteligência artificial.

Nas palavras do escritor de ficção científica Bruce Sterling na conferência “AI for All, From the Dark Side to the Light”, essas IAs “não têm senso comum… Elas não têm imagens. Elas não têm imagens. Elas têm uma relação estatística entre texto e grupos de pixels. E há uma beleza nisso. Não é uma beleza humana. É uma imagem incrível com a qual nenhum ser humano jamais poderia ter sonhado. Ela realmente tem presença, é surreal!”.

Essa posição cética e fascinada nos permite escapar de noções estereotipadas e dicotomias enganosas. Nos leva também a perguntar quais coisas concretas os artistas estão fazendo com as inteligências artificiais generativa. Como eles estão trabalhando com essa “relação estatística entre textos e grupos de pixels” que abre as portas para a exploração criativa de um imaginário não humano e surreal. Quais processos e procedimentos artísticos estão surgindo dessa exploração.

Os artistas sempre usaram novas tecnologias. Tanto de forma “correta”, aprendendo a técnica e seguindo o cânone, quanto de forma subversiva, desafiando a tendência dominante e invadindo as formas comuns de fazer. Isso não é diferente com a inteligência artificial generativa. Para pensar em práticas artísticas com IA, é preciso analisar suas potencialidades e limitações, entendendo que os artistas trabalham em ambos os campos: no reino do possível e de suas limitações. E que eles não apenas tomam os desenvolvimentos da tecnologia como dados, mas também modificam esses termos – o que é possível, quais são os limites, quais estratégias artísticas podem resistir e desafiar a ordem tecnosocial.

Para entender melhor isso, vale trazer o exemplo da prática de uma artista, Kira Xonorica, que trabalha com base na geração de imagens que desafiam as noções binárias de gênero e os limites entre natureza, humanidade e tecnologia, para criar visões feministas futuristas e utópicas.

Obra digital de Kira Xonorica realizada com processos generativos

Em uma entrevista para o site expanded.art, Kira diz que o potencial da IA generativa está justamente na capacidade de visualizar e explorar perspectivas do mundo por meio de dados de uma forma que talvez não fosse possível sem essas ferramentas computacionais, já que a IA generativa se baseia na análise de milhões de imagens, descrições e rótulos. Mas também há limitações para as imagens visuais que essas tecnologias nos permitem explorar, devido aos vieses introduzidos nos modelos e nos dados de treinamento. Kira acredita que “a tendência inerente aos conjuntos de dados não é surpreendente. Ao fim e ao cabo, o banco de imagens no qual eles se baseiam se baseia em séculos de história da arte e em outras disciplinas que produzem e moldam nossa imaginação visual coletiva”.

As visões alarmistas e proibicionistas, que ignoram esses processos de exploração de limites e possibilidades, são perigosas porque censuram e inibem as buscas criativas. Os vieses e outros problemas sérios com essas ferramentas não devem nos levar ao pânico, mas a uma análise crítica que leve em conta os contextos de criação e uso de imagens geradas por IA, incluindo os conjuntos de dados de treinamento nos quais as várias ferramentas se baseiam, bem como as maneiras pelas quais essas ferramentas são projetadas e desenvolvidas. A análise também deve incorporar os custos ambientais e as condições de trabalho nas empresas de IA, sobre os quais não vamos discorrer nesta postagem.

 

MITO 2: CRIAR IMAGENS DE PESSOAS REAIS É INERENTEMENTE PERIGOSO

A geração de imagens com pessoas reais reconhecíveis é uma prática considerada uma das mais arriscadas, pois pode ser usada para ataques à honra e à dignidade dessas pessoas. Entretanto, essa prática também pode ser uma maneira de explorar histórias alternativas de forma imaginativa, sem ser confundida com uma imagem da realidade ou necessariamente causar danos a qualquer pessoa. Esse é o caso, por exemplo, de @arteficialismo, que fez uma série que nos faz imaginar como seriam as pessoas famosas se, depois de perderem tudo, fossem morar em uma favela brasileira.

 

MITO 3: AS OBRAS GERADAS POR IA SÃO SEMPRE IMITAÇÕES

E o que dizer do uso de obras artísticas já existentes para criar novas obras com inteligência artificial? Esse talvez seja um dos maiores debates atuais. A questão é dividida em duas dimensões.

A primeira é se uma nova criação de IA generativa, baseada em obras ou estilos preexistentes, pode infringir o direito dos criadores dessas obras ou dos artistas de referência desses estilos. Embora estas infrações de fato possam ocorrer, elas não podem ser dadas a priori; tudo depende do caso específico. O que deve ficar claro é que os estilos artísticos em si não são protegidos por direitos autorais e que a grande maioria das obras geradas em um determinado estilo ou com determinados criadores de referência não são necessariamente obras derivadas. Elas podem ou não ser – assim como muitas obras não geradas com inteligência artificial também podem ser. Acreditamos que, em grande parte, nossa análise de vários anos atrás sobre a cultura remix e a necessidade de distinguir, em cada caso, o conceito de plágio, trabalho derivado e usos transformadores pode enquadrar muito bem essa discussão.

A segunda dimensão é se a criação de ferramentas de IA generativas infringe os copyrights de obras de direitos reservados que são parte de coleções de dados de treinamento. Para responder a essa pergunta, é importante saber que o treinamento de modelos de IA generativa não envolve a cópia dos aspectos expressivos das obras, mas sim a análise e a sistematização de dados sobre essas obras, com base em um grande número de parâmetros que vão novas imagens, textos ou outros conteúdos. O modelo nem sequer mantém cópias das imagens de treinamento, como explica o analista de políticas de propriedade intelectual Matthew Lane: “Depois que cada imagem é incorporada ao modelo, ela é basicamente lixo. Ela não é armazenada no modelo, apenas os conceitos [são armazenados]. E, idealmente, esses conceitos não devem ser vinculados a uma única imagem”. Em outras palavras: a expressão autoral das obras não é armazenada, copiada, redistribuída ou comunicada, mas analisada em grandes quantidades para estabelecer conceitos a partir dos quais gerar imagens.

É por isso que não se pode presumir a priori que os modelos serão usados apenas para gerar imitações, mas que cada caso deverá ser avaliado a posteriori e de modo concreto. Nem aqueles que desenvolvem a ferramenta nem aqueles que a utilizam devem, em nenhum caso, ser impedidos de se basear em referências culturais e artísticas anteriores. Caso contrário, o patrimônio cultural e estético seria privatizado de uma forma sem precedentes, prejudicando a liberdade criativa atual e futura. E, já que estamos falando disso, não devemos nos esquecer de que, muitas vezes, são os próprios artistas que trabalham com ferramentas de IA, treinando modelos com coleções de dados específicas ou até mesmo participando do desenvolvimento e da adaptação de ferramentas de IA a partir de ferramentas de IA de código aberto.

 

MITO 4: NÃO SE PODE CRIAR GENUINAMENTE USANDO IA

Por fim, se estivermos falando de liberdade criativa, podemos perguntar até que ponto os artistas estão realmente criando algo novo com a IA generativa. Dissemos anteriormente que a IA não tem agência nem capacidade criativa própria, mas onde fica o processo criativo das pessoas que usam essas ferramentas? Até que ponto podemos ir além da geração automática de imagens para desenvolver algo que possa ser chamado de “obra” e o criador de “artista”? A resposta, mais uma vez, depende do uso e do contexto da criação, e de como cada pessoa que cria com IA generativa define sua atividade.

Em outro trabalho compartilhado por @arteficialismo no Instagram, no qual retratos famosos da história da arte são representados como pessoas de carne e osso, alguém pergunta: “como você pode se considerar um artista? Ao que @arteficialismo responde: “Nunca me considerei… durante toda a minha vida fiz desenhos, photoshop, etc… e as pessoas sempre tentaram me rotular como artista e eu sempre rejeitei esse ‘título’. Agora eu só faço essas imagens de IA e as pessoas tentam dizer que eu não sou um artista, como se isso significasse alguma coisa para mim ou me fizesse parar de fazer as imagens por algum motivo.”

 

Por sua vez, Kira Xonorica, na entrevista citada acima, disse: “O que eu adoro na IA é que ela envolve um processo de contar histórias. Quando você cria, é como assistir a um filme ou escrever seu próprio romance. Você nunca sabe aonde isso vai levá-lo, você só tem ideias generativas e as sobrepõe umas às outras, essa é a beleza do jogo”.

Em última análise, a criação por meio de métodos generativos abrange uma variedade de processos que não podemos determinar a priori como artísticos ou não artísticos. Muitas vezes, esses processos envolvem longas horas de aprendizado e experimentos com e a partir de resultados gerados por IA. Mas não são nem as horas nem o esforço que dão significado artístico a esses trabalhos; muito menos uma IA. Argumentamos, por fim, que a arte pode ser feita com IA generativa e que isso ainda depende, como sempre, do contexto da criação pessoal e da recepção cultural. A análise diante da massificação da IA generativa deve ser crítica, matizada e situada, não moldada nem pelas empresas que vendem essas tecnologias e nem guiada por mensagens de pânico que apenas impedirão os artistas de participar do debate sobre seu desenvolvimento e de se apropriar criativamente dessas ferramentas.

 

]]>
https://baixacultura.org/2023/06/23/inteligencia-artificial-generativa-e-direitos-culturais/feed/ 0
Communication, free culture and copy in the age of Artificial Intelligence https://baixacultura.org/2023/06/13/communication-free-culture-and-copy-in-the-age-of-artificial-intelligence/ https://baixacultura.org/2023/06/13/communication-free-culture-and-copy-in-the-age-of-artificial-intelligence/#respond Wed, 14 Jun 2023 02:09:34 +0000 https://baixacultura.org/?p=15273 This text comes from the class of 24 march of 2023 in PPGCOM of UFRGS (Graduate Program in Communication at Federal Universisity of Rio Grande do Sul, Brazil). Originally published in Portuguese in april 2023

 

 

Two years ago I launched, during the pandemic, the book “The Culture is Free: a history of anti-proprietary resistance,” the result of almost 10 years of research with BaixaCultura – online laboratory, collective, blog. The book was born as an attempt to conceptualize, situate and contextualize free culture, an idea that spread from free software in the 1990s and gained prominence with the discussions around the free sharing of files (“piracy”) on the Internet in the 2000s. For this, the work done was that of a genealogy that recovers part of the circulation of cultural goods in antiquity, the great transformation of the invention of Gutenberg’s printing press in the Middle Ages, and the subsequent rise of Capitalism with the mode of production having property as its basis. From this originated the notion of intellectual property, which resulted in the consolidation of cultural goods as merchandise and copyright as the system to regulate these goods, starting in the 19th century. It also gave birth to some of the resistances to this system, especially in the artistic and political avant-garde field of the 20th century, first in more conceptual terms, such as the works of Dada, the French situationists of the 1950s and 1960s, then also in practical terms, especially in punk rock and the fanzine and mail art culture of the 1970s. What would hip-hop and rap be if it were not for the disrespect of intellectual property in the creation of samplers?

These 20th century movements also accompanied the remarkable proliferation of technological means of reproduction – from the photocopier to the VCR, from record players to cassette tapes – and the rise of the so-called mass media, with film, radio, and TV becoming part of the daily lives of billions of people. I portray some of this period and the reproduction technologies from the beginning of the 20th century until the computer in chapter 4 of the book, not by chance called “Recombinant Culture”.

Near the halfway point, the book finally reaches the 1970s, the creation of the personal computer, free software, and two decades later, the internet. From there it focuses on the discussions around free culture starting from the concept of copyleft, one of the great hacks in the intellectual property system created in the 19th century. I wrote on page 149: “As a pun or literally, copyleft was the concept, expressed in the GPL license and others linked to the GNU Project that follow it to this day, of requiring legal ownership in order, in practice, to relinquish it by allowing everyone to make whatever use they want of the work, as long as they pass on their same freedoms to others. The formal requirement of ownership means that no one else can put a copyright on a copyleft work and try to limit its use”.

From copyleft originates, in the early 2000s, Creative Commons, a set of licenses (and an NGO) that will help expand the idea of free culture and free knowledge worldwide, also giving rise to the Open Education, Open Science and OpenGlam (“open galleries, libraries, archives and museums”) movements, still active today. The discussion (and also the criticism) about free culture is followed by the transformations in Internet and digital communication, in which the “human” curatorship – random and loose, exemplified by the habit of flanking through blogs and websites, common practice of Internet users in the 2000s – is gradually being replaced by algorithmic curatorship. What can be seen mainly from the consolidation of social networks – especially with Facebook’s “Timeline” model (which will influence other networks from the 2010s on) and streaming as algorithmic systems of selection and recommendation of information and content of predominance on the Internet.

 

In the end, “Culture is Free” brings the perspective on the question of free culture and knowledge to other modes of existence than the hegemonic Western one, seeing how Amerindians and peoples from the far east (like the Chinese) have to this day historically very distinct notions about what is intellectual property, copy and original, open and collective knowledge. With these perspectives I try to remember that there are ways of seeing the world, present in many traditional places and communities, that who oppose with certain Western ideas and ways of acting notion that created intellectual property.

For example, in China, I talk in the book about “Shanzai,” a Chinese neologism created in the 2000s to say what is fake. It ranges from literature to Nobel prizes, MPs, amusement parks, tennis, music, movies, stories of the most diverse kind. At first, the term referred only to smartphones or counterfeit products made by brands such as Nokia or Samsung and sold under the name Nokir, Samsing or Anycat. Soon, however, they expanded to all areas, in plays that, in the manner of Dada, used creativity and parodic and subversive effects with the “original” brands to create other names – Adidas, for example, becomes Adidos, Adadas, Adis, Dasida… They are, however, more than mere fakes: their designs and functionalities owe nothing to the originals, and the technical or aesthetic modifications made give them an identity of their own.

The commodity system known in the West is, as is well known, different for the perspectives of traditional peoples – it is no accident that Davi Kopenawa calls us white people the “commodity people” in the monumental “The Falling Sky“. In the words of anthropologist Marilyn Strathern (1984), it is the opposition of the commodity economy, in which people and things take the social form of things, with the gift economy, in which people and things take the social form of people. As I wrote on p.216 of the book, “It is in this sense that, in originary societies in various parts of the world, the model of property (particularly intellectual property), based on the relation of the work of art as a commodity of consumption, becomes insufficient to deal with the more durable and complex relation of the circulation of objects. In the cultural system of the original societies, it is perceptible, for example, the centrality of collective values, linked to the plurality and survival of the community, in relation to individual values, of exclusive use and individual choice. This, in turn, makes it more difficult for cultural and knowledge goods in this context to become just another commodity sold as merchandise, because there are principles and responsibilities of reciprocity and solidarity that seek to value the moral substance itself – which we could also call “soul” – of the objects in their relations with people and the world.

From this brief panorama, we can finally ask ourselves: how can we talk about original and copy if a two-thousand-year-old culture from the Far East encourages reproduction and treats its content and permanence as more important than the origin of an idea, even if modified and reinvented in each context? Or how can we say that there is only one human owner of ideas when for many native peoples, among them some Amerindians, there is no separation between subject and object as we know it in the West, and the creative subjectivity, to whom one should attribute the “authorship” or the “ownership” of goods, is distributed in a vast network that includes people and objects, nature and society in an almost symmetrical way?

AND WE FINALLY GET TO AI

It is in the discussion about copy and original that we finally get to the hottest discussion of the moment, artificial intelligence. With the growing popularization of generative Artificial Intelligence systems (which are able to generate text and images autonomously), such as ChatGPT and MidJourney, it seems that we are heading for another historical moment to discuss both digital communication and free culture and knowledge, copyright and intellectual property. Some computational researchers indicate that soon the amount of text/image generated by AIs tends to surpass all human production. It’s not hard to imagine: based on machine learning, the potential is tending to be infinite for creating works. But given that these systems work primarily with new presentations of ideas that have already been generated (and recorded on computers), is it possible to recognize the sources and identify the authorship of an information brought by these AIs? Will “artificial” systems – and also “human” systems, or would it be better to say for both “hybrids”? – of information control will be able to impose limits to this proliferation and check the veracity of what is reported? How can we speak of copy and original in a world increasingly dominated by multiple copies reproduced ad infinitum by “intelligent” algorithmic systems?

I propose, of course, more questions than answers. Both because it is still an initial research, which is starting as, say, formal academic research, structured from FGV ECMI, where I work today as a researcher and professor. But mostly because nobody knows yet how to answer these and other questions about AIs; the very companies that are at the leading edge of this discussion in 2023, like Open AI, are learning about the impacts of the systems they create from feedback from millions of users. The responses and different uses invented by people bring new responses and new hallucinations from the systems, which are having to be corrected in almost real time.

There is, of course, a great risk in experimenting live with a technology that has such a transformative impact on information production, and it is no wonder that the discussion about AI ethics has been one of the big issues in debate for some years (or decades) now. The ONU has already given recommendations, in 2021, to suspend the use of AI in facial recognition systems until there is regulation on the use of the technology, just as recently a letter signed by over a thousand experts and personalities, such as Steve Wozniak, co-creator of Apple, Yuval Noah Harari, famous historian, and the unscrupulous billionaire Elon Musk, called for a moratorium, a “mandatory stop to think” about the consequences of the unbridled development of AI, especially generative ones like ChatGPT.

I like the image created by one of the best texts of the many that have been published on the subject between January 2023 and now. It is called “ChatGPT is a blurry JPEG of the Web” and was written by Ted Chiang for the February 2023 New Yorker.

“Think of ChatGPT as a blurry JPEG of all the text on the Web. It retains much of the information on the Web, in the same way that a JPEG retains much of the information of a higher-resolution image, but, if you’re looking for an exact sequence of bits, you won’t find it; all you will ever get is an approximation. But, because the approximation is presented in the form of grammatical text, which ChatGPT excels at creating, it’s usually acceptable. You’re still looking at a blurry JPEG, but the blurriness occurs in a way that doesn’t make the picture as a whole look less sharp.”

The image of the blurred JPEG helps us understand that the system created by Open IA “swallows” (almost) the entire internet and regurgitates by rephrasing what it has swallowed, not word for word. That despite inventing references and other wrong information (those who have used it have certainly been surprised with a book, a non-existent article), it does not “lie”, but writes “probable” answers – or “blurbs”, following the metaphor – based on the weights and calculations made from each token (input) generated. There are thousands of recombinations of ideas that have already been generated by the human mind, shown from a statistical analysis of a gigantic database. A database that, giant as it already is (and we are not sure how giant it is, another big problem caused by the lack of transparency), tends to grow more and more, fed by information collected on the web without authorization. Do they need to have authorization for this? Doesn’t data collection further reinforce datacolonialism, the unequal extraction (and exploitation) of data from the global south?

Other questions I bring here today give a taste of the transformative potentialities, for “good or bad,” of generative AIs also for the discussion in communication and circulation of information and cultural goods:
If on the one hand the increasing use of generative AI systems in everyday work favors users (including in the creation of new “occupations” such as design or prompt engineer), on the other hand it is a competitive problem for intellectual creators, especially for those kinds of so-called functional creations, such as a poster for an event, a “card” for a social network, a track for a short advertising video, an illustration for some work;

The problem of market concentration, just like big tech today. AI companies need a high initial investment, but a low maintenance cost to keep producing works and increasing supply, which is done without being accompanied by a proportional increase in demand (this issue I bring from the book by Pedro Lana called: “Artificial Intelligence and Authorship: Issues of Copyright and Public Domain“, released this 2023)

_ The “appropriation” of the common space (public domain) of ideas. A very large number of works produced can exhaust the amount of possible expressions of an idea in a certain medium – music, for example, where there are already cases of AIs, such as Google Assistant, which recognizes the samplers of a song, excerpts of even less than 1s. Identifying can also mean controlling and restricting; anyone who has ever uploaded a video with a song protected by copyright on Youtube, Instagram or any other platform knows how, for the justification of “defending property”, technology companies already identify and quickly bar the circulation of information. Would hip hop have been born if all samplers used were identified, controlled and restricted? Brazilian rapper Don L saw this danger and wrote on Twitter: “capitalism will end up with the art of the sample. i am totally against having to pay for samples unrecognizable by a human. if you go by this logic, there should be copyrights for instruments. pay for yamaha, korg etc in every song kk”.

_ The biases, the hallucinations; and the sources? Again: where is the transparency?

Here are perhaps some of the biggest problems today. They involve, for example, the biases, hallucinations, mistakes made by ChatGPT and exploitation of workers to manually “correct” the AIs, which make us glimpse a scenario closer and closer to a “Dark Digital Age”.The history of fascist hallucination of the last AIs is not the best; will it be different now? If so, how? What regulatory measures are possible to prevent these machines from turning into racist, misogynistic, and fake news propagating monsters? There is a lot of discussion on the subject, especially about possible legislation – some of which I brought up in this text from BaixaCultura. It is worth following the work of the Rights in Network Coalition, which is involved in this and other important issues in defense of digital rights.

On the legal side, it is also worth remembering fair use, fair use and its limitations and exceptions that have become one of the legal pillars on which AI applications depend. Its defense and amplification, as Lukas Ruthes Gonçalves says in this text, “are paramount so that creators and inventors can continue to recombine existing knowledge to create new and exciting possibilities, as they did before with the camera and image editing programs like photoshop.

Finally, I recall Benjamin to remix an already classic question: how does one identify a work of art in the age of its “algorithmic reproducibility”? If, as Hal Foster wrote in “What Comes After Farce?“, the negative force of automation is less the loss of “aura,” as Benjamin believed, and more the loss of “individual risk” and “communal participation,” what would we say of processes that are not only automated but autonomous? For that matter, how autonomous are these systems? Another question: is the work of art only the fruit of the human spirit? Has the time come, as the indigenous people have been doing for a long time, to review anthropocentrism, giving the status of creators to non-human, “artificial” or “natural” beings? Would reviewing the anthropocentrism in intellectual property be the end of copyright as we know it today?

That’s a lot of questions, I leave it to you to bring more others. Thank you!”

[Leonardo Foletto]

*Image created in Stable Diffusion from the prompt: An androgynous cyborg hybrid of machines and living organisms, with lots of plants, animals and insects, tending to a digital orchid, in 19th century Italian naturalist style

]]>
https://baixacultura.org/2023/06/13/communication-free-culture-and-copy-in-the-age-of-artificial-intelligence/feed/ 0
Uma nova primavera para o direito Autoral das IAs https://baixacultura.org/2023/04/24/uma-nova-primavera-para-o-direito-autoral-das-ias/ https://baixacultura.org/2023/04/24/uma-nova-primavera-para-o-direito-autoral-das-ias/#respond Mon, 24 Apr 2023 13:00:57 +0000 https://baixacultura.org/?p=15230  

As tecnologias de IA atingiram um nível de popularidade nunca antes visto. Como essa nova onipresença afeta o uso justo e a criação de novas obras?

Por Lukas Ruthes Gonçalves*

O primeiro inverno da IA ​​aconteceu em 1974, depois que um relatório encomendado pelo Conselho de Pesquisa Científica do Reino Unido criticou como a IA não conseguiu atingir seus objetivos na época e observou que “em nenhuma parte do campo as descobertas feitas até agora produziram o grande impacto que então se prometia**.”O que se seguiu foi uma queda na popularidade das tecnologias relacionadas ao campo que durou até 1980, após uma empolgação inicial com criações feitas pelo próprio computador.

Voltando aos conceitos fundamentais: um aplicativo de IA, não diferente de qualquer computador, precisa de 3 elementos-chave para funcionar corretamente: hardware, que roda um software que depende de dados para produzir resultados. A principal diferença é que a inteligência artificial executa “tarefas que normalmente exigiriam inteligência humana, como percepção visual, reconhecimento de fala, tomada de decisão e tradução de idiomas”. Essa é uma definição de John McCarthy, um dos principais pesquisadores da área, durante a Conferência de Dartmouth de 1956, que buscava unificar os diversos esforços de pesquisa da época sob uma única bandeira. Até Alan Turing faria a pergunta se as máquinas podem pensar em sua obra seminal “Computing Machinery and Intelligence”, de 1950.

A principal razão para aquele primeiro inverno de IA foi a falta de capacidade de processamento do hardware na época. Pesquisadores de IA durante a década de 1970 perceberam que era muito mais fácil ensinar um aplicativo a jogar xadrez do que levantar uma caneta, em um fenômeno apelidado de Paradoxo de Moravec. Habilidades mentais que são tidas como certas (como andar ou reconhecer um rosto) acabam exigindo um poder computacional muito maior do que calcular o pi, por exemplo. Isso torna os problemas difíceis fáceis e os fáceis difíceis. É por isso que a pesquisa em visão computacional e robótica fez pouco progresso durante a década de 1970.

Na década de 1980, o hardware havia melhorado, com sistemas como máquinas LISP se tornando mais populares e sendo anunciados como capazes de simular as capacidades de tomada de decisão dos humanos. No entanto, computadores pessoais menores de empresas como Apple e IBM começaram a ganhar força entre a população, pois hardware especializado como as máquinas LISP eram muito caros para manter e incapazes de lidar adequadamente com entradas incomuns. Isso trouxe o segundo inverno de IA em 1993, com a popularidade na área atingindo um novo ponto baixo.

Desde então muita coisa mudou. O hardware continuou a melhorar (de acordo com a Lei de Moore), com os computadores ficando menores e mais potentes a cada geração. E com o crescimento da internet toda a capacidade computacional não precisava mais estar localizada em um único lugar. Em vez disso, para empresas como o Google, ele pode ser distribuído em todo o mundo. Além disso, o aumento da popularidade da internet com o público em geral criou a oportunidade para mais pontos de dados do que nunca. Os aplicativos de IA mais recentes começaram a utilizar o hardware em rápido desenvolvimento, o software em evolução e o aumento dos dados para florescer.

Em uma nova primavera para aplicativos de IA, podemos encontrar hoje aqueles que podem gerar arte (Dall-E 2), criar textos de vários tipos (ChatGPT) e traduzir com mais precisão, entre outros inúmeros usos. No entanto, a rápida implantação dessas ferramentas de IA está atraindo novos desafios. Existem preocupações sobre o uso de obras protegidas por direitos autorais para treinar IA; nem todo mundo está feliz com o fato de que esses aplicativos podem repentinamente escrever livros infantis ou ganhar competições de arte. Com o escrutínio dessas aplicações cada vez maiores, os legisladores e o público em todo o mundo começaram a olhar para essas caixas misteriosas com maior interesse.

Gerado usando ChatGPT com o seguinte prompt: “Como você escreveria ‘A Dream of Spring for AI Copyright’ no estilo de George R. R. Martin?”

Enquanto alguns recepcionam com entusiasmo esses desenvolvimentos de IA, outros vêem isso com ceticismo, já entrando com ações judiciais contra aplicações de IA de geração de obras de arte nos EUA e no Reino Unido. O cerne da questão é se esses sistemas infringiram os direitos autorais dos artistas para gerar suas criações. Um caso iniciado em solo americano tem como autores três artistas que iniciaram uma ação coletiva contra os aplicativos de IA Stability.ai e Midjourney, e contra o repositório de imagens DeviantArt alegando violação direta e indireta de direitos autorais, violações de DMCA e concorrência desleal. A denúncia pode ser encontrada aqui. Especificamente, os artistas afirmam que os réus “pegaram bilhões de imagens de treinamento extraídas de sites públicos” e as usaram “para produzir imagens aparentemente novas por meio de um processo de software matemático”.

O caso do Reino Unido segue na mesma linha, com a Getty Images processando a Stability.ai alegando que esta “violou direitos de propriedade intelectual, incluindo direitos autorais em conteúdo de propriedade ou representado pela Getty Images”. O argumento é semelhante ao caso dos EUA, em que o réu “copiou e processou ilegalmente milhões de imagens protegidas por direitos autorais e os metadados associados pertencentes ou representados pela Getty Images, sem uma licença, para beneficiar os interesses comerciais da Stability AI e em detrimento dos criadores de conteúdo”.

Deixando de lado os aspectos técnicos de como é feito o treinamento de uma aplicação de IA (veja aqui uma ótima explicação sobre o assunto), o cerne não só dessas duas ações, mas do funcionamento dos aplicativos de IA como um todo, é se a extração de conteúdo de terceiros para ser utilizado como dados de treinamento de uma aplicação do tipo pode ser considerada fair use (uso justo). Conceitualmente, a mineração de dados é a digitalização de grandes quantidades de dados para uso em um software com o objetivo de analisar e extrair informações dessas bases.

Nos EUA, este tópico é regulado pelo §107 da Lei de Direitos Autorais, que estabelece como uso justo de uma obra protegida por direitos autorais – portanto, não violação – a reprodução para fins como crítica, comentário, notícias, ensino, bolsa de estudos ou pesquisa. A lei estabelece quatro fatores para determinar se um uso seria considerado “justo”: a finalidade e o caráter do uso; a natureza da obra protegida por direitos autorais; a quantidade que foi copiada; e seu efeito potencial no mercado dessa obra. Esse tipo de exceção flexível estabelecida pelo fair use tem sido a interpretação usada pelos tribunais dos Estados Unidos para permitir alguns usos de mineração de textos e dados (em inglês, TDM) necessários para aplicativos de IA poderem gerar imagens, como aponta Jonathan Band.

Um caso marcante para o tópico, Authors Guild, Inc. v. Google, Inc., ouvido pelo Tribunal de Apelações do Segundo Circuito (Court of Appeals for the Second Circuit) entre 2005 e 2015, chegou à conclusão de que a tentativa do Google de digitalizar livros para uso em seu buscador foi vista como um passo transformador para as bibliotecas – mesmo que a empresa não tenha solicitado autorização para este uso. Com este julgamento, que considerou tais práticas de TDM como uso justo, abriu-se um precedente chave que atualmente é invocado pelos fabricantes de aplicativos de IA para apoiar legalmente suas práticas.

No entanto, essa decisão é cada vez mais questionada, com os veículos de notícia agora mais cautelosos com a “dieta de mídia” dos chatbots do Bing e o governo do Reino Unido restringindo a expansão das exceções do TDM. Os casos mencionados acima desafiarão esse entendimento? O entendimento de como essa tecnologia funciona é incipiente e levará tempo até que os advogados consigam entender completamente o conceito para considerar propostas que não freiam o avanço de tecnologias inovadoras como a IA.

Este é apenas mais um exemplo de como o uso justo e as limitações e exceções são importantes para o avanço de novas tecnologias. A doutrina de uso justo tornou-se um dos pilares legais dos quais os aplicativos de IA dependem. Sua defesa e ampliação são primordiais para que criadores e inventores possam continuar a recombinar conhecimentos existentes para criar novas e excitantes possibilidades, como faziam anteriormente com a câmera e programas de edição de imagens como o Photoshop. Isso garantirá uma longa primavera para as ferramentas de IA e as novas obras de arte e inovações que artistas, músicos, pesquisadores e o público em geral criarão utilizando-as.

*: Lukas Ruthes Gonçalves é Mestre em Direito pela Universidade Federal do Paraná (UFPR), apresentando dissertação sobre Autoria de IA orientada pelo Professor Marcos Wachowicz e é agora Doutorando pela mesma instituição. É também membro do Grupo de Estudos em Direito Autoral e Industrial (GEDAI/UFPR), liderado pelo Professor Marcos Wachowicz e LLM em Propriedade Intelectual e Tecnologia pela American University Washington College of Law.  Texto originalmente publicado em inglês no Projeto Disco. Tradução: Leonardo Foletto

**: Lighthill, J. (1973), “Artificial intelligence: a general survey”, Artificial intelligence: a paper symposium

A imagem de capa do post foi gerada usando DALL-E com o seguinte prompt: “Um desenho realista de uma paisagem de primavera com um pequeno robô no meio olhando para o horizonte”.

]]>
https://baixacultura.org/2023/04/24/uma-nova-primavera-para-o-direito-autoral-das-ias/feed/ 0
A curiosa história de um roteador adorado por hackers https://baixacultura.org/2021/02/24/a-curiosa-historia-de-um-roteador-adorado-por-hackers/ https://baixacultura.org/2021/02/24/a-curiosa-historia-de-um-roteador-adorado-por-hackers/#respond Wed, 24 Feb 2021 11:45:11 +0000 https://baixacultura.org/?p=13398

Kai Hendry/Flickr

Texto publicado originalmente na Vice, por Ernie Smith, traduzido e adaptado livremente para o BaixaCultura.

Como um firmware licenciado em software livre transformou um roteador da Linksys num dispositivo lendário para hackers

Em um mundo onde nossos roteadores se parecem cada vez mais com aranhas de cabeça para baixo do que com coisas que você gostaria de ter em sua sala de estar, há apenas um punhado de roteadores que podem ser considerados “famosos”.

Os esforços de Steve Jobs para vender o AirPort – principalmente usando um bambolê durante uma demonstração do produto – definitivamente merecem destaque nesta categoria. Os roteadores mesh feitos pelo Eero, de propriedade da Amazon, provavelmente também.

Mas um certo roteador da Linksys, apesar de ter quase 20 anos, leva o prêmio principal de roteador “famoso” – e tudo por causa de um recurso que inicialmente não foi documentado e, depois, se mostrou extremamente popular em uma base de usuários específica.

Estamos falando do ícone azul e preto do acesso sem fio, o Linksys WRT54G, o roteador sem fio que mostrou ao mundo o que um roteador sem fio pode fazer.

*

1988 foi o ano em que a Linksys foi formada por Janie e Victor Tsao, dois imigrantes taiwaneses nos Estados Unidos. De acordo com um perfil da Linksys na rede InC., a empresa começou como uma forma de conectar inventores com fabricantes no mercado taiwanês, mas logo mudou-se para o próprio negócio de hardware, no início dos anos 1990, chegando finalmente às então nascentes redes domésticas – um campo que, no início dos anos 2000, a Linksys passou a dominar.

Hoje, não costumamos parar muito para pensar quando precisamos comprar um roteador; você vai a uma loja (ou na internet) e compra um simples por a partir de R$100. Mas no final dos anos 1990 não era assim. O mercado de roteadores não estava no radar de muitas empresas de hardware porque a necessidade se limitava ao uso em escritórios, o que significava que instalar um roteador em casa era extremamente caro e estava fora do alcance de pessoas “normais”. É a oportunidade perfeita para um tipo de empresa não muito grandes para brincar com os “peixes grandes” do mercado.

Durante sua primeira década de existência, Janie e Victor Tsao aproveitaram essas oportunidades, usando as mudanças de mercado para ajudar a posicionar melhor seu hardware de rede. No início dos anos 90, o hardware Linksys ainda precisava vir com seus próprios drivers. Mas quando o Windows 95 da Microsoft apareceu, os drivers de conexão à rede vieram junto – e isso significava que uma grande barreira para a participação de mercado da Linksys repentinamente desapareceu da noite para o dia.

Com os modems dial-up em vias de sair, houve uma necessidade imediata. “À medida que o uso da Internet de banda larga doméstica começou a florescer no final dos anos 90, com custos muito mais altos do que para conexões dial-up, Victor percebeu que as pessoas iriam querer conectar todos os seus pequenos escritórios ou computadores domésticos a uma linha dessas”, disseram Janie e Victor na InC. “Para fazer isso, eles precisariam de um roteador, um divisor de cabos de alta tecnologia que permite que vários computadores se conectem a um único modem.”

As empresas com as quais a Linksys estava competindo estavam focadas em um mercado em que os roteadores custam quase tanto quanto um computador. Mas Victor encontrou o ponto ideal: um roteador de $ 199 que vinha com um software fácil de configurar e razoavelmente compreensível para meros mortais. E tinha o design distinto pelo qual a Linksys se tornou conhecida – uma mistura de plásticos azuis e preto, com uma série de minúsculas luzes LED na frente. Em uma análise do roteador EtherFast Cable / DSL, a PC Magazine observou que a Linksys fez muito mais do que o que era solicitado à época. “Um preço de US $ 200 seria uma inovação para um roteador de porta Ethernet dupla, mas a Linksys agregou ainda mais valor no pacote de 1,8 por 9,3 por 5,6 polegadas (HWD)”, escreveu Craig Ellison. O roteador, que podia lidar com velocidades de até 100 megabits, tinha quatro portas – e poderia, teoricamente, lidar com centenas de endereços IP. Talvez não fosse tão confiável quanto alguns de seus concorrentes mais caros, mas tinha um preço razoável para residências, o que o tornava uma proposta atraente para o mercado.

O resultado foi que o roteador se tornou um tremendo sucesso, que ajudou a Linksys ter participação de mercado muito maior que seus concorrentes. O sucesso chamou a atenção da Cisco, gigante do hardware de rede, que adquiriu a Linksys em 2003 por $500 milhões. A aquisição ocorreu em um momento em que a empresa criada por Janie e Victor estava ganhando meio bilhão de dólares por ano e crescia rapidamente no mundo, em grande parte devido ao sucesso de seus roteadores.

**

Surgido relativamente no início da história do roteador sem fio, a série de roteadores WRT54G mostrou uma flexibilidade muito além do que seu criador pretendia para o dispositivo. Ele estava basicamente em toda parte, nas prateleiras de residências e em pequenos negócios ao redor do mundo. O WRT54G, apesar do nome assustador, era o roteador sem fio que as pessoas que precisavam de um primeiramente comprariam.

Mas a razão pela qual a série WRT54G resistiu por tanto tempo, apesar de usar um protocolo sem fio que se tornou obsoleto há 12 anos, pode se resumir a um recurso que inicialmente não estava documentado – e que apareceu em meio a todas as complicações de um grande fusão, como foi o caso da compra da empresa pela Cisco. Intencionalmente ou não, o WRT54G estava escondendo algo fundamental no firmware do roteador: um software baseado em Linux.

Isso era um problema porque significava que a Linksys seria obrigada a liberar o código-fonte de seu firmware sem fio sob a GNU General Public License, que exige a distribuição do software derivado nos mesmos termos do software que o inspirou. Andrew Miklas, um contribuidor da lista de e-mail do kernel do Linux, explicou que havia entrado em contato pessoalmente com um membro da equipe da empresa e confirmado que o software era baseado em Linux. “Eu sei que algumas empresas sem fio hesitam em lançar drivers de código aberto porque temem que seus hardwares possam ficar fora das especificações”, escreveu ele. “No entanto, se os drivers já foram escritos, haveria alguma razão técnica para que eles não pudessem ser simplesmente recompilados para o hardware Intel e lançados como módulos binários?”

Em uma coluna de 2005 para o Linux Insider, Heather J. Meeker, uma advogada focada em questões de propriedade intelectual e software de código aberto, escreveu que teria sido uma tarefa difícil para a Cisco descobrir o software livre por conta própria:

“A primeira lição desse caso é a dificuldade de fazer diligência suficiente no desenvolvimento de software em uma era de desintegração vertical. A Cisco nada sabia sobre o problema, apesar de provavelmente ter feito diligências de propriedade intelectual na Linksys antes de comprar a empresa. Mas, para confundir as coisas, a Linksys provavelmente também não sabia do problema, porque a Linksys estava comprando chipsets da Broadcom, e a Broadcom provavelmente também não sabia, porque, por sua vez, terceirizou o desenvolvimento do firmware do chipset para um desenvolvedor estrangeiro. Para descobrir o problema, a Cisco teria que fazer diligência em três níveis de integração de produto, que qualquer pessoa no comércio de fusões e aquisições pode dizer que é praticamente impossível.”

Bruce Perens, um “capitalista de risco” (venture capitalist), defensor do código aberto e ex-líder do projeto para a distribuição Debian Linux, disse à LinuxDevices que a Cisco não foi culpada pelo que aconteceu. “Os subcontratados em geral não estão fazendo o suficiente para informar os clientes sobre suas obrigações sob a GPL”, disse Perens.

No entanto, as informações sobre o roteador com o firmware de código aberto estavam lá, e a postagem de Mikas rapidamente ganhou atenção na comunidade de entusiastas. Uma postagem do Slashdot já indicava possibilidades: “Isso pode ser interessante: pode fornecer a possibilidade de construir um firmware de ponto de acesso super-legal com IPsec e suporte nativo a ipv6 etc etc, usando essas informações!” Cerca de um mês após a postagem no Slashdot, a Linksys lançou seu firmware de código aberto.

Jay Gooby/Flickr

Para os hackers, essa informação abriu um mundo de oportunidades. Desenvolvedores terceirizados rapidamente adicionaram recursos ao hardware original que nunca foram planejados. O WRT54G era essencialmente um roteador comum que, agora, poderia ser “hackeado” para emitir um sinal sem fio mais poderoso – em desacordo com a Comissão Federal de Comunicações – desenvolvido em um servidor SSH ou VPN para sua rede doméstica – ou, ainda, poderia ser transformado no cérebro de um robô. O WRT54G também provou ser a raiz de alguns firmware de código aberto úteis na forma de OpenWrt e Tomato, entre outros, o que significava que havia toda uma infraestrutura para ajudar a estender seu roteador além do que o fabricante queria que você fizesse. A Cisco foi compelida pela ameaça de ação legal para lançar o firmware baseado em Linux sob a licença GPL, mas, embora tenha ficado impressionada ao ver que o dispositivo estava sendo usado para objetivos muito mais além do que a caixa dizia, não o fez.

Como a Lifehacker disse em 2006, era a maneira perfeita de transformar seu roteador de $60 em um roteador de $600, o que, provavelmente, significava que estava custando dinheiro à Cisco ter um dispositivo tão bom no mercado. Como resultado, a empresa “atualizou” o roteador de uma forma que era efetivamente um downgrade, removendo o firmware baseado em Linux e substituindo-o por um equivalente proprietário, reduzindo assim a quantidade de RAM e armazenamento que o dispositivo usava, o que tornava difícil substituir o firmware por algo criado por terceiros.

Isso irritou os usuários finais, e a Cisco (aparentemente percebendo que havia estragado tudo) lançou uma versão Linux do roteador, o WRT54GL, que restaurou as especificações removidas. Esse é o modelo que você ainda pode encontrar na Amazon hoje e ainda mantém uma página de suporte no site da Linksys – e apesar de atingir o máximo de 54 megabits por segundo por meio sem fio, um número irrisório considerando o que roteadores modernos com o mesmo preço podem fazer , ainda está à venda. Toda a confusão sobre a GPL piorou anos depois que a supervisão do firmware foi descoberta pela primeira vez – a Cisco acabou pagando um acordo para a Free Software Foundation. Hoje, a empresa vende uma linha inteira de roteadores preto e azul que mantêm suporte para firmware de código aberto. (Eles custam muito mais do que o WRT54G jamais custou.)

“Queremos que este livro expanda o público da plataforma WRT54G e o uso de dispositivos incorporados como um todo, revelando o potencial que esta plataforma tem a oferecer.”

Essa é uma passagem da introdução de “Linksys WRT54G Ultimate Hacking” de 2007, um livro que explora o fato do WRT54G ser um sistema embarcado que pode ser hackeado e usado de várias maneiras, tanto usos práticos quanto por pura diversão. A maioria das pessoas que comprou uma variante do WRT54G na Best Buy provavelmente não se importou que o firmware fosse de código aberto. Mas este fato criou uma espécie de culto em torno do dispositivo, tornando-o hackeável e capaz de fazer mais coisas do que se imaginaria – hackear este dispositivo se tornou tão comum que existe um livro inteiro de 400 páginas dedicado a isso.

Um texto do Ars Technica de 2016 revelou que o roteador, na época, ainda ganhava milhões de dólares por ano para a Linksys, que naquela época já havia sido vendido para a Belkin. Apesar de não ser nem de longe tão poderoso quanto as opções mais caras, o WRT54GL – sim, especificamente aquele com Linux – manteve seu público em sua segunda década porque foi percebido como sendo extremamente confiável e fácil de usar. “Vamos continuar a construí-lo porque as pessoas continuam comprando”, disse na época o gerente de produtos globais da Linksys, Vince La Duca, afirmando que o fator que mantinha o roteador à venda era que as peças continuavam a ser fabricadas.

Apesar de sua idade, o roteador continuou a vender bem por anos após sua data de validade e continua, ainda hoje, sendo amado por muitos hackers – em grande parte devido à sua dependência de drivers de código aberto. Se a sua base de usuários está dizendo para você se manter fiel a algo, continue.

]]>
https://baixacultura.org/2021/02/24/a-curiosa-historia-de-um-roteador-adorado-por-hackers/feed/ 0
Fazendo a internet das pessoas https://baixacultura.org/2020/09/09/fazendo-a-internet-das-pessoas/ https://baixacultura.org/2020/09/09/fazendo-a-internet-das-pessoas/#respond Wed, 09 Sep 2020 13:22:47 +0000 https://baixacultura.org/?p=13241

Primeira Cumbre Argentina de Redes Comunitárias, em Córdoba (AR). Martin Bayo CC BY SA / Wikimedia

Levamos meses escutando sobre a construção de uma normalidade pós-pandemia. Quem a está definindo? Estamos sendo parte dessa construção? O que tem de nova? É o futuro que desejamos?

Desde alguns anos – décadas em alguns casos – , diversos coletivos, ativistas e militantes estamos debatendo, resistindo, propondo e construindo a largo prazo um caminho de soberania e autonomia tecnológica. As discussões vão desde o acesso à internet, neutralidade da rede, como cuidar da tão desdenhada privacidade e por mais atenção no valor de nossos dados; passando também pela necessidade de refletir sobre as tecnologias que usamos e as possbilidades de cocriá-las; e pelo acesso, a cópia, o remix e a difusão de todo tipo de obras culturais (filmes, livros, músicas e um grande etc). De tudo isso que tem sido falado, discutido e consensuado em certos nichos ou círculos, quando chegou a pandemia esses problemas se tornaram mais urgentes – e as inquietudes tomaram maior escala.

Assim, frente a velhos problemas, aparecem as mesmas lógicas tecnológicas vestidas de soluções inovadoras que só reforçam ou aprofundam as desigualdades estruturais existentes. Toda nossa capacidade de nos comunicarmos à distância, de nos educarmos, de nos entreter e socializar e de trabalhar caíram nas mãos de poucas empresas. Desta forma, a esperança de chegar a uma “nova normalidade” pós-pandemia parece depender de quão hábeis vamos conseguir nos mover em certas plataformas digitais – sejam as que já conhecemos, as que recém estão sendo instaladas ou aquelas que buscam se tornar o padrão da indústria.

Timidamente se escutam algumas vozes debatendo que, por trás dessa “adaptação”, também está a renúncia de direitos de todos os tipos: de nossa intimidade e privacidade, de condições de trabalho e de possibilidades de lazer, acesso à informação e a bens culturais.

Os grandes valentões da internet

Alguns dias atrás, em junho, o Financial Times noticiou o Top 100 de empresas que cresceram em valor de merdado desde o início da pandemia, em março, incluindo também o crescimento patrimonial de seus fundadores, donos ou principais acionistas (veja aqui a tabela completa, baseado nos números do ranking de milionários da Forbes). É importante ver como o ranking está encabeçado por aquelas empresas (e pessoas) ligadas à tecnologias, um setor altamente concentrado.

Há, em primeiro lugar, a Amazon; a Microsoft (#2) cresceu em US$ 269.000 milhões, enquanto Bill Gates aumentou seu patrimônio aproximadamente em 12%. Algo parecido ocorreu com a Apple (#3), com um salto de US$219.000 milhões desde o início da pandemia, enquanto Laurene Powell Jobs, viúva de Steve Jobs, viu sua fortuna cresce em 26%.

Um pouco atrás, outras startups do Vale do Silício também ocupam um lugar privilegiado no ranking. Facebook (#6) cresceu US$85 milhões e, como espelho, a fortuna de Mark Zuckerberg aumentou quase 60%. Alfabeth, a ex-Google, está em #8 com a soma de US$68.000 milhões,; tanto Larry Page quanto Sergey Brin, seus criadores, engordaram seu caixa ao redor de 29%. Netflix (#12) subiu US$55.000 milhões em seu valor nesse período – e a fortuna de Reed hastings, seu fundador e diretor-executivo, subiu em 30%.  A grande “novidade” desta pandemia foi o Zoom (#15), que com sua plataforma de videochamadas aumentou sua cotação no mercado em US$48.000 milhões. Seu criador e principal acionista, Eric Yuan, viu sua conta bancária quase dobrar, crescimento de 98%. Entre os “jogadores locais” do Continente, o Mercado Libre (#37) cresceu U$$ 18.000 milhões e o valor do partimônio do argentino Marcos Galperin, seu presidente e co-fundador, dobrou, chegando a U$$4100 milhões.

Tom Grillo / NY Times

Os mecanismos pelos quais algumas dessas empresas aumentaram seus valores são, em alguns casos, mais “transparentes” (nem por isso menos ferozes), caso de Netflix, Amazon ou Mercado Livre, que exigem assinaturas pagas ou cobram taxas pelos seus serviços. Em outros casos, a suposta gratuidade das plataformas oculta a opacidade das diretrizes publicitárias mediante a extração e a comercialização abusiva dos dados dos usuários – e, por sua vez, a manipulação dos conteúdos publicados nas plataformas segundo algoritmos que privilegiam os interesses políticos e econômicos destas corporações e de seus aliados. Os casos mais emblemáticos aqui são, claro, Facebook e Google.

De qualquer maneira, a “chave do êxito” é um gigante de duas pernas que, como dizíamos no início, desde algum tempo coletivos e espaços ativistas estamos tentando derrubar. Duas pernas porquê, por um lado, nos mostram uma vida onde a tecnologia é imprescindível. O advento sem aviso prévio – e, em princípio, provisório – de uma virtualização forçada abriu caminho para que essas corporações corroborassem a hipótese que elas mesmas haviam instalado: precisamos de tecnologia para cada uma das tarefas de nossa vida. Esse argumento cai em pedaços quando nos afastamos um pouco dos grandes centros urbanos ou quando nos aproximamos de setores que, inclusive nas grandes cidades, não tem acesso às tecnologias digitais ou à conexão de qualidade desde antes da pandemia.

Por outro lado, e com muito mais força, não só não podemos viver sem tecnologia, mas precisamos exclusivamente dessas tecnologias dos grandes monopólios. Já não podemos lembrar de datas de aniversários sem que o Facebook nos recorde; não podemos lançar um tema para o debate sem uma hashtag no Twitter; não podemos difundir uma comvocatória sem espalhar em grupos de WhatsApp; não podemos estudantes e docentes sustentar o vínculo pedagógico sem o Google Classroom; não podemos ter uma reunião, conversa ou conferência sem utilizar o Zoom.

Assim, estas empresas vencem a pandemia não só em termos econômicos – embora seja evidente que essas cifras milionárias não façam mais do que ampliar as brechas e aumentar a concentração de poder. Ganham também, e de modo fundamental, ao se instalarem como as únicas soluções, exclusivas e excludentes, em um cenário que parece não deixar lugar ao colaborativo, ao comunitário, a construção horizontal, solidária, autônoma e comprometida.

Re-imaginando horizontes tecnológicos

Em um cenário de total dependência e de um destino incontornável como o que estas empresas hoje nos apresentam, as pessoas – como indivíduos e como coletivo – passam a não ter o direito de conhecer e controlar todos os processos vinculados às tecnologias que regulam nossas próprias vidas. Mesmo assim, é possível vislumbrar outros horizontes quando começamos a imaginar e construir outra relação com outras tecnologias.

Há quem, em vez de propor fugas das tecnologias corporativas, de maneira individual ou setorial, buscam estratégias que sejam coletivas. E é aqui onde “comunidade” e “colaborativo” deixam de ser um slogan marqueteiro para recuperar uma mirada política onde o saber é compartilhado, o conhecimento se constrói em uma rede de pares, as experiências se valorizam em sua diversidade, e a autonomia e a autogestão impulsionam práticas coletivas. É assim que emergem propostas de organizações e comunidades que compartilham tecnologias, conhecimentos e conteúdos livres.

Acampe Feminista 2019 Santa Fe Argentina. Gabriela Carvalho CC BY SA / Wikimedia

Um primeiro exemplo a considerar tanto estrratégia de disputa e construção de sentido em territórios digitais, no caso da Argentina, são as Coberturas Colaborativas. São movidas impulsionadas por um grupo de midiativistas das cidades de Paraná e Santa Fe que se concentraram na Wikipedia e no repositório da Wikimedia Commons como ferrametnas colaborativas para disseminar e tornar as lutas visíveis. É um espaço onde as fotografias “liberadas” ficam disponíveis para ilustrar artigos da enciclopédia livre, mas também permitem construir uma memória digital comum, livre, aberta e com possibilidades de seguir crescendo.

Este banco de imagens inclui material das mobilizações de um passado recente em Paraná e Santa Fe – por exemplo, a inundação de 2003, a Escola Pública Itinerante, o conflito universitário de 2018 e os últimos 24 de Março. Também de expressões festivas populares como os Carnabarriales realizados no Centro Social e Cultural El Birri.

Carnabarriales em Santa Fé, AR. TitiNicola / Wikipedia CC BY SA

Mas, sem dúvida, a principal mostra está nos registros fotográficos colaborativos em relação às lutas feministas nas duas capitais da província (Paraná e Santa Fe) – “pañuelazos” pelo aborto legal, convocatórias de coletivos LGBT, 8M ou a Greve Internacional da Mulheres. Essa dinâmica foi gerada a partir de encontros em que fotógrafos – com maior ou menor nível de formação técnica – debateram porquê e como dar visibilidade a essas lutas de maneira coletiva. Especificamente em Santa Fe, a proposta coincidiu com a necessidade da Mesa Ni una Menos de cobrir as movidas e recuperar materiais de anos anteriores que estavam espalhados pelas redes, com a ideia de gerar novas peças comunicacionais para difundir as atividades.

No repositório é possível acessar a mais de 4300 imagens feitas na maioria por fotógrafas mulheres, um número que pode crescer com base nas contribuições futuras que o projeto receber.

Docentes da Tecnicatura Universitaria en Software Libre (UNL) durante el taller de redes libres, armado de antenas y experimentación en el Bachillerato Popular de la Vuelta del Paraguayo (Santa Fe). Nianfulli CC BY SA / Wikimedia

Em termos de infraestrutura técnica, exemplos mais significativos de re-imaginação de cenários tecnológicos são as diversas comunidades que integram a Cumbre Argentina de Redes Comunitarias, que autogerem a forma com que se conectam à internet. Este movimento começou alguns anos atrás em diversos pueblos da Província de Córdoba como uma possibilidade de conexão para quem vive em lugares que não são rentáveis para as empresas de internet [NT: de modo parecido ao que é feito, no Brasil, pela Coolab.] Depois, as redes foram ampliadas, compartilhando metodologias com comunidades indígenas, bairros e assentamentos populares rurais e urbanos em Jujuy, Salta, Província de Santa Fé e na grande Buenos Aires. O processo tem promovido aprendizado e apropriação tecnológica em colaboração com pares e com software livre. Implica, também, em perder o temor para desarmar e adaptar artefatos – os modens, por exemplo – e intervir sobre seu software de funcionamento. 

As redes livres comunitárias emergem com o duplo propósito de garantir o direito ao acesso à internet e, ao mesmo tempo, que as comunidades sejam criadores de seu próprio “pedacinho de internet” de maneira autogestionada, colaborativa e de acordo com suas tradições. Algumas experiências estão com a tarefa de conseguir espaços de confluência com bases já organizadas em torno de problemas e discussões comuns. Por exemplo, com movimentos camponeses que lutam pelo direito à terra e pela soberania alimentar, e com rádios comunitárias com histórico de militância no direito à comunicação. Essas organizações muitas vezes habitam e compartilham territórios de conflito, onde, além de terem seus direitos violados, não tem acesso à internet em casa ou via redes móveis de celular. o que limita as possibilidades de construir suas próprias narrativas, ou uma documentação coletiva de seus conhecimentos, ou ainda uma memória de suas lutas.

Em relação às plataformas de comunicação, há um amplo universo de redes sociais livres que promovem as práticas de cuidado e anonimato, a soberania tecnológica e a auto-gestão: Mastodon (microblogging), Diáspora e Friendica (redes sociais descentralizadas), FunkWhale (redes de áudio e músicas), WriteFreely (plataforma de blog), PeerTube (plataforma de vídeos), PixelFed (rede federada de compartilhamento de fotos), además da GNU Social, uma das mais antigas. [NT: para mais informações sobre o que é uma rede livre, veja na Wikipédia (em espanhol). Tambérm vale conferir esta charla sobre o tema]. jTodas elas se apresentam como ambientes férteis para construir e ressignificar as tecnologias a partir do ativismo. Partem de uma crítica às redes sociais corporativas e convidam a habitar espaços digitais construídos sobre pilares mais próximos com os valores e propósitos sociais, políticos e comunitários de nossas organizações e coletivos.

É certo que o desligamento das ‘big techs” ou dos serviços corporativos pode não ser um movimento simples. Em algum momento, diante da necessidade “inevitável” de uso dessas plataformas massivamente utilizadas, o mal menor costuma ser priorizado: qual era a menos insegura? Qual violou menos nossos direitos? Talvez este momento histórico seja o oportuno para virar a equação: se a proposta é a “internet das coisas”, vamos consolidar, ampliar, replicar e interconectar a pequena internet das pessoas.

Berna Gaitán Otarán e Cecilia Ortmann, de Radar Libre Argentina.
(Original em espanhol. Adaptação: BaixaCultura)
Sobre como funciona e se gestiona as redes sociais livres, veja: abicivoladora.wordpress.com/vivas-libres-y-federadas/

Para conhecer experiências com tecnologias livres e comunicação, acesse: www.radarlibre.com.ar.

 

 

]]>
https://baixacultura.org/2020/09/09/fazendo-a-internet-das-pessoas/feed/ 0
Internet hangover, spirit of time https://baixacultura.org/2018/09/13/internet-hangover-spirit-of-time/ https://baixacultura.org/2018/09/13/internet-hangover-spirit-of-time/#respond Fri, 14 Sep 2018 01:34:48 +0000 https://baixacultura.org/?p=15270 Originally published in Portuguese in September 2018

 

I write and follow the discussions, advances and setbacks of the internet and of what is conventionally called digital culture since 2008, when BaixaCultura was born. It has been 10 years and so much has changed in this period that I can point out not only specific issues, but a whole spirit of the time (as the Germans say, zeitgeist) that is different today. Which can be summarized in an expression that I have been using for some months now: “Internet hangover” (Ressaca da internet). We have deposited so many possibilities of freedom (independent information from major media groups, freedom to speak what we want, to create new technologies and worlds) that we have neglected, or failed, to pay attention to the rise of monopolies of technology companies, the construction of information bubbles that confirm points of view, and the increasingly real possibility of the Internet becoming cable TV, with the already proclaimed end of net neutrality. We have taken a extra-dose of optimism. And now – or rather, since at least 2016 – we are in the hangover phase, hostage to internet monopolies, the commercialization of any data left on the net, fake news arriving from all sides. Pure dystopia.

The curtailment of the internet by private companies like Google, Facebook, Amazon, and Apple is one of the main elements in building this spirit. What is left of the internet today if not the platforms, software and devices of these companies? For the majority of the Brazilian and world population, not much. About 70% of Brazilians access the web through their cell phones, and not infrequently, they only access services such as Facebook, WhatsApp, and Instagram when connected, all from the same company. There are other options from search engines to Google, for example (DuckDuck is the main one), and from smartphone operating systems to Android and Apple’s IoS, but look aside and see how many people actually use these alternatives? The internet is already today what many of us free internet activists feared it would be: a big walled garden, where increasingly the ones calling the shots on what and how to access it are large private companies based in the US.

I remember, at the end of 2011, when I wrote a report on the fight for the defense of internet principles, such as net neutrality, based on Yochai Benkler’s speech at the opening of the Festival Cultura Digital.br this year. Even at that time, the questioning about the end of net neutrality and the growth of large monopolies was a current issue, although not with as much presence as today. At the time, I started the text with the question: “is it utopian to think of a democratic and free internet, without privileges of access and data traffic for any side, just as it was defined in the principles of the development of the internet?” From there, I told a story that I witnessed in class, in one of the many times I spoke about culture and free licenses for communication students, when a student asked if keeping the Internet free was not a utopia, or naivety. I answered, at the time, no: “The internet was created this way, as a decentralized and autonomous network. And we are not talking about a utopia, but a reality; the Internet today works this way”. Years later, was the student right?

In 2011, the fight for a free internet was less thankless than it is today, and I myself believed that we would be able, as a civil society, to keep the internet as it was created, or at least guaranteeing some of its basic principles such as neutrality. After almost seven years, I do a mea culpa.  I didn’t know – or didn’t want to believe, or didn’t want to write or speak publicly that I didn’t believe – that the big internet players would turn the internet into what it is today, a closed space where we are trapped in private algorithmic bubbles of which we know little or nothing about how it works. And only since a year ago, with Trump and Brexit, have we started to see the potentially harmful for politics of this arrangement between people and technical systems like Facebook and Google. Like many, I doubted and did not want to see that capitalism reinvents itself and appropriates everything it sees in front of it, including a network that was born a libertarian part like the Internet.

TED, that famous format of quick lectures recorded on video that has spread around the world, had one last major edition in April 2018 in Canada. Two speeches manifested this internet hangover zeitgeist. Jaron Lanier, one of the creators of the idea of virtual reality, musician and computer scientist. “We made a particular mistake in the beginning. The nascent digital culture believed that everything on the Internet should be public, free. At the same time, we loved our tech entrepreneurs. We loved this Nietzchian myth of the tech man who transforms the universe. How to celebrate entrepreneurship if everything is free? A model based on advertising. Google was born free, Facebook was born free. The ads in the beginning were for your local dentist or something. But the algorithms get better. And what started as advertising can no longer be called advertising. Today it is behavior modification. I don’t call these things social networks anymore. They are behavior modification empires. This is a global tragedy born of a gigantic mistake. And let me add another layer. In behaviorism, you offer a creature, a rat or a person, small gifts or punishments depending on what they do. In networks, social punishment and social rewards fill this role. You get all happy – ‘someone liked my stuff’. Consumers of these behavior modification empires get feedback on everything they do, they realize what works, they do more of it. And they respond more to negative emotions, because these trigger faster reactions. So even the most well-meaning people feed negativity: the paranoiacs, the cynics, the nihilists. These are the voices amplified by the system. And you can’t pay these companies to make the world better or to fix democracy because it is easier to destroy than to build. This is the dilemma in which we find ourselves.

The greatest danger facing democracy is that the revolution in information technology will make dictatorships more efficient than democracies. This was the statement that Folha de S. Paulo decided to highlight in the TED talk given by Israeli historian Yuval Noah Harari. To prevent the rise of fascism and avoid new dictatorships, the historian proposed that engineers find ways to prevent information from being concentrated in the hands of a few and make sure that distributed information processing is as efficient as centralized. “That will be the main safeguard of democracy,” he says.

You may not be new to Harari’s call to action. The question is the how-to or if it is possible to do it. In what practical ways can computer engineers make information processing more decentralized? Do they want to do this? Is it still possible to tackle the big information hubs of the social networks from small decentralized initiatives? Or should we focus our efforts – we and all those who are not engineers – on not allowing ourselves to be manipulated by those who control information? I bring here more questions than answers because, of course, everything is happening now; while we are trying to come out of the hangover, we keep asking questions and groping for principles of certainty in order to act soon. Or to act with more clarity, since many are already acting around the world.

[Leonardo Foletto]

 

]]>
https://baixacultura.org/2018/09/13/internet-hangover-spirit-of-time/feed/ 0
Saiu o zine BaixaCultura nº1 https://baixacultura.org/2015/06/19/saiu-o-zine-baixacultura-no1/ https://baixacultura.org/2015/06/19/saiu-o-zine-baixacultura-no1/#respond Fri, 19 Jun 2015 13:20:24 +0000 https://baixacultura.org/?p=10260 IMG_20150612_182536

Faz algum tempo que prometíamos uma continuidade no nosso selo editorial que lançou o Efêmero Revisitado em 2011/2012. Diversos contratempos e outros trabalhos infindáveis adiaram esse processo, mas eis que, em junho de 2015, a segunda publicação do selo é lançada: trata-se do Zine BaixaCultura nº1.

O tema escolhido pra edição foi o détournement, a partir de uma reedição de um texto já publicado aqui, o guia para os usuários do deturnamento, e de uma apresentação feita exclusivamente para a publicação. A ideia é dar continuidade a série “Pequenos Grandes Momentos da História da Recombinação”, mas também reeditar alguns textos do site e lançar conteúdos exclusivos relacionados à cultura livre e a (contra) cultura digital, em especial aqueles que achamos que combinam melhor com uma leitura em papel. Não vamos prometer uma periodicidade de lançamentos, mas já tem novos sendo gestados.

O primeiro lançamento do zine vai ocorrer hoje mesmo, 19 de junho de 2015, em Joinville, junto ao curso de jornalismo das faculdades Bom Jesus/Ielusc, conforme o cartaz de divulgação abaixo. A ideia é apresentar o conteúdo e falar um pouco sobre remix, plágio criativo e a ligação disso tudo com o copyleft e o software livre. A partir de segunda-feira o zine vai estar disponível em PDF (gratuito) na página Selo do site. E impresso, com envelope carimbado e adesivo, a módicos R$10 (taxas de envio incluso) ou na banca de zines mais próxima de sua cidade. Novas cidades e eventos de lançamentos serão divulgados aqui.

[Leonardo Foletto]

cartaz joinville
Fotos do evento de lançamento (Mauro Artur Schlieck)

DSC_0003
DSC_0002 DSC_0001

DSC_0010

Como montar:

tutorial_zine

Expediente (do zine): Calixto Bento (diagramação), Sheila Uberti (foto da capa – que abre esse post – sobre mosaico criado durante a oficina da artista Silvia Marcon, em Porto Alegre/RS) e Leonardo Foletto (edição).

]]>
https://baixacultura.org/2015/06/19/saiu-o-zine-baixacultura-no1/feed/ 0