big techs – BaixaCultura https://baixacultura.org Cultura livre & (contra) cultura digital Fri, 14 Feb 2025 14:17:31 +0000 pt-BR hourly 1 https://wordpress.org/?v=6.0.9 https://baixacultura.org/wp-content/uploads/2022/09/cropped-adesivo1-32x32.jpeg big techs – BaixaCultura https://baixacultura.org 32 32 A crise é cognitiva – a guerra cultural e os fins da internet https://baixacultura.org/2025/02/14/a-crise-e-cognitiva-a-guerra-cultural-e-os-fins-da-internet/ https://baixacultura.org/2025/02/14/a-crise-e-cognitiva-a-guerra-cultural-e-os-fins-da-internet/#respond Fri, 14 Feb 2025 14:09:45 +0000 https://baixacultura.org/?p=15788 Semana passada participei novamente no Balanço & Fúria para falar sobre as transformações da internet, das raízes rebeldes à ascensão da plataforma aliada (e potencializadora) da extrema direita. Falamos um pouco sobre como essa mudança impactou a cognição, o trabalho e a cultura, levando a uma crise de consenso e à ascensão da desinformação, entre outras coisas. No final destacamos a necessidade urgente de repensar a forma como interagimos com a tecnologia e de buscar alternativas que promovam a descentralização, a transparência e o bem comum. A ascensão do DeepSeek, com seu modelo de código aberto, oferece uma faísca de esperança em meio a um cenário de crescente preocupação com o poder das Big Techs e o impacto da desinformação. 

“Quem teve acesso à internet do fim dos anos 90 e começo dos anos 2000 jamais imaginaria que ela se tornaria um dos principais instrumentos para a elaboração do fascismo de nosso tempo, um impulsionador da crise política e estética, seguido da crise cognitiva que determinaria uma nova subjetividade em seus usuários, assim como uma nova definição de capitalismo ultraprecarizado e ultraliberal, que confundiu ainda mais os limites do trabalho, das liberdades e da democracia liberal.

Da guerra cultural à plataformização, passando pela monopolização das Big Techs e a disputa geopolítica baseada nas tecnologias criadas a partir do que resta da internet, Leonardo Foletto caminha sobre uma breve história das redes de compartilhamento, da pirataria, do hackativismo até o apodrecimento algorítmico fascista em que nos encontramos agora.”

Dá pra ouvir/baixar no site e também aqui abaixo.

[Leonardo Foletto]

 

 

 

]]>
https://baixacultura.org/2025/02/14/a-crise-e-cognitiva-a-guerra-cultural-e-os-fins-da-internet/feed/ 0
Software livre pode derrotar as big techs? https://baixacultura.org/2025/02/07/codigo-aberto-pode-derrotar-as-big-techs/ https://baixacultura.org/2025/02/07/codigo-aberto-pode-derrotar-as-big-techs/#respond Fri, 07 Feb 2025 17:09:28 +0000 https://baixacultura.org/?p=15779 Falei para o programa “Outra Manhã”, do Outras Palavras, na segunda 3/2/25 sobre DeepSeek e a questão do open source, a partir do texto publicado aqui – que foi republicado pelo OP também

Na conversa, de cerca de 1h, busquei enfatizar o potencial dos modelos de código aberto para desafiar o domínio de grandes empresas de tecnologia. Trouxe também questões éticas e práticas sobre o uso de dados, as implicações políticas da IA ​​e possibilidades futuras de desenvolvimento de IAs descentralizadas, locais e de código aberto. A manchete é um pouco sensacionalista, como o jornalismo tem costumado ser (às vezes por questão de sobrevivência).

[Leonardo Foletto]

Na semana seguinte, Antônio Martins e Glauco Faria conversaram com Uirã Porã sobre como o software livre vive no Brasil e como ele pode ser base da autonomia tecnológica, numa conversa que vale a pena escutar:

]]>
https://baixacultura.org/2025/02/07/codigo-aberto-pode-derrotar-as-big-techs/feed/ 0
A corrida da IA ganha um novo capítulo – chinês e open source https://baixacultura.org/2025/01/29/a-corrida-da-ia-ganha-um-novo-capitulo-chines-e-open-source/ https://baixacultura.org/2025/01/29/a-corrida-da-ia-ganha-um-novo-capitulo-chines-e-open-source/#comments Thu, 30 Jan 2025 01:31:18 +0000 https://baixacultura.org/?p=15766  

Segunda-feira, 27 de janeiro, Wall Street atravessou um de seus dias mais turbulentos. As previsões para o setor de inteligência artificial desmoronaram, “players” viram seus papéis derreterem. As ações da Nvidia, inflacionada pela corrida por chips instalados nas IAs generativas, tombaram 17%, resultando em uma perda de US$ 589 bilhões em valor de mercado – a maior queda diária já registrada na história do mercado financeiro americano, que virou matéria e foco de atenção de diversos jornais. Sete bigtechs (Apple, Amazon, Alphabet, Meta, Microsoft, Nvidia e Tesla) viram uma perda de US$ 643 bilhões em suas ações. O responsável por essa reviravolta? Um chatbot de baixo custo lançado por uma startup chinesa, a DeepSeek, criado em 2024 como um braço de pesquisa de um fundo chamado High Flyer, também chinês. Segundo a empresa, o custo de treinamento do modelo por trás da IA, o DeepSeek-R1, foi de aproximadamente US$ 6 milhões – um décimo do que a Meta investiu no desenvolvimento do Llama 3.1, por exemplo, ou menos ainda dos US$ 100 milhões que a OpenIA investiu no seu último modelo. Além disso, a startup informou que seu chatbot apresentou um desempenho superior ao GPT-4, da OpenAI, em 20 das 22 métricas analisadas.

Não entrando nos pormenores econômicos especulativos do mercado de ações (o tombo se deu no valor do mercado destas big techs a partir da desvalorização de suas ações), o fato principal aqui é: a queda foi sobretudo porque a DeepSeek mostrou ao mundo que existe possibilidade de se competir na área com menos dinheiro, investido de forma eficiente. Com menos processadores, chips e data centers, a empresa destravou a possibilidade de operar com custos menores, justo semanas depois de Trump, ao lado de Sam Altman (Open IA) e Larry Ellison (Oracle), anunciar o “Stargate”, um mega programa de investimentos em IA no Texas com potencial anunciado de alavancar até US$ 500 bilhões de dólares em cinco anos. O lançamento do modelo da DeepSeek redesenha a disputa entre EUA e China pela inteligência artificial e mostra que, mesmo com as travas colocadas pelo Governo Biden na compra de chips da Nvidia pela China, ainda assim é possível fazer sistemas robustos de IA de forma mais barata do que Altman e cia afirmam.

As diferenças técnicas do sistema chinês

Vamos tentar explicar aqui brevemente como funciona o DeepSeek e as principais diferenças em relação ao seus modelos concorrentes. O recém-lançado R1 é um modelo de linguagem em grande escala (LLM) que conta com mais de 670 bilhões de parâmetros, projetado a partir de 2.048 chips H800 da Nvidia – estima-se, por exemplo, que os modelos desenvolvidos pelas big techs utilizem cerca de 16 mil chips para treinar os robôs. Utiliza-se de aprendizado por reforço, uma técnica de aprendizado de máquina (machine learning) em que o sistema aprende automaticamente com os dados e a própria experiência, sem depender de supervisão humana,  a partir de mecanismos de recompensa/punição.

Para aumentar sua eficiência, a DeepSeek adotou a arquitetura Mixture-of-Experts (MoE), uma abordagem dentro do aprendizado de máquina que, em vez de utilizar todos os parâmetros do modelo (ou toda as redes neurais) em cada tarefa, ativa só os necessários de acordo com a demanda. Isso torna o R1 mais ágil e reduz o consumo de energia computacional, executando as operações de forma mais leve e rápida. É como se o modelo fosse uma grande equipe de especialistas e, ao invés de todos trabalharem sem parar, apenas os mais relevantes para o trabalho em questão são chamados, economizando tempo e energia.

Outra técnica utilizada pelo R1 é a Multi-Head Latent Attention (MLA), que permite ao modelo identificar padrões complexos em grandes volumes de dados, usando de 5 a 13% da capacidade de modelos semelhantes como a MHA (Multi-Head Attention), o que a torna mais eficiente, segundo essa análise bem técnica publicada por Zain ul Abideen, especialista em LLM e aprendizado de máquina, em dezembro 2024. Grosso modo, a MLA analisa de forma simultânea diferentes partes dos dados, a partir de várias “perspectivas”, o que possibilita ao DeepSeek-R1 processar informações de maneira mais precisa gastando menos recursos de processamento. A MLA funciona como um grupo de pessoas olhando para o mesmo problema de diferentes ângulos, sempre buscando a melhor solução — de novo e de novo e de novo, a cada novo desafio.

Além de seu baixo custo de treinamento, um dos maiores atrativos do modelo está no baixo custo da operação geral. Grandes empresas de tecnologia costumam cobrar valores altos para acessar suas APIs, ferramentas que permitem que outras empresas usem seus modelos de inteligência artificial em seus próprios aplicativos. A DeepSeek, por outro lado, adota uma abordagem mais acessível; a API do R1 custa entre 20 e 50 vezes menos do que a da OpenAI, de acordo com a empresa. O preço de uma API é calculado com base na quantidade de dados processados pelo modelo, medido em “tokens”. No caso da DeepSeek, a API cobra US$ 0,88 por milhão de tokens de entrada e US$ 3,49 por milhão de tokens de saída. Em comparação, a OpenAI cobra US$ 23,92 e US$ 95,70, respectivamente. Ou seja, empresas que optarem pela tecnologia da chinesa podem economizar substancialmente ao integrar o modelo R1 em suas plataformas.

A DeepSeek declarou que usou 5,5 milhões de dólares (32 milhões de reais) em capacidade computacional, utilizando apenas as 2.048 GPUs Nvidia H800 que a empresa chinesa tinha, porque não podia comprar as GPUs H100 ou A100, superiores, que as big techs acumulam às centenas de milhares. Para ter uma ideia: Elon Musk tem 100 mil GPUs, a OpenAI treinou seu modelo GPT-4 em aproximadamente 25 mil GPUs A100.

Em entrevista à TV estatal chinesa, Liang Wenfeng, CEO da DeepSeek e também do fundo que bancou o modelo (High Flyer), disse que a empresa nunca pretendeu ser disruptiva, e que o “estrelato” teria vindo por “acidente”. “Não esperávamos que o preço fosse uma questão tão sensível. Estávamos simplesmente seguindo nosso próprio ritmo, calculando custos e definindo preços de acordo. Nosso princípio não é vender com prejuízo nem buscar lucros excessivos. O preço atual permite uma margem de lucro modesta acima de nossos custos”, afirmou o fundador da DeepSeek.

“Capturar usuários não era nosso objetivo principal. Reduzimos os preços porque, primeiro, ao explorar estruturas de modelos de próxima geração, nossos custos diminuíram; segundo, acreditamos que os serviços de IA e API devem ser acessíveis e baratos para todos.”

Wenfeng é bacharel e mestre em engenharia eletrônica e da informação pela Universidade de Zhejiang. Entre muitas especulações momentâneas sobre sua vida pessoal, o que se sabe é que o empresário de 40 anos parece “mais um nerd do que um chefe” e que é um entusiasta do modelo open source de desenvolvimento, o que nos leva para o próximo tópico.

As vantagens do código aberto 

Um componente fundamental do sucesso (atual) do modelo chinês é o fato de estar em código aberto. O DeepSeek-V3, lançado no final de 2024, está disponível no GitHub, com uma documentação detalhada sobre como foi feito e como pode ser replicado.

Isso, na prática, tem fomentado uma corrida de várias pessoas e grupos para experimentar fazer seus próprios modelos a partir das instruções dadas pela equipe do DeepSeek. Dê uma busca no Reddit e nos próprios buscadores nestes últimos dias de janeiro de 2025 e você já verá uma enxurrada de gente fazendo.

Como vocês já ouviram falar no “A Cultura é Livre”, a natureza do código aberto, de origem filosófica no liberalismo clássico do século XVII e XVIII, permite mais colaborações, e acaba por impulsionar tanto a concorrência de outras empresas no setor quanto diferentes forks independentes e autônomos individuais. Vale, porém, aqui dizer que o código aberto não é o mesmo que um software livre. Software de código aberto (free/libre/open source software, acrônimo Floss adotado pela primeira vez em 2001) é um nome usado para um tipo de software que surgiu a partir da chamada Open Source Initiative (OSI), estabelecida em 1998 como uma dissidência com alguns princípios mais pragmáticos que os do software livre. A flexibilização na filosofia de respeito à liberdade dos usuários (mais rígida e comprometida com a justiça social no software livre, mais pragmática e aplicável como metodologia de desenvolvimento no open source) propiciou uma expansão considerável tanto do software de código aberto quanto de projetos e empresas que têm este tipo de software como produto e motor de seus negócios. A OSI tem como texto filosófico central “A catedral e o bazar”, de Eric Raymond, publicado em 1999. Nele, Raymond trabalha com a ideia de que “havendo olhos suficientes, todos os erros são óbvios”, para dizer que, se o código fonte está disponível para teste, escrutínio e experimentação pública, os erros serão descobertos mais rapidamente.

A definição da OSI diz que um sistema open source é:

The program must include source code, and must allow distribution in source code as well as compiled form. Where some form of a product is not distributed with source code, there must be a well-publicized means of obtaining the source code for no more than a reasonable reproduction cost, preferably downloading via the Internet without charge. The source code must be the preferred form in which a programmer would modify the program. Deliberately obfuscated source code is not allowed. Intermediate forms such as the output of a preprocessor or translator are not allowed.

O esclarecimento sobre o que é código aberto é importante porque, na esteira do desenvolvimento das IAs de código aberto, vem também surgindo um movimento de open washing, ou seja: a prática de empresas privadas dizerem que os códigos de seus sistemas algorítmicos são abertos – quando na verdade não são tão abertos assim. Ou então quando grandes corporações (ou startups) iniciam projetos em código aberto para incorporar o trabalho colaborativo de colaboradores (desenvolvedores, tradutores, cientistas de dados) – para logo depois, quando o projeto se torna mais robusto, fecharem o código e nunca mais abrirem. “O Google tem um histórico nessa prática, a própria OPEN IA fez isso – e foi processada por Elon Musk (!) justamente por não seguir os princípios abertos.

Escrevemos em nossa última newsletter do BaixaCultura que a Meta, ao dizer que seu modelo LLama é aberto, vem “poluindo” e “confundindo” o open source, como afirma Stefano Maffulli, diretor da Open Source Initiative (OSI). Mas o que o Llama traz como aberto, porém, são os pesos que influenciam a forma como o modelo responde a determinadas solicitações. Um elemento importante para a transparência, mas que por si só não faz se encaixar na definição do open source. A licença sob a qual o Llama foi lançado não permite o uso gratuito da tecnologia por outras empresas, por exemplo, o que não está em conformidade com as definições de código aberto reconhecidas pela OSI. “Programadores que utilizam modelos como o Llama não têm conseguido ver como estes sistemas foram desenvolvidos, ou construir sobre eles para criar novos produtos próprios, como aconteceu com o software de código aberto”, acrescenta Maffuli.

Mas existem IAs totalmente abertas?

A disputa (velha, aliás) pelo que de fato é open source – e principalmente o que não é – também ganha um novo capítulo com o DeepSeek. A “OSI AI Definition – 1.0-RC1” aponta que uma IA de código aberto deve oferecer quatro liberdades aos seus utilizadores:

_ Utilizar o sistema para qualquer fim e sem ter de pedir autorização;

_ Estudar o funcionamento do sistema e inspecionar os seus componentes;

_ Modificar o sistema para qualquer fim, incluindo para alterar os seus resultados;

_ Partilhar o sistema para que outros o utilizem, com ou sem modificações, para qualquer fim;

Nos quatro pontos o DeepSeek v-1 se encaixa. Tanto é que, como mencionamos antes, já tem muita gente fazendo os seus; seja criando modelos ainda mais abertos quanto para ser executada localmente em um dispositivo separado, com boas possibilidades de customização e com exigência técnica possível na maior parte dos computadores bons de hoje em dia. Para não falar em modelos parecidos que já estão surgindo na China, como o Kimi k1.5, lançado enquanto esse texto estava sendo escrito – o que motivou memes de que a competição real na geopolítica de IA está sendo feita entre regiões da China, e não entre EUA X China.

O fato de ser de código aberto faz com que o DeepSeek, diferente do ChatGPT ou do LLama, possa ser acoplado e inserido com diferentes funcionalidades por outras empresas, grupos, pessoas com mais facilidade e menor custo. Ao permitir que novas soluções surjam, torna a barreira de entrada da inteligência artificial muito menor e estoura a bolha especulativa dos financistas globais sobre o futuro da tecnologia – o que talvez seja a melhor notícia da semana.

Mas há um porém importante nessa discussão do código aberto: as bases de dados usadas para treinamento dos sistemas. Para treinar um modelo de IA generativa, parte fundamental do processo são os dados utilizados e como eles são utilizados. Como analisa o filósofo e programador Tante nesse ótimo texto, os sistemas de IA generativa (os LLMs) são especiais porque não consistem em muito código em comparação com o seu tamanho. Uma implementação de uma rede neural é constituída por algumas centenas de linhas de Python, por exemplo, mas um LLM moderno é composto por algum código e uma arquitetura de rede – que depois vai ser parametrizada com os chamados “pesos”, que são os milhares de milhões de números necessários para que o sistema faça o que quer que seja, a partir dos dados de entrada. Assim como os dados, estes “pesos” também precisam ser deixados claros quando se fala em open source, afirma Tante.

Não está claro, ainda, quais foram os dados de treinamento do DeepSeek e como estes pesos foram distribuídos. Endossando Tante, Timnit Gibru disse neste post que para ser open source de fato teria que mostrar quais os dados usados e como foram treinados e avaliados. O que talvez nunca ocorra de fato, pois isso significa assumir que a DeepSeek pegou dados de forma ilegal na internet tal qual o Gemini, a LLama e a OpenIA – que está acusando a DeepSeek de fazer o mesmo que ela fez (!). Outras IAs de código aberto também não deixam muito claro como funcionam suas bases, embora as proprietárias muito menos. Ainda assim, são os modelos de IA identificados como open source, com seus códigos disponíveis no Github, os que lideram o nível de transparência, segundo este índice criado por pesquisadores da Universidade de Stanford, que identificou como os mais transparentes o StarCoder e o Jurassic 2.

Podemos concluir que na escala em que estamos falando desses sistemas estatísticos atualmente, e entendendo o acesso e o tratamento dos dados como elementos constituintes do códigos a ser aberto, uma IA totalmente open source pode ser quase uma utopia. Muitos modelos menores foram e estão sendo treinados com base em conjuntos de dados públicos explicitamente selecionados e com curadoria. Estes podem fornecer todos os processos, os pesos e dados, e assim serem considerados, de fato, como IA de código aberto. Os grandes modelos de linguagem que passamos a chamar de IA generativa, porém, baseiam-se todos em material adquirido e utilizado ilegalmente também porque os conjuntos de dados são demasiado grandes para fazer uma filtragem efetiva de copyright e garantir a sua legalidade – e, talvez, mesmo a sua origem definitiva, dado que muitas vezes podemos ter acesso ao conjunto de uma determinada base de dados, mas não exatamente que tipo de dado desta base foi utilizada para treinamento. Aliás, não é surpresa que hoje muitos dos que estão procurando saber exatamente o dado utilizado são detentores de copyright em busca de processar a Open AI por roubo de conteúdo.

Mesmo que siga o desafio de sabermos como vamos lidar com o treinamento e a rastreabilidade dos dados usados pelos modelos de IA, a chegada do DeepSeek como um modelo de código aberto (ou quase) tem enorme importância sobretudo na ampliação das possibilidades de concorrência frente aos sistemas da big techs. Não é como se o império das grandes empresas de tecnologia dos Estados Unidos tivesse ruído da noite pro dia, mas houve uma grande demonstração de como a financeirização da economia global amarrou uma parte gigantesca do valor financeiro do mundo às promessas de engenheiros que claramente estavam equivocados nas suas projeções do que era preciso para viabilizar a inteligência artificial – seja para ganhos especulativos ou por puro desconhecimento.

A parte ainda não solucionada da equação é uma repetição do antigo episódio envolvendo o lançamento do Linux: se essa solução estará disponível para ser destrinchada por qualquer um, como isso vai gerar mais independência aos cidadãos? A inteligência artificial tem milhares de aplicações imaginadas, e até agora se pensava em utilizá-la nos processos produtivos de diversas indústrias e serviços pelo mundo. Mas como ela pode sugerir independência e autonomia para comunidades, por exemplo? Espera-se, talvez de maneira inocente, que suas soluções sejam aproveitadas pela sociedade como um todo, e que não sejam meramente cooptadas pelo mercado para usos privados como tem ocorrido até aqui. Por fim, o que se apresenta é mais um marco na história da tecnologia, onde ela pode dobrar a curva da independência, ou seguir no caminho da instrumentalização subserviente às taxas de lucro.

[Leonardo Foletto e Victor Wolffenbüttel]

]]>
https://baixacultura.org/2025/01/29/a-corrida-da-ia-ganha-um-novo-capitulo-chines-e-open-source/feed/ 1
Reflorestar a internet https://baixacultura.org/2024/07/26/reflorestar-a-internet/ https://baixacultura.org/2024/07/26/reflorestar-a-internet/#comments Fri, 26 Jul 2024 18:45:45 +0000 https://baixacultura.org/?p=15683 Li nas últimas semanas um artigo instigante, chamado “We Need to Rewild the Internet”, publicado pela também interessante Revista Noemag, feita pelo Instituto Berggruen, sediado nos Estados Unidos – o artigo também saiu em ptbr pelo Outras Palavras. As autoras são Maria Farrel e Robin Berjon; a primeira é escritora que trabalhou com políticas de tecnologia em espaços como a Câmara Internacional de Comércio e o Banco Mundial; o segundo, especialista em governança digital que trabalhou em diversos lugares, inclusive no board de diretores do World Wide Web Consortium. Estamos falando então de duas pessoas da área de governança e policy digital, não cientistas, ativistas nem filósofos ou antropólogos da tecnologia. 

A “alternativa refloresta”, como fala a versão publicada no Brasil, traz a inspiração da agroecologia para repovoar a internet de forma mais saudável, de modo a afastar os oligopólios, refazer as estruturas e esperar, assim, que a diversidade da internet, tal como uma floresta, renasça. O artigo começa pela história da silvicultura científica alemã para apresentar  “uma verdade atemporal: quando simplificamos sistemas complexos, os destruímos e as consequências devastadoras por vezes só são óbvias quando é tarde demais”. A “patologia do comando e controle” realizada nas florestas alemãs está ocorrendo com a Internet, levando ambas ao mesmo destino: devastação. 

Maria Farrell e Robin Berjon trazem também exemplos do urbanismo para defender a diversidade como resiliência. “Os bairros de uso misto eram os mais seguros, mais felizes, mais prósperos do que os bairros planejados e controlados”, citando o clássico publicado em 1961 “The Death and Life of Great American Cities”, de Jane Jacobs, para defender a diversidade como resiliência. “Quanto mais soluções proprietárias são construídas e implantadas em vez de soluções colaborativas baseadas em padrões abertos, menos a Internet sobrevive como plataforma para inovação futura”.

Daí vem o rewilding, um termo que, na biologia, visa restaurar ecossistemas saudáveis criando espaços selvagens e biodiversos, o que pode abrir espaço a redes alimentares complexas para o surgimento de relações inesperadas entre espécies. Fazer um rewilding com a Internet, argumenta o texto, é mais do que uma metáfora, mas uma estrutura e um plano, que busca respostas para diversas questões, entre elas: como continuamos a trabalhar quando os monopólios têm mais dinheiro e poder? Como agimos coletivamente quando eles subornam nossos espaços comunitários, financiamentos e redes? E como comunicamos aos nossos aliados a sensação (e a necessidade) de consertar tudo isso?

Pôr em prática este plano passa por muitos fatores, entre eles dois principais: descentralizar o acesso e dar mais autonomia aos usuários. Algo como o que já fazem sistemas como o conhecido Fediverse, um conjunto de servidores federados usados para publicação na web e hospedagem de arquivos, base por trás de Mastodon e GnuSocial – uma proposta, aliás, que já está em nosso “Pequeno Compêndio da Independência Independência Digital”, criado 2021 em parceria com o Goethe Institut de Porto Alegre.

O texto fala que devemos garantir incentivos, tanto regulatórios e financeiros, para apoiar alternativas que incluam o gerenciamento de recursos comuns, redes comunitárias e “uma infinidade de outros mecanismos de colaboração que as pessoas têm usado para fornecer bens públicos essenciais, como estradas, defesa e água potável”. A construção de novos imaginários tecnopolíticos – algo que falamos com alguma frequência aqui e balizador do projeto de Experimentações Tecnopolíticas dentro da Coalizão Direitos na Rede – aqui é incentivada por autores que não estão trabalhando diretamente no campo ativista ou político, mas no de policy makers. Embora em áreas teóricas distintas, o trecho a seguir dialoga com Geert Lovink em seu “Extinção da Internet” que publicamos ano passado: “Acomodados em plantações tecnológicas rígidas em vez de ecossistemas funcionais e diversificados, é difícil imaginar alternativas. Mesmo aqueles que conseguem enxergar com clareza podem se sentir desamparados e sozinhos. Rewilding une tudo o que sabemos que precisamos fazer e traz consigo uma caixa de ferramentas e uma visão totalmente novas”.

Nessa linha, a ideia de “escolha algorítmica”, citada no texto a partir da rede Bluesky, lembra o ecossistema de produção de software de código aberto: é uma proposta que permite que a comunidade traga novos algoritmos aos usuários, com o objetivo de substituir o “algoritmo mestre” convencional, controlado por uma única empresa, por um “mercado de algoritmos” aberto e diversificado, dando mais transparência para o processo de escolha das informações a serem mostradas em feeds diversos. Tal qual na ecologia, o papel do Estado aqui é pensado para potencializar as alternativas de substituição aos monopólios/monoculturas, sejam elas de produção de alimentos ou de algorítmicos. A posição da alternativa rewilding é a de usar agressivamente o Estado de Direito para primeiro nivelar o capital e o poder desiguais e, em seguida, correr para preencher as lacunas com melhores maneiras de fazer as coisas.

Outra ideia importante da proposta é a de descentralização da infraestrutura. Não é novidade que Google, Amazon, Microsoft e Meta estão consolidando profundamente seu controle na infraestrutura da internet a partir de aquisições, integração de cima pra baixo, construção de redes proprietárias, criação de pontos de estrangulamento e concentração de funções de diferentes camadas técnicas em um único “silo” de controle. Você também deve saber que quem controla a infraestrutura determina o futuro – inclusive o energético, tema cada vez mais comentado hoje devido às gigantescas necessidades de água e energia que os data centers necessitam para fazer tantas IAs generativas funcionarem.

Contra isso, a proposta do texto é não consertar, mas refazer a infraestrutura. Proposta ousada: regenerar uma infraestrutura aberta e competitiva para as gerações “que foram criadas para assumir que duas ou três plataformas, duas lojas de aplicativos, dois sistemas operacionais, dois navegadores, uma nuvem/megaloja e um único mecanismo de busca para o mundo compreende a Internet” . Se a Internet para você é o enorme silo de arranha-céus em que você mora e a única coisa que você pode ver do lado de fora é o outro enorme silo de arranha-céus, então como você pode imaginar outra coisa?

Na etapa final, o artigo fala que apesar da enorme dificuldade da tarefa, “muito do que precisamos já está aqui”. Os autores comentam, nesse ponto, dos limites das políticas regulatórias: “além de os reguladores buscarem coragem, visão e novas e ousadas estratégias de litígio, precisamos de políticas governamentais vigorosas e pró-competitivas em relação a aquisições, investimentos e infraestrutura física.”

Aqui também citam duas questões ligadas à soberania digital – embora não usem o termo. Defendem que as universidades devem rejeitar o financiamento de pesquisas de empresas de tecnologia, “pois ele sempre vem acompanhado de condições, sejam elas ditas ou não”. Em vez disso, precisamos de mais pesquisas tecnológicas financiadas publicamente com resultados divulgados publicamente – pesquisas que, por exemplo, possam investigar a concentração de poder no ecossistema da Internet e as alternativas práticas a ela. 

Ao final da leitura, saúdo o fato de que mesmo pessoas de “dentro do sistema” (ou quase isso) reconheçam que devemos recuperar o controle de grande parte da infraestrutura da Internet e propor uma alternativa à monocultura algorítmica imposta pelas big techs a partir da plataformização da vida. Não deixo de notar também que as saídas apontadas por eles também não são novidades, mas caminhos que outras pessoas já comentam faz alguns anos. Por exemplo: uma destas saídas escrita no texto é manter a internet, a internet – ou seja: defender que se mantenha aberta e colaborativa a forma como foram feitos os protocolos e padrões técnicos que sustentam a infraestrutura da Internet. Algo que muita gente da área vem dizendo há anos, seja o criador da WWW Tim Berners-Lee, ou eu mesmo, em 2011, num texto hoje ingênuo de defesa de uma internet livre, onde citava Yochai Benkler e Lawrence Lessig para falar que podemos manter a internet – também tecnicamente – do jeito que ela foi feita a partir de nossa luta ativista. 

Curioso que, neste mesmo texto, cito como espaço de proteção desses princípios o Fórum da Internet, evento que naquele ano (2011) era criado pelo Comitê Gestor da Internet no Brasil justamente para defender a internet como ela foi construída. Participei desse primeiro fórum como relator e lembro bem dos 10 princípios defendidos, que incluía a defesa da neutralidade (privilégios de tráfego devem respeitar apenas critérios técnicos e éticos, não sendo admissíveis motivos políticos, comerciais, religiosos ou qualquer outra forma de discriminação ou favorecimento), da inimputabilidade (a internet é meio, não fim; as medidas de combates a crimes na rede deve atingir os responsáveis finais e não os meios), dentre outros oito. De lá pra cá, o CGI continuou defendendo esses princípios, que, por sua vez, foram ou violados – zero rating manda lembranças à neutralidade da rede – ou se tornaram questionáveis – hoje é quase consenso por quem defende a regulação das plataformas a defesa da responsabilidade dos intermediários, os meios, as plataformas, e não apenas os usuários finais.

Outro princípio elencado como saída na alternativa “refloresta” soa um tanto velho também: que os prestadores de serviços – e não os usuários – sejam transparentes. Uma frase que poderia ser bem uma variação do que Julian Assange e o Wikileaks já traziam nos anos 2000: “Transparência para os fortes, privacidade para os fracos”. Este era o lema  quando defendiam uma ética da transparência contra o muito falado fim da privacidade, especialmente a partir do uso de criptografia forte – outro ponto que nós já discutimos por aqui, ainda em 2015, e que por sua vez é a base conceitual dos Manifestos Cypherpunks do início dos anos 1990.

O fato dos caminhos apontados em “We Need To Rewild The Internet“ soarem um tanto velhos não desmerece a leitura do texto e a reflexão (e ação) a partir dele. Pelo contrário: nesse momento de aceleração contínua a partir do impulso das tecnologias digitais e dos algoritmos proprietários na modulação de nossas vidas, parece que se faz necessário dizer novamente o que já foi dito. Repetição como estratégia de fixação, documentação,  memória, ou de lembrança de que, de fato, muita coisa “já está aqui”, falta levar adiante.

[Leonardo Foletto]

P.s: Depois de publicado, me lembrei que essa metáfora do reflorestar se relaciona com a ideia de permacultura digital, que vem sido trabalhada faz anos pelas Redes das Produtoras Culturais Colaborativas, especialmente a partir de Fabs Balvedi. Inclusive foi tema da Conferência Nacional de Cultura Digital neste 2024, como contamos aqui. Outro texto que comenta a ideia de ir contra a monocultura algorítmica da internet é este, recentemente publicado no blog Sou Ciência, da Folha de S. Paulo, por Soraya Smaili , Maria Angélica Minhoto , Pedro Arantes e Alexsandro Carvalho. As metáforas estão parecidas não são por acaso.

 

]]>
https://baixacultura.org/2024/07/26/reflorestar-a-internet/feed/ 1
McKenzie Wark e a morte do “capital” https://baixacultura.org/2023/02/15/mckenzie-wark-e-a-morte-do-capital/ https://baixacultura.org/2023/02/15/mckenzie-wark-e-a-morte-do-capital/#comments Wed, 15 Feb 2023 22:17:52 +0000 https://baixacultura.org/?p=15183  

A publicação de “O Capital Está Morto”, de McKenzie Wark, no Brasil, em parcerias das editoras Sob Influência e Funilaria, é um acontecimento importante nos estudos críticos sobre o neoliberalismo, especialmente nas discussões sobre comunicação, cultura digital e política. Por dois motivos principais: um por ser o primeiro livro lançado no país de McKenzie, intelectual importante no mundo anglo-saxão há pelo menos 20 anos, especialmente a partir de “A Hacker Manifesto” (2004 – aqui em PDF), uma potente crítica à mercantilização da informação da informação na era digital, que ecoa (e em alguns casos, remixa) diretamente Guy Debord e seu “A Sociedade do Espetáculo” (PDF Edições Antipáticas, 2005), inclusive na forma de escrita e na estrutura da obra.

Intelectual nascida na Austrália, professora de Mídia e Estudos Culturais na criativa New School for Social Research, em Nova York, McKenzie (@chicamarx) estuda mídia, cultura e tecnologia desde os anos 1990, com textos que vão desde o legado dos situacionistas franceses da década de 1950 e 1960 (como em The Beach Beneath the Street: The Everyday Like and Glorious Times of the Situationist International, de 2011) à teorização da cultura gamer (Gamer Theory, de 2006), passando também pela discussão sobre história da mídia, percepção e classe (Telesthesia: Communication, Culture and Class, de 2012). Seus trabalhos analisam as mudanças sociais pela inserção das tecnologias na sociedade (como em Excommunication: Three Inquiries in Media and Mediation, com Alexander R. Galloway and Eugene Thacker, de 2013) a partir de referenciais marxistas, que bebem principalmente nos estudos culturais ingleses e nos pós-estruturalistas franceses, mas também dos teóricos de crítica de mídia alemã e dos autonomistas italianos. Aliado a essa ampla bagagem teórica, a autora mescla em seus livros as referências e a profunda vivência no mundo cultural, especialmente como DJ na cultura da música techno, a forte noção de corporeidade – relatada sobretudo em “Reverse Cowgirl” (2020, PDF), em que McKenzie faz uma “polibiografia” de sua transição de gênero, como comenta Paul Preciado no prefácio – e uma escrita que, informal e direta, mas também rigorosa e densa, almeja a teoria como uma forma de literatura.

 

Foto: Jessica Dunn Rovinelli

O segundo motivo para a publicação de “O Capital Está Morto” ser importante no Brasil, claro, é o próprio livro. Aqui, ela aprofunda alguns os argumentos em “A Hacker Manifesto” (talvez seu livro mais influente, publicado também em espanhol) para anunciar o que seria um novo modo de produção, não mais capitalista, mas pior, que não se baseia mais seu poder na propriedade privada dos meios de produção, mas sim no controle do “vetor de informação”, formado por aquelas tecnologias que não apenas coletam grandes quantidades de dados, mas também os ordenam, gerenciam e processam para extrair seu valor. A tese central do livro, exposta desde seu início e trazida do “A Hacker Manifesto”, é de que a ascensão deste modo de produção (que podemos aproximar ao conceito de “Capitalismo de Vigilância, proposto por Shoshana Zuboff no já clássico “A Era do Capitalismo de Vigilânciaaqui PDF grátis ptbr ) tem produzido uma contradição no centro daqueles que almejam a ostentar o poder. Se antes, tradicionalmente, as classes dominantes controlavam algum tipo de bem escasso (a propriedade, os meios de produção, etc), agora essa classe necessita controlar algo que é extremamente abundante: a informação. Esta contradição, hoje sem resolução alguma, encaminharia para um novo meio de produção ainda mais selvagem que o capitalismo, em que o domínio se daria na posse e no controle da informação, manifestado na excelência e no constante aperfeiçoamento da coleta, do processamento, da visualização e da distribuição (ultra) personalizada dessa informação no mundo digital. O que, por sua vez, não implica que os modos de produção anteriores tenham sido apagados: eles coexistem e se sobrepõem, mas agora há uma classe emergente que, dominando a informação, controla também o trabalho e o capital – pelo menos do jeito que tradicionalmente o entendemos.

É fácil de ver alguns dos principais integrantes desta nova classe emergente: Amazon, Google, Meta (Facebook), Microsoft. Mas não só; há também empresas que, oriundas da produção de bens escassos tradicionais, adentram a esta nova classe buscando controlar a informação logística, caso da Nike e da Walmart. Maior empregadora dos Estados Unidos, a empresa varejista é mostrada por McKenzie como uma empresa que conseguiu, através do uso massivo de dados, tanto organizar os fluxos de mercadorias e seu sistema de distribuição quanto criar um modelo preditivo de consumo a partir das informações geradas por quem compra em suas lojas. Ao adotar a abordagem “orientada por dados”, baseada na extração de dados dos compradores, a Walmart potencializa um processo de exploração não apenas dos corpos e dos direitos dos trabalhadores, mas também de seus rastros digitais, um passo importante para a indução de desejos e a construção de formas ainda não vistas de controle. “Talvez haja novas formas de exploração, desigualdade e assimetria como uma camada sobre as antigas com as quais estamos mais acostumados”, diz a autora (p.9).

McKenzie desenvolve sua tese de modo fluído, com usos da tática de desvio do détournement de Debord (no primeiro capítulo, principalmente) e também de referências culturais que vão de Kim Gordon (Sonic Youth) ao filme “O Jovem Marx”, também para tentar mostrar que criar uma nova linguagem (ou um estilo menos sóbrio e chato), como Marx fez em sua época, pode ser vital para analisar o hoje e encontrar saídas para esse algo ainda pior que está vindo.

Confira essa ótima entrevista com Mckenzie na Revista Rosa;

[Leonardo Foletto]

 

]]>
https://baixacultura.org/2023/02/15/mckenzie-wark-e-a-morte-do-capital/feed/ 2
2023: o que esperar do cenário digital? https://baixacultura.org/2023/01/06/2023-o-que-esperar-do-cenario-digital/ https://baixacultura.org/2023/01/06/2023-o-que-esperar-do-cenario-digital/#respond Fri, 06 Jan 2023 16:07:34 +0000 https://baixacultura.org/?p=15109  

No final de 2022 conversei no Podcast Tecnopolítica com Sérgio Amadeu – professor da UFABC, ciberativista histórico e parceiro de várias frentes de batalha – sobre o que esperar no cenário da tecnologia em 2023.

O papo buscou responder a pergunta: o que esperar de 2023 no cenário digital? Listei alguns pontos de atenção, que foram discutidos no programa junto com outros pontos trazidos por Sérgio. Segue abaixo o vídeo completo, no Youtube, mas dá também para escutar direto no site do Podcast.

 

 

À época, fiz um texto sistematizando alguns destes pontos, com diversos trechos que não falei no podcast (como do trecho de “O Capital Está Morto”, de McKenzie Wark), outros que abordei de forma diferente e algumas anotações a partir das falas de Sérgio. Há, claro, como em toda boa conversa, outros temas abordados na 1h do vídeo, como a questão do 5G, as tecnologias para a sustentabilidade socioambiental, as tensões nas disputas geoestratégicas dos semicondutores. Como gosto do bruto, segue abaixo o texto, que, penso, tem vários insights para acompanhar neste 2023.

 

  1. REGULAÇÃO DAS PLATAFORMAS & CAPITALISMO DE VIGILÂNCIA

Há um “Zeitgeist”, espírito do tempo, sobre regulação, que é mundial.

Não basta defender “direitos” nas plataformas. É preciso redefinir sua lógica, buscar transparência para os algoritmos.

A organização das informações em torno da timeline, que prioriza não a ordem cronológica das postagens, padrão das redes até então, mas diversos outros fatores (localização, interesses, interação em outros posts, além de publicidade) embutidos no algoritmo, potencializou erros na comunicação digital. Isso começou ali por 2012, com o Facebook, e depois se espalhou por outras redes. Agora, com tudo que vem acontecendo, é como se agora a gente tivesse isso mais claro e começasse a reagir para reverter isso.

Como muitos de nós ativistas do conhecimento livre, que acreditavam numa tecnoutopia de uma internet totalmente livre e na criação de uma sociedade melhor a partir da internet, eu inicialmente não pensava que seria necessário regular a internet e as redes sociais; acreditava que “daríamos um jeito”, que a possibilidade de ter onde e como falar, a partir da “liberação do pólo emissor da informação”, era muito importante para contrapor as narrativas viciadas das mídias tradicionais.

Escrevi um texto no BaixaCultura, em 2018, que fala de uma ressaca da internet e que pensa bastante sobre isso. Eu conto no texto que lembro bem, no final de 2011, quando escrevi um relato sobre a luta pela defesa dos princípios da internet, como a neutralidade da rede, a partir da fala de Yochai Benkler na abertura do Festival Cultura Digital.br. Já naquela época o questionamento sobre o fim da neutralidade da rede e o crescimento dos grandes monopólios era assunto corrente, embora não com tanta presença quanto hoje. Na época, comecei o texto com a pergunta: “é utopia pensar em uma internet democrática e livre, sem privilégios de acesso e tráfego de dados para nenhum lado, assim como foi definido nos princípios do desenvolvimento da rede?”

Bom, esquecemos todos os poderes do capitalismo se reinventar, talvez de um modo ainda pior, como diz o “O Capital Está Morto”, de McKenzie Wark, recém lançado no Brasil pela Sob Influencia e a Funilaria. Acabei de escrever um texto sobre o livro (logo publicamos aqui), que fala de um novo modo de produção, não mais capitalista, mas pior, que não se baseia mais seu poder na propriedade privada dos meios de produção, mas sim no controle do “vetor de informação”, formado por aquelas tecnologias que coletam grandes quantidades de dados e os ordenam, gerenciam e processam para extrair seu valor. A tese central do livro é de que a ascensão deste modo de produção tem criado uma contradição no centro daqueles que detém o poder: se antes as classes dominantes controlavam algum tipo de bem escasso (a propriedade, os meios de produção), agora essa classe necessita controlar algo que é extremamente abundante: a informação. Esta contradição, hoje sem resolução, encaminharia para um novo meio de produção ainda mais selvagem que o capitalismo, em que o domínio se daria na posse e no controle da informação. O que, por sua vez, não implica que os modos de produção anteriores tenham sido apagados: eles coexistem e se sobrepõem, mas agora há uma classe emergente que, dominando a informação, controla também o trabalho e o capital – pelo menos do jeito que tradicionalmente o entendemos.

O modelo de negócio das plataformas é tão nocivo como o do tabaco. Para deter a desinformação, talvez a gente devesse responsabilizar o produtor em escala industrial, no atacado, não no varejo; não o cara que vende baseado na esquina, mas quem produz em larga escala, o grande traficante, se quisermos seguir na metáfora.

Anatel, agência reguladora que é refém do regulado;

Como disse o Rafael Evangelista recentemente, num texto publicado no Outras Palavras, o poder das plataformas precisa ser combatido tendo em vista o modelo de negócios que operam e o gigantismo que adquiriram. Não dá para uma poucas empresas internacionais serem proprietárias ocultas de tudo e fazerem todas as funções, de hospedagem de dados e conteúdos a recomendações de consumo; de publicidade programática a financiamento da produção cultural; de intermediação de serviços de transporte a gerenciamento urbano.

Dito isso, hoje eu não tenho dúvida que a regulação é um caminho. Sobram muitas questões sobre isso que muita gente está pensando hoje em dia, inclusive o Governo Lula: de que forma fazer a regulação com transparência, participação da sociedade civil, com soberania digital, tendo em conta a questão do comum, do que precisa ser comum. O problema é de natureza transversal e creio que hoje tem muita gente se preocupando com isso. E o “inimigo” aqui é difícil, poderoso, compra tudo e todos, então é um problema gigante.

Mas é um “espírito do tempo” da regulação. Os limites das plataformas talvez vão ser dados nos próximos anos.


2. COOPERATIVISMO DE PLATAFORMA

Eu gosto de falar, se me permite, também em alternativas. Uma delas é o cooperativismo de plataforma, uma ideia que tenho acompanhado faz tempo, desde 2017 no Brasil, quando da publicação do livro “Cooperativismo de Plataforma”, do Trebor Scholz, pela Elefante com apoio da Fundação Rosa Luxemburgo.

Recentemente, participei de um documento que faz sugestões a partir de uma preocupação sobre como as grandes plataformas têm se colocado como intermediárias do trabalho, digital ou não, gerenciando e extraindo valor das atividades. Foi produzido a partir de um seminário sobre cooperativismo de plataforma e políticas públicas, em Porto Alegre, organizado pelo Digilabour, do parceiro Rafael Grohmann. O foco aqui é a apropriação dessas estruturas de intermediação pelos trabalhadores organizados.

Linhas para Políticas Públicas

_ Estado como catalisador de relações de trabalho mais dignas e inclusivas a partir do cooperativismo de plataforma no marco da economia solidária, fomentando iniciativas “de baixo para cima”;

_ Desenvolvimento de uma política nacional para o cooperativismo de plataforma, incluindo fomento a projetos locais, regionais e nacionais em diversos setores;
_ Políticas para o desenvolvimento de plataformas cooperativas baseadas em tecnologias livres de modo a favorecer a auto-organização de trabalhadoras e trabalhadores;

É um caminho que dialoga com o movimento do software livre, da qual você é parte importante Sérgio, e com a cultura e o conhecimento livre, que fala em mais acesso, mas também autonomia sobre as tecnologias, pautando por por uma perspectiva de desalienação, de revolta das pessoas contra processos de apropriação de meios de produção e extração de valor.

De modo geral, tudo é menos tecnológico do que se imagina. É mais organização dos trabalhadores do que uma tecnologia que vai resolver.

 

3. COPYRIGHT TROLLS

Em paralelo a isso, para seguir no ponto da cultura livre, continua ocorrendo a criminalização de quem baixa arquivos, tão comum nos anos 2000. Em 2021 e 2022 a gente teve diversas ações dos Copyright Trolls,  pessoas ou organizações que realizam ameaças de processo judicial, ou outras atitudes particularmente agressivas, para obter remuneração a partir de questões ligadas à proteção dos direitos autorais. Atuam a despeito de um real embasamento jurídico para sua reivindicação nesses casos, e a notificação se presta a causar terror psicológico pela ameaça de ação judicial que dificilmente resultaria em vitória para quem a ajuizasse.

Continuam intimidando pessoas que baixaram determinados filmes com avisos ameaçadores por email, como títulos como “Notificação extrajudicial pela infração a direitos autorais” ou “Alerta sobre infração a direitos autorais”, como mostra a nota publicada no Partido Pirata.

Eles explicam como obtiveram os dados cadastrais, via provedor (Claro), a conexão estava ligada a uma rede wifi, registrada em nome da pessoa que recebeu a carta. Agora eis a questão: como eles podem afirmar que a pessoa, que fez o suposto download, estava conectada a uma rede wifi, e não usando uma conexão por cabo de rede? Com base nas “provas” apresentadas, não há como. É puro achismo e especulação por parte deles.

Ainda há esse entendimento hoje, da equiparação do arquivo digital ao arquivo físico, do bem material ao bem imaterial, da criminalização do download. A indústria cultural não parou e vai continuar se a gente não propor novas legislações e, principalmente, entendimentos sobre o que é um bem comum, que não é necessariamente rival de um bem material, etc. Até mesmo editoras de esquerda criminalizam pessoas que baixaram seus livros! No Brasil precisamos pensar com cuidado a questão de acesso antes de sair criminalizando ou incitando o ódio a quem baixa arquivos de bens culturais como livros. Precisamos pensar também no paradigma da abundância, não da escassez. Maximização social cultural pode tornar sustentável a maximização econômica. A produção social vem antes da maximização dos lucros.

 

4. INTELIGÊNCIA ARTIFICIAL 

Padronização e classificação de dados. Aplicativos como Lensa, GPT-3, etc.

A velocidade com que esses sistemas generativos estão se complexificando é assustadora. E não há sinais claros de que estamos perto do limite.

Já é plenamente possível gerar textos e imagens críveis de maneira automatizada. Vozes, Vídeos e Modelos 3D estão logo ali. Já tem alguns resultados e provas de conceito. Em todos os casos, o custo maior – tanto de processamento quanto de coleta e organização de informação – é treinar o ‘modelo’.

Tem todo um debate sobre privacidade, propriedade intelectual e direitos autorais que se reacende nesse novo mundo. De quem é a “propriedade” de um desenho gerado por IA? De quem a treinou? É plágio? Como vamos lidar com obras de arte feitas inteiramente em IA ganhando concursos artísticos?

O designer Jason M. Allen recorreu ao Midjourney, programa que usa algoritmos treinados com fotos da web para gerar novas imagens, para fazer uma imagem que ganhou um concurso de arte doméstico no Colorado, Estados Unidos (logo abaixo). Ele precisou apenas descrever que tipo de obra de arte desejava para que o software realizasse o trabalho, em segundos.

 

5. MODELOS DE NEGÓCIO / MONETIZAÇÃO DOS DADOS PESSOAIS

Meus dados, minhas regras. Tem gente que diz que a monetização de dados pessoais diminuirá a desigualdade social. Defendem que será possível ampliar a renda das pessoas se elas tiverem autonomia sobre as próprias informações, como financeiras, de saúde, de comportamento e outras. O mundo estaria próximo de passar por uma revolução na economia, baseada na propriedade dos dados até 2025. Será?

 

 

 

 

Théâtre d’Opéra Spatial, Jason M. Allen (e Midjourney?)

 

 

[Leonardo Foletto]

]]>
https://baixacultura.org/2023/01/06/2023-o-que-esperar-do-cenario-digital/feed/ 0
Carta de emergência para a soberania digital https://baixacultura.org/2022/08/17/carta-de-emergencia-para-a-soberania-digital/ https://baixacultura.org/2022/08/17/carta-de-emergencia-para-a-soberania-digital/#respond Wed, 17 Aug 2022 17:00:18 +0000 https://baixacultura.org/?p=14030 Ontem foi dia de gravação do Podcast Tecnopolítica, comandado por Sérgio Amadeu, no Tuca Arena, na PUCSP. Foi um debate com uma série de convidados para pensar num plano de emergência para a soberania digital, a partir de uma carta endereçada ao candidato Luiz Inácio Lula da Silva, do PT. O documento diz que o Brasil não pode continuar com seu “rumo tecnológico ditado pelas consultorias internacionais ligadas à big techs” e critica o modelo de concentração de mercado em que gigantes transnacionais extraem dados sensíveis e de grande valor econômico da população brasileira para alimentar seus sistemas algorítmicos – e, assim, venderem produtos em “condições assimétricas e abusivas”.

São 9 pontos centrais:

1- Criar uma infraestrutura federada para a hospedagem dos dados das universidades e centros de pesquisa brasileiros conforme nossa LGPD.

2- Formar, nessa infraestrutura federada, frameworks para soluções de Inteligência Artificial, seja para o setor público ou privado.

3- Incentivar e financiar a criação de datacenters que envolvam governos estaduais, municípios, universidades públicas e organizações não-governamentais, que permitam manter dados em nosso território e aplicar soluções IA que estimulem e beneficiem a inteligência coletiva local e regional.

4- Promover a instalação, no MCTI, de equipes multidisciplinares para a prospecção de tecnologias e experimentos tendo como princípios a tecnodiversidade e em busca de promover avanços em áreas estratégicas ao desenvolvimento nacional. Em articulação com o MEC, promover também a formação de recursos humanos criando mecanismos para que permaneçam no setor público de maneira a nos afastar da dependência das grandes corporações.

5- Incentivar e financiar a criação de arranjos tecnológicos locais para desenvolver soluções que visem superar a precarização do trabalho trazidas pelas Big Techs.

6- Garantir recursos para apoiar e financiar a criação de cooperativas de trabalhadores, que possam desenvolver e controlar plataformas digitais de prestação de serviços, assim como outros arranjos que evitem a concentração de poder tecnológico, tanto em empresas estrangeiras como nacionais.

7– Lançar um extenso programa interdisciplinar de formação, inclusive ética, e de permanência de cientistas e técnicos, implantando e financiando centros de desenvolvimento para a criação e desenvolvimento de soluções de IA, de automação, robótica, computação quântica, desenvolvimento local de chips, redes de comunicação de alta velocidade entre outros.

8– Utilizar o poder de compra da União para incentivar o atendimento das necessidades tecnológicas do país, bem como fomentar soluções interoperáveis com software livre, e outras formas abertas de desenvolvimento e compartilhamento de tecnologia.

9– Resgatar e recuperar a Telebras, organizando um levantamento dos bens reversíveis que estão subvalorizados e em poder das teles e implementando uma política de redução das assimetrias e desigualdades digitais. Esta pode ser feita em parcerias de modo coordenado com estados, municípios e organizações não-governamentais, com tecnologias consolidadas mas também desenvolvendo opções de conexão inovadoras.

A carta pode ser vista e assinada aqui. A gravação para o podcast, aqui.

]]> https://baixacultura.org/2022/08/17/carta-de-emergencia-para-a-soberania-digital/feed/ 0 The Cleaners – Enxugando gelo na Caixa de Pandora https://baixacultura.org/2022/03/31/the-cleaners-enxugando-gelo-na-caixa-de-pandora/ https://baixacultura.org/2022/03/31/the-cleaners-enxugando-gelo-na-caixa-de-pandora/#respond Thu, 31 Mar 2022 20:50:27 +0000 https://baixacultura.org/?p=13947 Escrevi esse texto abaixo a partir do documentário “The Cleaners“, dirigido por Hans Block e Moritz Riesewieck (2018) para uma mostra de filmes alemães do Instituto Goethe de Porto Alegre, em 2021. Cada vez mais atual, o documentário aborda questões de vigilância, liberdade de expressão, monopólios de comunicação e uso de dados a partir do trabalho das pessoas responsáveis por filtrarem e apagarem conteúdos de sites de busca e redes sociais. O filme não está mais disponível na mesma mostra, mas pode ser encontrado via torrent e em outros lugares. O trailer está no YouTube. Há também um TED sobre e a partir dele, com os mesmos diretores. Recomendo tudo.

[Leonardo Foletto]

​Enxugando gelo na Caixa da Pandora

Em On Technical Mediation, um texto de 1994 hoje clássico dos estudos de ciência e tecnologia, o filósofo Bruno Latour apresenta uma ideia de mediação tecnológica que ilustra como se dá a relação entre ser humano e tecnologia. Ele faz isso ao analisar dois slogans relacionados a associações favoráveis e contrárias à venda de armas: Guns kill people e People kill people, not guns. O primeiro seria, a grosso modo, materialista, pois considera que as armas de fogo (objetos) matam pessoas, enquanto o segundo seria humanista, ao dizer que pessoas – e não armas – matam pessoas, considerando a arma como neutra, apenas um meio para um fim. Latour, então, vai dizer que nem arma nem cidadão são responsáveis pelo ato de matar: a responsabilidade é dividida entre os vários atores envolvidos na ação.

“Você é diferente com uma arma na mão; a arma é diferente com você segurando-a. Você é um outro sujeito porque segurou a arma; a arma é outro objeto porque ela entrou em uma relação com você ”. (LATOUR, 1994, p.33)

Desde a ascensão das redes sociais como principal meio onde as pessoas agem e interagem na internet, a perspectiva de mediação como algo em movimento entre o ser humano e um objeto técnico tem ganhado força para explicar um outro fenômeno caro aos estudos de ciência e tecnologia, a agência de uma dada tecnologia na ação humana. O quanto uma rede social como o Facebook, uma assistente pessoal como a Alexa ou as câmeras do VAR fazem os seres humanos fazerem coisas? Seria uma rede social responsável pela perseguição a uma minoria étnica num país como Mianmar, ou são as pessoas do país (especialmente o clero budista) que perseguem os muçulmanos orohingyas há décadas e que agora, alimentados por mentiras espalhadas na rede social, tiveram as condições ideais para aumentar essa perseguição a ponto de desencadear assassinatos? Qual o limite de responsabilidade de uma tecnologia e do ser humano? Podemos “jogar a culpa” pela morte de alguém – ou pela queda de um regime democrático, ou pela eleição de um político fascista – em uma rede social?

*

“The Cleaners”, documentário dirigido pelos alemães Moritz Riesewieck e Hans Block, é um exemplo contundente de como um sistema técnico pode fazer outros fazerem coisas – terríveis, neste caso. O filme, lançado em festivais em 2018, mostra como empresas de tecnologia dos Estados Unidos (especialmente Facebook) contratam empresas filipinas para excluir da rede casos de exploração infantil e apologia ao terrorismo. O país asiático é um polo dos chamados moderadores de conteúdo, um exército de quase 150 mil pessoas espalhadas pelo mundo contratados pela rede social criada por Mark Zuckerberg para “faxinar”, 24 horas por dia, 7 dias por semana, as páginas da rede social e excluir conteúdo que não estaria de acordo com as diretrizes da comunidade da empresa.

É um trabalho torturante, marcado por horas diárias assistindo milhares de cenas violentas – suicídios, estupros, cabeças decepadas, explosões, entre muitas outras formas de violência explícita, discurso de ódio, pedofilia, propaganda terrorista e bullying diversos. Como um Tinder da violência extrema, um moderador assiste uma imagem (foto ou vídeo, principalmente) e, em 9 segundos, precisa marcar “Delete” ou “Ignore” num software; são cerca de 25 mil imagens por dia. Sistemas de inteligência artificial ajudam, mas não detectam tudo, e aí que entra o trabalho dos moderadores, que passam por treinamentos precários por funcionários mais experientes da empresa – como se pudesse haver algum tipo de treinamento psicológico para um ser humano dar conta de digerir a visão diária de imagens torturantes como as que são categorizadas pelos cleaners.

O documentário também mostra imagens da vida cotidiana dos moderadores de conteúdo da Filipinas, os caminhos tortuosos que fazem nos lotados transportes coletivos do país asiático para irem de suas casas a até sede da empresa, uma parte de seu trabalho (dos que se dispuseram a mostrar), algo de suas vidas como pessoas “normais”. Há uma moderadora que, religiosa fervorosa, vê seu trabalho como uma missão para livrar os pecados do mundo – enquanto sonha com os diferentes formatos e cores de pênis que se acostumou a ver no trabalho. Outro gosta de ir a shows sexy de um grupo de dançarinas apoiadoras do atual presidente, o ditador Rodrigo Duterte – que, em uma cena mostrada no filme, fala do assassinato em massa dos judeus pelo Nazismo de Hitler como inspiração ao que ele quer fazer com os usuários de drogas em seu país. O documentário contrapõe cenas da realidade dos moderadores em Filipinas com depoimentos de pessoas que trabalham ou trabalharam nas Big Techs dos Estados Unidos, como Google e Facebook. À realidade crua da vida de pessoas de um sul global empobrecido, o filme contrapõe as imagens anódinas dos Senadores estadunidenses em sabatina com executivos destas empresas no Congresso – que tergiversam e não respondem diretamente sobre a responsabilidade de suas empresas na propagação de discursos de ódio em seus complexos sistemas algorítmicos.

Reprodução filme

**

Algumas perguntas são inevitáveis: o Facebook faz as pessoas fazerem coisas, como cometer assassinatos? O sistema de recomendação dos canais relacionados do YouTube, ao estimular o “mergulho” em determinados assuntos segregados, está formando um exército de neo-fascistas? É o espalhador de informação falsa ou o responsável pelo sistema técnico (o “meio”) que deveria ser punido quando seus atos têm consequências diretas na realidade? Voltando a Latour: você é diferente com um computador e uma conta de Facebook à disposição para publicar qualquer informação? O Facebook é diferente com você a tornando uma máquina de desinformação e discurso de ódio?

Nos estudos que consideram a mediação como um ato dividido entre os vários atores envolvidos na ação, sejam eles humanos ou não, há um lema corrente: siga os rastros. A atenção para o movimento, para o que está circulando, determina que não é possível saber, a priori, o que está importando em uma dada ação. Todo movimento deve então ser analisado com a mais farta documentação possível. Assim é que se cria a chance de determinar quem age modificando o comportamento dos outros atores, fazendo eles fazerem coisas, e quem age sem modificar – ou modificando de forma a não deixar rastros visíveis.

Há cada vez mais pesquisas que mostram que sistemas técnicos como o Facebook e o Google não apenas modificam a ação dos atores humanos no processo – como modificam muito. O espalhamento de informações falsas, por exemplo, hoje chamadas fake news, existe desde que o primeiro homem mentiu para sua tribo sobre o sucesso (ou não) da caça de um animal. Mas ganha um escala até então inédita na história com sistemas de circulação de informação rápidos, ponto a ponto, privados e pessoais, sem possibilidades de filtragem de conteúdos, que atingem milhares de pessoas em questão de minutos, como é o caso que ocorre num sistema de troca de mensagens instantâneas como o WhatsApp. O discurso de ódio e a violência explícita de um ser humano contra outro por motivos religiosos existe desde que se inventou a religião, há milhares de anos. Mas a possibilidade dessa mesma violência ganhar circulação imediata para milhares de pessoas, e ao se espalhar motivar ainda mais violências, sem possibilidades de filtragem à tempo de serem evitadas, tem ocorrido de forma inédita na história da humanidade a partir da ascensão das redes sociais como o principal canal de circulação de informações do mundo. O que diferencia um momento do outro, a escala de antes para a de hoje? Entre outros fatores, principalmente a ação das tecnologias.

Poderia citar também diversos outros casos em que a ação das tecnologias sobre comportamentos humanos trouxe resultados amplamente benéficos, como os remédios, as vacinas, os tratamentos contra doenças até então incuráveis – para ficar apenas no campo mais evidente da saúde. Mas é certo que as tecnologias digitais das últimas décadas, criadas por pessoas em suas bolhas ricas de países de Primeiro Mundo, trouxeram mudanças comportamentais profundas. Um empreendedor branco do Vale do Silício como Zuckerberg jamais imaginaria que o uso massivo de uma rede social que ele criou para “classificar mulheres” de sua Universidade poderia provocar um linchamento em Mianmar, caso tratado em “The Cleaners”. O advento de algumas tecnologias não criam sozinhas problemas, mas tal qual uma Pandora contemporânea, estão abrindo a caixa de males e amplificando-os até limites que ainda não sabemos.

Hoje, somos todos outros porque usamos redes sociais como o Facebook e o YouTube; e estas tecnologias são cada vez mais outras quando entram em contato com mais e mais humanos sedentos por comunicar. Que outros seremos quando informações falsas e discursos de ódio podem circular em sistemas técnicos da mesma forma, de igual para igual, que verdades checadas e apuradas por diversas fontes? Que outras tecnologias estão se desenvolvendo quando estas mostram ter cada vez mais ação comprovada sobre atos de violência e extermínio de seres humanos e de todo o ecossistema ambiental? Como tomar medidas para regular a agência das tecnologias sobre a vida humana e o planeta que não pareçam que estamos a enxugar o gelo – ou seja, ações que na superfície podem parecer funcionar, mas que a médio prazo se tornam apenas paliativos porque não mexem de forma substancial no sistema econômico que lucra com a afirmação e a propagação da violência da mesma maneira que com verdades e informações verdadeiras e que respeitam e cuidam da vida humana?

Estamos diante do maior dilema da nossa geração.

]]>
https://baixacultura.org/2022/03/31/the-cleaners-enxugando-gelo-na-caixa-de-pandora/feed/ 0