Software Livre – BaixaCultura https://baixacultura.org Cultura livre & (contra) cultura digital Fri, 14 Feb 2025 14:17:31 +0000 pt-BR hourly 1 https://wordpress.org/?v=6.0.9 https://baixacultura.org/wp-content/uploads/2022/09/cropped-adesivo1-32x32.jpeg Software Livre – BaixaCultura https://baixacultura.org 32 32 A crise é cognitiva – a guerra cultural e os fins da internet https://baixacultura.org/2025/02/14/a-crise-e-cognitiva-a-guerra-cultural-e-os-fins-da-internet/ https://baixacultura.org/2025/02/14/a-crise-e-cognitiva-a-guerra-cultural-e-os-fins-da-internet/#respond Fri, 14 Feb 2025 14:09:45 +0000 https://baixacultura.org/?p=15788 Semana passada participei novamente no Balanço & Fúria para falar sobre as transformações da internet, das raízes rebeldes à ascensão da plataforma aliada (e potencializadora) da extrema direita. Falamos um pouco sobre como essa mudança impactou a cognição, o trabalho e a cultura, levando a uma crise de consenso e à ascensão da desinformação, entre outras coisas. No final destacamos a necessidade urgente de repensar a forma como interagimos com a tecnologia e de buscar alternativas que promovam a descentralização, a transparência e o bem comum. A ascensão do DeepSeek, com seu modelo de código aberto, oferece uma faísca de esperança em meio a um cenário de crescente preocupação com o poder das Big Techs e o impacto da desinformação. 

“Quem teve acesso à internet do fim dos anos 90 e começo dos anos 2000 jamais imaginaria que ela se tornaria um dos principais instrumentos para a elaboração do fascismo de nosso tempo, um impulsionador da crise política e estética, seguido da crise cognitiva que determinaria uma nova subjetividade em seus usuários, assim como uma nova definição de capitalismo ultraprecarizado e ultraliberal, que confundiu ainda mais os limites do trabalho, das liberdades e da democracia liberal.

Da guerra cultural à plataformização, passando pela monopolização das Big Techs e a disputa geopolítica baseada nas tecnologias criadas a partir do que resta da internet, Leonardo Foletto caminha sobre uma breve história das redes de compartilhamento, da pirataria, do hackativismo até o apodrecimento algorítmico fascista em que nos encontramos agora.”

Dá pra ouvir/baixar no site e também aqui abaixo.

[Leonardo Foletto]

 

 

 

]]>
https://baixacultura.org/2025/02/14/a-crise-e-cognitiva-a-guerra-cultural-e-os-fins-da-internet/feed/ 0
Software livre pode derrotar as big techs? https://baixacultura.org/2025/02/07/codigo-aberto-pode-derrotar-as-big-techs/ https://baixacultura.org/2025/02/07/codigo-aberto-pode-derrotar-as-big-techs/#respond Fri, 07 Feb 2025 17:09:28 +0000 https://baixacultura.org/?p=15779 Falei para o programa “Outra Manhã”, do Outras Palavras, na segunda 3/2/25 sobre DeepSeek e a questão do open source, a partir do texto publicado aqui – que foi republicado pelo OP também

Na conversa, de cerca de 1h, busquei enfatizar o potencial dos modelos de código aberto para desafiar o domínio de grandes empresas de tecnologia. Trouxe também questões éticas e práticas sobre o uso de dados, as implicações políticas da IA ​​e possibilidades futuras de desenvolvimento de IAs descentralizadas, locais e de código aberto. A manchete é um pouco sensacionalista, como o jornalismo tem costumado ser (às vezes por questão de sobrevivência).

[Leonardo Foletto]

Na semana seguinte, Antônio Martins e Glauco Faria conversaram com Uirã Porã sobre como o software livre vive no Brasil e como ele pode ser base da autonomia tecnológica, numa conversa que vale a pena escutar:

]]>
https://baixacultura.org/2025/02/07/codigo-aberto-pode-derrotar-as-big-techs/feed/ 0
A corrida da IA ganha um novo capítulo – chinês e open source https://baixacultura.org/2025/01/29/a-corrida-da-ia-ganha-um-novo-capitulo-chines-e-open-source/ https://baixacultura.org/2025/01/29/a-corrida-da-ia-ganha-um-novo-capitulo-chines-e-open-source/#comments Thu, 30 Jan 2025 01:31:18 +0000 https://baixacultura.org/?p=15766  

Segunda-feira, 27 de janeiro, Wall Street atravessou um de seus dias mais turbulentos. As previsões para o setor de inteligência artificial desmoronaram, “players” viram seus papéis derreterem. As ações da Nvidia, inflacionada pela corrida por chips instalados nas IAs generativas, tombaram 17%, resultando em uma perda de US$ 589 bilhões em valor de mercado – a maior queda diária já registrada na história do mercado financeiro americano, que virou matéria e foco de atenção de diversos jornais. Sete bigtechs (Apple, Amazon, Alphabet, Meta, Microsoft, Nvidia e Tesla) viram uma perda de US$ 643 bilhões em suas ações. O responsável por essa reviravolta? Um chatbot de baixo custo lançado por uma startup chinesa, a DeepSeek, criado em 2024 como um braço de pesquisa de um fundo chamado High Flyer, também chinês. Segundo a empresa, o custo de treinamento do modelo por trás da IA, o DeepSeek-R1, foi de aproximadamente US$ 6 milhões – um décimo do que a Meta investiu no desenvolvimento do Llama 3.1, por exemplo, ou menos ainda dos US$ 100 milhões que a OpenIA investiu no seu último modelo. Além disso, a startup informou que seu chatbot apresentou um desempenho superior ao GPT-4, da OpenAI, em 20 das 22 métricas analisadas.

Não entrando nos pormenores econômicos especulativos do mercado de ações (o tombo se deu no valor do mercado destas big techs a partir da desvalorização de suas ações), o fato principal aqui é: a queda foi sobretudo porque a DeepSeek mostrou ao mundo que existe possibilidade de se competir na área com menos dinheiro, investido de forma eficiente. Com menos processadores, chips e data centers, a empresa destravou a possibilidade de operar com custos menores, justo semanas depois de Trump, ao lado de Sam Altman (Open IA) e Larry Ellison (Oracle), anunciar o “Stargate”, um mega programa de investimentos em IA no Texas com potencial anunciado de alavancar até US$ 500 bilhões de dólares em cinco anos. O lançamento do modelo da DeepSeek redesenha a disputa entre EUA e China pela inteligência artificial e mostra que, mesmo com as travas colocadas pelo Governo Biden na compra de chips da Nvidia pela China, ainda assim é possível fazer sistemas robustos de IA de forma mais barata do que Altman e cia afirmam.

As diferenças técnicas do sistema chinês

Vamos tentar explicar aqui brevemente como funciona o DeepSeek e as principais diferenças em relação ao seus modelos concorrentes. O recém-lançado R1 é um modelo de linguagem em grande escala (LLM) que conta com mais de 670 bilhões de parâmetros, projetado a partir de 2.048 chips H800 da Nvidia – estima-se, por exemplo, que os modelos desenvolvidos pelas big techs utilizem cerca de 16 mil chips para treinar os robôs. Utiliza-se de aprendizado por reforço, uma técnica de aprendizado de máquina (machine learning) em que o sistema aprende automaticamente com os dados e a própria experiência, sem depender de supervisão humana,  a partir de mecanismos de recompensa/punição.

Para aumentar sua eficiência, a DeepSeek adotou a arquitetura Mixture-of-Experts (MoE), uma abordagem dentro do aprendizado de máquina que, em vez de utilizar todos os parâmetros do modelo (ou toda as redes neurais) em cada tarefa, ativa só os necessários de acordo com a demanda. Isso torna o R1 mais ágil e reduz o consumo de energia computacional, executando as operações de forma mais leve e rápida. É como se o modelo fosse uma grande equipe de especialistas e, ao invés de todos trabalharem sem parar, apenas os mais relevantes para o trabalho em questão são chamados, economizando tempo e energia.

Outra técnica utilizada pelo R1 é a Multi-Head Latent Attention (MLA), que permite ao modelo identificar padrões complexos em grandes volumes de dados, usando de 5 a 13% da capacidade de modelos semelhantes como a MHA (Multi-Head Attention), o que a torna mais eficiente, segundo essa análise bem técnica publicada por Zain ul Abideen, especialista em LLM e aprendizado de máquina, em dezembro 2024. Grosso modo, a MLA analisa de forma simultânea diferentes partes dos dados, a partir de várias “perspectivas”, o que possibilita ao DeepSeek-R1 processar informações de maneira mais precisa gastando menos recursos de processamento. A MLA funciona como um grupo de pessoas olhando para o mesmo problema de diferentes ângulos, sempre buscando a melhor solução — de novo e de novo e de novo, a cada novo desafio.

Além de seu baixo custo de treinamento, um dos maiores atrativos do modelo está no baixo custo da operação geral. Grandes empresas de tecnologia costumam cobrar valores altos para acessar suas APIs, ferramentas que permitem que outras empresas usem seus modelos de inteligência artificial em seus próprios aplicativos. A DeepSeek, por outro lado, adota uma abordagem mais acessível; a API do R1 custa entre 20 e 50 vezes menos do que a da OpenAI, de acordo com a empresa. O preço de uma API é calculado com base na quantidade de dados processados pelo modelo, medido em “tokens”. No caso da DeepSeek, a API cobra US$ 0,88 por milhão de tokens de entrada e US$ 3,49 por milhão de tokens de saída. Em comparação, a OpenAI cobra US$ 23,92 e US$ 95,70, respectivamente. Ou seja, empresas que optarem pela tecnologia da chinesa podem economizar substancialmente ao integrar o modelo R1 em suas plataformas.

A DeepSeek declarou que usou 5,5 milhões de dólares (32 milhões de reais) em capacidade computacional, utilizando apenas as 2.048 GPUs Nvidia H800 que a empresa chinesa tinha, porque não podia comprar as GPUs H100 ou A100, superiores, que as big techs acumulam às centenas de milhares. Para ter uma ideia: Elon Musk tem 100 mil GPUs, a OpenAI treinou seu modelo GPT-4 em aproximadamente 25 mil GPUs A100.

Em entrevista à TV estatal chinesa, Liang Wenfeng, CEO da DeepSeek e também do fundo que bancou o modelo (High Flyer), disse que a empresa nunca pretendeu ser disruptiva, e que o “estrelato” teria vindo por “acidente”. “Não esperávamos que o preço fosse uma questão tão sensível. Estávamos simplesmente seguindo nosso próprio ritmo, calculando custos e definindo preços de acordo. Nosso princípio não é vender com prejuízo nem buscar lucros excessivos. O preço atual permite uma margem de lucro modesta acima de nossos custos”, afirmou o fundador da DeepSeek.

“Capturar usuários não era nosso objetivo principal. Reduzimos os preços porque, primeiro, ao explorar estruturas de modelos de próxima geração, nossos custos diminuíram; segundo, acreditamos que os serviços de IA e API devem ser acessíveis e baratos para todos.”

Wenfeng é bacharel e mestre em engenharia eletrônica e da informação pela Universidade de Zhejiang. Entre muitas especulações momentâneas sobre sua vida pessoal, o que se sabe é que o empresário de 40 anos parece “mais um nerd do que um chefe” e que é um entusiasta do modelo open source de desenvolvimento, o que nos leva para o próximo tópico.

As vantagens do código aberto 

Um componente fundamental do sucesso (atual) do modelo chinês é o fato de estar em código aberto. O DeepSeek-V3, lançado no final de 2024, está disponível no GitHub, com uma documentação detalhada sobre como foi feito e como pode ser replicado.

Isso, na prática, tem fomentado uma corrida de várias pessoas e grupos para experimentar fazer seus próprios modelos a partir das instruções dadas pela equipe do DeepSeek. Dê uma busca no Reddit e nos próprios buscadores nestes últimos dias de janeiro de 2025 e você já verá uma enxurrada de gente fazendo.

Como vocês já ouviram falar no “A Cultura é Livre”, a natureza do código aberto, de origem filosófica no liberalismo clássico do século XVII e XVIII, permite mais colaborações, e acaba por impulsionar tanto a concorrência de outras empresas no setor quanto diferentes forks independentes e autônomos individuais. Vale, porém, aqui dizer que o código aberto não é o mesmo que um software livre. Software de código aberto (free/libre/open source software, acrônimo Floss adotado pela primeira vez em 2001) é um nome usado para um tipo de software que surgiu a partir da chamada Open Source Initiative (OSI), estabelecida em 1998 como uma dissidência com alguns princípios mais pragmáticos que os do software livre. A flexibilização na filosofia de respeito à liberdade dos usuários (mais rígida e comprometida com a justiça social no software livre, mais pragmática e aplicável como metodologia de desenvolvimento no open source) propiciou uma expansão considerável tanto do software de código aberto quanto de projetos e empresas que têm este tipo de software como produto e motor de seus negócios. A OSI tem como texto filosófico central “A catedral e o bazar”, de Eric Raymond, publicado em 1999. Nele, Raymond trabalha com a ideia de que “havendo olhos suficientes, todos os erros são óbvios”, para dizer que, se o código fonte está disponível para teste, escrutínio e experimentação pública, os erros serão descobertos mais rapidamente.

A definição da OSI diz que um sistema open source é:

The program must include source code, and must allow distribution in source code as well as compiled form. Where some form of a product is not distributed with source code, there must be a well-publicized means of obtaining the source code for no more than a reasonable reproduction cost, preferably downloading via the Internet without charge. The source code must be the preferred form in which a programmer would modify the program. Deliberately obfuscated source code is not allowed. Intermediate forms such as the output of a preprocessor or translator are not allowed.

O esclarecimento sobre o que é código aberto é importante porque, na esteira do desenvolvimento das IAs de código aberto, vem também surgindo um movimento de open washing, ou seja: a prática de empresas privadas dizerem que os códigos de seus sistemas algorítmicos são abertos – quando na verdade não são tão abertos assim. Ou então quando grandes corporações (ou startups) iniciam projetos em código aberto para incorporar o trabalho colaborativo de colaboradores (desenvolvedores, tradutores, cientistas de dados) – para logo depois, quando o projeto se torna mais robusto, fecharem o código e nunca mais abrirem. “O Google tem um histórico nessa prática, a própria OPEN IA fez isso – e foi processada por Elon Musk (!) justamente por não seguir os princípios abertos.

Escrevemos em nossa última newsletter do BaixaCultura que a Meta, ao dizer que seu modelo LLama é aberto, vem “poluindo” e “confundindo” o open source, como afirma Stefano Maffulli, diretor da Open Source Initiative (OSI). Mas o que o Llama traz como aberto, porém, são os pesos que influenciam a forma como o modelo responde a determinadas solicitações. Um elemento importante para a transparência, mas que por si só não faz se encaixar na definição do open source. A licença sob a qual o Llama foi lançado não permite o uso gratuito da tecnologia por outras empresas, por exemplo, o que não está em conformidade com as definições de código aberto reconhecidas pela OSI. “Programadores que utilizam modelos como o Llama não têm conseguido ver como estes sistemas foram desenvolvidos, ou construir sobre eles para criar novos produtos próprios, como aconteceu com o software de código aberto”, acrescenta Maffuli.

Mas existem IAs totalmente abertas?

A disputa (velha, aliás) pelo que de fato é open source – e principalmente o que não é – também ganha um novo capítulo com o DeepSeek. A “OSI AI Definition – 1.0-RC1” aponta que uma IA de código aberto deve oferecer quatro liberdades aos seus utilizadores:

_ Utilizar o sistema para qualquer fim e sem ter de pedir autorização;

_ Estudar o funcionamento do sistema e inspecionar os seus componentes;

_ Modificar o sistema para qualquer fim, incluindo para alterar os seus resultados;

_ Partilhar o sistema para que outros o utilizem, com ou sem modificações, para qualquer fim;

Nos quatro pontos o DeepSeek v-1 se encaixa. Tanto é que, como mencionamos antes, já tem muita gente fazendo os seus; seja criando modelos ainda mais abertos quanto para ser executada localmente em um dispositivo separado, com boas possibilidades de customização e com exigência técnica possível na maior parte dos computadores bons de hoje em dia. Para não falar em modelos parecidos que já estão surgindo na China, como o Kimi k1.5, lançado enquanto esse texto estava sendo escrito – o que motivou memes de que a competição real na geopolítica de IA está sendo feita entre regiões da China, e não entre EUA X China.

O fato de ser de código aberto faz com que o DeepSeek, diferente do ChatGPT ou do LLama, possa ser acoplado e inserido com diferentes funcionalidades por outras empresas, grupos, pessoas com mais facilidade e menor custo. Ao permitir que novas soluções surjam, torna a barreira de entrada da inteligência artificial muito menor e estoura a bolha especulativa dos financistas globais sobre o futuro da tecnologia – o que talvez seja a melhor notícia da semana.

Mas há um porém importante nessa discussão do código aberto: as bases de dados usadas para treinamento dos sistemas. Para treinar um modelo de IA generativa, parte fundamental do processo são os dados utilizados e como eles são utilizados. Como analisa o filósofo e programador Tante nesse ótimo texto, os sistemas de IA generativa (os LLMs) são especiais porque não consistem em muito código em comparação com o seu tamanho. Uma implementação de uma rede neural é constituída por algumas centenas de linhas de Python, por exemplo, mas um LLM moderno é composto por algum código e uma arquitetura de rede – que depois vai ser parametrizada com os chamados “pesos”, que são os milhares de milhões de números necessários para que o sistema faça o que quer que seja, a partir dos dados de entrada. Assim como os dados, estes “pesos” também precisam ser deixados claros quando se fala em open source, afirma Tante.

Não está claro, ainda, quais foram os dados de treinamento do DeepSeek e como estes pesos foram distribuídos. Endossando Tante, Timnit Gibru disse neste post que para ser open source de fato teria que mostrar quais os dados usados e como foram treinados e avaliados. O que talvez nunca ocorra de fato, pois isso significa assumir que a DeepSeek pegou dados de forma ilegal na internet tal qual o Gemini, a LLama e a OpenIA – que está acusando a DeepSeek de fazer o mesmo que ela fez (!). Outras IAs de código aberto também não deixam muito claro como funcionam suas bases, embora as proprietárias muito menos. Ainda assim, são os modelos de IA identificados como open source, com seus códigos disponíveis no Github, os que lideram o nível de transparência, segundo este índice criado por pesquisadores da Universidade de Stanford, que identificou como os mais transparentes o StarCoder e o Jurassic 2.

Podemos concluir que na escala em que estamos falando desses sistemas estatísticos atualmente, e entendendo o acesso e o tratamento dos dados como elementos constituintes do códigos a ser aberto, uma IA totalmente open source pode ser quase uma utopia. Muitos modelos menores foram e estão sendo treinados com base em conjuntos de dados públicos explicitamente selecionados e com curadoria. Estes podem fornecer todos os processos, os pesos e dados, e assim serem considerados, de fato, como IA de código aberto. Os grandes modelos de linguagem que passamos a chamar de IA generativa, porém, baseiam-se todos em material adquirido e utilizado ilegalmente também porque os conjuntos de dados são demasiado grandes para fazer uma filtragem efetiva de copyright e garantir a sua legalidade – e, talvez, mesmo a sua origem definitiva, dado que muitas vezes podemos ter acesso ao conjunto de uma determinada base de dados, mas não exatamente que tipo de dado desta base foi utilizada para treinamento. Aliás, não é surpresa que hoje muitos dos que estão procurando saber exatamente o dado utilizado são detentores de copyright em busca de processar a Open AI por roubo de conteúdo.

Mesmo que siga o desafio de sabermos como vamos lidar com o treinamento e a rastreabilidade dos dados usados pelos modelos de IA, a chegada do DeepSeek como um modelo de código aberto (ou quase) tem enorme importância sobretudo na ampliação das possibilidades de concorrência frente aos sistemas da big techs. Não é como se o império das grandes empresas de tecnologia dos Estados Unidos tivesse ruído da noite pro dia, mas houve uma grande demonstração de como a financeirização da economia global amarrou uma parte gigantesca do valor financeiro do mundo às promessas de engenheiros que claramente estavam equivocados nas suas projeções do que era preciso para viabilizar a inteligência artificial – seja para ganhos especulativos ou por puro desconhecimento.

A parte ainda não solucionada da equação é uma repetição do antigo episódio envolvendo o lançamento do Linux: se essa solução estará disponível para ser destrinchada por qualquer um, como isso vai gerar mais independência aos cidadãos? A inteligência artificial tem milhares de aplicações imaginadas, e até agora se pensava em utilizá-la nos processos produtivos de diversas indústrias e serviços pelo mundo. Mas como ela pode sugerir independência e autonomia para comunidades, por exemplo? Espera-se, talvez de maneira inocente, que suas soluções sejam aproveitadas pela sociedade como um todo, e que não sejam meramente cooptadas pelo mercado para usos privados como tem ocorrido até aqui. Por fim, o que se apresenta é mais um marco na história da tecnologia, onde ela pode dobrar a curva da independência, ou seguir no caminho da instrumentalização subserviente às taxas de lucro.

[Leonardo Foletto e Victor Wolffenbüttel]

]]>
https://baixacultura.org/2025/01/29/a-corrida-da-ia-ganha-um-novo-capitulo-chines-e-open-source/feed/ 1
Cultura Digital: começo, meio, começo https://baixacultura.org/2024/01/23/cultura-digital-comeco-meio-comeco/ https://baixacultura.org/2024/01/23/cultura-digital-comeco-meio-comeco/#comments Wed, 24 Jan 2024 01:56:01 +0000 https://baixacultura.org/?p=15553  

No final de 2023, após quase um ano de volta do Ministério da Cultura, uma articulação de pessoas, organizações e coletivos com um histórico na Cultura Digital no saudoso período de Gilberto Gil e Juca Ferreira à frente do ministério (entre 2003 e 2010) voltou a agitar a área. Depois de quatro anos sem MinC, e mais pelo menos outros quatro com uma discussão bastante enfraquecida (apesar das tentativas de Juca no MinC de Dilma entre 2015 e 2016), agora finalmente foi possível retomar o debate sobre cultura digital.

Depois de tanto tempo, muitos desafios novos existem, a começar pelo termo: o que é cultura digital hoje? Acesso, inclusão, participação, ativismo, arte, política, comunicação, documentação, acervos, tudo isso misturado? Construção de plataformas livres para produção, circulação e preservação da cultura brasileira, ou para participação cidadã nas instâncias públicas nacionais, ou mesmo para streaming (público?) de nossas obras culturais? Criação de políticas públicas verdadeiramente coletivas e colaborativas de valorização e preservação da nossa rica diversidade cultural, com respeito e destacando nossa ancestralidade negra e indígena? Criação de planos de inclusão digital que sejam guiados por uma Soberania Digital que não ache que inclusão é dar acesso a poucas plataformas privadas de redes sociais ou submetidas à satélites de acesso produzidos por uma empresa de um magnata lunático?  Se faz ainda sentido falar em cultura digital, como defini-la hoje, e por quê? O que de fato queremos dizer hoje, e pro futuro, com cultura digital, para além dessa retomada do histórico brasileiro e da filiação dela ao MinC?

Não é preciso se estender muito em lembrar que a década de 2010 foi o período de ascensão das Big Techs como as grandes organizadoras do debate público mundial. São muitas consequências dessa mudança, especialmente para o que se chama (va) cultura digital (ou cibercultura, no meio acadêmico). Entre elas: o enfraquecimento do movimento (e da opção) do software livre como uma alternativa mais justa e segura às plataformas privadas guiadas pelo lucro com a venda dos dados;  a potencialização da desinformação no universo digital como problema central na política (e talvez na sociedade) contemporânea; a vigilância generalizada tirando cada vez a já pouca privacidade de todo o mundo; a dependência dos artistas das grandes plataformas para produzirem, circularem e guardarem suas obras; apenas para citar quatro e não usar todo este espaço para listar as transformações na internet nesta última década.

O primeiro grande encontro para discutir os novos rumos da cultura digital brasileira hoje é a 1ª Conferência Temática da Cultura Digital, realizada de forma online nos dias 24, 25 e 26 de janeiro no site Plantaformas.org com transmissão pela TV Tainã (tv.taina.net.br). O encontro é parte das atividades preparatórias da 4ª Conferência  Nacional de Cultura e tem como objetivo prático sistematizar um debate acerca da Cultura Digital para compor o Caderno da 4ª Conferência Nacional de Cultura, a ser realizada ainda neste 2024, e eleger três propostas para serem apresentadas na plenária da conferência nacional. As propostas mais votadas nesta plenária integrarão o Plano Nacional de Cultura. 

O objetivo simbólico, intelectual e astral, se podemos dizer assim, já está dito: retomada. A construção da programação foi toda colaborativa a partir de propostas e votações mediadas pela Plantaformas, criada pela Casa Preta Amazônia em software livre a partir do Decidim, usada para participação cidadã em diversos lugares do mundo. O tempo de construção das propostas, escasso – entre final de dezembro de 2023 e meados de janeiro de 2024  -, foi criticado por muitas pessoas e coletivos. A justificativa tem relação com o tempo da(s) política(s): ele só foi feito rápido assim devido a necessidade (e o desejo) de participar da Conferência Nacional de Cultura em 2024 e a dificuldade de rearticulação, entre sociedade civil e Governo, que levou boa parte de 2023. O evento foi puxado pelo que se está chamando de Rede da Cultura Digital Brasileira – este grupo de pessoas, coletivos e organizações que têm voltado a debater o tema desde 2023, como comentei no início, com a coordenação do Laboratório de Cultura Digital da Universidade Federal do Paraná (UFPR) e apoio de diversas organizações e coletivos (que podem ser vistos aqui).

O tema central da conferência, proposto pela Rede de Produtoras Colaborativas, é PermaCultura Digital: Começo, meio e começo, tema apresentado na Plantaformas pela Rede de Produtoras Colaborativas e que será o da mesa de abertura, com a participação de mestres e mestras do Conselho Ancestral e representantes do Comitẽ de Governança Colaborativa da Rede da Cultura Digital. “A PermaCultura é a sistematização de saberes ancestrais para a permanência de todas as formas de vida na Terra. Entendemos que esse conhecimento, como proposta ética e metafórica para essa nova onda da Cultura Digital tem uma grande potência”, explica Fabs Balvedi, integrante da Rede. Já o “começo, meio e começo”, aspas do mestre quilombola Nego Bispo, chega para somar ao movimento a ênfase contracolonial e a ancestral que rege a Cultura Digital, nessa confluência entre tradições e transgressões que as tecnologias digitais podem promover.

“Tecnologia é mato, o importante são as pessoas”, anunciou Daniel Pádua na abertura dos caminhos da Cultura Digital brasileira na década de 2000. Tecendo por esse mesmo fio, vinte anos depois, se agora “Tecnologia é Mata, é Floresta, o que importa?”.

A programação completa (que pode ser vista aqui) tem diversas mesas com temas que vão da Institucionalização, Marcos Legais e Sistema Nacional de Cultura ao  Democratização do acesso à cultura e Participação Social, passando por Identidade, patrimônio e memória; Diversidade Cultural e Transversalidades de Gênero, Raça e Acessibilidade na Política Cultural; Economia Criativa, Trabalho, Renda e Sustentabilidade, entre outros. 

Debate sobre Permacultura Digital realizado no III Encontro SUL da Rede de Produtoras Culturais Colaborativas, realizada em Porto Alegre, com o BaixaCultura como um dos organizadores, em outubro de 2017

Publico aqui abaixo o Manifesto pensado para a Conferência, puxado por Lívia Ascava (HackLab/LabHacker) e diversos integrantes e coletivos participantes da Rede da Cultura Digital Brasileira.

MANIFESTO DA REDE DA CULTURA DIGITAL PARA A CONFERÊNCIA TEMÁTICA DA CULTURA DIGITAL 

A retomada do MinC, com a força dos movimentos que apontam suas echas para o “resgate do que é nosso”, embala também uma possível e potente nova onda da Cultura Digital. As chamadas novas tecnologias de informação e comunicação, que há 30 anos foram gestadas e paridas no Brasil inicialmente pela Comunicação e pela Ciência, Tecnologia e Inovação, quando foram apadrinhadas por Gil, no Ministério da Cultura, receberam uma outra potência. 

Naquele momento, as Big Techs ainda eram uma hydra imaginária e apostávamos que era possível enfrentar a captura que hoje assistimos, se fossemos ágeis em tecer redes distribuídas, descentralizadas e autônomas de ação, inspiradas na infraestrutura democrática da Internet, tendo como chão uma outra cultura de produção e reprodução da vida, em resistência, tesão e tensão: colaborativa, generosa, transgressora, democrática, criativa, com pés rmes em suas ancestralidades territoriais e caminhos abertos para as rupturas necessárias. Pontos e pontões de cultura foram recebidos como hardwares poderosos que somados às redes de telecentros, às casas de cultura digital, casas coletivas, redes colaborativas, aos ônibus e clubes hackers apresentariam um estilo de vida, um software contracultural, capaz de pulverizar e absorver desejos de transformação de corpos cansados da imposição neoliberal à vida. Hackatons, festivais de cultura digital, listas de email, ocupações de rua, redes de desenvolvimento de software livre, somavam-se às metodologias de contra-captura tão pulsantes quanto as aparelhagens, festas populares e o carnaval. 

O impacto que a indústria cultural, sobretudo da música e do audiovisual, sofreu com a tomada de assalto dos sistemas de distribuição peer to peer ou em redes de seus conteúdos proprietários, como o The Pirate Bay, transbordou para a comunicação que já não teria como sobreviver nem no impresso, tampouco no modelo “um para muitos”. De forma análoga, a democracia já não via como deixar de incorporar essa Cultura e técnica digital em seus processos de participação social, assim como de absorver as novas subjetividades já impressas em corpos políticos moldados nesse contexto. A velocidade com a qual as Big Techs, as máquinas de desinformação, os sistemas de Vigilância, a pandemia do covid e a ascensão da extrema direita no mundo e, especialmente no Brasil, colonizaram a Internet e complexificaram os desafios já postos, dificultaram o jogo e capturaram as atenções para essa necropolítica instaurada. 

Se, por um lado, essa conjuntura provocou um violento aborto coletivo de embriões espalhados entre coletivos, movimentos sociais e organizações de diversas natureza. Por outro, uma série de coletivos, movimentos e organizações nasceram ou mantiveram suas lutas e resistências ao longo desse tempo, garantindo uma retomada que seja fomentada e impulsionada pelo Ministério da Cultura sem uma grande dependência da máquina institucional.

Além disso, a disputa acirrada das narrativas que envolvem a cultura digital, somada a uma minoria representativa de corpos pretos, indígenas, mulheres e periféricos nas lideranças de processos, na constituição destes modos e compreensão de mundo, enfraquece a terra preta digital para um projeto cultural revolucionário. É vital que essa próxima onda seja estabelecida a partir do ponto de vista e prática de quem decide o próprio destino.

A retomada do MinC oferta para a Cultura Digital a possibilidade de uma rearticulação dessa rede, garantindo brechas para que estes movimentos, redes, coletivos e organizações se re-conheçam em encontros intergeracionais para uma consequente (re)elaboração do que é a Cultura Digital na atualidade. Quais imaginários foram plantados e colhidos ao longo destes anos? Quais estão sendo plantados hoje? Quais ervas daninhas precisam ser retiradas do terreno? Quais tradições de cultivo devem ser preservadas? Quais transgressões são desejáveis para evitar uma tendência à monocultura? Quais metodologias e tecnologias precisam ser criadas, ocupadas e disseminadas para ações de resistência na micro e macropolítica?

Nessa toada, a próxima onda da Cultura Digital, deve sim promover dentro do próprio Ministério uma retomada de programas e políticas para a Cultura Digital, que tratavam de temas como tecnologias de participação social, mapeamento e gestão da cultura, produção de indicadores, direitos autorais, pontos e pontões de cultura, redes de streaming nacionais, entre outros, mas também – e sobretudo – incluir uma capacidade de escutar, dialogar, incluir e desenhar as novas agendas para que a Cultura Digital exista no presente.

]]>
https://baixacultura.org/2024/01/23/cultura-digital-comeco-meio-comeco/feed/ 2
A Cultura é Livre no Guilhotina, do Le Monde Diplomatique https://baixacultura.org/2022/03/18/a-cultura-e-livre-no-guilhotina-do-le-monde-diplomatique/ https://baixacultura.org/2022/03/18/a-cultura-e-livre-no-guilhotina-do-le-monde-diplomatique/#respond Fri, 18 Mar 2022 13:11:39 +0000 https://baixacultura.org/?p=13944

Em 2021, nestes mesmos dias de março, estava lançando o “A Cultura é livre”, fruto de uns bons anos de pesquisa sobre o tema no BaixaCultura , como já comentei. Foi junto a Flipei – Festa Literária Pirata das Editoras Independentes , organizada pela Autonomia Literária , co-editora do livro ao lado da Fundação Rosa Luxemburgo, com o prefácio do imortal (agora “oficial”, pela ABL) Gilberto Gil. Online, como (quase) tudo que ocorria em março do ano passado – agora que se vislumbra uma saída pós pandemia quero muito poder encontrar as pessoas; quem sabe um lançamento presencial “atrasado”?

Ontem foi ao ar a última edição do Guilhotina, podcast do Le Monde Diplomatique Brasil , comandado por Bianca Pyl e Luis Brasilino. Das entrevistas, lives e podcasts que participei nesse ano, este talvez seja o que mais tenha falado, sobre e a partir do “A Cultura é Livre”. Não sei se isso é bom, mas os livros são vivos, o distanciamento nos dá perspectivas diferentes sobre uma obra, ativa sentimentos diversos – porque não falei mais daquele tema ou citei aquele outro trabalho, etc; não se termina um livro, mas se livra dele – literalmente. As falas acompanham esse zigue-zague de perspectivas.

Sigo gostando e achando o livro uma boa introdução ao vasto e complexo tema da cultura livre, que mesmo não sendo um tema de moda hoje na internet (como já foi no início dos 2000), será importante enquanto houver ser humano (ou robô) criando. Sigo também mergulhando mais no último capítulo, onde falo das perspectivas do extremo-oriente e ameríndias sobre propriedade intelectual, enquanto espero a edição em espanhol ser finalizada.

O podcast dá pra escutar no site do Le Monde, no Spotify e em outras plataformas. O livro, além de poder ser baixado aqui no site, pode ser comprado no site da Autonomia e de algumas livrarias como:
_ Baleia (Porto Alegre)
_ Livraria Travessa (RJ, SP, Brasília, Portugal)
_ Livraria Martins Fontes Paulista (SP)
_ Livraria Taverna (Porto Alegre)
_ Simples (São Paulo)
_ MegaFauna (São Paulo)
_ Amazon  
_ FNAC
_ Estante Virtual
_ Livraria Cultura (e-book)
_ Magazine Luiza

 

]]>
https://baixacultura.org/2022/03/18/a-cultura-e-livre-no-guilhotina-do-le-monde-diplomatique/feed/ 0
A Cultura é Livre no CPF Sesc https://baixacultura.org/2021/12/20/a-cultura-e-livre-no-cpf-sesc/ https://baixacultura.org/2021/12/20/a-cultura-e-livre-no-cpf-sesc/#respond Mon, 20 Dec 2021 18:02:32 +0000 https://baixacultura.org/?p=13905 Em março de 2021, logo depois que lancei o “A Cultura é Livre“, comecei a pensar que ele daria uma boa base pra um curso; até a ordem cronológica dos capítulos pode ajudar a ver a cultura livre como uma história da resistência antipropriedade através dos tempos.

Com ajuda de alguns amigues que me estimularam a estruturar essa ideia, nasceu então o curso, que em sua primeira edição (em formato mini) foi realizado dias 6, 7 e 8/12 no CPF SESC, o centro de pesquisa e formação da rede Sesc em São Paulo. A proposta foi expandir o livro, trazer outros causos, imagens, ideias que não couberam na publicação impressa, com foco no debate contemporâneo sobre a cultura livre na internet e com diferentes perspectivas sobre o tema que não a hegemônica ocidental – depois do livro tenho me debruçado mais nas visões orientais e ameríndias sobre a propriedade Intelectual, seguindo o meu próprio caminho pincelado no último capítulo.

O curso foi online e enxuto, para um público bem diverso. Aqui as apresentações utilizadas como guia para as aulas.

[Leonardo Foletto]

 

]]>
https://baixacultura.org/2021/12/20/a-cultura-e-livre-no-cpf-sesc/feed/ 0
A cultura livre é uma história da resistência antipropriedade https://baixacultura.org/2021/11/19/a-cultura-livre-e-uma-historia-da-resistencia-antipropriedade/ https://baixacultura.org/2021/11/19/a-cultura-livre-e-uma-historia-da-resistencia-antipropriedade/#respond Fri, 19 Nov 2021 13:39:52 +0000 https://baixacultura.org/?p=13847  

Na sexta doze de novembro de 2021, das 19h às 20h e pouco, o “A Cultura é Livre” foi tópico de uma conversa online na APPH POA dentro do projeto Biblioteca APPH. A proposta foi fazer uma conversa sobre alguns tópicos do livro, em especial as discussões contemporâneas sobre compartilhamento na internet e a partir de outras perspectivas que não a vinda da Europa-Estados Unidos, como as visões ameríndias e chinesa, para pensar e questionar a propriedade Intelectual e a produção e fruição da cultura. Participaram nosso editor e autor do livro, Leonardo Foletto (@leofoletto), a jornalista e pesquisadora Lívia Ascava, com mediação de André Araujo, pesquisador da APPH. O livro, prefaciado por Gilberto Gil, foi publicado em 2021 pela Autonomia Literária, com apoio da Fundação Rosa Luxemburgo, e discute questões em torno da propriedade intelectual, traçando um caminho desde a circulação cultural na Grécia Antiga até o advento da Internet fissurando a dinâmica de posse dos bens culturais.

A APPH é uma associação autônoma, horizontal e sem fins lucrativos em atividade desde 2013 oferecendo uma vasta gama de atividades voltadas à produção e compartilhamento de conhecimentos em humanidades.

Assista:

asdahagha

]]>
https://baixacultura.org/2021/11/19/a-cultura-livre-e-uma-historia-da-resistencia-antipropriedade/feed/ 0
Entre livres e solidáries – ou [Re: Isso não é um manifesto: aberto e livre em reflexão] https://baixacultura.org/2021/03/29/entre-livres-e-solidaries-ou-re-isso-nao-e-um-manifesto-aberto-e-livre-em-reflexao/ https://baixacultura.org/2021/03/29/entre-livres-e-solidaries-ou-re-isso-nao-e-um-manifesto-aberto-e-livre-em-reflexao/#respond Mon, 29 Mar 2021 14:16:58 +0000 https://baixacultura.org/?p=13578

Imagem CC-BY por David Revoy <https://www.peppercarrot.com/en/article237/episode-2-rainbow-potions>

Ni! Concordando com o espírito geral do texto Isso não é um manifesto: aberto e livre em reflexão de Marina de Freitas e Saulo Jacques, igualmente publicado aqui no Baixa Cultura, me senti provocado a reagir a alguns pontos*.

A liberdade solidária do Software Livre

Os movimentos do que chamamos hoje “aberto e livre” estruturaram-se com raízes no Software Livre: a Wikipédia, onde uma licença GNU foi consagrada como a primeira licença para Recursos Educacionais Abertos; a cultura livre, onde es autoraes** das pioneiras licenças Arte Livre e Creative Commons se inspiram explicitamente no Software Livre; o acesso aberto, onde o arXiv surge num ambiente de físiques banhades na filosofia do projeto GNU; até tendências mais recentes em hardware e biotecnologias que já surgem num mundo científico onde o Software Livre e sua filosofia são incontornáveis.

O Software Livre, por sua vez, é fundado sobre a liberdade na sua conotação solidária, e sua filosofia – mais ou menos silenciosamente – permeia todos esses movimentos, tanto quanto neles estão presentes pessoas motivadas por seus aspectos éticos. A ideia de “ajudar seu vizinho” e a Regra de Ouro sendo centrais no argumento avançado por Stallman, devemos cuidar para não construir discursos como se isso não existisse, como se essas ideias estivessem ausentes desses movimentos, e evitar julgá-los por não solucionarem problemas que debordam seus objetivos, sob o risco de invisibilizar suas contribuições e apontar falsas soluções.

Há muito tempo se discutem e se organizam ações nas comunidades do livre sobre questões transversais como educação, inclusão, justiça. No Brasil, só para lembrar alguns exemplos, houve a histórica parceria entre os movimentos de software e cultura livres no tempo dos pontos de cultura, e desses com educação popular e inclusão social através de iniciativas públicas e privadas de metarreciclagem e capacitação digital, e discussões a respeito de questões de gênero em hackerspaces promovendo mudanças concretas. Se os resultados finais são aquém do desejado, como certamente são se olharmos pelo prisma da questão da participação feminina, não se trata de simples questão de ignorância, desatenção ou inação. A lição a se tirar é também que esses são problemas duríssimos e estruturais, que merecem continuar sendo pressionados mas que dificilmente se resolverão por iniciativa isolada dessas comunidades.

Num outro ângulo, apesar do texto de Marina e Saulo não falar nisso, ele traz à mente o argumento meio modinha de pensar em usar licenças para resolver problemas externos ao seu objeto, o que acaba sendo um baita tiro no pé. As licenças, em especial as licenças GNU, são um instrumento para avançar o objetivo social e solidário do Software Livre. Elas foram pensadas considerando essas dimensões mais amplas. Em particular, a escolha de não incluir outras dimensões, sociais ou culturais, nas licenças foi muito bem pensada e, ao meu ver, se mostra sistematicamente correta. O sentido da implicação no título do livro “Free Software, Free Society” é que uma sociedade livre depende de (i.e., implica) software livre, não o contrário. Problemas políticos se resolvem com política, não com gambiarras jurídicas ou técnicas. Uma sociedade livre se constrói com software livre, mas ele é só uma das exigências do princípio de liberdade solidária que a fundamenta.

O risco de dados abertos não pessoais

O argumento de que certo dados – outros dados que não os de vida privada – podem representar um perigo e não devem ser abertos não me parece proceder para além de uma visão de curto prazo e ao meu ver pouco estratégica. Se alguém acha que uma grande empreiteira não tem acesso a dados urbanos “secretos”, que o lobby ruralista não tem acesso a dados fundiários “restritos”, ou que uma grande farmacêutica não tem acesso a dados de biodiversidade “seguros”, esse alguém precisa se informar melhor. O mercado negro para dados e infiltrações é terrivelmente maior do que se discute. Se o valor for alto, tudo está disponível. A dinâmica real provocada ao se esconder dados é que es poderoses vão ter acesso a eles, enquanto o resto vai se iludir achando que os dados estão seguros. E o resultado disso é que a exploração será ainda mais ampla e irrestrita, pois ninguém estará ciente do perigo. Abrir os dados joga às claras os perigos, tão reais como incontornáveis, permitindo a mobilização política para remediá-los, seja com mais fiscalização, com compensações, ou até mesmo com a escolha de não se produzir certos dados. Mas uma vez que um dado foi produzido, vale o princípio de que não se esconde informação des poderoses. Há situações onde pode parecer possível ou muito necessário esconder informações, e nesses casos consideraria que isso se dê apenas no curto prazo enquanto se estrutura uma estratégia para sua abertura responsável, pois no médio prazo deve-se supor que, querendo ou não, eles estão acessíveis.

Só para completar, sim, dados da vida privada são diferentes – não cabe expandir aqui, mas não é difícil entender que eles operam de outra forma.

A reatividade das tecnologias abertas

Também não concordo que as tecnologias abertas sejam particularmente reativas. No caso de softwares, grande parte das “inovações” proprietárias são inspiradas de inovações abertas, assim como vice-versa. De editores de texto a aplicativos de mensagem e plataformas de publicação, a maior parte das aplicações que usamos quotidianamente evoluíram entre o livre e o proprietário. Exceto pelo fato de redes livres serem principalmente múltiplas e de pequena escala, pois manter grandes serviços centralizados depende frequentemente da exploração de dados pessoais que contraria a ética do livre – e justamente aí temos uma imensa e intensa dinâmica de inovação para prover a integração de redes descentralizadas, conduzida por uma constelação de atores do livre.

A reatividade aparece assim como uma dinâmica intrínseca à inovação, e não particular às tecnologias abertas. Já em dimensões que não da abertura do código também pode se constatar algo semelhante, por exemplo o AirBnB – plataforma de capitalismo digital – não é nada além de Couchsurfing – plataforma de solidariedade digital – com um botão de pagamento. De modo que falar em falta de criatividade de tecnologias livres é vestir um falso estigma. O que tem de ser apontado são: a falta de ações e regulações favoráveis da parte de governos que montam imensas estruturas para subvencionar sistemas de “propriedade intelectual”; a falta de prioridade em contratos públicos para produção de bens públicos; a falta de apoio institucional via incubadoras tecnológicas e nas universidades etc.

O altermundismo dos comuns

Uma questão fundamental levantada no final do texto déles é a de não se reduzir inovação a automação. O mundo da inovação hypercapitalista, ou capitalista digital, está bem ciente dessa diferença, manifestada no culto da “inovação disruptiva”. No caso do mundo livre e aberto a dimensão altermundista, mesmo estando na sua raiz, parece não ganhar tanto destaque. Talvez por medo de estigma não-conformista e pelo fato de que o fazer livre em si, ainda que discreto, já contribui para ela. Então é preciso sim levantar a bola e espalhar a clareza de que as tecnologias livres são apenas uma parte da escolha de substituir a maneira como organizamos a sociedade por uma outra fundada em liberdade com solidariedade. Para isso, o início do texto déles muito acertadamente observa as desigualdades de participação nos privilégios que permitem usufruir plenamente dos comuns criativos, como a disponibilidade de tempo, de capital cultural e material. A luta da criatividade livre se confunde dessa maneira com a luta por uma sociedade mais justa e solidária, em especial para que as pessoas tenham competências para participar dos comuns, segurança para escolher não se submeterem a modos de produção excludentes, e tempo para exercerem suas liberdades.

Epílogo

O livre e aberto sempre trouxe consigo intenções éticas e emancipadoras. Não por acaso há, hoje e historicamente, um mútuo reconhecimento e permeabilidade com movimentos de mesma base: na cultura, na educação, na ciência, na alimentação, e mesmo na política. Dito isso, é preciso reconhecer que os caminhos que o livre oferece são sacrificados, no melhor dos casos requerendo um sacrifício na travessia para fora do mundo proprietário, tornando-os pouco acessíveis para quem não desfruta dos vistos privilégios facilitadores. Mas podemos ir além e reconhecer que isso se verifica também naqueles movimentos alinhados, e que da impossibilidade de submetermo-nos a múltiplos sacrifícios – na carência de múltiplos privilégios simultâneos – decorre a ausência da grande sinergia que esperamos.

Dessa forma, um próximo passo talvez seja criar um ecossistema interseccional que proponha um pacote de bens e serviços, os quais traduzam a filosofia livre-solidária num estilo de vida que possa ser adotado coletivamente por indivíduos organizados em células autônomas, porém federadas. Os ganhos em efeito de rede, de escala, e de compartilhamento não-rival gerando abundância, obtidos através dessa integração, podem abrir caminhos e no limite superar a necessidade de privilégios com a geração de riqueza não monetária circulante na própria rede. Assim, quanto vale uma assinatura conjunta de: serviços livres para comunicação e colaboração digital; suporte no uso de tecnologias livres; obras e eventos culturais livres; jornalismo independente; alimentos orgânicos de pequenes produtoraes; e formações com recursos educacionais abertos?

E se uma assinatura inicialmente mais cara, mas convergente adiante, incluir computadores e outros hardwares abertos, acesso à Internet associativo, energia de fontes não poluentes, e mesmo moradias ecológicas? E se com isso uma parte significativa des aderentes trabalhassem na própria rede que es provê da maioria de suas necessidades? Já dá pra chamar de anarco-socialismo?

Minha utopia é uma alquimia livre-solidária dissolvedora de sacrifícios e de privilégios. Olhando para a história, a busca da alquimia não nos permitiu transmutar tudo em ouro. Mas nos levou à físico-química com a qual produzimos diamantes a partir de poluição atmosférica.

Está bom o suficiente para mim. E para você?

[Ale “Solstag” Abdo]

* Este texto está publicado sob licença CC-BY.
** Este texto utiliza as normas de escrita epicena descritas em <https://poetica.cienciaaberta.net/sp/Usuário:Solstag/Língua_portuguesa_neutra_de_gênero>.

]]>
https://baixacultura.org/2021/03/29/entre-livres-e-solidaries-ou-re-isso-nao-e-um-manifesto-aberto-e-livre-em-reflexao/feed/ 0
A curiosa história de um roteador adorado por hackers https://baixacultura.org/2021/02/24/a-curiosa-historia-de-um-roteador-adorado-por-hackers/ https://baixacultura.org/2021/02/24/a-curiosa-historia-de-um-roteador-adorado-por-hackers/#respond Wed, 24 Feb 2021 11:45:11 +0000 https://baixacultura.org/?p=13398

Kai Hendry/Flickr

Texto publicado originalmente na Vice, por Ernie Smith, traduzido e adaptado livremente para o BaixaCultura.

Como um firmware licenciado em software livre transformou um roteador da Linksys num dispositivo lendário para hackers

Em um mundo onde nossos roteadores se parecem cada vez mais com aranhas de cabeça para baixo do que com coisas que você gostaria de ter em sua sala de estar, há apenas um punhado de roteadores que podem ser considerados “famosos”.

Os esforços de Steve Jobs para vender o AirPort – principalmente usando um bambolê durante uma demonstração do produto – definitivamente merecem destaque nesta categoria. Os roteadores mesh feitos pelo Eero, de propriedade da Amazon, provavelmente também.

Mas um certo roteador da Linksys, apesar de ter quase 20 anos, leva o prêmio principal de roteador “famoso” – e tudo por causa de um recurso que inicialmente não foi documentado e, depois, se mostrou extremamente popular em uma base de usuários específica.

Estamos falando do ícone azul e preto do acesso sem fio, o Linksys WRT54G, o roteador sem fio que mostrou ao mundo o que um roteador sem fio pode fazer.

*

1988 foi o ano em que a Linksys foi formada por Janie e Victor Tsao, dois imigrantes taiwaneses nos Estados Unidos. De acordo com um perfil da Linksys na rede InC., a empresa começou como uma forma de conectar inventores com fabricantes no mercado taiwanês, mas logo mudou-se para o próprio negócio de hardware, no início dos anos 1990, chegando finalmente às então nascentes redes domésticas – um campo que, no início dos anos 2000, a Linksys passou a dominar.

Hoje, não costumamos parar muito para pensar quando precisamos comprar um roteador; você vai a uma loja (ou na internet) e compra um simples por a partir de R$100. Mas no final dos anos 1990 não era assim. O mercado de roteadores não estava no radar de muitas empresas de hardware porque a necessidade se limitava ao uso em escritórios, o que significava que instalar um roteador em casa era extremamente caro e estava fora do alcance de pessoas “normais”. É a oportunidade perfeita para um tipo de empresa não muito grandes para brincar com os “peixes grandes” do mercado.

Durante sua primeira década de existência, Janie e Victor Tsao aproveitaram essas oportunidades, usando as mudanças de mercado para ajudar a posicionar melhor seu hardware de rede. No início dos anos 90, o hardware Linksys ainda precisava vir com seus próprios drivers. Mas quando o Windows 95 da Microsoft apareceu, os drivers de conexão à rede vieram junto – e isso significava que uma grande barreira para a participação de mercado da Linksys repentinamente desapareceu da noite para o dia.

Com os modems dial-up em vias de sair, houve uma necessidade imediata. “À medida que o uso da Internet de banda larga doméstica começou a florescer no final dos anos 90, com custos muito mais altos do que para conexões dial-up, Victor percebeu que as pessoas iriam querer conectar todos os seus pequenos escritórios ou computadores domésticos a uma linha dessas”, disseram Janie e Victor na InC. “Para fazer isso, eles precisariam de um roteador, um divisor de cabos de alta tecnologia que permite que vários computadores se conectem a um único modem.”

As empresas com as quais a Linksys estava competindo estavam focadas em um mercado em que os roteadores custam quase tanto quanto um computador. Mas Victor encontrou o ponto ideal: um roteador de $ 199 que vinha com um software fácil de configurar e razoavelmente compreensível para meros mortais. E tinha o design distinto pelo qual a Linksys se tornou conhecida – uma mistura de plásticos azuis e preto, com uma série de minúsculas luzes LED na frente. Em uma análise do roteador EtherFast Cable / DSL, a PC Magazine observou que a Linksys fez muito mais do que o que era solicitado à época. “Um preço de US $ 200 seria uma inovação para um roteador de porta Ethernet dupla, mas a Linksys agregou ainda mais valor no pacote de 1,8 por 9,3 por 5,6 polegadas (HWD)”, escreveu Craig Ellison. O roteador, que podia lidar com velocidades de até 100 megabits, tinha quatro portas – e poderia, teoricamente, lidar com centenas de endereços IP. Talvez não fosse tão confiável quanto alguns de seus concorrentes mais caros, mas tinha um preço razoável para residências, o que o tornava uma proposta atraente para o mercado.

O resultado foi que o roteador se tornou um tremendo sucesso, que ajudou a Linksys ter participação de mercado muito maior que seus concorrentes. O sucesso chamou a atenção da Cisco, gigante do hardware de rede, que adquiriu a Linksys em 2003 por $500 milhões. A aquisição ocorreu em um momento em que a empresa criada por Janie e Victor estava ganhando meio bilhão de dólares por ano e crescia rapidamente no mundo, em grande parte devido ao sucesso de seus roteadores.

**

Surgido relativamente no início da história do roteador sem fio, a série de roteadores WRT54G mostrou uma flexibilidade muito além do que seu criador pretendia para o dispositivo. Ele estava basicamente em toda parte, nas prateleiras de residências e em pequenos negócios ao redor do mundo. O WRT54G, apesar do nome assustador, era o roteador sem fio que as pessoas que precisavam de um primeiramente comprariam.

Mas a razão pela qual a série WRT54G resistiu por tanto tempo, apesar de usar um protocolo sem fio que se tornou obsoleto há 12 anos, pode se resumir a um recurso que inicialmente não estava documentado – e que apareceu em meio a todas as complicações de um grande fusão, como foi o caso da compra da empresa pela Cisco. Intencionalmente ou não, o WRT54G estava escondendo algo fundamental no firmware do roteador: um software baseado em Linux.

Isso era um problema porque significava que a Linksys seria obrigada a liberar o código-fonte de seu firmware sem fio sob a GNU General Public License, que exige a distribuição do software derivado nos mesmos termos do software que o inspirou. Andrew Miklas, um contribuidor da lista de e-mail do kernel do Linux, explicou que havia entrado em contato pessoalmente com um membro da equipe da empresa e confirmado que o software era baseado em Linux. “Eu sei que algumas empresas sem fio hesitam em lançar drivers de código aberto porque temem que seus hardwares possam ficar fora das especificações”, escreveu ele. “No entanto, se os drivers já foram escritos, haveria alguma razão técnica para que eles não pudessem ser simplesmente recompilados para o hardware Intel e lançados como módulos binários?”

Em uma coluna de 2005 para o Linux Insider, Heather J. Meeker, uma advogada focada em questões de propriedade intelectual e software de código aberto, escreveu que teria sido uma tarefa difícil para a Cisco descobrir o software livre por conta própria:

“A primeira lição desse caso é a dificuldade de fazer diligência suficiente no desenvolvimento de software em uma era de desintegração vertical. A Cisco nada sabia sobre o problema, apesar de provavelmente ter feito diligências de propriedade intelectual na Linksys antes de comprar a empresa. Mas, para confundir as coisas, a Linksys provavelmente também não sabia do problema, porque a Linksys estava comprando chipsets da Broadcom, e a Broadcom provavelmente também não sabia, porque, por sua vez, terceirizou o desenvolvimento do firmware do chipset para um desenvolvedor estrangeiro. Para descobrir o problema, a Cisco teria que fazer diligência em três níveis de integração de produto, que qualquer pessoa no comércio de fusões e aquisições pode dizer que é praticamente impossível.”

Bruce Perens, um “capitalista de risco” (venture capitalist), defensor do código aberto e ex-líder do projeto para a distribuição Debian Linux, disse à LinuxDevices que a Cisco não foi culpada pelo que aconteceu. “Os subcontratados em geral não estão fazendo o suficiente para informar os clientes sobre suas obrigações sob a GPL”, disse Perens.

No entanto, as informações sobre o roteador com o firmware de código aberto estavam lá, e a postagem de Mikas rapidamente ganhou atenção na comunidade de entusiastas. Uma postagem do Slashdot já indicava possibilidades: “Isso pode ser interessante: pode fornecer a possibilidade de construir um firmware de ponto de acesso super-legal com IPsec e suporte nativo a ipv6 etc etc, usando essas informações!” Cerca de um mês após a postagem no Slashdot, a Linksys lançou seu firmware de código aberto.

Jay Gooby/Flickr

Para os hackers, essa informação abriu um mundo de oportunidades. Desenvolvedores terceirizados rapidamente adicionaram recursos ao hardware original que nunca foram planejados. O WRT54G era essencialmente um roteador comum que, agora, poderia ser “hackeado” para emitir um sinal sem fio mais poderoso – em desacordo com a Comissão Federal de Comunicações – desenvolvido em um servidor SSH ou VPN para sua rede doméstica – ou, ainda, poderia ser transformado no cérebro de um robô. O WRT54G também provou ser a raiz de alguns firmware de código aberto úteis na forma de OpenWrt e Tomato, entre outros, o que significava que havia toda uma infraestrutura para ajudar a estender seu roteador além do que o fabricante queria que você fizesse. A Cisco foi compelida pela ameaça de ação legal para lançar o firmware baseado em Linux sob a licença GPL, mas, embora tenha ficado impressionada ao ver que o dispositivo estava sendo usado para objetivos muito mais além do que a caixa dizia, não o fez.

Como a Lifehacker disse em 2006, era a maneira perfeita de transformar seu roteador de $60 em um roteador de $600, o que, provavelmente, significava que estava custando dinheiro à Cisco ter um dispositivo tão bom no mercado. Como resultado, a empresa “atualizou” o roteador de uma forma que era efetivamente um downgrade, removendo o firmware baseado em Linux e substituindo-o por um equivalente proprietário, reduzindo assim a quantidade de RAM e armazenamento que o dispositivo usava, o que tornava difícil substituir o firmware por algo criado por terceiros.

Isso irritou os usuários finais, e a Cisco (aparentemente percebendo que havia estragado tudo) lançou uma versão Linux do roteador, o WRT54GL, que restaurou as especificações removidas. Esse é o modelo que você ainda pode encontrar na Amazon hoje e ainda mantém uma página de suporte no site da Linksys – e apesar de atingir o máximo de 54 megabits por segundo por meio sem fio, um número irrisório considerando o que roteadores modernos com o mesmo preço podem fazer , ainda está à venda. Toda a confusão sobre a GPL piorou anos depois que a supervisão do firmware foi descoberta pela primeira vez – a Cisco acabou pagando um acordo para a Free Software Foundation. Hoje, a empresa vende uma linha inteira de roteadores preto e azul que mantêm suporte para firmware de código aberto. (Eles custam muito mais do que o WRT54G jamais custou.)

“Queremos que este livro expanda o público da plataforma WRT54G e o uso de dispositivos incorporados como um todo, revelando o potencial que esta plataforma tem a oferecer.”

Essa é uma passagem da introdução de “Linksys WRT54G Ultimate Hacking” de 2007, um livro que explora o fato do WRT54G ser um sistema embarcado que pode ser hackeado e usado de várias maneiras, tanto usos práticos quanto por pura diversão. A maioria das pessoas que comprou uma variante do WRT54G na Best Buy provavelmente não se importou que o firmware fosse de código aberto. Mas este fato criou uma espécie de culto em torno do dispositivo, tornando-o hackeável e capaz de fazer mais coisas do que se imaginaria – hackear este dispositivo se tornou tão comum que existe um livro inteiro de 400 páginas dedicado a isso.

Um texto do Ars Technica de 2016 revelou que o roteador, na época, ainda ganhava milhões de dólares por ano para a Linksys, que naquela época já havia sido vendido para a Belkin. Apesar de não ser nem de longe tão poderoso quanto as opções mais caras, o WRT54GL – sim, especificamente aquele com Linux – manteve seu público em sua segunda década porque foi percebido como sendo extremamente confiável e fácil de usar. “Vamos continuar a construí-lo porque as pessoas continuam comprando”, disse na época o gerente de produtos globais da Linksys, Vince La Duca, afirmando que o fator que mantinha o roteador à venda era que as peças continuavam a ser fabricadas.

Apesar de sua idade, o roteador continuou a vender bem por anos após sua data de validade e continua, ainda hoje, sendo amado por muitos hackers – em grande parte devido à sua dependência de drivers de código aberto. Se a sua base de usuários está dizendo para você se manter fiel a algo, continue.

]]>
https://baixacultura.org/2021/02/24/a-curiosa-historia-de-um-roteador-adorado-por-hackers/feed/ 0
Tecnologias radicalmente abertas https://baixacultura.org/2021/02/15/tecnologias-radicalmente-abertas/ https://baixacultura.org/2021/02/15/tecnologias-radicalmente-abertas/#comments Mon, 15 Feb 2021 20:29:21 +0000 https://baixacultura.org/?p=13396

Trabalhadora alemã na produção de ES 2655 mainframe na VEB Robotron, Alemanha Oriental, anos 1980. Fonte: Wikipedia

No nosso atual estado das coisas, o aparato – monstruoso – tecnológico precisa ser visível em sua integridade.

*

Nossa BaixaCharla #5 tratou de Friedrich. A Kittler, teórico de mídias alemão, a partir de uma de suas obras mais importantes, “Gramofone, Filme, Typewriter”, publicada em alemão em 1986 e editada o Brasil pela primeira vez em 2019. A conversa foi entre Leonardo Petersen Lamha, doutorando em Literatura Comparada na Universidade Federal Fluminense (UFF), e Leonardo Foletto, editor do BaixaCultura; o roteiro dos temas (mais ou menos) seguidos, com trechos da obra, está aqui. A conversa ficou gravada no YouTube (veja mais abaixo, na íntegra) e, com algumas edições e inserções musicais, virou também o primeiro podcast do BaixaCultura, já disponível em algumas plataformas de streaming a partir do Anchor, como o Spotify, que ainda é como as pessoas mais acompanham podcast. Alguns trechos, provocados pela charla, não necessariamente falados nela (alguns sim), estão neste post.

Uma genealogia possível da obra de Kittler parte, necessariamente, de Marshall McLuhan, e de Harold Innis, dois canadenses conhecidos a partir de Toronto. É a ideia de pesquisar as mídias não pelo seu conteúdo, mas por ela própria, os efeitos que elas causam. Kittler, porém, fala com mais conhecimento técnico que McLuhan; entra na carne dos aparatos, mostra diagramas e esquemas de como funcionam, traz elementos matemáticos e físicos que ajudam a dar clareza a como uma mídia veio a ser, e o que ela implica. Diverge ao inverter a máxima do teórico canadense: não são os meios de comunicação que são extensão do homem, mas o homem que é extensão da mídia. Como os teóricos franceses pós-estruturalistas que o influenciaram, tira a centralidade do humano – mas coloca na técnica e nas mídias, aparelhos que fazem as pessoas poderem se tornar obsoletas.

Mídia e técnica são diferentes para o autor alemão. A primeira processa, transmite ou armazena informação; a segunda não. Um machado, por exemplo, não processa informação, não corta um naco da realidade como as mídias fazem – é, portanto, uma técnica, um aparato técnico. As mídias transmitem, além do conteúdo, uma maneira de pensar, se comportar, pensar, relacionar. Internalizam, autonomizam e depois prescindem dos nossos sentidos. É o gramofone transformando som em sulcos;  o filme, imagens em celulóide (papel); o cinematógrafo, imagens em luz e sombra; a typewriter, o próprio ato de escrever em máquina. Todos a romper com o monopólio da escrita na percepção e construção da realidade a partir das inscrições do real em aparatos, máquinas, materiais. O gramofone, por exemplo: ao transmitir a realidade, um pedaço da realidade, a partir da transformação de um som em sulcos em cilindros (depois em discos), se torna uma técnica de criação de mundo. De que forma a realidade criada pelas inscrições do som em sulcos é diferente da anterior, monopolizada pela escrita como ferramenta de arquivo de informação e conhecimento? Como ouvir a voz em um aparelho afeta a memória?

Em Kittler, o passado parece à todo momento ficção científica. Na medida em que constroem outros mundos, cada vez mais complexos e diferentes daquilo que o humano chama de natureza, as mídias inventam narrativas baseadas nos aparatos técnicos: Ficção + Ciência. O controle artificial a que estas mídias são postas, a cargo de governos e empresas, traz sabor de distopia à estas histórias, sobretudo para quem vive a partir dos anos 2010 a intoxicação de informação potencializadas pelas redes sociais. Mas as tecnologias – e as mídias – foram desenvolvidas não para civis, mas para militares em contextos bélicos; poderíamos, no fundo, esperar diferente de algo que foi inventado para vencer as guerras, aniquilar os adversários, matar?

**

Palestra de Kittler em 1989, três anos depois da publicação de “Gramofone, FIlme, Typewriter” em alemão. Fonte: monoskop.org

Em julho de 1999, uma palestra de Kittler chamada “Wizards of OS” deu origem ao texto “Science as Open Source Process“. Nesse texto/palestra, o alemão divaga sobre o impacto dos computadores na nossa sociedade, vai contra a propriedade intelectual, defende o conhecimento e o software livre, entre outros vários temas possíveis em três páginas de escrito. Um trecho, adaptado livremente da tradução em inglês de Peter Krapp.

Não foi por acaso que as garagens e salas dos “consertadores” (hackers) que estabeleceram as bases para empresas globais como a Intel e a Apple estavam e estão localizadas próximas ou mesmo no terreno de instituições como a Rand Corporation ou a Leland Stanford Junior University. A indústria da computação faz o que a Máquina de Impressão de Gutenberg fazia quando assumiu e industrializou a caligrafia da universidade medieval. Os headhunters da Microsoft espreitam em Stanford e em outras portas de departamentos de ciência da computação, pegam novos servos de programação com novos algoritmos e os espremem por cinco anos, até que os algoritmos se tornem proprietários e os programadores, com suas opções de ações, sejam dispensados antes da aposentadoria. O pior aspecto deste escândalo parece-me que ninguém fala sobre ele.

Outro trecho, sobre propriedade intelectual:

Uma commons law americana, cujo alcance se estende da Comissão Europeia à República Popular da China, tornou um conceito impossível de propriedade intelectual tão onipresente quanto inquestionável. Máquinas que, de acordo com a prova de Turing, podem ser não apenas todas as outras máquinas, mas igualmente todos os cálculos humanos, agora devem legitimar patentes e direitos autorais mais profundamente do que nunca. Máquinas que, de acordo com os resultados mais recentes, funcionam mais rápido e com mais eficiência quando não foram programados por programadores, mas por si próprios, devem pertencer aos humanos como propriedade privada – talvez por meio de um eufemismo para os interesses corporativos do capital.

A relação das consequências da “computer revolution” com o período medieval também se faz presente:

Quando a imprensa escrita e o estado-nação engoliram as tecnologias de mídia da universidade medieval, o conhecimento foi deixado praticamente intocado no nível do conteúdo. O armazenamento e a transmissão foram privatizados ou nacionalizados, mas o processamento de dados propriamente dito ainda era conduzido naquele belo e antigo circuito de feedback de olhos, ouvidos e mãos que escrevem. Foi isso o que mudou com a revolução do computador. As máquinas universais de Turing tornam especialmente esse processamento de dados tecnologicamente reproduzível. Elas fizeram com que as diferenças entre os conhecimentos sobre tecnologia, ciências naturais e humanidades desaparecessem progressivamente.

O texto, como o título sugere, pode ser lido como uma defesa da ciência – e das tecnologias – como processos que precisam ser abertos. Daí sua crítica ao sistema de patentes de software e a defesa do software livre, do GNU (criado a partir de Richard Stallman enquanto estava no MIT) ao Linux (desenvolvido principalmente pelo finlandês Linus Torvalds).

Todos vocês sabem melhor do que eu que a crítica a este sistema só pode ser prática. Observações teóricas ou históricas como a minha podem, no melhor caso, ajudar para que não se perca a visão geral entre todas as atualizações e benchmarks [dessa indústria]. No entanto, foi prático quando alguns programadores do MIT resistiram à venalidade e quando um estudante de ciência da computação na Universidade de Helsinque superou o medo generalizado de montadores e partidas a frio. É assim que o código-fonte aberto e o software livre são imediatamente conectados à universidade. Veja quanto “edu” está nos fontes do kernel Linux. É também assim que o futuro da universidade depende diretamente desses recursos livres.

O desfecho do texto sugere algo que, quando foi escrito (falado), Kittler estava praticando, ao se embrenhar nos computadores e ensinar programação  à crianças – depois ele abandonou essa atividade, mas isso é outra história.

“No futuro”, supõe-se que Bill Gates tenha dito recentemente em um memorando talvez não proprietário, mas ainda interno, “trataremos o usuário final como tratamos os computadores: ambos são programáveis”. Mas enquanto houver pessoas que sejam capazes de programar em vez de serem programadas, essa visão felizmente não terá futuro.

O teórico alemão a todo momento, direta ou indiretamente, faz um alerta: não confundir as tecnologias com as interfaces. Como consequência que é muitas vezes vendida como inevitável para nós, a construção de cada vez mais complexas tecnologias traz à reboque as interfaces, interpostos que apagam o funcionamento de algumas tecnologias (e das mídias) em nome de um maior e mais fácil uso e acesso a estas tecnologias por todos. Será mesmo inevitável viver com aparatos que não entendemos bem como funciona – e nem temos acesso ao seu código-fonte – em nome daquilo que estes aparatos nos facilitam, nos fazem fazer? será que fatalmente vamos viver intoxicados pelo que as “novas” tecnologias nos prometem sem termos feito o trabalho de entender como essas tecnologias vieram a ser, nesse momento histórico, com esses atores?

Outras perguntas que renderiam muitas conversas e publicações: É da natureza da máquina se esconder? Seria o papel da mídia desaparecer? Em nome de passar a mensagem, a mídia virar apenas mensagem, dar lugar somente aos seus conteúdos, se tornando invisível todo o aparato técnico-simbólico? Essa parece ser a ideia que muitos, mesmo de forma não intencional, propagam ao esquecer a forma pelo qual uma dada mensagem passa para poder ser veiculada em determinada mídia. Também parece ser um esforço da própria mídia (e do jornalismo): não destacar como funcionam, o seu modus operandi, tornar opaco a forma (e também o conteúdo) ao falar de tecnologias e mídias como também quando falam dos próprios fatos e de como os relatam – o esquecimento do como veio a ser parece ser intencional, embutido no método de fazer, jamais inocência.

Felizmente há gente como Kittler e outros tantos que continuam o esforço de tornar as tecnologias radicalmente abertas.

]]>
https://baixacultura.org/2021/02/15/tecnologias-radicalmente-abertas/feed/ 2