Resultados da pesquisa por “ciclo copy” – BaixaCultura https://baixacultura.org Cultura livre & (contra) cultura digital Thu, 29 Feb 2024 22:53:02 +0000 pt-BR hourly 1 https://wordpress.org/?v=6.0.9 https://baixacultura.org/wp-content/uploads/2022/09/cropped-adesivo1-32x32.jpeg Resultados da pesquisa por “ciclo copy” – BaixaCultura https://baixacultura.org 32 32 O olho do mestre: a automação da inteligência geral https://baixacultura.org/2024/02/28/o-olho-do-mestre-a-automacao-da-inteligencia-geral/ https://baixacultura.org/2024/02/28/o-olho-do-mestre-a-automacao-da-inteligencia-geral/#respond Thu, 29 Feb 2024 01:07:13 +0000 https://baixacultura.org/?p=15585  

No final de 2023, não lembro onde nem como, fiquei sabendo de “The Eye of the Master”, novo livro do Matteo Pasquinelli sobre IA. Fiquei na hora empolgado. Primeiro porque a proposta do livro é a de contar uma “história social” da IA, indo desde Charles Babbage até hoje, passando e destrinchando o conceito de general intellect de Marx (hoje bastante usado nos estudos tecnopolíticos) e a onipresente cibernética, também uma área de estudos bastante retomada nos últimos anos por Yuk Hui, Letícia Cesarino e diversos outros pesquisadores, até chegar as IAs generativas de hoje. Tudo uma abordagem rigorosa, por vezes densa,  cheia de referências saborosas, e marxista – com várias aberturas típicas do autonomismo italiano e do pós-operaísmo, influências do autor.

Segundo porque Pasquinelli, professor de filosofia da ciência na Universidade Foscari, em Veneza, tem, ele próprio, um belo histórico em se debruçar nos estudos da filosofia da técnica. Eu o conheci pela primeira vez há cerca de 10 anos atrás, quando o artigo “A ideologia da cultura livre e a gramática da sabotagem” saiu como capítulo do Copyfight, importante livro organizado por Bruno Tarin e Adriano Belisário. Depois, outros textos de Pasquinelli foram publicados em português pelo coletivo Universidade Nômade; um deles, “O algoritmo do PageRank do Google: Um diagrama do capitalismo cognitivo e da exploração da inteligência social geral”, já em 2012 apontava para a exploração da “inteligência social geral” por algoritmos das big techs – o que hoje, com IAs generativas, virou um consenso global.

Ainda estou digerindo a leitura da obra e me debruçando sobre alguns tópicos e referências citados, enquanto espero minha cópia impressa do original chegar para rabiscar e estudar com mais calma. Encharcado de uma saborosa empolgação intelectual, daquelas que nos deixam ao mesmo tempo animado pelas descobertas e ansioso em compartilhar esses achados, fui ao texto que Pasquinelli publicou no E-Flux, em dezembro de 2023, “The Automation of General Intelligence” e traduzi para o português. O texto publicado é uma versão do posfácio do livro, onde o italiano sintetiza alguns pontos da obra e aponta caminhos tanto para a discussão teórica quanto para a disputa ativista. Com a ajuda do amigo Leonardo Palma, busquei traduzir cotejando e adaptando alguns conceitos para o português brasileiro, tentando quando possível trazer referências às obras já publicadas por aqui. 

Para acompanhar o texto, trouxe as imagens que ilustram a publicação no E-Flux. Disponibilizo também o livro inteiro em inglês, publicado pela Verso Books (edições em outros idiomas estão vindo) – “The Eye of the Master: A Social History of Artificial Intelligence” – para baixar – mas você sabe, não é para espalhar.

[Leonardo Foletto]

A automação da Inteligência geral (General Intelligence)

Matteo Pasquinelli

Queremos fazer as perguntas certas. Como as ferramentas funcionam? Quem as financia e as constroi, e como são usadas? A quem elas enriquecem e a quem elas empobrecem? Que futuros elas tornam viáveis e quais excluem? Não estamos procurando respostas. Estamos procurando por lógica.
—Logic Magazine Manifesto, 2017[¹]

Vivemos na era dos dados digitais e, nessa era, a matemática se tornou o parlamento da política. A lei social se entrelaçou com modelos, teoremas e algoritmos. Com os dados digitais, a matemática se tornou o meio dominante pelo qual os seres humanos se coordenam com a tecnologia… Afinal, a matemática é uma atividade humana. Como qualquer outra atividade humana, ela traz consigo as possibilidades tanto de emancipação quanto de opressão.
—Politically Mathematics manifesto, 2019[²]

“A mesma importância que as relíquias de ossos têm para o conhecimento da organização das espécies de animais extintas têm também as relíquias de meios de trabalho para a compreensão de formações socioeconômicas extintas. O que diferencia as épocas econômicas não é “o que” é produzido, mas “como”, “com que meios de trabalho”. Estes não apenas fornecem uma medida do grau de desenvolvimento da força de trabalho, mas também indicam as condições sociais nas quais se trabalha”.
—Karl Marx, Capital, 1867[³]


H
averá um dia no futuro em que a IA atual será considerada um arcaísmo, um fóssil técnico a estudar entre outros
. Na passagem de “O Capital” citada acima, Marx sugeriu uma analogia semelhante que ressoa nos estudos científicos e tecnológicos atuais: da mesma forma que os ossos fósseis revelam a natureza das espécies antigas e os ecossistemas em que viviam, os artefatos técnicos revelam a forma da sociedade que os rodeia e gere. A analogia é relevante, penso eu, para todas as máquinas e também para a aprendizagem automática, cujos modelos abstratos codificam, na realidade, uma concretização de relações sociais e comportamentos coletivos, como este livro tentou demonstrar ao reformular a teoria laboral da automação do século XIX para a era da IA.

 

 

Este livro [“ O Olho do Mestre”] começou com uma pergunta simples: Que relação existe entre o trabalho, as regras e a automação, ou seja, a invenção de novas tecnologias? Para responder a esta questão, iluminou práticas, máquinas e algoritmos a partir de diferentes perspectivas – da dimensão “concreta” da produção e da dimensão “abstrata” de disciplinas como a matemática e a informática. A preocupação, no entanto, não tem sido repetir a separação dos domínios concreto e abstrato, mas ver a sua coevolução ao longo da história: eventualmente, investigar o trabalho, as regras e a automação, dialeticamente, como abstrações materiais. O capítulo inicial sublinha este aspecto, destacando como os rituais antigos, os instrumentos de contagem e os “algoritmos sociais” contribuíram para a elaboração das ideias matemáticas. Afirmar, como o fez a introdução, que o trabalho é uma atividade lógica não é uma forma de abdicar da mentalidade das máquinas industriais e dos algoritmos empresariais, mas antes reconhecer que a práxis humana exprime a sua própria lógica (uma anti-lógica, poderia se dizer) – um poder de especulação e invenção, antes de a tecnociência o capturar e alienar [4].

A tese de que o trabalho tem de se tornar “mecânico” por si só, antes que a maquinaria o substitua, é um velho princípio fundamental que foi simplesmente esquecido. Remonta, pelo menos, à exposição de Adam Smith em “A Riqueza das Nações” (1776), que Hegel também comentou já nas suas conferências de Jena (1805-6). A noção de Hegel de “trabalho abstrato” como o trabalho que dá “forma” à maquinaria já estava em dívida para com a economia política britânica antes de Marx contribuir com a sua própria crítica radical ao conceito. Coube a Charles Babbage sistematizar a visão de Adam Smith numa consistente “teoria do trabalho da automação”. Babbage complementou esta teoria com o “princípio do cálculo do trabalho” (conhecido desde então como o “princípio de Babbage”) para indicar que a divisão do trabalho também permite o cálculo exato dos custos do trabalho. Este livro pode ser considerado uma exegese dos dois “princípios de análise do trabalho” de Babbage e da sua influência na história comum da economia política, da computação automatizada e da inteligência das máquinas. Embora possa parecer anacrônico, a teoria da automatização e da extração de mais-valia relativa de Marx partilha postulados comuns com os primeiros projetos de inteligência artificial.

Marx derrubou a perspetiva industrialista – “o olho do mestre” – que era inerente aos princípios de Babbage. Em “O Capital”, argumentou que as “relações sociais de produção” (a divisão do trabalho no sistema salarial) impulsionam o desenvolvimento dos “meios de produção” (máquinas-ferramentas, motores a vapor, etc.) e não o contrário, como as leituras tecno-deterministas têm vindo a afirmar, centrando a revolução industrial apenas na inovação tecnológica. Destes princípios de análise do trabalho, Marx fez ainda outra coisa: considerou a cooperação do trabalho não só como um princípio para explicar o design das máquinas, mas também para definir a centralidade política daquilo a que chamou o “Gesamtarbeiter“, o “trabalhador geral”. A figura do trabalhador geral era uma forma de reconhecer a dimensão maquínica do trabalho vivo e de confrontar o “vasto autômato” da fábrica industrial com a mesma escala de complexidade. Eventualmente, foi também uma figura necessária para fundamentar, numa política mais sólida, a ideia ambivalente do “intelecto geral” (general intellect) que os socialistas ricardianos, como William Thompson e Thomas Hodgskin, perseguiam.


Das linhas de montagem ao reconhecimento de padrões

Este livro apresentou uma história alargada da divisão do trabalho e das suas métricas como forma de identificar o princípio operativo da IA a longo prazo. Como vimos, na virada do século XIX, quanto mais a divisão do trabalho se estendia a um mundo globalizado, mais problemática se tornava a sua gestão, exigindo novas técnicas de comunicação, controle e “inteligência”. Se, no interior da fábrica a gestão do trabalho podia ainda ser esboçada num simples fluxograma e medida por um relógio, era muito complicado visualizar e quantificar aquilo que Émile Durkheim, já em 1893, definia como “a divisão do trabalho social“[5]. A “inteligência” do patrão da fábrica já não podia vigiar todo o processo de produção num único olhar; agora, só as infra-estruturas de comunicação podiam desempenhar esse papel de supervisão e quantificação. Os novos meios de comunicação de massas, como o telégrafo, o telefone, a rádio e as redes de televisão, tornaram possível a comunicação entre países e continentes, mas também abriram novas perspectivas sobre a sociedade e os comportamentos coletivos. James Beniger descreveu corretamente a ascensão das tecnologias da informação como uma “revolução do controle” que se revelou necessária nesse período para governar o boom econômico e o excedente comercial do Norte Global.  Após a Segunda Guerra Mundial, o controle desta logística alargada passou a ser preocupação de uma nova disciplina militar que fazia a ponte entre a matemática e a gestão: a pesquisa operacional (Operations Research). No entanto, há que ter em conta que as transformações da classe trabalhadora no interior de cada país e entre países, marcadas por ciclos de conflitos urbanos e lutas descoloniais, foram também um dos fatores que levaram ao aparecimento destas novas tecnologias de controle.

A mudança de escala da composição do trabalho do século XIX para o século XX também afetou a lógica da automatização, ou seja, os paradigmas científicos envolvidos nesta transformação. A divisão industrial do trabalho relativamente simples e as suas linhas de montagem aparentemente retilíneas podem ser facilmente comparadas a um simples algoritmo, um procedimento baseado em regras com uma estrutura “se/então“(if/then) que tem o seu equivalente na forma lógica da dedução. A dedução, não por coincidência, é a forma lógica que, através de Leibniz, Babbage, Shannon e Turing, se inervou na computação eletromecânica e, eventualmente, na IA simbólica. A lógica dedutiva é útil para modelar processos simples, mas não sistemas com uma multiplicidade de agentes autônomos, como a sociedade, o mercado ou o cérebro. Nestes casos, a lógica dedutiva é inadequada porque explodiria qualquer procedimento, máquina ou algoritmo num número exponencial de instruções. A partir de preocupações semelhantes, a cibernética começou a investigar a auto-organização em seres vivos e máquinas para simular a ordem em sistemas de alta complexidade que não podiam ser facilmente organizados de acordo com métodos hierárquicos e centralizados. Esta foi fundamentalmente a razão de ser do conexionismo e das redes neurais artificiais, bem como da investigação inicial sobre redes de comunicação distribuídas, como a Arpanet (a progenitora da Internet).

Ao longo do século XX, muitas outras disciplinas registaram a crescente complexidade das relações sociais. Os conceitos gêmeos de “Gestalt” e “padrão” (“pattern”), por exemplo, utilizados respectivamente por Kurt Lewin e Friedrich Hayek, foram um exemplo da forma como a psicologia e a economia responderam a uma nova composição da sociedade. Lewin introduziu noções holísticas como “campo de forças”(“force field”) e “espaço hodológico” (“hodological space”) para mapear a dinâmica de grupo a diferentes escalas entre o indivíduo e a sociedade de massas[6].

O pensamento francês tem sido particularmente fértil e progressivo nesta direção. Os filósofos Gaston Bachelard e Henri Lefebvre propuseram, por exemplo, o método da “ritmanálise” (“rhythmanalysis”) como estudo dos ritmos sociais no espaço urbano (que Lefebvre descreveu de acordo com as quatro tipologias de arritmia, polirritmia, eurritmia e isorritmia [7]). De forma semelhante, a arqueologia francesa dedicou-se ao estudo de formas alargadas de comportamento social nas civilizações antigas. Por exemplo, o paleoantropólogo André Leroi-Gourhan, juntamente com outros, introduziu a ideia de cadeia operacional (“chaîne opératoire”) para explicar a forma como os humanos pré-históricos produziam utensílios [8]. No culminar desta longa tradição de “diagramatização” dos comportamentos sociais no pensamento francês, Gilles Deleuze escreveu o seu célebre “Pós-escrito sobre a Sociedade de Controle”, no qual afirmava que o poder já não se preocupava com a disciplina dos indivíduos, mas com o controle dos “dividuais”, ou seja, dos fragmentos de um corpo alargado e desconstruído [9].

Os campos de força de Lewin, os ritmos urbanos de Lefebvre e os dividuais de Deleuze podem ser vistos como previsões dos princípios de “governação algorítmica” que se estabeleceram com a sociedade em rede e os seus vastos centros de dados desde o final da década de 1990. O lançamento em 1998 do algoritmo PageRank da Google – um método para organizar e pesquisar o hipertexto caótico da Web – é considerado, por convenção, a primeira elaboração em grande escala de “grandes dados” das redes digitais [10]. Atualmente, estas técnicas de mapeamento de redes tornaram-se onipresentes: O Facebook, por exemplo, utiliza o protocolo Open Graph para quantificar as redes de relações humanas que alimentam a economia da atenção da sua plataforma [11]. O exército dos EUA tem utilizado as suas próprias técnicas controversas de “análise de padrões de vida” para mapear redes sociais em zonas de guerra e identificar alvos de ataques de drones que, como é sabido, mataram civis inocentes [12]. Mais recentemente, as plataformas da gig economy (“Economia do Bico”) e os gigantes da logística, como a Uber, a Deliveroo, a Wolt e a Amazon, começaram a localizar a sua frota de passageiros e condutores através de aplicações de geolocalização [13]. Todas estas técnicas fazem parte do novo domínio da “análise de pessoas” (também conhecida como “física social” ou “psicografia”), que é a aplicação da estatística, da análise de dados e da aprendizagem automática ao problema da força de trabalho na sociedade pós-industrial [14].

 

A automação da psicometria, ou inteligência geral (general intellect)

A divisão do trabalho, tal como o design das máquinas e dos algoritmos, não é uma forma abstrata em si, mas um meio de medir o trabalho e os comportamentos sociais e de diferenciar as pessoas em função da sua capacidade produtiva. Tal como os princípios de Babbage indicam, qualquer divisão do trabalho implica uma métrica: uma medição da performatividade e da eficiência dos trabalhadores, mas também um juízo sobre as classes de competências, o que implica uma hierarquia social implícita. A métrica do trabalho foi introduzida para avaliar o que é e o que não é produtivo, para manipular uma assimetria social e, ao mesmo tempo, declarar uma equivalência ao sistema monetário. Durante a era moderna, as fábricas, os quartéis e os hospitais têm procurado disciplinar e organizar os corpos e as mentes com métodos semelhantes, tal como Michel Foucault, entre outros, pressentiu.

No final do século XIX, a metrologia do trabalho e dos comportamentos encontrou um aliado num novo campo da estatística: a psicometria. A psicometria tinha como objetivo medir as competências da população na resolução de tarefas básicas, fazendo comparações estatísticas em testes cognitivos em vez de medir o desempenho físico, como no campo anterior da psicofísica [15]. Como parte do legado controverso de Alfred Binet, Charles Spearman e Louis Thurstone, a psicometria pode ser considerada uma das principais genealogias da estatística, que nunca foi uma disciplina neutra, mas sim uma disciplina preocupada com a “medida do homem”, a instituição de normas de comportamento e a repressão de anomalias [16]. A transformação da métrica do trabalho em psicometria do trabalho é uma passagem fundamental tanto para a gestão como para o desenvolvimento tecnológico no século XX. É revelador que, ao conceber o primeiro perceptron de rede neural artificial, Frank Rosenblatt tenha se inspirado não só nas teorias da neuroplasticidade, mas também nas ferramentas de análise multivariável que a psicometria importou para a psicologia norte-americana na década de 1950.

Nesta perspetiva, este livro tenta esclarecer como o projeto de IA surgiu, na realidade, da automação da psicometria do trabalho e dos comportamentos sociais – e não da procura da solução do “enigma” da inteligência. Num resumo conciso da história da IA, pode se dizer que a mecanização do “intelecto geral” (“general intellect”) da era industrial na “inteligência artificial” do século XXI foi possível graças à medição estatística da competência, como o fator de “inteligência geral” de Spearman, e à sua posterior automatização em redes neurais artificiais. Se na era industrial a máquina era considerada uma encarnação da ciência, do conhecimento e do “intelecto geral” (“general intellect”) dos trabalhadores, na era da informação as redes neurais artificiais tornaram-se as primeiras máquinas a codificar a “inteligência geral” em ferramentas estatísticas – no início, especificamente, para automatizar o reconhecimento de padrões como uma das tarefas-chave da “inteligência artificial”. Em suma, a forma atual de IA, a aprendizagem automática, é a automatização das métricas estatísticas que foram originalmente introduzidas para quantificar as capacidades cognitivas, sociais e relacionadas com o trabalho. A aplicação da psicometria através das tecnologias da informação não é um fenômeno exclusivo da aprendizagem automática. O escândalo de dados de 2018 entre o Facebook e a Cambridge Analytica, em que a empresa de consultoria conseguiu recolher os dados pessoais de milhões de pessoas sem o seu consentimento, é um lembrete de como a psicometria em grande escala continua a ser utilizada por empresas e atores estatais numa tentativa de prever e manipular comportamentos coletivos [17].

Dado o seu legado nas ferramentas estatísticas da biometria do século XIX, também não é surpreendente que as redes neurais artificiais profundas tenham recentemente se desdobrado em técnicas avançadas de vigilância, como o reconhecimento facial e a análise de padrões de vida. Acadêmicos críticos da IA, como Ruha Benjamin e Wendy Chun, entre outros, expuseram as origens racistas destas técnicas de identificação e definição de perfis que, tal como a psicometria, quase representam uma prova técnica do viés social (“social bias”) da IA [18]. Identificaram, com razão, o poder da discriminação no cerne da aprendizagem automática e a forma como esta se alinha com os aparelhos de normatividade da era moderna, incluindo as taxonomias questionáveis da medicina, da psiquiatria e do direito penal [19].

A metrologia da inteligência iniciada nos finais do século XIX, com a sua agenda implícita e explícita de segregação social e racial, continua a funcionar no cerne da IA para disciplinar o trabalho e reproduzir as hierarquias produtivas do conhecimento. Por conseguinte, a lógica da IA não é apenas a automação do trabalho, mas o reforço destas hierarquias sociais de uma forma indireta. Ao declarar implicitamente o que pode ser automatizado e o que não pode, a IA impôs uma nova métrica da inteligência em cada fase do seu desenvolvimento. Mas comparar a inteligência humana e a inteligência das máquinas implica também um julgamento sobre que comportamento humano ou grupo social é mais inteligente do que outro, que trabalhadores podem ser substituídos e quais não podem. Em última análise, a IA não é apenas um instrumento para automatizar o trabalho, mas também para impor padrões de inteligência mecânica que propagam, de forma mais ou menos invisível, hierarquias sociais de conhecimentos e competências. Tal como acontece com qualquer forma anterior de automatização, a IA não se limita a substituir trabalhadores, mas desloca-os e reestrutura-os numa nova ordem social.

 

A automação da automação

Se observarmos atentamente como os instrumentos estatísticos concebidos para avaliar as competências cognitivas e discriminar a produtividade das pessoas se transformaram em algoritmos, torna-se evidente um aspecto mais profundo da automação. De fato, o estudo da metrologia do trabalho e dos comportamentos revela que a automação emerge, em alguns casos, da transformação dos próprios instrumentos de medição em tecnologias cinéticas. Os instrumentos de quantificação do trabalho e de discriminação social tornaram-se “robôs” por direito próprio. Antes da psicometria, se poderia referir a forma como o relógio utilizado para medir o tempo de trabalho na fábrica foi mais tarde implementado por Babbage para a automatização do trabalho mental na Máquina Diferencial. Os cibernéticos, como Norbert Wiener, continuaram a considerar o relógio como um modelo-chave tanto para o cérebro como para o computador. A este respeito, o historiador da ciência Henning Schmidgen observou como a cronometria dos estímulos nervosos contribuiu para a consolidação da metrologia cerebral e também para o modelo de redes neurais de McCulloch e Pitts [20]. A teoria da automação que este livro ilustrou não aponta, portanto, apenas para a emergência de máquinas a partir da lógica da gestão do trabalho, mas também a partir dos instrumentos e métricas para quantificar a vida humana em geral e torná-la produtiva.

Este livro procurou mostrar que a IA é o culminar da longa evolução da automação do trabalho e da quantificação da sociedade. Os modelos estatísticos da aprendizagem automática não parecem, de fato, ser radicalmente diferentes da concepção das máquinas industriais, mas antes homólogos a elas: são, de fato, constituídos pela mesma inteligência analítica das tarefas e dos comportamentos coletivos, embora com um grau de complexidade mais elevado (isto é, número de parâmetros). Tal como as máquinas industriais, cuja concepção surgiu gradualmente através de tarefas de rotina e de ajustes por tentativa e erro, os algoritmos de aprendizagem automática adaptam o seu modelo interno aos padrões dos dados de treino através de um processo comparável de tentativa e erro. Pode dizer-se que a concepção de uma máquina, bem como a de um modelo de um algoritmo estatístico, seguem uma lógica semelhante: ambos se baseiam na imitação de uma configuração externa de espaço, tempo, relações e operações. Na história da IA, isto era tão verdadeiro para o perceptron de Rosenblatt (que visava registar os movimentos do olhar e as relações espaciais do campo visual) como para qualquer outro algoritmo de aprendizagem de máquinas atual (por exemplo, máquinas de vetores de apoio, redes bayesianas, modelos de transformadores).

Enquanto a máquina industrial incorpora o diagrama da divisão do trabalho de uma forma determinada (pensemos nos componentes e nos “graus de liberdade” limitados de um tear têxtil, de um torno ou de uma escavadora mineira), os algoritmos de aprendizagem automática (especialmente os modelos recentes de IA com um vasto número de parâmetros) podem imitar atividades humanas complexas [21]. Embora com níveis problemáticos de aproximação e enviesamento, um modelo de aprendizagem automática é um artefato adaptativo que pode codificar e reproduzir as mais diversas configurações de tarefas. Por exemplo, um mesmo modelo de aprendizagem automática pode imitar tanto o movimento de braços robóticos em linhas de montagem como as operações do condutor de um automóvel autônomo; o mesmo modelo pode também traduzir entre línguas tanto como descrever imagens com palavras coloquiais.

O surgimento de grandes modelos de base nos últimos anos (por exemplo, BERT, GPT, CLIP, Codex) demonstra como um único algoritmo de aprendizagem profunda pode ser treinado num vasto conjunto de dados integrado (incluindo texto, imagens, fala, dados estruturados e sinais 3D) e utilizado para automatizar uma vasta gama das chamadas tarefas a jusante (resposta a perguntas, análise de sentimentos, extração de informações, geração de texto, legendagem de imagens, geração de imagens, transferência de estilos, reconhecimento de objectos, seguimento de instruções, etc.) [22]. Pela forma como foram construídos com base em grandes repositórios de patrimônio cultural, conhecimento coletivo e dados sociais, os grandes modelos de base são a aproximação mais próxima da mecanização do “intelecto geral” que foi prevista na era industrial. Um aspecto importante da aprendizagem automática que os modelos de base demonstram é que a automação de tarefas individuais, a codificação do patrimônio cultural e a análise de comportamentos sociais não têm qualquer distinção técnica: podem ser realizadas por um único e mesmo processo de modelação estatística.

Em conclusão, a aprendizagem automática pode ser vista como o projeto de automatizar o próprio processo de concepção de máquinas e de criação de modelos – ou seja, a automação da teoria laboral da própria automação. Neste sentido, a aprendizagem automática e, especificamente, os modelos de grandes fundações representam uma nova definição de Máquina Universal, pois a sua capacidade não se limita a executar tarefas computacionais, mas a imitar o trabalho e os comportamentos coletivos em geral. O avanço que a aprendizagem automática passou a representar não é, portanto, apenas a “automação da estatística”, como a aprendizagem automática é por vezes descrita, mas a automação da automação, trazendo este processo para a escala do conhecimento coletivo e do patrimônio cultural [23]. Além disso, a aprendizagem automática pode ser considerada como a prova técnica da integração progressiva da automação do trabalho e da governação social. Emergindo da imitação da divisão do trabalho e da psicometria, os modelos de aprendizagem automática evoluíram gradualmente para um paradigma integrado de governança que a análise de dados empresariais e os seus vastos centros de dados bem exemplificam.

 

Desfazendo o Algoritmo Mestre

Tendo em conta a dimensão crescente dos conjuntos de dados, os custos de formação dos grandes modelos e o monopólio da infraestrutura de computação em nuvem que é necessário para que algumas empresas como a Amazon, a Google e a Microsoft (e as suas congéneres asiáticas Alibaba e Tencent) hospedarem esses modelos, tornou-se evidente para todos que a soberania da IA continua a ser um assunto difícil à escala geopolítica. Além disso, a confluência de diferentes aparelhos de governança (ciência climática, logística global e até cuidados de saúde) para o mesmo hardware (computação em nuvem) e software (aprendizagem de máquina) assinala uma tendência ainda mais forte para a monopolização. Para além da notória questão da acumulação de poder, a ascensão dos monopólios de dados aponta para um fenômeno de convergência técnica que é fundamental para este livro: os meios de trabalho tornaram-se os mesmos meios de medição e, do mesmo modo, os meios de gestão e logística tornaram-se os mesmos meios de planejamento econômico.

Isto também se tornou evidente durante a pandemia de Covid-19, quando foi criada uma grande infraestrutura para acompanhar, medir e prever os comportamentos sociais [24]. Esta infraestrutura, sem precedentes na história dos cuidados de saúde e da biopolítica, não foi, no entanto, criada ex nihilo, mas construída a partir de plataformas digitais existentes que orquestram a maior parte das nossas relações sociais. Sobretudo durante os períodos de confinamento, o mesmo meio digital foi utilizado para trabalhar, fazer compras, comunicar com a família e os amigos e, eventualmente, para os cuidados de saúde. As métricas digitais do corpo social, como a geolocalização e outros metadados, foram fundamentais para os modelos preditivos do contágio global, mas elas são usadas há muito tempo para acompanhar o trabalho, a logística, o comércio e a educação. Filósofos como Giorgio Agamben afirmaram que esta infraestrutura prolongou o estado de emergência da pandemia, quando, na verdade, a sua utilização nos cuidados de saúde e na biopolítica dá continuidade a décadas de monitorização da produtividade econômica do corpo social, que passou despercebida a muitos [25].

A convergência técnica das infra estruturas de dados revela também que a automação contemporânea não se limita à automação do trabalhador individual, como na imagem estereotipada do robô humanoide, mas à automação dos patrões e gestores da fábrica, como acontece nas plataformas da gig economy. Dos gigantes de logística (Amazon, Alibaba, DHL, UPS, etc.) e da mobilidade (Uber, Share Now, Foodora, Deliveroo) às redes sociais (Facebook, TikTok, Twitter), o capitalismo de plataforma é uma forma de automação que, na realidade, não substitui os trabalhadores, mas multiplica-os e governa-os de novo. Desta vez, não se trata tanto da automação do trabalho, mas sim da automação da gestão. Sob esta nova forma de gestão algorítmica, todos nós passamos a ser trabalhadores individuais de um vasto autômato composto por utilizadores globais, “turkers“, prestadores de cuidados, condutores e cavaleiros de muitos tipos. O debate sobre o receio de que a IA venha a substituir totalmente os empregos é errôneo: na chamada economia das plataformas, os algoritmos substituem a gestão e multiplicam os empregos precários. Embora as receitas da gig economy continuem a ser pequenas em relação aos setores locais tradicionais, ao utilizarem a mesma infraestrutura a nível mundial, estas plataformas estabeleceram posições de monopólio. O poder do novo “mestre” não está na automatização de tarefas individuais, mas na gestão da divisão social do trabalho. Contra a previsão de Alan Turing, é o mestre, e não o trabalhador, que o robô veio substituir em primeiro lugar [26].

Nos perguntamos qual seria a possibilidade de intervenção política num espaço tão tecnologicamente integrado e se o apelo ao “redesign da IA” que as iniciativas populares e institucionais defendem é razoável ou praticável. Este apelo deveria começar por responder a uma questão mais premente: Como é que é possível “redesenhar” os monopólios de dados e conhecimento em grande escala [27]? À medida que grandes empresas como a Amazon, a Walmart e a Google conquistaram um acesso único às necessidades e aos problemas de todo o corpo social, um movimento crescente pede não só que estas infra-estruturas se tornem mais transparentes e responsáveis, mas também que sejam coletivizadas como serviços públicos (como sugeriu Fredric Jameson, entre outros), ou que sejam substituídas por alternativas públicas (como defendeu Nick Srnicek [28]). Mas qual seria uma forma diferente de projetar essas alternativas?

Tal como a teoria da automação deste livro sugere, qualquer aparelho tecnológico e institucional, incluindo a IA, é uma cristalização de um processo social produtivo. Os problemas surgem porque essa cristalização “ossifica” e reitera estruturas, hierarquias e desigualdades do passado. Para criticar e desconstruir artefatos complexos como os monopólios de IA, devemos começar por fazer o trabalho meticuloso do desconexão (“deconnectionism”) , desfazendo – passo a passo, arquivo a arquivo, conjunto de dados a conjunto de dados, metadado a metadado, correlação a correlação, padrão a padrão – o tecido social e econômico que os constitui na origem. Este trabalho já está sendo desenvolvido por uma nova geração de acadêmicos que estão a dissecar a cadeia de produção global de IA, especialmente os que utilizam métodos de “pesquisa-ação”. Destacam-se, entre muitos outros, a plataforma Turkopticon de Lilly Irani, utilizada para “interromper a invisibilidade do trabalhador” na plataforma de trabalho temporário Amazon Mechanical Turk; a investigação de Adam Harvey sobre conjuntos de dados de treino para reconhecimento facial, que expôs as violações maciças da privacidade das empresas de IA e da investigação acadêmica; e o trabalho do coletivo Politically Mathematics da Índia, que analisou o impacto econômico dos modelos preditivos da Covid-19 nas populações mais pobres e recuperou a matemática como um espaço de luta política (ver o seu manifesto citado no início deste texto).

A teoria laboral da automação é um princípio analítico para estudar o novo “olho do mestre” que os monopólios de IA encarnam. No entanto, precisamente devido à sua ênfase no processo de trabalho e nas relações sociais que constituem os sistemas técnicos, é também um princípio sintético e “sociogênico” (para utilizar o termo programático de Frantz Fanon e Sylvia Wynter [29]). O que está no cerne da teoria laboral da automação é, em última análise, uma prática de autonomia social. As tecnologias só podem ser julgadas, contestadas, reapropriadas e reinventadas se se inserirem na matriz das relações sociais que originalmente as constituíram. As tecnologias alternativas devem situar-se nestas relações sociais, de uma forma não muito diferente do que os movimentos cooperativos fizeram nos séculos passados. Mas construir algoritmos alternativos não significa torná-los mais éticos. Por exemplo, a proposta de codificação de regras éticas na IA e nos robôs parece altamente insuficiente e incompleta, porque não aborda diretamente a função política geral da automação no seu cerne [30].

O que é necessário não é nem o tecnosolucionismo nem o tecnopauperismo, mas sim uma cultura de invenção, concepção e planejamento que se preocupe com as comunidades e o coletivo, sem nunca ceder totalmente a agência e a inteligência à automação. O primeiro passo da tecnopolítica não é tecnológico, mas político. Trata-se de emancipar e descolonizar, quando não de abolir na totalidade, a organização do trabalho e das relações sociais em que se baseiam os sistemas técnicos complexos, os robôs industriais e os algoritmos sociais – especificamente o sistema salarial, os direitos de propriedade e as políticas de identidade que lhes estão subjacentes. As novas tecnologias do trabalho e da sociedade só podem se basear nesta transformação política. É evidente que este processo se desenrola através do desenvolvimento de conhecimentos não só técnicos mas também políticos. Um dos efeitos problemáticos da IA na sociedade é a sua influência epistêmica – a forma como transforma a inteligência em inteligência de máquina e promove implicitamente o conhecimento como conhecimento processual. O projeto de uma epistemologia política que transcenda a IA terá, no entanto, de transmutar as formas históricas do pensamento abstrato (matemático, mecânico, algorítmico e estatístico) e integrá-las como parte da caixa de ferramentas do próprio pensamento crítico. Ao confrontar a epistemologia da IA e o seu regime de extrativismo do conhecimento, é necessário aprender uma mentalidade técnica diferente, uma “contra-inteligência” coletiva.

 

NOTAS

[1]: “Disruption: A Manifesto,” Logic Magazine, no. 1, março de 2017.
[2]: Politically Mathematics collective, “Politically Mathematics Manifesto,” 2019
[3]: Karl Marx, Capital, Livro 1: O processo de produção do capital, p.330. Trad. Rubens Enderle. Boitempo, 2013
[4]: Veja o debate sobre o processo trabalhista em: Harry Braverman, Labor and Monopoly Capital: The Degradation of Work in the Twentieth Century (Monthly Review Press, 1974); David Noble, Forces of Production: A Social History of Industrial Automation (Oxford University Press, 1984).
[5]: Émile Durkheim, “Da Divisão do Trabalho Social” (1893), publicado no Brasil com esse título, por entre outras, a WMF Martins Fontes, em tradução de Eduardo Brandão.
[6]:
Kurt Lewin, “Die Sozialisierung des Taylorsystems: Eine grundsätzliche Untersuchung zur Arbeits- und Berufspsychologie,” Schriftenreihe Praktischer Sozialismus, vol. 4 (1920) – sem tradução para o português. Também ver Simon Schaupp, “Taylorismus oder Kybernetik? Eine kurze ideengeschichte der algorithmischen arbeitssteuerung,” WSI-Mitteilungen 73, no. 3, (2020).
[7]: Gaston Bachelard, “La dialectique de la durée” (Boivin & Cie, 1936), traduzido no Brasil para “A Dialética da Duração”, publicado pela Editora Ática em 1993. Henri Lefebvre, “Éléments de rythmanalyse” (Éditions Syllepse, 1992), último livro do autor, publicado no Brasil como “Elementos de Ritmanálise e outros Ensaios” pela Editora Consequência em 2021.
[8]: Frederic Sellet, “Chaîne Opératoire: The Concept and Its Applications,” Lithic Technology 18, no. 1–2 (1993). Sem tradução no Brasil
[9]: Gilles Deleuze, “Postscript on the Society of Control,” October, no. 59 (1992). Publicado no Brasil em DELEUZE, Gilles. Conversações: 1972-1990. Rio de Janeiro: Ed. 34,1992. Ver também David Savat, “Deleuze’s Objectile: From Discipline to Modulation,” in Deleuze and New Technology, ed. Mark Poster and David Savat (Edinburgh University Press, 2009).
[10]: Matthew L. Jones, “Querying the Archive: Data Mining from Apriori to PageRank,” in Science in the Archives, ed. Lorraine Daston (University of Chicago Press, 2017); Matteo Pasquinelli, “Google’s PageRank Algorithm: A Diagram of Cognitive Capitalism and the Rentier of the Common Intellect,” in Deep Search, ed. Konrad Becker and Felix Stalder (Transaction Publishers, 2009).
[11]:
Irina Kaldrack and Theo Röhle, “Divide and Share: Taxonomies, Orders, and Masses in Facebook’s Open Graph,” Computational Culture, no. 4 (November 2014); Tiziana Terranova, “Securing the Social: Foucault and Social Networks,” in Foucault and the History of Our Present, ed. S. Fuggle, Y. Lanci, and M. Tazzioli (Palgrave Macmillan, 2015).
[12]:
Grégoire Chamayou, “Pattern-of-Life Analysis,” chap. 5 in A Theory of the Drone (New Press, 2014). Publicado no Brasil como “Teoria do Drone”, pela Cosac & Naify em 2015. Veja também Matteo Pasquinelli, “Metadata Society,” keyword entry in Posthuman Glossary, ed. Rosi Braidotti and Maria Hlavajova (Bloomsbury, 2018), e “Arcana Mathematica Imperii: The Evolution of Western Computational Norms,” in Former West, ed. Maria Hlavajova and Simon Sheikh (MIT Press, 2017).
[13]:
Andrea Brighenti and Andrea Pavoni, “On Urban Trajectology: Algorithmic Mobilities and Atmocultural Navigation,” Distinktion: Journal of Social Theory 24, no. 1 (2001).
[14]:
M. Giermindl et al., “The Dark Sides of People Analytics: Reviewing the Perils for Organisations and Employees,” European Journal of Information Systems 33, no. 3 (2022). Veja também Alex Pentland, “Social Physics: How Social Networks Can Make Us Smarter” (Penguin, 2015).
[15]: A palavra “estatística” significava originalmente o conhecimento que o Estado possuía sobre seus próprios assuntos e territórios: um conhecimento que tinha de ser mantido em segredo. Em: Michel Foucault, Security, Territory, Population (Segurança, Território, População): Lectures at the Collège de France 1977-1978, trans. Graham Burchell (Palgrave Macmillan, 2009).
[16]:
Sobre a influência da metrologia cerebral na história da IA, ver Simon Schaffer: “Os julgamentos de que as máquinas são inteligentes envolveram técnicas para medir os resultados do cérebro. Essas técnicas mostram como o comportamento discricionário está ligado ao status daqueles que dependem da inteligência para sua legitimidade social.” Schaffer, “OK Computer”, em Ansichten der Wissenschaftsgeschichte, ed., Michael Hagner (Fischer, 2001) Michael Hagner (Fischer, 2001). Sobre a metrologia inicial do sistema nervoso, veja Henning Schmidgen, The Helmholtz Curves: Tracing Lost Times (Fordham University Press, 2014).
[17]:
Luke Stark, “Algorithmic Psychometrics and the Scalable Subject,” Social Studies of Science 48, no. 2 (2018).
[18]: Ruha Benjamin, Race after Technology: Abolitionist Tools for the New Jim Code (Polity, 2019); Wendy Chun, Discriminating Data: Correlation, Neighborhoods, and the New Politics of Recognition (MIT Press, 2021). Tarcízio Silva fez uma boa análise deste livro em seu blog.
[19]:
Sobre a imbricação de colonialismo, racismo e tecnologias digitais, veja Jonathan Beller, The World Computer: Derivative Conditions of Racial Capitalism (Duke University Press, 2021); Seb Franklin, The Digitally Disposed: Racial Capitalism and the Informatics of Value (University of Minnesota Press, 2021). No Brasil, ver “Racismo Algorítmico: Inteligência Artificial e Discriminação nas Redes Digitais”, de Tarcízio SIlva, lançado pelas Edições Sesc em 2022;“Colonialismo de dados: como opera a trincheira algorítmica na guerra neoliberal“”, org. de Sérgio Amadeu, Joyce Souza e Rodolfo Avelino lançada em 2021 pela Autonomia Literária; e “Colonialismo Digital: Por uma crítica hacker-fanoniana”, de Deivison Faustino e Walter Lippold, publicado pela Boitempo em 2023.
[20]:
Henning Schmidgen, “Cybernetic Times: Norbert Wiener, John Stroud, and the ‘Brain Clock’ Hypothesis”, History of the Human Sciences 33, no. 1 (2020). Sobre a cibernética e a “medição da racionalidade”, veja Orit Halpern, “Beautiful Data: A History of Vision and Reason since 1945” (Duke University Press, 2015), 173.
[21]:
Em mecânica, os graus de liberdade (DOF) de um sistema, como uma máquina, um robô ou um veículo, são o número de parâmetros independentes que definem sua configuração ou estado. Normalmente, diz-se que as bicicletas têm dois graus de liberdade. Um braço robótico pode ter muitos. Um modelo grande de aprendizado de máquina, como o GPT, pode ter mais de um trilhão.
[22]:
Rishi Bommasani et al., On the Opportunities and Risks of Foundation Models, Center for Research on Foundation Models at the Stanford Institute for Human-Centered Artificial Intelligence, 2021
[23]: Para uma leitura diferente sobre a automação da automação, ver Pedro Domingos, The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World (Basic Books, 2015); Luciana Parisi, “Critical Computation: Digital Automata and General Artificial Thinking,” Theory, Culture, and Society 36, no. 2 (March 2019).
[24]: “Breaking Models: Data Governance and New Metrics of Knowledge in the Time of the Pandemic,” workshop, Max Planck Institute for the History of Science, Berlin, and KIM research group, University of Arts and Design, Karlsruhe, September 24, 2021.
[25]:
Giorgio Agamben, Where Are We Now? The Epidemic as Politics, trans. V. Dani (Rowman & Littlefield, 2021). Publicado no Brasil como “Em que ponto estamos?”, pela n-1 edições em 2021.
[26]: Min Kyung Lee et al., “Working with Machines: The Impact of Algorithmic and Data-Driven Management on Human Workers,” in Proceedings of the 33rd Annual ACM Conference on Human Factors in Computing Systems, Association for Computing Machinery, New York, 2015; Sarah O’Connor, “When Your Boss Is an Algorithm,” Financial Times, September 8, 2016. See also Alex Wood, “Algorithmic Management Consequences for Work Organisation and Working Conditions,” no. 2021/07, European Commission JRC Technical Report, Working Papers Series on Labour, Education, and Technology, 2021.
[27]: Redesigning AI, ed. Daron Acemoglu (MIT Press), 2021.
[28]:
Leigh Phillips and Michal Rozworski, The People’s Republic of Walmart: How the World’s Biggest Corporations Are Laying the Foundation for Socialism (Verso, 2019); Frederic Jameson, Archaeologies of the Future: The Desire Called Utopia and Other Science Fictions (Verso, 2005), 153n22; Nick Srnicek, Platform Capitalism (Polity Press, 2017), 128.
[29]:
Sylvia Wynter, “Towards the Sociogenic Principle: Fanon, Identity, the Puzzle of Conscious Experience, and What It Is Like to Be ‘Black,’” in National Identities and Sociopolitical Changes in Latin America, ed. Antonio Gomez-Moriana, Mercedes Duran-Cogan (Routledge, 2001). Veja também Luciana Parisi, “Interactive Computation and Artificial Epistemologies,” Theory, Culture, and Society 38, no. 7–8 (October 2021).
[30]: Frank Pasquale, New Laws of Robotics: Defending Human Expertise in the Age of AI (Harvard University Press, 2020); Dan McQuillan, “People’s Councils for Ethical Machine Learning,” Social Media+ Society 4, no. 2 (2018).

 

 

 

 

 

 

 

 

 

]]>
https://baixacultura.org/2024/02/28/o-olho-do-mestre-a-automacao-da-inteligencia-geral/feed/ 0
Por uma cultura livre no futuro do trabalho https://baixacultura.org/2020/09/28/por-uma-cultura-e-livre-no-futuro-do-trabalho/ https://baixacultura.org/2020/09/28/por-uma-cultura-e-livre-no-futuro-do-trabalho/#respond Mon, 28 Sep 2020 19:46:17 +0000 https://baixacultura.org/?p=13257

Cultura livre pelas ruas de Barcelona, projeto Enfrenta.org

Como equilibrar a balança entre o acesso à informação/conhecimento/bens culturais X remuneração dos autores? Pergunta sem resposta única e definitiva, que necessita ser vista em cada situação que se quer analisar, foi um dos temas debatido na mesa “Os serviços sofisticados: Cultura e Conhecimento”, do Outras Palavras.

[Leonardo Foletto, editor do BaixaCultura]

Semana passada, à convite do Outras Palavras, participei do ciclo de debate “O Futuro do Trabalho no Brasil” na mesa chamada “Os serviços sofisticados: Cultura e Conhecimento“. Ao lado de duas pessoas que admiro bastante: Tatiana Roque, professora do Instituto Matemática da UFRJ, ativista da Renda Básica e ativa pensadora feminista e das subjetividades na esquerda brasileira; e Célio Turino, historiador, escritor, agente cultural, esponsável pelo conceito e implantação dos Pontos de Cultura no Ministério da Cultura de GIlberto Gil nos anos 2000.

A ementa da mesa tinha três perguntas-provocações tão instigantes quanto (de respostas) complexas: como o Brasil pode aproveitar e estimular, numa requalificação de sua economia, traços socioculturais notáveis, como a criatividade, a irreverência, a versatilidade? Como construir uma Economia da Cultura, do Conhecimento, da Ciência e dos Afetos avançada, inclusiva e redistributiva? Como seus ritmos próprios, ligados à criação e à inventividade, podem abrir caminho para uma proposta essencial no século XXI: a redução geral das jornadas de trabalho?

Pensei em fazer uma fala que tratasse de cultura livre, claro, e de que fomentar o acesso ao conhecimento e a cultura num país como o Brasil é condição essencial para pensar em uma economia da cultura e do conhecimento inclusiva e redistribuitiva. Um pouco antes, porém, fui atravessado, por uma leitura recente que fala de utopia – e não distopia, palavra da moda e tão real pra esses tempos – e pensei que seria bom inserir alguns trechos dessa leitura para trazer um pouco de ideias que nos ajudem a repensar o futuro mesmo (ou principalmente) com as iminentes discussões sobre o fim do mundo, Antropoceno, Instrusão de Gaia, entre outros termos que falam da destruição do que chamamos de natureza de forma irreversível pela ação humana, ainda mais vísivel em 2020 no Brasil de Bolsonaro.

Por motivos diversos, acabei não usando na mesa o trecho resgatado da leitura em questão: “Utopia Brasil“, livro de Darcy Ribeiro, mais precisamente um texto desse livro chamado “IVY-MARAẼN, TERRA SEM MALES, 2997”, uma ficcão utópica do antropólogo (e também escritor de ficção) criador da Universidade de Brasília. Mesmo o debate indo para outros lugares, resolvi resgatar o que tinha pensado em falar a partir de “Ivy-Marãen” e editei para transformá-lo em outro texto, publicado aqui no meu blog pessoal. Talvez não dialogue muito com o restante da mesa e mesmo do que eu anotei e acabei falando, mas sigo achando importante lembrar do que nós, brasileiros e latino-americanos, somos capazes quando criamos entornos sociais que potencializem nosso modo de vida tradicional.

A conversa na mesa enveredou por caminhos mais pragmáticos na tentativa de responder as questões disparadoras da mesa – embora nem eu nem Tatiana e Célio nos atentamos em somente responder a elas, como vocês podem ver no vídeo ao findl do post, com a íntegra dos quase 2h de debate. Falamos sobre a desmercantilização dos chamados serviços sofisticados (cultura e conhecimento); a monetização crescente dos nossos desejos potencializado pelas cada vez mais vigilantes tecnologias digitais; a redução da jornada de trabalho (com a boa lembrança por Cèlio do livro “Direito à Preguiça“, de Paul Lafargue, publicado em 1880) e a referência à outras culturas que não tem o trabalho como eixo organizador da vida, como a de alguns povos ameríndios; a invisbilização daquele trabalho que é feito durante todos os outros (inclusive os sofisticados): o trabalho reprodutivo, que suscitou a boa ideia de Tatiana de submeter a produção à reprodução, na linha que dialoga com historiadoras como Silvia Federici; como o estado pode visibilizar a produção cultural, entre outros tópicos. Trago aqui o restante que anotei para minha fala na mesa, com alguns acréscimos de edição.

CULTURA LIVRE E A REMUNERAÇÃO DE ARTISTAS

Agradeço o convite de Antonio por participar do debate e por poder dialogar com duas pessoas que admiro e acompanho o trabalho há anos, que fizeram, ou estão fazendo, políticas públicas que são fundamentais para o Brasil, caso do Cultura Viva e dos pontos de cultura que Célio Turino foi um dos criadores; e da Renda Básica, que Tatiana é uma das principais articuladoras da Rede Brasileira de Renda Básica.

Bueno, queria começar por uma questão que Antônio e outras pessoas já colocaram quando falo de cultura livre: como remunerar os artistas na cultura livre? como licenciar de forma livre e pagar aos artistas por suas criações? Teria que começar com a explicação do que é cultura livre e do que são licenças livres, e de como elas buscam equilibrar a balança entre o acesso à informação/conhecimento/bens culturais X à remuneração dos autores – nesse caso, remuneração que acaba ficando mais com os intermediários, quem é quem mais abocanha no valor de venda de uma dada obra.

Eu terminei agora um livro sobre cultura livre e a resistência anti propriedade através dos tempos – dos gregos à tecnologia digital, passando pela invenção do copyright, do direito autoral e das vanguardas do século XX – que vai sair pela editora Autonomia Literária em co-edição com a Fundação Rosa Luxemburgo. Creio que final de novembro ou início de dezembro já estará pronto e vocês poderão, se quiserem, ter acesso com muito mais detalhes do que falo quando trato de cultura livre.

No livro, trabalho com uma definição de Cultura livre como uma cultura que posta em circulação a partir de certos bens culturais em um dado mercado, são de livre acesso, difusão, adaptação e valor. Parto da definição do software livre, claro, que inspirou a adoção do termo no final dos anos 1990 e sua propagação nos primeiros anos da internet, e adapto aos bens culturais, em diálogo com pessoas que discutiram e trabalham com esse termo, de Lawrence Lessig à Anna Nimus, de César Rendueles a Dimitry Klainer. Nesse sentido, a primeira questão que se fala é que, assim como o software livre, cultura livre nao é necessariamente grátis.

A liberdade aqui implica autonomia na escolha e, depois, circulação livre, sem barreiras – ou com barreiras que podem ser escolhidas, como o caso por exemplo da licença copyfarleft, que permite o reuso, inclusive comercial, desde que seja compartilhado pela mesma licença, como a ideia do copyleft original, e que seja um uso por coletivos, organizações cooperadas e outras próximas especificadas na licença. É uma forma de não garantir a privatização e apropriação completa de um bem cultural e também incentivar o uso e reuso por iniciativas que tem mais a ver com nossos valores e compromissos éticos.

Assim a primeira pergunta pode se desdobrar em outra: como remunerar trabalhadoras e trabalhadores da cultura de forma a também não restringir e privatizar de modo excessivo os bens culturais e a produção de conhecimento?

Aqui minha resposta – talvez fácil, não sei – é que não há uma resposta pronta, lacradora. Há respostas diversas, para cada contexto. Há muitas entradas nessa discussão. A primeira é que um bem digital – um arquivo PDF de um livro, um disco em MP3, um filme – não é um bem rival, ou seja; eu posso ter em minha casa e você também pode ter em sua casa e tá tudo bem, ambos temos e ninguém fica sem. Falo isso porque toda a discussão da invenção da propriedade intelectual, nos séculos XVIII e XIX e que ainda permanece nas leis e no nosso imaginário, por exemplo, está em equiparar um bem rival (um objeto, terras, veículos instrumentos de trabalho) de um bem não rival, coisas que são claramente de naturezas distintas.

Nos anos 2000, a campanha antipirataria da indústria da intermediação – estudios de cinema, gravadoras musicais, principalmente – buscava a todo momento fazer essa equiparação: quando você baixa um arquivo, você está tirando um emprego de uma cadeia produtiva. Não é isso. Sabemos que essas campanhas não funcionaram: continuamos baixando música, filme, a cada blog fechado por disponibilizar links pra download, outros surgiram, como também assim ocorreu com o The Pirate Bay, até hoje atuante e com diversos espelhos, em que pese seus criadores terem sido processados por ação da indústria da intermediação sediada nos EUA e, cumpridos suas penas, fazerem hoje outras coisas da vida (ou não).

Aqui tem dois pontos importantes: o primeiro (1) é que o fato de baixar um filme não significa necessariamente que eu nao vá no cinema, nem baixarum disco que eu não vá comprar um CD ou vá a um show. Houve pesquisas nos anos 2000 e 2010 que diziam que o que se chamava de pirataria não afetava tanto quanto o propagandiado pela produção cultural.

O 2) é que em lugares em que o acesso à informação e a de bens culturais é mais escasso e de pouca qualidade, como o Brasil, ir contra às pessoas que baixam conteúdo, que compartilham suas cópias, que fazem xerox de textos, é um tiro no pé; você está criminalizando o elo mais fraco da cadeia, o usuário que não tem condições de pagar por cultura, e não o peixe grande que, esse sim, pode lucrar muito com pirataria – e provavelmente está ligado a outros negócios. Não sou punitivista, mas posso dizer: se tem alguém que poderia responder por crime são esses grandes, e não os usuários que baixam arquivos porque essa é a única opção de acesso que tem a certas obras.

Semanas atrás houve um debate nesse sentido no Twitter, daqueles que vão e vem e que quase só lá repercutem, feito a partir de postagens de uma editora de esquerda que começou a criticar publicamente quem baixava alguns de seus livros em PDF. Foi um tiro no pé, não? Vi muito mais esses arquivos circulando do que antes, inclusive como comentário aos posts da editora no Twitter. Eu mesmo só fiquei sabendo dos links depois da postagem da editora – aproveitei inclusive um link para baixar todos os livros, aliás.

É necessário dizer: é claro que devemos pensar na remuneração dos autores e da cadeia de produção de um livro. Mas esse pensamento não pode ser maior do que o acesso ao conhecimento e a cultura, não? Pelo menos é o que acho: dá pra conciliar ambos, tornar comum nossa produção, usar mecanismos que permitam a apropriação com fins que não exclusivamente o de retirar dinheiro dos autores, o que o copyleft e algumas licenças do creative commons, além da já citada copyfarleft, fazem há quase duas décadas.

No livro, ao final, eu trago outras perspectivas que não a ocidental para mostar como essa visão proprietária das ideias que temos hoje é também uma construção. No Extremo Oriente, por exemplo, a partir da influência do Confucionismo por mais de dois milênios, existe e permanece uma tradição diferente, que considera a cópia como algo básico, parte processo de aprendizado, o que remete até uma outra concepção de verdade e de processo criativo, mais marcado pela continuidade e por mudanças silenciosas do que pela ruptura que uma ideia genial trazida por um artista prmove, como consagrada na visão ocidental a partir do Romantismo do século XIX. Não se valoriza tanto a matriz da ideia, sua origem ou seu autor, mas como ela vai – ou precisa – ser continuada. Se a ideia permanece na cópia, então é como se a obra continuasse, sem ruptura, sem uma “nova obra”.

Em muitos povos originários, a perspectiva de propriedade intelectual também é diferente, muito mais comunitária e coletiva, mas um coletivo que não incorpora apenas os membros humanos de uma comunidade, mas outros seres animais, objetos, sem a separação habitual que fazemos entre sujeito e objeto. Nesse sentido, como é que se vai definir que uma obra é exclusivamente de alguém, que ninguém poderá usar sem pagamento de royalties a um determinado sujeito, se ela é fruto de um processo coletivo que também incorpora outros seres e se não há tão claro a seperação entre quem é sujeito e quem é objeto?

Enfim, trago aqui essas perspectivas pra gente pensar que não somos os únicos, que o ocidente nao é O mundo, mas que existem outras formas de ver as coisas, o mundo, as artes, a cultura, e que talvez temos que prestar atenção a esses outros jeitos para tentar encontrar formas de imaginar futuros e, então, buscar caminhos práticos para torná-lo nossa realidade – e, inclusive equilibrar a balança entre remuneração dos autores X acesso à cultura.

]]> https://baixacultura.org/2020/09/28/por-uma-cultura-e-livre-no-futuro-do-trabalho/feed/ 0 Sobre https://baixacultura.org/sobre/ Wed, 10 Jun 2020 16:32:41 +0000 https://breton.qodeinteractive.com/?page_id=801

Baixa Cultura

Somos
um LABORATÓRIO
ONLINE
queque trabalha com documentação, pesquisa, formação e experimentação em cultura livre. O que isso quer dizer?

Siga-nos nas redes

SOBRE

Somos um LABORATÓRIOLABORATÓRIO
ONLINEONLINE que trabalha com documentação, pesquisa, formação e experimentação em cultura livre. O que isso quer dizer?

LABORATÓRIO

porque um espaço de pesquisa e experimentação.

ONLINE

porque nossa casa é aqui, a internet.

CULTURA LIVRE

é um modo de produzir cultura a favor do compartilhamento, em busca da autonomia e em prol do conhecimento livre.

Fizemos parte da Casa da Cultura Digital em São Paulo, somos um ponto da Rede de Produtoras Colaborativas, que atua nas regiões Norte, Nordeste e Sul do país, e colaboramos com os grupos/redes hackerspace MatehackersCCD POAÔnibus HackerCafé ReparoTransformatórios Cultura Libre Facción.

Acreditamos:
Na democratização do conhecimento.
No software livre.
Na cultura livre e em licenças que permitam mais autonomia dos criadores.
Na colaboração em vez da competição.
No remix, porque nunca criamos do nada, sempre a partir de outros.
Em abrir as caixas-pretas das técnicas, das práticas, dos produtos e do ensino.
Na internet (livre) como direito humano fundamental e na neutralidade da rede.
Em transparência para os fortes (governos, empresas) e privacidade para os fracos.
Na criptografia, na documentação dos processos e dos produtos.
Na justiça social, na economia solidária e, sobre

COLABORADORES

Editor

Leonardo Foletto

Editor

Leonardo Feltrin Foletto nasceu em Taquari (1985), no interior do Rio Grande do Sul. É jornalista formado pela UFSM, mestre em jornalismo (UFSC) e doutor em Comunicação e Informação (UFRGS). Trabalhou como jornalista nos jornais A Razão, em Santa Maria-RS, e na Folha de S. Paulo, participou da Casa da Cultura Digital e do coletivo BaixoCentro em São Paulo. É integrante das redes das Produtoras Colaborativas, do coletivo ciberativista CCD POA, do Creative Commons Brasil e colaborador do hackerspace Matehackers. Deu aulas de comunicação, narrativas e tecnologia na PUCRS, PUCSP e UCS (Caxias do Sul) e desde março de 2017 é doutor em Comunicação e Informação pela UFRGS, onde pesquisou comunicação, tecnologia e jornalismo. Foi um dos idealizadores do BaixaCultura e edita a página desde sua criação, em setembro de 2008. Publicou em 2021 “A Cultura é Livre: Uma história de resistência antipropriedade“, livro co-editado pela Autonomia Literária e Fundação Rosa Luxemburgo, com préfacio de Gilberto Gil. Site pessoal em leofoletto.info

Calixto Bento Calixto Bento é mineiro de BH, morou em Manaus (AM) e atualmente vive em Santa Maria (RS). Capitaneou a reforma gráfica da página em janeiro de 2011, e desde então é o editor de arte, o cara para assuntos gráficos & arte-tecnologias. Mestre e doutorando em arte e tecnologia pela UFSM, trabalha com a influência de dados no audiovisual.

Sheila Uberti é comunicadora. Foi permacultora de experiência e comunidade no APOIA.se e realizou os encontros do Café Reparo na região Sul do país. Foi a idealizadora do Fotolivre.org (projeto de experimentação virtual e presencial sobre fotografia hacker e livre) e produziu o Fauna Festival. Participou do coletivo ciberativista Casa da Cultura Digital Porto Alegre, do Hackerspace Matehackers e de outras iniciativas às quais não consegue resistir. Por aqui, participou junto das oficinas de Cultura Livre, Guerrilha da Comunicação, Como Documentar um Projeto Cultural e no registro documental (em foto e vídeo) de alguns projetos e publicações.

Reuben da Cunha Rocha nasceu em São Luis (MA). Poeta e tradutor, foi um dos fundadores do BaixaCultura. Cessou sua participação rotineira em 2009, quando começou sua colaboração esporádica. Sua obra pode ser vista em cavalo DADA. Vive em São Paulo.

Marina de Freitas é engenheira física e mestre em ensino de física pela UFRGS. É natural de Santo Ângelo, na região das missões, noroeste do RS, e tem aproximado da ciência cidadã e do hardware aberto a partir de sua colaboração no CTA-UFRGS. Escreve sobre ciência aberta, hardware livre e biohacking a partir de 2018.

Victor Wolffenbüttel é estudante de administração de Novo Hamburgo/RS. Escrevee sobre tecnologia e cultura, criador e editor da newsletter literária Quasar, e aqui faz um trabalho, a partir de 2018, de arqueólogo da web resgatando e detalhando ferramentas como o RSS.

Luis Eduardo Tavares é cientista social, pesquisador em tecnologia, comunicação e cultura. Colaborador do Instituto Intersaber e parceiro nosso de muitos projetos, entre eles a Biblioteca do Comum, criada em 2017. Escreveu sobre propriedade intelectual e o CopyLove espanhol, entre 2011 e 2012.

Tereza Bettinardi é designer. Formada pela Universidade Federal de Santa Maria, trabalhou na Editora Abril e fez trabalhos pra Cosac Naify, Cia das Letras e diversas outras editoras brasileiras e internacionais. Hoje é uma das responsáveis pela A Escola Livre, espaço de discussão sobre novas formas de fazer e ensinar design. Fez o design do zine nº2, “La Remezcla”. Seu trabalho está em terezabettinardi.com

André Solnik é paulista, mas não é tucano. É formado em jornalismo, mas tá desempregado. É palmeirense, mas isso vamos deixar pra lá. Abandonou o Windows há quase uma década, mas sente falta daquele joguinho de ski. Toca a Ratão, que auxilia “usuários comuns” na transição do Windows para o GNU/Linux e divulga a filosofia do software livre por aí. E por aqui, fez algumas entrevistas e escreveu alguns posts que você achar colocando seu nome nas buscas.

Lucas Pretti é jornalista, ator e produtor cultural, mestre em artes pela UNESP (2017). Como jornalista, foi repórter do caderno Link (O Estado de S. Paulo), daí chefe de reportagem do Divirta-se e então editor de cultura do portal Estadão.com.br. Deixou o jornal para integrar a Casa da Cultura Digital. Também estuda arte e teatro. Formou-se ator no Centro de Pesquisa Teatral (CPT) do SESC-SP, com o diretor Antunes Filho, e pesquisa a relação teatro e internet no projeto Teatro Para Alguém, finalista do Prêmio Shell de Teatro em 2009. Foi um dos realizadores do projeto Produção Cultural no Brasil e do BaixoCentro. É diretor na Change.org Brasil.

Marcelo De Franceschi dos Santos nasceu em São Sepé (RS). É jornalista (Universidade Federal de Santa Maria, 2011). Escreveu na página de setembro de 2009 até fevereiro de 2012.

Edson Andrade de Alencar nasceu em São Luis (MA), e vive na ilha maranhense até hoje, onde é advogado de carteirinha da OAB. Escreveu os textos mais provocativos do BaixaCultura até meados de 2009.

2008

Nascimento

Nascemos em 2008, por uma iniciativa de dois jornalistas que na época se encontravam em Florianópolis e queriam produzir relatos focado em produtos culturais que pudessem ser consumidos (apreciados, fruídos, curtidos mesmo) na rede. Aos poucos, a vasta discussão em torno das possíveis e impossíveis mudanças na forma de se praticar (fazer, distribuir, consumir) cultura após a popularização das mídias digitais se tornou o foco. Nos anos seguintes, download, pirataria, copyleft, contracultura, produção Independente, contra-Indústria, software livre, remix, cultura hacker e ciberativismo foram sendo nossas tags principais.

2009

Produzimos 4 ciclos de filmes (nomeado “copy, right?“em São Paulo, Santa Maria-RS e Porto Alegre) entre 2009 e 2013, relacionados à cultura livre, a favor do compartilhamento, do copyleft e da democratização da comunicação e do conhecimento.

2010

Em 2010, já em São Paulo, entramos para a Casa de Cultura Digital, hub de ideias (pessoas, produtoras, ongs, agências, hackerspace) que marcou a cultura (então) digital brasileira. Ali, participamos da comunicação do II Fórum de Cultura Digital (2010) e do Festival CulturaDigital.br

2011

Ajudamos a fazer acontecer o Festival BaixoCentro, que reuniu diversas atividades colaborativas para "hackear" as ruas de uma região da cidade

2012

Viajamos pela primeira vez com o Ônibus Hacker, um hackerspace sobre rodas que viajou por vários lugares do Brasil e da América Latina (depois tiveram várias outras viagens)

2013

lançamos nosso Selo Editorial com a publicação do primeiro livro, “Efêmero Revisitado: Conversas sobre teatro e cultura digital”, produzido a partir de uma bolsa de pesquisa em mídias e artes digitais da Funarte.

2013

Voltamos ao sul, agora Porto Alegre, em 2013, e dali passamos a fazer parte de redes e projetos com a América Latina, como o II Congresso de Cultura Livre no Equador, em 2013.

2016

Uma rede que se formou no I Congresso Online de Gestão Cultural #Gcultural, que coproduzimos com mais 5 coletivos de Uruguai, Bolívia, Espanha e México em 2016

2016-2017

Em março de 2016, fomos contemplados no programa de intercâmbio do Ibercultura Viva. Em conjunto com o ZEMOS98, coletivo baseado em Sevilla parceiro nesse processo, o projeto mapeou e documentou o trabalho de coletivos de artivismo y cultura livre da Espanha

2017

Em 2011, ganhamos também nosso primeiro financiamento externo para a manutenção do site, do ProAC do governo do Estado de São Paulo, e daí nasceu nossa Biblioteca (que em março de 2017 se juntou a Biblioteca do Comum) e nossa BaixaTV, um acervo de informação único sobre cultura livre no país.

2018

“A Ideologia Californiana”, de Richard Barbook e Andy Cameron, foi o nosso próximo lançamento da coleção de zines "Tecnopolítica". Com introdução do editor do BaixaCultura, Leonardo Foletto, e tradução de Marcelo Träsel, é uma parceria com a Editora Monstro dos Mares

2018

Resultado da rede de Cultura Livre formada anos antes, o Encontro de Cultura Livre do Sul Global, em 2018, reuniu diversos coletivos do continente para conversar sobre o status quo da cultura livre

2020

Em 2020 nosso editor, Leonardo Foletto, trabalhou num livro que é uma espécie de legado do BaixaCultura: “A Cultura é Livre: Uma história de resistência antipropriedade”, co-editado pela Autonomia Literária e a Fundação Rosa Luxemburgo, com prefácio de Gilberto Gil.

2021

Os “Manifestos Cypherpunks” é a segunda publicação da coleção “Tecnopolítica”, coordenada pelo BaixaCultura e a Editora Monstro dos Mares. O livro reúne alguns dos primeiros alertas contra a vigilância massiva na era da internet, manifestos escritos no final dos anos 1980 e no início dos 1990. Financiado via Crowdfunding, numa campanha que chegou a 732% do valor inicial pedido, com o apoio de 247 pessoas e coletivos e mais de 500 exemplares impressos.

]]>
Baixa TV https://baixacultura.org/baixa-tv/ Wed, 10 Jun 2020 10:41:07 +0000 https://breton.qodeinteractive.com/?page_id=660

Baixa TVTV

Selo Baixa Cultura

A BaixaTV é nosso canal
de vídeos no Youtube
 
(e também no Vimeo).

Tem uma seleção de documentários, curtas, longas, programas de TV e vídeos variados sobre cultura livre, (contra) cultura digital e diversos temas ao redor disso, tanto produzidos por nós quando por outros e rearrajandos por nós. Acreditamos que organizar a informação de modo a facilitar o acesso permitirá que ela siga circulando. Livre circulação como princípio de liberdade de informação. Confira abaixo algumas playlists:

BaixaCharla, nosso programa de conversas com diversas pessoas sobre temas como cultura livre, tecnopolítica, autonomia, ciberativismo, redes livres, arte digital, pós fotografia, entre outros. Desde 2017

Efêmero Remix / O Fim da Internet, projeto experimental de teatro digital & audiovisual realizado durante a pandemia de coronavírus, em 2020. Direção Leonardo Roat e Leonardo Foletto

Vídeos das mesas online do primeiro Encontro de Cultura Livre do Sul, organizado por cinco coletivos ibero-americanos (de Argentina, Brasil, Uruguai e Espanha) em 2018

Diálogos Abertos, conversas sobre diversos temas tecnopolíticos (redes sociais, antivigilância, internet livre, segurança digital, fake news/desinformação, ciberativismo, cuidados digitais) com parceir@s. Realizado em parceria com a Casa de Cultura Digital Porto Alegre ao longo de 2018

!Enfrenta! foi um projeto de mapeamento e investigação de coletivos espanhóis que buscam formas alternativas de atuação e gestão. Foram mapeados 50 grupos, visitados em 6 cidades (Madrid, Barcelona, Sevilla, Valencia, Bilbao e Donostia) em 2017. Parceria com Zemos98 (Espanha), apoio do IberCulturaViva

Ciclo Copy, Right?: filmes exibidos nas três edições do ciclo de filmes e debate produzido pelo BaixaCultura, em Santa Maria (2009 e 2010) e São Paulo (2011). Filmes sobre cultura livre, propriedade intelectual e direito autoral, cultura digital, criação artística, pirataria e remix, entre outros temas correlatos

Tudo Vigiado por Máquinas de Adorável Graça (2012)

Documentário produzido pela BBC, dirigido por Adam Curtis (3 partes, veja aqui). Seu título faz referência a um poema publicado em 1967 sob o mesmo nome, cujo o autor, Richard Brautigan, falava de uma sociedade onde os homens estavam livres de trabalho e a natureza tinha alcançado seu estado de equilíbrio, tudo graças ao avanço da cibernética.

]]>
Como usar torrent e baixar conteúdo compartilhado grátis https://baixacultura.org/2019/09/18/como-usar-torrent-e-baixar-conteudo-compartilhado-gratis/ https://baixacultura.org/2019/09/18/como-usar-torrent-e-baixar-conteudo-compartilhado-gratis/#comments Wed, 18 Sep 2019 12:26:24 +0000 https://baixacultura.org/?p=12988  

Em setembro de 2019, o CGI liberou novos dados sobre o uso da internet no Brasil. Já chegamos a 70% da população com acesso à internet, e 97% desse grupo faz isso via celular. O número disparou desde os últimos levantamentos, considerando que o acesso via celular e rede móvel propaga-se com muito mais facilidade que a distribuição via estrutura de telefonia fixa e máquinas de mesa. Em alguns lugares do país, é muito provável que se tenha internet via smartphone e 3G mas não saneamento básico. A maioria das pessoas utiliza a rede pra solicitar carros, comida, ou consumir música e vídeo por streaming, conforme dados da mesma pesquisa, que pela primeira vez reportou também como é utilizada a internet.

Mas a rede nem sempre teve essa configuração de acesso e uso.

Depois do surgimento da banda larga, quando os usuários ainda eram equipados por computadores e notebooks, a rede viveu um período de explosão de compartilhamento gratuito entre usuários, e que muitas vezes configurava pirataria de músicas, filmes, séries, livros, software e jogos de videogame.

Durante anos, a indústria sangrou, sofrendo com a pirataria, lutando judicialmente em busca da derrubada de sites, retirada de links piratas dos buscadores, e até denunciando usuários, que infelizmente eram feitos de exemplo para o resto da rede e podiam acabar presos ou recebendo multas estratosféricas por consumir conteúdo protegido pelo tão injusto direito autoral.

Demorou, mas apoiados pelo aumento da capacidade de servidores e da velocidade de conexão, os estúdios cinematográficos e gravadoras aprenderam que o usuário pirata estava disposto a pagar se tivesse acesso a essa possibilidade e apresentaram os serviços de streaming, usados hoje nos mais diferentes produtos (inclusive piratas, como o conhecido Popcorn Time), provavelmente por resolverem a questão com a solução mais fácil de todas: clicar e consumir instantaneamente.

Com a popularização desses serviços de streaming, no entanto, os membros do seleto oligopólio do entretenimento começam agora a bater cabeça. Artistas passam a assinar contratos exclusivos com serviços de streaming (como Beyoncé no Tidal), os grandes estúdios de filme passam a criar seus próprios streamings e barrar seus filmes dos outros (como é o caso da Disney, prestes a lançar o Disney+), e o usuário é obrigado a escolher entre Amazon Prime, HBO, Globoplay, Netflix ou Disney+, pra ficar apenas no audiovisual recente.

Nesse cenário, por motivos diferentes dos quais originalmente fizeram o compartilhamento livre tão popular, uma velha tecnologia reaparece com importância: o torrent, capaz de nos entregar, pelas mãos de outros amigos usuários, o conteúdo que a indústria quer que sejamos obrigados a escolher dentro de seus muros pagos.

Como o boom de acesso à internet veio depois dessa nova era, equipada por redes e aparelhos móveis, uma geração inteira de usuários não aprendeu a usar o torrent, e nunca teve interesse pelo compartilhamento gratuito e acesso indiscriminado de conteúdo protegido por direito autoral, uma discussão que já deu muito pano pra manga, e está passando por um novo período no Brasil, com uma consulta pública aberta recentemente, afim de reformular a Lei do Direito Autoral do país, uma das mais restritivas do mundo.

Pois então, está na hora de aprender a usar o torrent.

O que é exatamente Torrent

“Torrent” acabou virando verbo e sinônimo, o nome da tecnologia, do arquivo, do programa, do site e do processo de baixar arquivos. Tudo é torrent na cabeça de quem usa a tecnologia, e talvez por isso ela pareça tão misteriosa para quem nunca aprendeu como funciona.

Em termos técnicos, torrent é um protocolo de comunicação para compartilhamento peer-to-peer (P2P), utilizado para transmitir arquivos eletrônicos (definição via tradução livre da Wikipédia em inglês). Mas o que importa desse conceito é saber que torrent é o meio pelo qual usuários compartilham arquivos uns com os outros, através de suas máquinas.

O grande diferencial desse meio é o fato dele ser descentralizado, e não depender da conexão com um servidor que hospede toda a informação que se deseja acessar. Através do P2P, a máquina que quer receber o arquivo se conecta com diversas outras que já possuem o arquivo, e recebe pequenas partes dele vindas de cada um até ter o arquivo inteiro.

Digamos assim: em vez de pedir pra um amigo trazer o fardo de cerveja para o churrasco, solicito uma lata pra doze amigos, dividindo o fardo entre todos. O churrasco recebe a mesma quantidade de cerveja, mas o risco do amigo não trazer a dúzia e deixar todo mundo na mão é pulverizado nos doze participantes, que além de dividirem os custos do fardo, dividem a responsabilidade de fornecimento, numa parcela reduzida.

Como funciona o P2P (peer-to-peer)

Comparativo: rede P2P vs rede com servidor centralizado

É diferente de como utilizamos a internet normalmente. Em vez de entrarmos no navegador ou aplicativo, digitarmos um endereço e solicitarmos uma conexão com o servidor do site que buscamos, o qual entrega essa conexão baseado na velocidade do servidor único, acontece mais ou menos o seguinte:

  1. Entramos em um site que hospeda torrents (aqui estou usando o termo genericamente);
  2. Procuramos por um link magnético daquele arquivo que queremos baixar;
  3. Esse link magnético contém um arquivo .torrent com um código (chamado hash) que é aberto em um programa (chamado cliente);
  4. O cliente abre o link magnético e solicita que se escolha onde se deseja salvar o arquivo e quais partes dele queremos baixar;
  5. O cliente, que está servido dos rastreadores (chamados trackers), usa o hash para buscar todos os usuários que possuem uma cópia do mesmo hash em seu computador e estão com seu próprio cliente de torrent aberto, podendo copiá-lo;
  6. O cliente de torrent faz a cópia do arquivo para a sua máquina no local onde escolheu salvar.

Essa cópia de arquivo é feita simultaneamente em diversas máquinas, até centenas, caso seja algo que muitas pessoas estão compartilhando (digamos, o último episódio lançado de Game of Thrones).

Percebe-se que diversas partes desse fluxo que relatei acima não são realizadas pelo usuário, apenas fazem parte da tecnologia. O que o usuário precisa fazer mesmo é baixar um cliente de torrent, entrar num site de torrent, escolher o arquivo pra baixar, e selecionar onde salvar ele na máquina. Só isso basta pra começar a utilizar torrent, e são essas etapas que vou descrever abaixo.

Como usar: Passo 1 – Baixar um cliente de torrent

O cliente de torrent é o programa que tem que estar instalado no seu computador para abrir os links magnéticos de torrent. Como descrevi antes, é ele que consegue pesquisar o hash na rede e descobrir outros usuários que tem o arquivo que será copiado pra sua máquina.

Existem diversos clientes de torrent internet afora, sendo o mais famoso o uTorrent, o qual eu não recomendaria porque nos últimos anos teve alguns problemas de ramsonware em anúncios com Flash que rodavam dentro do programa, e por minerar criptomoedas no computador de usuários.

Utilizo o qBitTorrent, que é muito satisfatório, possui todas as funcionalidades necessárias, e não tem anúncios. Nessa lista temos ainda outras opções de clientes, o que pode ser útil para ajudar a escolher.

Como usar: Passo 2 – Entrar num site de torrents

Sites de torrents são como uma mato fechado que volta a se fechar muito rapidamente depois de aberta uma trilha. É preciso entrar a facão toda vez que se deseja utilizar, mas depois de certo tempo começamos a conhecer a rotina e fica fácil. O usuário de torrent acaba se acostumando com o fato de que sites são derrubados e reativados todos os dias, e aprende como pesquisar de forma a sempre achar o melhor arquivo.

Recomendo pesquisar sempre pelo site torrentz2.eu. Esse nome engraçado é porque é uma reanimação do finado site torrentz, que foi fechado por questões ainda desconhecidas.

O torrentz2.eu é um buscador de torrents. Pesquise por ali o arquivo desejado, e receba numa lista todos os sites que hospedam aquele arquivo. Eu recomendo sempre escolher aquele site que oferece o arquivo com mais seeds, que pode ser facilmente entendido olhando no número indicado ao lado direito do nome do arquivo.

A homepage do torrentz2. Podemos ver que ele contabiliza quantos arquivos .torrent estão sendo buscados por ele

Uma página de buscas do torrentz2. Nessa lista estão todos os arquivos torrent que tem algo a ver com o que você pesquisou. Após clicar, você é redirecionado para uma página que contém os sites que hospedam aquele arquivo. Aí é só escolher uma página e aguardar ser redirecionado.

 

Depois de selecionar um arquivo, ele abre esta página, onde aparecem todos os sites que hospedam o arquivo. Clique em um dos sites para ser redirecionado ao arquivo.

Confesso que depois que o torrentz renasceu com esse novo nome, me tornei meio dependente dele.  Durante alguns meses do ano passado, ele ficou desativado (também por razões desconhecidas até hoje), e passei algum apuro pra encontrar arquivos. Vida longa ao torrentz2.eu, portanto. Para evitar isso, aqui tem uma lista de sites variados de torrent.

É isso: você entrou no site, achou o arquivo desejado, clicou no link magnético, e escolheu o lugar pra salvar o arquivo. Agora deve-se aguardar o arquivo ser copiado pra máquina, conforme a velocidade de download que o cliente informa em tempo real.

Como usar: Passo 3 – Navegar em um site de torrents

Sites de torrent estão um tanto defasados, eu diria. É claro que como os mantenedores estão preocupados em manter o pescoço sobre a água, tentando manter no ar um site que serve de abrigo para muita pirataria, não sobra muito tempo pra pensar em user experience e layouts intuitivos. Provavelmente a vida de um mantenedor desses sites deve ser infernal – e tudo costuma ser feito por motivação pessoal e esforço próprio.

Aqui abro um parênteses: a perseguição contra os sites de torrent deve ser sempre combatida pelo usuário. Fundadores do Pirate Bay já foram até mesmo presos com acusações muito duvidosas de infringir o direito autoral, sendo que o site de torrent não é responsável por pirataria de forma alguma. Perceba que nenhum arquivo pirateado é mantido dentro dos servidores do Pirate Bay, por exemplo. Os arquivos estão nas máquinas dos usuários. O trabalho deles é fornecer a chave que conecta um usuário interessado em copiar de outro interessado em repassar o arquivo copiável. Depois de uma das derrubadas do Pirate Bay, que viriam a se tornar frequentes, surgiu o doc”Steal This Film”, onde fica clara a luta da indústria contra o torrent. Exibimos certa vez ambos os filmes no ciclo copy, right?, lá em 2009, em Santa Maria-RS.

Além do mais, o torrent não é pirata por natureza. Se o conteúdo for compartilhado com licença Creative Commons ou for de domínio público, ele também pode ser dividido por torrent. Nem todo torrent é arquivo pirata, e nem todo arquivo pirata é torrent. Aqui um adendo: com receio de ser rastreado, muita gente tem o costume de usar VPN ao baixar um arquivo de torrent. O VPN (em inglês, Virtual Private Network) cria uma conexão segura e criptografada, como um túnel, entre o seu computador e um servidor operado pelo serviço VPN

Uma explicação sobre o compartilhamento aberto está nesse outro documentário, “Good Copy Bad Copy”, que também exibimos no ciclo copy, right? em 2009.

https://www.youtube.com/watch?v=rJCBY_JerRk

Pois bem, voltando aos sites de torrent: é recomendável baixar uma extensão bloqueadora de anúncios no navegador para evitar de clicar em um lugar errado dentro do site. Também é sempre bom passar o mouse por cima dos links e observar no navegador pra qual lugar eles direcionam antes de clicar.

O link correto pro arquivo magnético normalmente tem o desenho de um imã ou escrito “Download Magnet”, e quando se passa o mouse por cima do link vai aparece o endereço no canto inferior esquerdo do navegador como “magnet:[código aleatório]”

Como usar: Passo 4 – Achar o link magnético, abrir o arquivo no cliente de torrent e escolher onde salvar

Quando clicar no link, o navegador vai pedir para abrir no seu cliente de torrent. Aí é só aceitar e aguardar o seu cliente achar o arquivo na rede. Depois selecionar a pasta onde deseja baixar e clicar ok.

Depois de clicar no link, seu navegador pede pra abrir o tipo de arquivo com o programa de torrent do seu computador

Várias informações no cliente de torrent, mas destaco: qual arquivo virá dentro do torrent (só tem um, que é o episódio da série) e onde ele vai ser salvo.

É isso: você entrou no site, achou o arquivo desejado, clicou no link magnético, e escolheu o lugar pra salvar o arquivo. Agora deve-se aguardar o arquivo ser copiado pra máquina, conforme a velocidade de download que o cliente informa em tempo real.

Essa velocidade de download depende da quantidade de usuários online que estão te deixando copiar o arquivo naquele momento. E aí entra o conceito importante da utilização do torrent: seeds.

Como usar torrent corretamente (entendendo seeders e leechers)

Nesse ponto, consegui explicar como começar a copiar arquivos por torrent. O que foi explicado basta para o processo funcionar, mas para ele dar certo de verdade, é importante entender o próximo conceito.

Seeders e leechers (semeadores e sanguessugas) são como são referidos os usuários (peers) de torrent. Ao entrar no site de torrents e procurar o arquivo desejado, nota-se a quantidade de um e de outro que aquele arquivo possui.

SEEDERS são os usuários que possuem o arquivo completo e mantém o cliente de torrent aberto para que outros usuários possam copiá-lo.

LEECHERS, os sanguessugas, são os usuários que não tem o arquivo completo e não conseguem copiá-lo, e ao mesmo tempo também são aqueles usuários que não compartilham seus arquivos normalmente, seja porque diminuem a velocidade de upload ou porque não deixam o cliente de torrent aberto.

Ser um semeador ou sanguessuga depende de quanto tempo seu cliente de torrent fica aberto, e quantos arquivos você deixa outros usuários copiarem do seu computador. Ser um seeder faz com que você tenha prioridade nas filas de download, e ao baixar um arquivo ao mesmo tempo que diversas pessoas estão fazendo isso, você recebe o arquivo antes.

Ao deixar seu torrent aberto, você permite que outros usuários copiem arquivos do seu computador, e quando você precisar copiar, vai ter prioridade na fila.

Mas perceba que ter prioridade para baixar é apenas um bônus de ser um seeder. A verdade é que o torrent simplesmente não funcionaria se os usuários não deixassem o cliente de torrent aberto para outros poderem copiar.

Muitas vezes só encontramos aquele filme italiano dos anos 70 online porque algum usuário da Dinamarca deixou ele em seu cliente de torrent e manteve o programa aberto tempo o suficiente para que você possa copiar. E se você deixar aberto no seu computador também, já são dois usuários para que o terceiro possa copiar ainda mais rápido, e assim sucessivamente.

É por isso que baixamos arquivos quentes, como o episódio mais recente da série mais famosa, em até dois minutos. Muitas pessoas estão semeando esse arquivo ao mesmo tempo. Filmes e séries mais raros podem demorar mais, mas mesmo assim o torrent pode ser o único jeito de ter acesso aquela conteúdo que nos interessa. Eu mesmo só consegui terminar de assistir a série Friday Night Lights, uma série americana de 2004 que passava na televisão aberta, pela benevolência de algum usuário que até hoje mantém aquele arquivo semeado em seu computador.

Ou seja, para o sistema funcionar bem, é importante deixar o cliente de torrent aberto no computador. É claro que para não degradar a qualidade da sua navegação, é possível limitar a velocidade de upload, para digamos 100 kB/s. Dessa forma, você deixa a pessoa copiar o arquivo da sua máquina com no máximo essa velocidade, e a sua navegação não é prejudicada.

Retomar a independência online é importante

Usar serviços de streaming, como Netflix ou Spotify, se tornou um conforto incontornável. São milhares de músicas e filmes disponíveis para o usuário a um clique de distância. E muitas vezes não é preciso nem procurar: ele te sugere o que ver ou ouvir. E é no momento em que abdicamos de escolher ativamente o que queremos que perdemos a independência.

Mas apesar de oferecer milhares de filmes, é muito difícil sair da centena que o Netflix apresenta na primeira página. Alguns artigos na internet já surgiram distribuindo códigos para pesquisar mais profundamente nos anais do acervo, mas fazendo isso, perdemos toda a lógica de conforto que o serviço propõe (apesar de já ser melhor do que ficar olhando as mesmas séries banais recomendadas).

Mudando de mídia, imagine como era antigamente: ao adquirir um vinil, investíamos nosso dinheiro no valor que aquele álbum nos traria, e ele era nosso. O esforço se transformava em valor quando ouvíamos o disco, e podíamos escolher entre todos aqueles que estavam na nossa coleção, comprados por nós.

Agora, ao nos depararmos com a página inicial do Spotify, temos centenas de playlists indicando o que é mais ouvido, o que parece mais com nós, o que foi feito recentemente. Nosso gosto interessa levemente pra ele, o máximo suficiente para que paguemos pela sua atenção. Não é mais pela música que estamos pagando, e sim pelo serviço de nos dizer o que ouvir.

Mas como sabemos que o interesse de nos dizer o que ver ou ouvir é voltado pra nós?

Através do torrent, temos a liberdade de consumirmos o que quisermos, ao tempo que quisermos (sem a frustração do Netflix tirar a série que estávamos olhando) e podemos compartilhar o que quisermos, como retribuição.

Victor Wolffenbüttel

]]>
https://baixacultura.org/2019/09/18/como-usar-torrent-e-baixar-conteudo-compartilhado-gratis/feed/ 2
Ambiente digital de difusão: por onde circula a cultura online? https://baixacultura.org/2019/06/14/ambiente-digital-de-difusao-por-onde-circula-a-cultura-online/ https://baixacultura.org/2019/06/14/ambiente-digital-de-difusao-por-onde-circula-a-cultura-online/#respond Fri, 14 Jun 2019 17:00:11 +0000 https://baixacultura.org/?p=12855 *Fizemos esse texto eu, Leonardo Foletto, editor do BaixaCultura, e André Deak, diretor do Liquid Media Lab, professor da ESPM-SP e parceiro de longa data na CCD em SP, sob encomenda para um livro de uma pesquisa chamada “Panorama Setorial da Cultura Brasileira 2017/2018”. A proposta era discutir principalmente a circulação da cultura na internet nas últimas décadas, sobretudo dos 2000 pra cá. Fizemos então um panorama particular e afetivo de plataformas, serviços e redes por onde a cultura digital circulou nesses tempos. Nada muito sistemático e rígido, mas bem apurado e com fontes pra tudo. Ficou grandão, saiu no livro*, mas também está agora no site e aqui.

No princípio da web, eram os sites. Uma das coisas mais interessantes em 1994 era visitar o endereço das enciclopédias, como a Barsa ou a Britannica, e perceber que não era mais necessário ter uma parede cheia de livros gigantes, capa dura, pesados. Nove em cada dez reportagens diziam que então todo aquele conteúdo estava à distância de um clique.

Passados dez anos, no início do século 21, e já estava claro que qualquer instituição ou empresa que não tivesse um site não existiria. Ou melhor, não apareceria nas buscas, e não seria encontrada, portanto — o que dava no mesmo que não existir. Foi quando museus e institutos culturais começaram a tratar das suas fachadas digitais, com mais ou menos afinco. Alguns acervos levariam ainda mais de uma década para entrar na rede, sendo que a maioria deles segue ainda hoje sem ter nem mesmo um projeto de digitalização. Na verdade, a situação de penúria dos museus é bastante conhecida, mesmo antes de o Museu Nacional do Rio de Janeiro ser reduzido à cinzas em setembro de 2018.

De qualquer forma, a cultura nunca circulou apenas dentro de museus, institutos culturais e enciclopédias, mas nos lugares mais diversos. Durante a pavimentação digital da internet, conforme a infraestrutura era construída, a cultura também se mostrava em todos os cantos possíveis. Nesse texto trazemos detalhes de alguns desses cantos, em especial aqueles que que milhares de pessoas escolheram como os seus espaços para consumir, produzir e fazer circular cultura ao longo dos pouco mais de 20 anos de internet comercial no mundo. Acreditamos que contar suas histórias nos permite entender melhor como se deu o impacto de produzir e consumir cultura com a junção das tecnologias digitais e a rede mundial dos computadores.

WIKIPEDIA

São poucos os websites que foram tão discutidos e que geraram tanto debate sobre quebras de paradigmas quanto aquele criado por Jimmy Wales e Larry Sanger em janeiro de 2001. Em 2018 a Wikipedia tem mais de 43 milhões de artigos, sendo mais de 1 milhão deles em português, o que nos coloca apenas no 15º entre 298 idiomas em termos de quantidade de artigos. Em 2014, calcularam que seriam necessárias mais de 1 milhão de páginas, divididas em 1.000 volumes de 1.200 páginas cada, para imprimir o conteúdo que estava lá — ocupando cerca de 80 metros de estantes. A última edição em inglês da Enciclopédia Britannica foi distribuída em 32 volumes com cerca de mil páginas cada.

Muitos anos foram gastos em faculdades de jornalismo e metros de páginas de revistas e jornais discutiram se o conteúdo da Wikipedia era confiável, e se seria uma enciclopédia melhor ou pior que uma Britannica, em que ocorre a tradicional curadoria e revisão por pares acadêmicos. Em 2006 a revista Nature publicou o primeiro estudo em que comparava as duas enciclopédias, observando 42 artigos científicos de acordo com os padrões mais elevados, e concluindo que “a diferença de acuidade entre as duas enciclopédias não era particularmente grande” (BENKLER, Yochai, p.71 de “The Wealth of Networks” – PDF aqui).

O debate que até hoje às vezes se escuta é que “não são profissionais que editam a Wikipedia”. No Brasil, por conta do debate sobre o fim da necessidade do diploma de jornalismo para exercer profissionalmente a função, também circulou esse debate com o mesmo moto: “não são jornalistas profissionais que estão produzindo essas notícias”. Hoje, a defesa do “profissional” em detrimento do “amador” já não está na lista de prioridades do debate. No caso da Wikipedia, ainda, uma das conclusões mais interessantes é a de que se trata não de um produto, mas de um processo. Com sistemas complexos de debate sobre a validade das revisões, os artigos estão o tempo todo sendo reescritos e revisados. Ninguém duvida hoje que a Wikipedia seja um ponto crucial de distribuição de cultura, normalmente o primeiro lugar onde estudantes encontram informações sobre qualquer coisa.

O fato é que a possibilidade da produção colaborativa, coletiva, e a facilidade com que os meios de produção e distribuição cresceram nos primeiros 10 anos da web fizeram com que conteúdos culturais circulassem muito mais livremente do que jamais haviam circulado antes. Clay Shirky sintetizou bem em “Here Comes Everybody” (p.40, 2008) : “O futuro que a internet apresentou é a publicação em massa de conteúdos amadores, o que mudou o modo de compreender o que deveria ou não ser publicado. Antes, se a pergunta era ‘por que publicar isso?’, agora passou a ser ‘por que não publicar isso?’”

Esse fato mudou o cenário e o mercado de maneira bastante drástica. Jornais, outro ícone da cultura, antes tidos como o “pedágio” entre a informação e o leitor, perceberam que cedo ou tarde teriam que rever conceitos, porque os anunciantes não mais necessariamente teriam que colocar suas propagandas ali para serem vistos. Não demorou muito para a crise financeira chegar: “o Google deve ficar com 42% do mercado de anúncios digitais em 2018 nos Estados Unidos; o Facebook, a concorrência mais próxima, deve ficar com 23% do mercado de anúncios digitais”, segundo o Washington Post. Enquanto isso, os investimentos em anúncios impressos — e mesmo nos digitais, em empresas de jornalismo — seguem em queda. O New York Times, grande parâmetro para a imprensa mundial, que fez um movimento em direção a assinaturas digitais, anunciou em 2018 queda de mais 10% nos anúncios. E, apesar de ter funcionado o modelo de paywall para o NYT, isso não quer dizer que as pessoas estejam dispostas de modo geral a bancar o jornalismo em qualquer parte do mundo com o próprio bolso. Conforme apostava em 2009 Chris Anderson em “Free – o Futuro dos Preços“, “se é digital, cedo ou tarde vai ser grátis”.¹⁰

Praticamente ao mesmo tempo em que ocorria o impacto do digital nos meios impressos, com a livre circulação da informação e da cultura por cabos ainda sem banda larga disseminada (o 3G chegaria apenas na segunda metade da primeira década de 2000, o 4G no início da década de 2010), e com os celulares inteligentes também no início de seu processo de conquista mundial dos mercados (o primeiro Iphone é de 2007), vimos outro mercado cultural sofrer um abalo sísmico que mudaria os rumos de uma cadeia produtiva inteira. E o nome deste terremoto em específico era Napster.

NAPSTER, O PRIMEIRO DESAFIANTE DO COPYRIGHT NA INTERNET

Criado por Shawn Fanning e Sean Parker como um programa de compartilhamento de arquivos em rede P2P em 1999, o Napster protagonizou a primeira luta importante entre a indústria fonográfica e as então nascentes iniciativas de distribuição de informação (e cultura) na internet. A sacada de Fanning e Parker (que depois seria um dos primeiros acionistas do Facebook e ganharia a cara de Justin Timberlake no filme “A Rede Social”, de 2010) foi criar um software de interface gráfica amigável, facilmente baixável nos computadores rudimentares da época, para que qualquer pessoa pudesse buscar suas músicas, em MP3, por nome do artista, disco, faixas e até gêneros inteiros, e fazer o download de uma cópia para suas máquinas. Era o velho hábito de compartilhar músicas, popularizado desde as fitas K7, levado à uma escala global sem precedentes, facilitado por um formato que permitia ao mesmo tempo compartilhar a música e mantê-la consigo nos HDs, CDs e disquetes da época. Uma música em MP3 baixada no Napster era um “bem não-rival” [Imre Simon e Miguel Said Vieira, desenvolveram um conceito que detalha melhor este exemplo: “rossio não-rival], que poderia coexistir em diferentes cópias e ser obtida de forma gratuita, o que quebrava o sistema industrial que as grandes gravadoras mantiveram como o seu modelo de comercialização de produtos durante décadas, ao mesmo tempo em que não remunerava os autores das músicas agora encontradas em diversos computadores de jovens mundo afora. Problema na certa.

Um ano depois de ter sido criado, em 2000, o Napster se tornou uma empresa, com diversas versões de seu software sendo lançadas quase mensalmente, número de usuários quadruplicando a cada semana, chegando a um pico de 8 milhões de pessoas conectadas simultaneamente. Mesmo com o sucesso obtido, os processos das gravadoras por quebra de copyright fizeram o Napster fechar já em 2001. Um dos mais notórios desses processos foi o do Metallica, com seu baterista Lars Ulrich à frente, que manifestou diversas vezes sua indignação com as pessoas que escutavam suas músicas sem pagar, embora ele mesmo tenha assumido que fez isso alguns anos depois, como escrevemos aqui no BaixaCultura em março de 2019.

Apesar do site de trocas ter perdido a batalha judicial, as pessoas passaram a considerar que a troca — ou o download — de músicas era algo tão natural quanto navegar na internet. Outra coisa ficou clara nesse processo: quando os donos do Napster disseram ser capazes de impedir 99,4% de trocas de materiais protegidos por leis de direitos autorais, a outra parte (as gravadoras) disse que não era o bastante. Lawrence Lessig, advogado, um dos criadores de um conjunto de licenças mais flexíveis que o direito autoral (o Creative Commons), notou que “se 99,4% não é o bastante, então essa é uma guerra contra o compartilhamento de arquivos e não a favor do direito autoral”, como escreveu no livro “Free Culture”, de 2006, traduzido no Brasil como “Cultura Livre – Como a grande mídia usa a tecnologia e a lei para controlar a cultura e bloquear a criatividade“.

Lessig esteve no Brasil algumas vezes e foi próximo da gestão de Gilberto Gil no Ministério da Cultura, entre 2003 e 2008, durante o governo Lula. A licença que ele foi um dos inventores, Creative Commons, é uma variação do direito autoral que permite, de antemão, que outros utilizem a obra criada, sem permitir a ação de intermediários legais. Foi o conjunto de licenças que mais se popularizou mundo afora baseada no copyleft, um conceito jurídico usado pelo criador do movimento do software livre, Richard Stallman, para permitir que determinadas obras, como softwares, continuem livres.

Poucos sabem que o Brasil é pioneiro na mudança ocorrida em relação ao direito autoral na música, ao compartilhamento de arquivos, ao reposicionamento mundial da indústria musical. Em Belém do Pará, o tecnobrega, que surge a partir das tecnologias de sampler, uma mistura do brega tradicional com batidas eletrônicas, desde o início abriu mão de fazer dinheiro vendendo CDs. Em nome da livre circulação, em feiras de CDs “piratas” distribuídos pelos próprios autores para que camelôs vendessem a R$ 1 ou R$ 2, os músicos estavam mais interessados na formação de público. Assim, conhecidos por uma massa de fãs, podiam depois vender ingressos para shows e ganhar com apresentações em várias cidades, ao invés de tentar proteger sua obra e ganhar com o produto CD. Quanto mais circulasse a música, melhor.

“A ausência de aplicação de leis de propriedade intelectual contribui fortemente para a construção de um mercado com dinâmica muito diferente daquele da indústria cultural formal e tradicional”.

apontavam os pesquisadores Ronaldo Lemos e Oona Castro em livro de 2008 (Tecnobrega: O Pará reinventando o negócio da música), resultado de pesquisa de anos anteriores.

Um ano antes, 2007, dois fatos importantes ocorreram na história da indústria musical: o Radiohead lançou seu disco “In Rainbows” direto na rede para download no modelo “pague-quanto-quiser”, e arrecadou mais do que se vendesse ao preço normal da época; e Madonna, ao perceber que a venda de CDs não sustentaria mais os artistas como no século passado, assinou um contrato “sem precedentes” com uma produtora de shows, passando a se importar mais com a venda de ingressos do que com a venda de música.

Depois de a música se tornar livre, e com uma banda mais larga, que já permitia o download de arquivos maiores, foi a vez de outra indústria ver seus pilares abalados: as produtoras de vídeo. Mas Hollywood e toda a multimilionária indústria do cinema norte-americano não ficariam sentados vendo seus conteúdos escorrerem pelos torrents.

PIRATE BAY, A NAVE-MÃO DOS TORRENTS

Já é razoavelmente conhecida a história de que a Disney e a Universal Studios tentaram impedir o desenvolvimento do vídeo cassete, sob a alegação de que isso iria acabar com o copyright quando as pessoas gravassem programas de TV (aqui em detalhes). O caso Betamax, como ficou conhecido, foi vencido pela Sony, dona da nova tecnologia, em 1984, e nem a TV nem o cinema acabaram então.

Assim, quando surgiu a nova tecnologia chamada torrent, uma evolução do P2P que agora quebrava os arquivos em partes mínimas e permitia a troca não apenas do arquivo completo, mas mesmo das pequenas partes sem que o usuário tivesse o arquivo completo, tornando o processo muito mais eficaz, um conglomerado de empresas de entretenimento mundiais, entre elas a própria Sony, entrou com um processo contra a Baía Pirata por quebra de copyright de milhares de arquivos de produtos culturais. Em 2009, na Suécia, os responsáveis que haviam criado e mantinham o site de trocas de torrents The Pirate Bay fazia seis anos perderam a causa, receberam uma multa recorde (8 milhões de dólares) e foram para a prisão (o que muitos consideraram bastante fora do comum e exagerado — o tribunal virou um filme documentário, The Pirate Bay AFK – Away From Keyboard, disponível no YouTube).

Porém, assim como o Napster, podemos dizer que venceram a “batalha na história”: as trocas de arquivos torrent continuam, ainda que em bem menor número do que antes, e mesmo o The Pirate Bay , o site que agregava links mas não hospedava os conteúdos protegidos por copyright alegados, se mantém na ativa, assim como diversos outros buscadores de torrents. Os responsáveis pelo site sueco, Frederik Neij, Gottfrid Svartholm Warg, Carl Lundstrom, Peter Sunde, estão soltos e tocando outros projetos — Sunde, inclusive, esteve muitas vezes no Brasil em eventos de cultura e software livre, como o Fórum internacional do Software Livre e o Conexões Globais, em Porto Alegre, além de ter criado, ainda em 2010, uma promissora plataforma de micropagamentos, Flattr.
O acesso à produtos culturais via P2P é uma prática comum na rede há quase duas décadas, mas ainda considerada, em sua maior parte, ilegal, o que a faz ser mais subterrânea do que outras e difícil de ser quantificável, já que não há dados atualizados e precisos sobre a quantidade de pessoas que se utilizam dessa forma para consumir cultura online.

Nos últimos anos, os torrents entraram numa nova era tecnológica: o streaming de arquivos. Não apenas a troca das partes se tornou possível, mas assistir a um filme em torrent, sem nem mesmo ter o arquivo completo baixado em seu computador, já é possível em algumas plataformas que mostraremos a seguir. Mas antes do streaming por torrents, vejamos os distribuidores de vídeo online que chegaram primeiro.

YOUTUBE, UM GIGANTE PARADIGMÁTICO NO CONSUMO ONLINE

Whindersson Nunes, 34 milhões de assinantes em seu canal (janeiro 2019)

Surgido em 2005, foi criado por Chad Hurley, Steve Chen e Jawed Karim, então funcionários da PayPal que vislumbraram o crescimento da circulação de vídeos na rede a partir do aumento da velocidade de acesso à internet e a dos dispositivos móveis para elaborar uma plataforma que qualquer um pudesse publicar seu vídeo de forma fácil. Foi comprado pelo Google um ano depois por US$ 1,65 bilhões, um investimento gigantesco que consolidou o site como a principal plataforma de exibição e compartilhamento de vídeos na internet e uma “revolução na cultura participativa na internet”, como afirmaram Jean Burgess e Joshua Green em “YouTube e a Revolução Digital: como o maior fenômeno da cultura participativa transformou a mídia e a sociedade“, De 2009. É difícil de medir o tamanho da influência do YouTube na produção e no consumo de cultura online, mas alguns dados são importantes: é o 3º site mais acessado via web no Brasil em setembro de 2018 e o 2º do mundo nesse mesmo período, segundo dados da Alexa, empresa ligada à Amazon— os primeiros, em ambos os casos, é o Google (.com em 1º lugar mundial e 2º no Brasil, e .com.br o 1º aqui). O Android, sistema operacional mais utilizado em smartphones no mundo, vem em sua instalação padrão com o YouTube, o que significa que 85,9% dos dispositivos móveis vendidos no Brasil hoje trazem a plataforma de vídeos do Google, segundo dados do CanalTech.

NETFLIX, A REINVENÇÃO DA INDÚSTRIA NA CONSOLIDAÇÃO DO STREAMING

homepage Netflix de 1997

Talvez poucos se lembrem, mas a Netflix começou, ainda em 1997, como um serviço de aluguel de filmes em que você levava em sua casa os DVDs e depois retirava, tal como uma locadora. Durou 10 anos e em 2007 passou a oferecer streaming de conteúdos diversos, o início do que seria hoje um acervo online com mais de 124 milhões de assinantes no mundo, que ajudou a enterrou de vez o modelo de negócio de aluguel de filmes das videoocadoras — o Napster e os torrents já haviam começado este término, lembremos.

Em determinado momento, o Netflix percebeu que seria mais barato criar conteúdo pŕoprio do que licenciar conteúdos com direitos autorais pré-existentes para o mundo todo. Assim, começou a investir boa parte da sua receita em novas produções, com um detalhe: a escolha do que seria produzido é feita com base nas previsões do que seus usuários já gostariam de ver, mas ainda não existia na plataforma. O primeiro grande exemplo de sucesso dessa estratégia foi “House of Cards”, uma série sobre os bastidores da política institucional dos Estados Unidos lançada em fevereiro de 2013. Havia demanda por séries sobre política, com cenas de sexo, algo de violência. Claro, o algoritmo criado para coletar, processar e analisar os dados dos interesses dos assinantes não determina o sucesso de uma série — mas pode auxiliar ao menos a atirar no lugar certo. “Stranger Things”, série original Netflix lançada em julho de 2016, traz até hoje especulações (aqui uma delas) de que teria sido o primeiro caso de um produto audiovisual produzido a partir dos algoritmos de recomendação da plataforma, tamanho a quantidade de referências (dos anos 1980, sobretudo) que fizeram a série cair no gosto do público.

O fato é que, em 2018, podemos dizer que a Netflix é um dos principais lugares que as pessoas vão na internet (na web ou nos aplicativos em smartphones, tablets, smart TVs, ) para consumir cultura online. Virou a principal referência quando se fala de plataformas de streaming de conteúdo, ainda que esteja enfrentado a concorrência, cada vez mais acirrada, de plataformas como Hulu e Amazon Prime, e das criadas pelos outroras somentes canais de televisão, como Globo (Globo Play), HBO (HBO Go), ou operadoras de TV a Cabo (NET Now, Globosat Play), sem falar do já comentado YouTube, da Google Play e da Apple TV.

Para descrença daqueles que sempre baixaram seus conteúdos na internet (como os autores desse ensaio), o streaming virou realidade e não apenas uma tendência vaga que se imaginava com incredulidade em 2008, 2009. Milhares de famílias de classe média no Brasil tem o valor mensal para ter acesso às produções da plataforma como um dos gastos cotidianos da casa, como luz, água e internet, para não mencionar aqueles vários que dividem uma única conta, às vezes não necessariamente de forma legal. A indústria, e especialmente o Netflix, soube ouvir uma demanda de quem usava os torrents para ter acesso à diversas produções culturais mundiais: faça melhor que eu pago. Criaram uma plataforma com muitos produtos à disposição de forma fácil, numa interface amigável, já legendados e que funciona em diversos dispositivos, e com isso conseguiram tanto ganhar aqueles que tinham preguiça de baixar um filme e suas legendas como conseguiram legalizar o consumo cultural online, já que tudo aquilo que está no Netflix e seus concorrentes é disponibilizado de forma legal. Uma jogada de mestre, que contou com o considerável crescimento da velocidade na rede, com fibra óticas capazes de entregar mais de 100 Megabits por segundo de download e upload para muitos lugares do mundo, inclusive no Brasil.

Além de ser o principal serviço de streaming de produção audiovisual no mundo, o Netflix também influenciou outros projetos menores e igualmente importantes no Brasil.

O primeiro é o Afroflix, plataforma criada em outubro de 2015 traz produções que possuem pelo menos uma área de atuação técnica/artística assinada por uma pessoa negra. São filmes, séries, web séries, programas diversos, vlogs e clipes que são produzidos ou escritos ou dirigidos ou protagonizados por pessoas negras. Por enquanto só audiovisuais brasileiros. E o segundo é o Libreflix, projeto criado pelo jovem programador Guilmour Rossi, de Curitiba, uma plataforma de streaming aberta e colaborativa “que reúne produções audiovisuais independentes, de livre exibição e que fazem pensar” numa interface parecida com a de sua principal influência. A proposta do Libreflix, como eles mesmo comentam em seu FAQ, está diretamente ligada com a ideia de cultura livre, que defende a liberdade para modificar e principalmente distribuir obras criativas. Criado em 2017, o projeto não deixa de ser uma hackeamento do Netflix e da própria indústria do entretenimento online; se estes, como falamos, souberam bem se reinventar e legalizar o consumo audiovisual online na rede, o Libreflix mostra que os projetos desviantes e em prol da distribuição livre da informação sempre vão existir enquanto houver internet.

POP CORN TIME E STREMIO, OS TORRENTS AGORA TAMBÉM SÃO STREAMING

Pop Corn Time é um software livre, criado em 2014, com uma interface simples que permite assistir filmes ou séries compartilhando arquivos, mas sem necessariamente deixá-los no seu computador após serem vistos. Os próprios desenvolvedores tiraram o software de circulação quando foram ameaçados pela indústria do cinema, mas como era um software livre, foi copiado e replicado em inúmeras versões. Stremio é uma das versões, de 2016, que inclusive insere legendas de outros sites nos torrents.

Tanto uma quanto a outra representam uma outra forma de consumo e compartilhamento de produtos online: o streaming via torrents. São sistemas automatizados que rastreiam as partes dos arquivos torrents em diversos computadores mundo afora e que apresentam o arquivo completo para um usuário final a partir da soma das partes. É a junção do compartilhamento P2P com um player — um software de visualização de arquivos multimídia — num único produto, seja um site na web como um aplicativo a ser baixado em dispositivos móveis. Uma solução à margem da legalidade, como os torrents, mas com uma interface que lembra os melhores serviços de streaming, com os sistemas de recomendação, a imagem dos cartazes dos filmes e séries e outras facilidades que não são encontradas quando se procura um arquivo para baixar nos buscadores de torrent.

Entramos de fato num período de distribuição de áudio e vídeo em tempo real, sem a necessidade do download. Todas as perspectivas apontam que a transmissão de vídeo online é o futuro, o tráfego que mais aumenta na internet. Por exemplo: no Brasil, 84% das pessoas que usam internet assistem vídeos; entre estes, o consumo é de 38 horas por semana. Sete em cada 10 brasileiros tem um smartphone, e quase 90% deles consome audiovisual no celular, segundo pesquisa do Google. Produção audiovisual, sem dúvida, é a aposta para distribuição e consumo de cultura nos próximos anos.

REDES SOCIAIS,  DE COMUNIDADES DE NICHOS À MANIPULAÇÃO MASSIVA PELOS ALGORITMOS

Redes sociais existem desde que foi criado o mundo, mas as redes sociais online no Brasil tem um marco importante: o Orkut, uma plataforma que durou 10 anos — lançada em 2004, encerrada em 2014 — e que marcou a internet brasileira na primeira década do século XXI. Seu projetista chefe, Orkut Büyükkökten, engenheiro turco do Google, pensou no público norte-americano, mas acertou em cheio no brasileiro. O Brasil chegou a 30 milhões de usuários no auge da rede social, entre 2006 e 2009, antes de cair em vertiginosa queda com a ascensão do Facebook, lançada em 2004 mas só popularizada para milhões no final da década passada. Uma história conhecida por pouca gente no Brasil é que o estopim da explosão do Orkut no país teve como responsável o ativista da internet livre — e letrista da legendária banda Grateful Dead — John Perry Barlow. Ocorre que, no início, como estratégia, só entrava na rede quem tinha um convite. Orkut deu 100 convites a Barlow, que distribuiu estes convites quase todos a brasileiros que ele conhecia. A teoria de Barlow, um dos fundadores da Electronic Frontier Foundation, é que o Brasil seria uma sociedade em rede pronta para receber uma rede social, porque as redes sociais já existiriam no país de maneira analógica com muita força.

Sem entrar no mérito da razão do brasileiro aderir com tanta vontade às redes sociais, o fato é que o Brasil tem um uso diferenciado das redes. Mergulhou no Orkut, e depois no Facebook, com milhões de usuários que passam lá mais horas do que outros países.

Grupos de compartilhamento de produtos culturais, de discografias inteiras de artistas às obras completas de filósofos, já foram um dos principais motivos que fizeram os brasileiros passarem horas nessas plataformas, em especial no Orkut, onde o grande fluxo de informação se dava nos grupos, dos mais diversos assuntos possíveis, um mosaico de tão incríveis diversidades que, na época que começou a queda da plataforma criada pelo engenheiro turco, em 2011, alguns pesquisadores, como o brasileiro Ronaldo Lemos, chegaram a levantar a possibilidade de salvar a memória da plataforma dada à sua importância no Brasil. “Se a nossa Biblioteca Nacional tiver um mínimo de visão e conexão com o presente, deveria começar a agir já. É preciso preservar o conteúdo integral do Orkut, criar um espelho público do site que registrou boa parte do que aconteceu nessa incrível década passada”, escreveu Lemos em “Salvem a Memória do Orkut!“. Não houve interesse da Biblioteca Nacional nem de nenhuma outra instituição de memória brasileira nem internacional, e o que circulou no Orkut lá morreu.

A queda do Orkut e a ascensão do Facebook como principal rede social mundial, em 2018 com a impressionante marca de mais de 2 bilhões de usuários em todo o planeta, também marca o aumento de uma internet que, por falta de termo melhor, podemos chamar de “algoritmizada”. Com cada vez mais pessoas conectadas à internet, mais rastros digitais foram sendo deixados, o que permitiu a criação de algoritmos — processos que automatizam outros processos, à grosso modo — de monitoramento, cruzamento e apresentação de informações de nosso comportamento online. O resultado dessa mudança é amplamente conhecido: mais conforto para nós, que não precisamos mais nos esforçar para encontrar produtos e informação na rede, basta deixar as próprias plataformas sugerirem o que queremos a partir de nossos dados de navegação na web ou em aplicativos. E também mais facilidade para a manipulação de grandes massas de população através de métodos psicológicos baseados no comportamento online dos indivíduos, vide o escândalo da Cambridge Analytica, caso que mostrou ao mundo até que ponto o uso de big data — outro termo popularizado pós-Orkut — pode ser usado para influenciar eleições, seja a de Donald Trump nos EUA ou o processo do Brexit na Inglaterra.

Vale lembrar que, simultaneamente ao desenvolvimento e à massificação dos smartphones vimos surgir também uma infinidade de aplicativos para celular, os chamados apps. Atualmente, o maior uso que se faz dos apps está diretamente relacionado a redes sociais ou variações disso, grupos de troca de mensagens que podem ser considerados micro-redes sociais (às vezes com centenas de pessoas). A lista dos apps mais populares em 2017 tanto para Android quanto Iphone, no mundo, feita pela Fortune, incluía Whatsapp, Snapchat, YouTube, Facebook Messenger, Instagram, Facebook, Google Maps, Netflix, Spotify e Uber. Nos EUA, Twitter e Pinterest também integram a lista com o maior número de usuários ativos em 2018.

Para finalizar e resumir nossa discussão aqui, podemos dizer que a questão que dá origem a este ensaio, “por onde circula a cultura na internet”, talvez já não seja a maior preocupação atual, no entanto. A cultura e a informação em geral circulam mais pela internet do que jamais circularam antes, por múltiplos canais, produzidas em todas as partes, por todo mundo, com as mais variadas qualidades. Outras questões agora começam a ser formuladas. Quando o acesso é praticamente ilimitado, como encontrar qualidade? Como ter acesso à diversidade, dentro dos filtros-bolha? Quem fará a curadoria de tal massa cultural mundial? Quem programa os algoritmos que escolhem por você? Quem determina as sugestões que serão oferecidas a você pelas inteligências artificiais, e quais são os verdadeiros propósitos dessas sugestões? São as perguntas que, em 2018, dominam as pesquisas acadêmicas em múltiplas áreas (da computação à antropologia, da sociologia ao design) e dominam o noticiário mundial, preocupando todos aqueles que se importam em escolher o que consomem na rede mais do que serem escolhidos pelos próprios produtos a serem consumidos.

* O livro inteiro pode ser baixado aqui. É um livraço (em conteúdo e peso, rs) pra quem se interessa por cultura. Temos 10 exemplares, quem quiser um grátis nos escreva: info@baixacultura.org

]]>
https://baixacultura.org/2019/06/14/ambiente-digital-de-difusao-por-onde-circula-a-cultura-online/feed/ 0
BaixaCultura 10 anos – História Aberta https://baixacultura.org/2018/09/24/baixacultura-10-anos-historia-aberta/ https://baixacultura.org/2018/09/24/baixacultura-10-anos-historia-aberta/#comments Mon, 24 Sep 2018 22:40:24 +0000 https://baixacultura.org/?p=12555

“A lógica industrial da cultura [dominante ao longo do século 20] se baseia num esquema feroz de controle autoral (o copyright), mais ou menos feroz a depender do volume de grana envolvido. Quando a tecnologia digital torna impossível esse controle, e aos lucros cada vez menores da indústria se equipara uma produção cultural descentralizada, diversificada e auto-gerenciada; quando a reação da indústria é uma dispendiosa campanha “contra a pirataria” por vezes redundando em leis ignorantes, é aí que é possível perceber: a sociedade é a grande concorrente da indústria.

Na produção cinematográfica nigeriana, ou na contra-indústria tecnobrega de Belém do Pará, ou no trabalho criativo e criminoso [viva!] do dj Danger Mouse, ou em centenas de experiências que o BaixaCultura pretende cobrir, o que está em jogo é um tipo de organização que segundo os critérios de avaliação das velhas leis e dos homens-de-preto da indústria já nasceu pirata, e o incrível apego que esses mesmos homens nutrem por um modelo de indústria que existe há apenas um século, contra um monte de outros séculos de produção artística.”

Assim começávamos o BaixaCultura, em setembro de 2008, então como um blog, tocado por Leonardo e Reuben da Cunha Rocha. 10 anos e muita coisa depois, cá estamos, vivo, como uma laboratório online de cultura livre, ainda com textos, ensaios e reportagens, mas também com oficinas, cursos, zines/livros, ciclos de filmes (copy, right?) e uma tentativa de buscar sustentabilidade através do financiamento recorrente. Dá pra dizer: resistimos.

Na era em que tudo é registrado, onde parece tão fácil documentar, muito tem se perdido. Um paradoxo, ainda mais visível e paradoxal nos projetos, pessoas e instituições de cultura livre, remix, artivismo, hackers, contracultura, software livre, etc. Com alguma dose de sem-noçãozisse e outra de teimosia, cá estamos como um dos poucos projetos vivos que ainda documenta, (in)forma e produz cultura livre (e contra) cultura digital nesse distópico 2018. Celebremos?


Pois sim, vamos celebrar! De um jeito tímido e pequeno, porque é o possível do momento. Para isso vamos fazer dessa semana, a última de setembro de 2018, dias atípicos de resgate da memória e de celebração da existência. A partir da ideia de Sheila Uberti, nossa parceira de muitos projetos, organizamos três frentes:

_ HISTÓRIA ABERTA: ao longo da semana, todos os dias destacaremos em nossas redes alguns dos 480 (!) posts produzidos desde 2008, sob a hashtag #baixacultura10anos. É uma forma de revisitar estes textos, dá-los a conhecer por algumas pessoas que não os conhecem e, também, compartilhar uma memória da cultura livre e (contra) cultura digital ao longo destes últimos 10 anos de intensas transformações no mundo digital.

_ HISTÓRIA COLETIVA: Queremos também convidar vocês – leitor@s, alun@s, apoiador@s, colaborador@s, simpatizantes – a compartilhar algum momento, texto, depoimento, imagem, declaração de amor ou ódio, sobre a cultura livre destes últimos 10 anos, ligados ou não ao baixacultura. Quem usar a hashtag #baixacultura10anos no twitter/facebook/instagram e outra redes vai nos ajudar a agregar depois o conteúdo em uma página e mostrar todas as postagens na…

_ PEQUEÑA JUNÇÃO BAIXACULTURAL: sexta-feira, dia 28/9, às 18h, vamos fazer uma celebraçãozinha desses 10 ano numa videoconferência transmitida no nosso canal do YouTube, mostrando os momentos compartilhados pela tag #baixacultura10anos, tocando músicas livres, falando um pouco da cultura digital brasileira, da ressaca da internet, com alguns convidad@s presenciais em carbono (num lugar de Porto Alegre que logo anunciamos) e em silício (de outros lugares do Brasil e mundo, online). Tod@s estão convidados a participar, seja vindo no local, papear, tomar uma cerveja conosco e participar da transmissão, ou online, perguntando no chat ou entrando ao vivo para dar um salve & comentar algo. Nos próximos dias te passamos as coordenadas. Salve data/hora: 28/9, 18h em diante.

UPDATE: local presencial confirmado: Jardin’s do Chopp, gastrobar da cidade baixa com pizzas (veganas/vegetarianas e com carne) excelentes e as maravilhosas Cervejas Babilônia, uma das melhores artesanais do Estado (a Helles com Butiá e a Oatmeal Stout são imbatíveis), a preço justo. A partir das 18h30.

O vídeo ficará, como sempre, disponível aqui abaixo. Na íntegra, depois vamos editar melhor. Adelante!

]]>
https://baixacultura.org/2018/09/24/baixacultura-10-anos-historia-aberta/feed/ 2
Produtoras colaborativas e uma tecnologia digital social https://baixacultura.org/2015/03/24/produtoras-colaborativas-e-uma-tecnologia-digital-social/ https://baixacultura.org/2015/03/24/produtoras-colaborativas-e-uma-tecnologia-digital-social/#comments Tue, 24 Mar 2015 18:49:14 +0000 https://baixacultura.org/?p=10138 colab1

Quem trabalha com os princípios da cultura livre, especialmente a partir do software livre e das licenças Creative Commons, já passou pela situação: você apresenta seu projeto/pesquisa/produto pra alguém (ou um grupo de pessoas), é aplaudido, recebe os parabéns, vários “muito legal!”. Em determinado momento, depois ou mesmo durante os parabéns, surge alguém a questionar: “muito interessante o trabalho de vocês, mas como vocês se sustentam, se tudo é livre?” como ‘ganham dinheiro‘, se o software é dado de graça?”.

A resposta varia de acordo com cada um, mas costuma fazer a pessoa questionada condensar, em poucas frases, muitas e muitas horas de conversas, pensamentos e estudos sobre os princípios da cultura e do software livre. Por exemplo: software (e cultura) livre não significa software (e cultura) grátis, como diz Richard Stallman na sempre citada frasefree speech, not as in free beer“; nem toda troca precisa ter dinheiro envolvido – porque mesmo estando num sistema capitalista, em algum nível é possível sobreviver, sim, de trocas e moedas que não necessariamente o dinheiro; o sustento provém de atividades indiretamente relacionada aos serviços prestados ou produtos oferecidos de maneira gratuita, como consultoria, capacitação, ensino, personalização; ou, ainda, não me sustento com isso, faço porque gosto e quero que seja assim.

Penso nisso porque o II Encontro das Produtoras Colaborativas, que juntou mais de 10 coletivos na semana passada no NAEA, em Belém, trouxe essa questionamento em diversos momentos. E, mais do que isso, trouxe alguns exemplos que podem fornecer respostas criativas às perguntas já citadas. Por que desde que a internet cortou alguns intermediários e ressignificou outros, a realidade é clara: não existe mais um modelo único, pronto pra aplicar sem esforço, que vai sustentar tua produção cultural – seja ela cinema, música, software, eventos, etc. Como Gilberto Gil já dizia em 2009, aqui mesmo no BaixaCultura: “A digitalização não exige que toda obra de arte seja de graça, mas que um modelo próprio de comercialização seja criado para cada necessidade. A tendência atual é que pensemos não na propriedade, mas no comum, no compartilhado”.

colab2

A tecnologia social das produtoras colaborativas

Pensar no comum e no compartilhado é justamente a linha-mestra das produtoras colaborativas, que, por hora, podemos resumir como uma tecnologia social que reúne um conjunto de metodologias baseados na cultura e no software livre, no cooperativismo e nas moedas sociais. São metodologias que começaram a ser estudadas em 2006, nos pontos de cultura do Quilombo do Sopapo e da Biblioteca do Fórum Social Mundial em Porto Alegre, e aplicados pela primeira vez pelos pontões de cultura iTEIA, CDTL e Caravana Arcoirís na Aldeia da Paz, realizada no Acampamento Intercontinental da Juventude dentro do Fórum Social Mundial de 2009, em Belém.

De 2009 pra cá, a tecnologia tem sido testadas em diferentes lugares, principalmente em Pontos de Cultura – projeto criado dentro do Cultura Viva e uma das maiores conquistas da história da cultura brasileira, referência internacional (olhaí o relato basco aqui no Baixa em que ele é destacado) e que desde 2014 é, por lei, política pública brasileira.

A Produtora Colabor@tiva.PE, que integra 6 pontos de cultura da região metropolitana de Recife mais um cineclube e um centro de recondicionamento de computadores, foi a primeira que aplicou de forma permanente, a partir de 2010, o conjunto das metodologias das produtoras colaborativas. Pedro Jatobá, um dos criadores da Colabor@tiva.PE, apresentou a tecnologia, em uma das falas do primeiro dia de encontro, a partir da metáfora da árvore: assim como as árvores precisam de nutrientes para gerar frutos, as produtoras necessitam de insumos para alimentar o processo de formação continuada e, assim, fomentar os ciclos de amadurecimento de novos empreendimentos.

colab3

Assim, os tronco são as 6 áreas de atuação: memória, gestão, produção, economia, educação e comunicação. Os galhos são os núcleos temáticos: fotografia, áudio, vídeo, comunicação, produção cultural, criação de páginas na internet, entre outros. As folhas são os produtos e serviços (clipe, registro fotográfico, curso de fotografia, mapeamento, site, etc); os frutos são a formação continuada, aquilo que cai e dá fruto, replica; e, por fim, tudo está estruturado em seis raízes sólidas, que vale destacar aqui:

cultura popular: atuar na divulgação e no fomento da cultura popular de cada local; ser a mídia livre da expressão cultural popular;
software livre: além de toda a questão social do software livre, ele é, também, a única maneira legalizada de funcionar numa comunidade sem precisar pagar fortunas por licenças de software.
cooperativismo: ser autogestionado, sem “patrão”, mas cooperativados; relação horizontal;
criatividade: buscar formas alternativas e criativas de não fazer “empacar” os projetos;
empreendedorismo: a necessidade de fazer a produtora funcionar, e minimamente pagar as contas;
moeda social: em muitas comunidades onde as produtoras atuam o dinheiro é escasso; então é criada uma moeda social pra balizar trocas dentro da comunidade. Ela pode fazer serviços pra fora da comunidade por dinheiro, mas dentro ela pode fazer serviços na moeda social, trocar a criação de uma página na internet por almoços, por exemplo. No caso da Colabor@tiva.PE, há a moeda social Concha, a primeira criada em Pernambuco, toda gestionada dentro da plataforma Corais.org, que, ademais, é um ambiente de criação/gestão de projetos todo criado em software livre e que reúne várias outras produtoras colaborativas e outras redes.

[Recomendo ver a apresentação completa para entender e ver como funciona na prática]

colab3

Mãe Beth de Oxum, do Centro Cultural Coco de Umbigada

É a partir dessa ideia que os produtos e serviços da Colabor@tiva.PE são estruturados. Eles incluem desde a digitalização de saberes e tecnologias locais até a produção de videoclipes de bandas locais, passando por oficinas de capacitação em vídeo e áudio com software livre e produção de eventos culturais. Um exemplo prático apresentado por Mãe Beth de Oxum (foto acima), do Centro Cultural Coco de Umbigada (ligada à colaborativa PE), foi o Contos de Ifa, um site que ensina a cultura afro-brasileira a partir de jogos onde os personagens são orixás (Ogum, Exú, Odé e Obadulaié). Do áudio ao design e a programação, tudo feito em software livre.

colab5

Jader Gama (Puraqué) e Larissa Carreira, da Produtora Colaborativa do Pará, no lançamento do livro “Coralizando”

Hackear a universidade: o caso do Pará

Outro exemplo que vale destacar aqui é o da Colaborativa do Pará e do Coletivo Puraqué, de Santarém. A primeira, criada em 2009, funciona a partir da tecnologia social das colaborativas, e oferece principalmente serviços de formação em software livre e produção de eventos (veja aqui a o portfólio). O segundo nasceu como um laboratório de informática na casa da mãe de Jader Gama, integrante do grupo, no início da década passada, e de aulas básicas de informática passou ao ensino de programação, entrou para as redes da Metareciclagem e dos telecentros, ajudou na organização de encontros regionais como o Fórum Amazônico de Software Livre (FASOL), Fórum Amazônico de Cultura Digital e, sobretudo, colocou a bela e longínqua Santarém, no encontro dos rios Tapajós e Amazonas, oeste do Pará, no mapa da cultura digital brasileira.

Na busca por recursos e sustentabilidade numa região com pouco dinheiro e onde as distâncias dificultam e encarecem a produção de qualquer evento/oficina/encontro, as duas produtoras/coletivos fizeram, de 2010 pra cá, um movimento orquestrado de “hacker a universidade”. Jader Gama e Larissa Carreira – do Puraqué e da Produtora Colaborativa, respectivamente – entraram para o mestrado na UFPA, no Núcleo de Altos Estudos Amazônicos (NAEA), um centro de pesquisa acadêmico voltado ao desenvolvimento regional da Amazônia. Com membros de uma instituição organizada como o NAEA e ligados à Universidade, tiveram a possibilidade de pleitear verbas de convênios com diversos ministérios do Governo Federal, e partir daí passaram a promover eventos de formação e pesquisa também para o público de fora da universidade, através do grande guarda-chuva de projetos que é a “Extensão Universitária”. Relativamente desprezada dentro da pós-graduação, a extensão é o mecanismo que as universidades brasileiras tem de interagir com a comunidade e sair de seus muros: passam por ela desde eventos culturais até incubadoras tecnológicas, oficinas de formação e outros projetos que promovam a integração do espaço acadêmico com a localidade a qual está inserida.

Foi assim que as produtoras se abrigaram dentro do NAEA, aproveitando-se também da maior possibilidade de interlocução com outras áreas que um raro centro interdisciplinar de pós-graduação como o NAEA, criado em 1973, possibilita. E dessa maneira fizeram diversas oficinas formativas de software livre, de edição de vídeos a cartografias digital, propuseram projetos de pesquisa em seus mestrados relacionados às temáticas de seus trabalhos nas produtoras – Jader sobre transparência pública nos municípios paraenses, Larissa com comunicação comunitária e software livre – e, literalmente, ocuparam a Incubadora de Políticas Públicas da Amazônia, mecanismo de articulação institucional do qual o NAEA, junto de outros institutos de pesquisa e dos governos, faz parte. Vestiram a camiseta oficial da universidade para se relacionar de outra forma com a comunidade ao seu redor, promover a articulação efetiva entre esta mesma comunidade, o poder público e o espaço acadêmico, não raro centrado só em seu mundo – basta ver quantos estudantes de mestrado e doutorado você conhece que fazem algo de extensão.

*

colab7

O II Encontro e a sustentabilidade

Foi também através dessa parceria-ocupação que o NAEA e a UFPA sediaram o II Encontro das Produtoras Colaborativas, entre os dias 19 e 21 de março de 2015. Foi um momento das produtoras se conhecerem melhor, se familiarizar com a tecnologia social, para aquelas que não a usam integralmente, lugar de formação – o 2º dia do evento contou com oficinas variadas – e, também, para promover o debate conceitual e institucional sobre produção cultural e a cultura livre.

Participei da mesa sobre “Extensão e comunicação comunitária”, no sábado pela manhã, junto de Larissa Carreira, da colaborativa de Belém, Eduardo Lima e Pedro Jatobá (mediação), da colaborativa de Pernambuco e Daniel Luis (Umbigada no ar, um dos pontos da Colaborativa PE; foto acima). Falei um pouco da experiência recente da Casa da Cultura Digital Porto Alegre, em especial do Observatorio.cc e dos projetos ligados aos dados abertos (como o Open Data Day e o Hackday Tranporte Público), Daniel e Eduardo falaram das suas, com enfoque maior na experiência de ambos com software livre – Daniel trabalha com áudio e Eduardo com vídeo. Larissa contou de sua pesquisa com comunicação comunitária e da relação da produtora colaborativa com a universidade; um tanto do relato do tópico acima foi baseado em sua fala. Mesa ampla, assuntos diversos, discussão boa.

colab6

Um dos debates mais instigantes foi o que encerrou a manhã de sábado, sobre arranjos produtivos locais, autonomia e políticas públicas. Ricardo Poppi, da Secretaria Geral da Presidência, Ricardo Abramovay (professor da FEA-USP), Lula Dantas (Comissão Nacional dos Pontos de Cultura), Geórgia Haddad Nicolau, do MinC (atualmente na secretaria de políticas culturais, não mais na de economia criativa, que vai ser extinta), mediada por Luana Vilutis (Colaborativa.PE). Outra mesa bastante diversa, que teve por destaque o tom de cobrança que a plateia fez aos dois representantes do governo, Poppi e Geórgia. Ela, em especial, destacou que além de “hackear as políticas públicas”, tema bastante apontado nas questões da plateia e também por Poppi, se faz necessário que a população acompanhe o que está sendo feito no governo, para assim pressionar e cobrar o funcionamento das políticas que são criadas dentro dos mecanismos institucionais e, não raro, se perdem por falta de conhecimento ou de contribuição dos interessados.

Ela citou três temas centrais para acompanhar as políticas culturais do MinC, agora sob o comando do ministro Juca Ferreira, um oásis progressista numa escalação conservadora e reacionária de ministérios feita pelo governo Dilma. São eles: marco regulatório das organizações da sociedade civil (MROSC), que entra em vigor em julho de 2015; o sistema nacional do Procultura, que está para ser aprovado nos próximos meses; e a reforma da Lei de Direitos Autorais (LDA), que vai ser retomada agora com força e precisa de muita articulação da sociedade civil para conseguir barrar o forte (e bem pago) lobby da indústria do copyright – quem acompanha esta página já faz alguns anos sabe da importância de uma atualização da lei dos direitos autorais no cenário da tecnologia digital e da internet no Brasil e no mundo.

Ricardo Abramovay, referência no Brasil quando o assunto é economia colaborativa, trouxe apontamentos sobre o cenário atual: nunca tivemos tantos instrumentos de cooperação social, mas, de fato, estamos sabendo cooperar ou estamos sendo soterrados pela avalanche de informações e ferramentas pasteurizadas que as redes sociais nos jogam diariamente? Uma das falas que mais teve ressonância no encontro, e que se liga à abertura desse post, é a de que o ativismo precisa se organizar a partir da viabilidade econômica. Ele ressaltou a necessidade de pensar em empreendedorismo (no que pese o uso torpe dessa palavra pelos setores mais liberais da administração) para viabilizar ações ativistas, pois esta é um elemento fundamental para dar visibilidade a causas de interesse planetário, especialmente neste momento, que está mais visível do que nunca que o consumo exagerado e a busca por energia para alimentar esse consumo estão destruindo DE FATO o planeta (se ainda tiver dúvida, leia “Há mundo por vir? Ensaio sobre os medos e os fins“, de Eduardo Viveiros de Castro e Déborah Danowski, e tente não se preocupar).

É uma questão polêmica, que muitos ativistas torcem o nariz – anarquistas, então, nem se fala. Mas talvez uma das melhores respostas atuais pra questão que abriu esse texto seja, justamente, a tecnologia social das produtoras colaborativas: ativista, sim, no uso do software livre, na propagação do conhecimento aberto e das culturas populares através das mídias livres e no desenvolvimento de uma economia baseada em produção orgânica e sustentável. Mas também com um pé criativo na relação com o “mercado”, em formas de viabilizar financeiramente a produção da cultura livre, seja através de editais públicos ou de outras formas a serem inventadas, para que não se torne refém de nenhuma forma de financiamento. Buscando, sempre quando possível, relações menos baseada no lucro e mais na colaboração. Utopia? Em construção.

[Leonardo Foletto]

Confira mais algumas fotos do evento na página das colaborativas no ITeia, portal criado para abrigar a produção multimídia de centros culturais nacionais e internacionais, em especial os Pontos de Cultura. Vale conferir também a organização do evento, toda realizada de forma transparente dentro da plataforma corais. O próximo encontro está previsto para 2017, em votação (também no Corais) se em Recife ou Porto Alegre.

]]> https://baixacultura.org/2015/03/24/produtoras-colaborativas-e-uma-tecnologia-digital-social/feed/ 5 Porto Alegre em Conexões Globais https://baixacultura.org/2013/05/22/porto-alegre-em-conexoes-globais/ https://baixacultura.org/2013/05/22/porto-alegre-em-conexoes-globais/#respond Wed, 22 May 2013 18:46:50 +0000 https://baixacultura.org/?p=9724 conexoes

O Conexões Globais do ano passado foi notícia por aqui, além de ter sido um baita evento para Porto Alegre. Este ano tem de novo e já começa amanhã, a partir das 13h, na Casa de Cultura Mário Quintana, com diversos diálogos, shows, oficinas e ideias livres – veja aqui a programação e escolha o que mais lhe agrada. Se não tiver em Porto Alegre, fique tranquilo que rola streaming no site.

Nós recomendamos fortemente pelo menos três cousas (que na verdade são 7):

_ o debate “Conhecimento livre na rede“, na quinta-feira 23/5, às 18h, com webconferência de Peter Sunde (Flatrr e do Pirate Bay), os habituees de eventos de cultura digital (mas sempre de falas importantes) Ronaldo Lemos e Sergio Amadeu, Gustavo Anitelli, produtor do Teatro Mágico e um dos integrantes do Música para Baixar – MPB, e Jéferson Assumção, secretário adjunto de cultura do RS, escritor, jornalista e grande entusiasta da cultura digital no governo.

_  os shows de Jorge Mautner, o “filho do holocausto“, com Bem Gil, filho de Gilberto, na quinta-feira 23/5 às 19h30,  Frank Jorge sexta 24/5 às 19h30, Pedro Munhoz, um trovador a serviço da música livre, na sexta 24/5 às 17h30, e Tonho Crocco, ex-vocalista do saudoso Ultramen, sábado 25/5 às 17h30.

_ “Comunicação e Poder na Era da Internet“, com os jornalistas Cynara Menezes e Franklin Martins, a secretária de comunicação e inclusão digital do RS Vera Spolidoro, e Natália Viana, da Agência Pública. Como webconferecista o pesquisador português Gustavo Cardoso, parceiro de Manuel Castells e coordenador do Mestrado em Comunicação, Cultura e Tecnologias de Informação do Instituto Universitário de Lisboa.

cineclube conexoes

O BaixaCultura também estará presente no evento em parceria com a Casa da Cultura Digital Porto Alegre para organizar o Cineclube CCD Conexões Globais. Nesta 3º edição do Cineclube, o espaço utilizado vai ser o mezanino do 2º andar da CCMQ, onde será organizado um lounge com a presença de games para os participantes do evento (não só) se divertirem nos intervalos (ou não) das palestras dos três dias do evento.

O formato desta 3º edição do Cineclube se altera em relação as outras vezes: em vez de uma única exibição seguido de uma conversa sobre os temas do filme, serão 3 sessões diárias de exibição de filmes, nos horários das 13h, 16h e 18h, durante os três dias do evento – quinta 23, sexta 24 e sábado 25 de maio.

Serão mostrados filmes (curtas e longas) relacionados a cultura digital e a cultura livre, filmes que discutem software livre, remix, sampling, direitos autorais, produção cultural, games, entre outros temas – boa parte deles já exibimos nas outras edições do ciclo copy, right?

indiemage poster

Pra reforçar/provocar a ideia de que game também é cultura (digital), no sábado 25 de maio, às13h, será realizada uma seção especial sobre games com a exibição de “Indie Game” e a participação de convidados para o debate posterior ao filme.

Vale dizer que os indie games são jogos criados por uma única pessoa ou por equipes pequenas (muitas vezes grupos de amigos), em geral sem o apoio financeiro de empresas. Por não contarem com recursos para a criação de jogos enormes e cheios de recursos, os desenvolvedores indie costumam focar na criatividade e na inovação. Alguns indie games que já alcançaram popularidade são Minecraft, Rock Band, ArmA, Eve Online, RuneScape, Braid e Angry Birds.

O documentário, dirigido em 2012 por Lisanne Pajot e James Swirsky, acompanha o processo de criação de três populares jogos indie: Braid, FEZ e Super Meat Boy. O filme participou da seleção oficial de Sundance em 2012 e foi escolhido o melhor documentário pela crítica.

Veja os horários aqui abaixo e aqui a sinopse de cada filme. Boa parte deles está na nossa BaixaTV, e os que não estão estarão depois do Cineclube.

Quinta – 23 de maio
13h – RIP: A Remix Manifesto (2009, 86 min)
16h – The Pirate Bay: Away from the Keyboard (2013, 82 min)
18h – Sessão Produção Cultural no Brasil  (2012, 15 min)

Sexta – 24 de maio

13h – Copyright Criminals (2009/56 min)
16h – Remixofagia – Alegorias de uma Revolução (2011, 16 min)
18h – Patente Absurdo (2011, 28 minutos) + Arduíno – o documentário (2011, 28 min),


Sábado – 25 de maio
13h – Indie Game (2012, 94 min)
16h – Tudo é remix (2010-2012, aprox. 56 min)
18h – Brega S/A (2009, 56 in.)

]]>
https://baixacultura.org/2013/05/22/porto-alegre-em-conexoes-globais/feed/ 0
Cineclube CCD em Porto Alegre https://baixacultura.org/2013/03/25/cineclube-ccd-em-porto-alegre/ https://baixacultura.org/2013/03/25/cineclube-ccd-em-porto-alegre/#respond Mon, 25 Mar 2013 19:33:56 +0000 https://baixacultura.org/?p=9638 221755_512355825476636_1474214883_n

 

 

Minha aportada por terras gaúchas, desde fevereiro de 2013, traz um primeiro evento aqui para falarmos no Baixa: trata-se do Cineclube Casa da Cultura Digital Porto Alegre.

O cineclube pretende exibir vídeos produzidos com base nos conceitos da cultura digital. São obras que discutem a questão dos direitos autorais, o copyleft, cultura livre, remix, redes sociais, cultura hacker, ciberativismo, software livre, liberdade na rede, compartilhamento, entre outros assuntos que entram no escopo da ideia de cultura digital. O BaixaCultura entra como parceiro da empreitada.

É uma espécie de continuidade do ciclo copy, right?, que foi realizado três vezes nos últimos anos, duas em Santa Maria-RS (primeira, segunda), em dois centros culturais locais, e uma em São Paulo, no Centro Cultural da Espanha. Agora: exibição de filmes (geralmente com menos de 1h30) seguido de comentários de algum convidado e/ou informado sobre o assunto do filme em questão.

A diferença dessa vez é ter uma periodicidade fixa (1x por mês), ser realizado num espaço maior (o teatro Bruno Kiefer, localizado no 6º andar da Casa de Cultura Mário Quintana, este prédio lindão logo abaixo onde a CCD POA está sediada) e ter sempre uma surpresa antes do filme.

A dessa estreia, dia 28 de março às 18h30, é a participação do  grupo Escuta, formado por mais de 30 compositores baseados em Porto Alegre que apostam nas composições autorais e num som baseado no violão e voz. Sediaram um primeiro festival ESCUTA, em dezembro de 2012 no Teatro de Arena, também em porto Alegre, e desde então vem crescendo em popularidade e qualidade em suas composições.

Kledir Ramil, ex-integrante dos grandes Almôndegas – a provável melhor banda de folk rock do país nos 1970 – escreveu recentemente, em sua coluna na Zero Hora, que a essência do grupo “é a mesma dos saraus: novos autores, mostrando suas canções, só de voz e violão. Tudo começou em apartamentos e evoluiu para espaços aberto ao público, não apenas para convidados.

Casa_de_cultura_mario_quintana_de_perto

Na estreia do Cineclube, o filme escolhido é “Tudo é Remix”, documentário em quatro partes (de aproximadamente 10 min. cada uma) dirigido e produzido por Kirby Ferguson, lançado entre 2010 e 2012 na rede. O filme traz para o debate a ideia de que copiar e recombinar é um elemento essencial de criatividade; para isso, discute desde os casos de plágio do Led Zeppelin até as citações constantes ao cinema dos filmes de Quentin Tarantino, passando ainda pela crítica ao sistema de propriedade atual, onde “as idéias são consideradas como propriedade, lotes únicos e originais, com limites distintos”.

Em entrevista ao Baixa, o diretor Kirby Ferguson diz que fez o filme para ”mostrar como copiar é um elemento de criatividade, e de uma forma ou de outra, todos somos cópias”. “Tudo é Remix”, foi financiado por financiamento coletivo (crowdfunding) através do site norte-americano “Kickstarter” e está disponível para exibição na nossa BaixaTV. A exibição no cineclube vai ser em cópia digital com legendas em português.

A segunda data do Cineclube está marcada para o dia 23 de abril, no mesmo local e horário, com a exibição do filme “Arduíno – o documentário”, documentário de 2011 sobre a placa de hardware livre homônima que está revolucionando a produção caseira de objetos e artefatos digitais.

[Leonardo Foletto]

SERVIÇO

Estreia do Cineclube Casa da Cultura Digital Porto Alegre
28 de março – 18h30
(Abertura: Escuta! – O som do compositor, exibição de “Tudo é Remix”, seguido de debate)
Teatro Bruno Kiefer – 6º andar, Casa de Cultura Mário Quintana (Rua dos Andradas, 736 – Centro)

]]> https://baixacultura.org/2013/03/25/cineclube-ccd-em-porto-alegre/feed/ 0