racismo algorítmico – BaixaCultura https://baixacultura.org Cultura livre & (contra) cultura digital Thu, 23 Nov 2023 22:29:36 +0000 pt-BR hourly 1 https://wordpress.org/?v=6.0.9 https://baixacultura.org/wp-content/uploads/2022/09/cropped-adesivo1-32x32.jpeg racismo algorítmico – BaixaCultura https://baixacultura.org 32 32 A Extinção da Internet https://baixacultura.org/2023/11/20/a-extincao-da-internet/ https://baixacultura.org/2023/11/20/a-extincao-da-internet/#comments Tue, 21 Nov 2023 02:10:24 +0000 https://baixacultura.org/?p=15477  

Será que uma outra internet — uma mais próxima à que acreditávamos nos anos 2000, descentralizada, menos vigilante, mais das pessoas do que de empresas e robôs — ainda é possível? “Extinção da Internet”, de Geert Lovink, é um esforço para tentar responder a esta pergunta. Geert convoca os leitores a examinar o status atual da internet para se pensar, criativamente, em alternativas bifurcativas. Para isso, usa memes, cita fóruns da internet, ativistas conhecidos e chama um time de pensadores que estão, quase todos, se debruçando hoje sobre a relação do capitalismo neoliberal com a tecnologia digital. Professor da Universidade de Amsterdam de Ciências Aplicadas, Geert Lovink tem um longo histórico no ativismo midiático e ciberativista europeu. Membro fundador da Nettime (1996), é diretor do Institute of Network Cultures. Escrevi o prefácio e acompanhei o processo de tradução, já que ele faz parte de uma coleção que estamos organizando aqui no BaixaCultura, em parceria com a Editora Funilaria, com livros que buscam politizar o mal-estar que nos acomete hoje sobre os rumos da internet: Âncora do Futuro. Em 2024 vem mais livros! “Extinção da Internet” tem tradução de Dafne Melo, está em pré-venda e será lançado durante a Flipei neste mês de novembro de 2023. Com pequenas variações, segue abaixo o texto publicado como prefácio de “Extinção da Internet”, também republicado impresso no Jornal da Flipei e na Jacobin Brasil.

 

Construindo bifurcações na (história da) internet

Há alguns anos, ativistas, pesquisadores, filósofos e intelectuais comentam que a internet não é mais o que já foi. A esperança de construir um mundo mais justo via rede — com menos discriminação e mais respeito aos outros, com todos sendo também mídia, a partir de uma saudável proliferação de pontos de vista causada pela liberação do polo emissor da informação — tem dado lugar a um pesadelo de desinformação. Realidades paralelas são construídas a partir de informações mentirosas proliferadas em dispositivos acessados por, pelo menos, dois terços da população mundial, turbinadas por uma defesa por vezes absolutista da liberdade de expressão e pela plataformização de nossas vidas online.

A consequência tem sido conhecida: circulação de discursos de ódio e espalhamento de desinformação “como nunca antes na história”; captura ativa de nossa atenção e do nosso olhar, transformados em dados que, coletados em quase todos os lugares da rede, estão a serviço de poucas empresas que lucram cada vez mais oferecendo tudo para o nosso consumo; precarização das relações de trabalho a partir de novas formas de exploração do trabalho digital*, atomizada e globalizada também para tentar dificultar qualquer tipo de reação organizada dos trabalhadores; continuação das relações coloniais, agora a partir de um colonialismo digital (ou de dados), criado a partir de um processo de extração de valor que reproduz e amplia o racismo, incrustando também na técnica os vieses de raça (e gênero), em um fenômeno chamado de racismo algorítmico. Essa exploração também tem levado dados do sul global para o enriquecimento de empresas de tecnologia do norte, especialmente dos Estados Unidos e da Europa, o que também traz consequências para a soberania digital dos países que não constroem uma infraestrutura própria para armazenar e cuidar de suas informações, jogando conhecimento precioso de forma silenciosa em datacenters privados que não sabemos bem como funcionam, como no caso das universidades que adotam nuvens (“Não existe nuvem: é apenas os computadores de outras pessoas” diz o meme) das big techs. E isso é apenas um resumo: poderíamos falar também das consequências ambientais de um modo de vida conectado que demanda muita energia em um planeta cada vez mais quente e colapsado, ou dos efeitos psicológicos que a hiperexposição a telas e informações rasas que abundam nas redes sociais têm sobre o cérebro humano – mas, por hora, você já entendeu o que estou dizendo.

 

Diante de tudo isso, é inevitável pensar que, de fato, a internet deu ruim — ou, pelo menos, não cumpriu nossas expectativas de melhora global e pode estar acelerando os problemas do planeta. O que nos leva a um outro pensamento: o que vamos fazer diante desse colapso? Há alguns anos, muita gente tem diagnosticado esse cenário e tentado apontar caminhos, entre os quais se encontra o autor deste livro. A questão, hoje mais clara do que duas décadas atrás, é muito mais política e econômica do que tecnológica. E quando falamos nestas duas palavras — política e economia —, sabemos que toda e qualquer bifurcação não será fácil nem suave. “É mais fácil imaginar o fim do mundo do que o fim do capitalismo”, como disse Mark Fisher, numa frase hoje bastante ouvida e que sintetiza bem a encruzilhada que nos traz o chamado Realismo Capitalista. Será que uma outra internet — uma mais próxima à que acreditávamos nos anos 2000, descentralizada, menos vigilante, mais das pessoas do que de empresas
e robôs — ainda é possível?

É a essa pergunta inquietante que buscamos, nesta coleção, tentar responder. Sem a pretensão de trazer respostas definitivas nem únicas, porque não existem. Mas com a esperança de politizar esse mal-estar que nos acomete para jogar luz a bifurcações possíveis — já existentes ou a serem criadas. Falar bastante do problema é um primeiro passo para tentar resolvê-lo, nos ensina a psicanálise. O livro que você tem em mãos, portanto, é o primeiro desse esforço. Geert Lovink, seu autor, é alguém que faz a crítica da internet tal como ela se tornou há algum tempo; já no final dos anos 1990, a partir do conceito de mídia tática (da qual é o seu principal proponente) e de uma corrente de estudos chamada net-criticism, apontava para os perigos da internet estar diretamente relacionada com a expansão do poder de empresas privadas em sua maioria oriundas de um único país, os Estados Unidos. Em coro com A Ideologia Californiana, , ensaio seminal (publicado em 1995) de Richard Barbrook e Andy Cameron sobre a tecnopolítica da rede, Geert aponta, há mais de 20 anos, também para a necessidade de criação de infraestruturas e redes autônomas, organizadas coletivamente e independentes de grandes empresas, para que não deixássemos o desenvolvimento, o controle e a inovação das tecnologias digitais em rede apenas na mão de um punhado de organizações privadas do Vale do Silício.

Geert Lovink

 

Professor da Universidade de Amsterdam de Ciências Aplicadas, Geert tem um longo histórico no ativismo midiático e ciberativista europeu. Membro fundador da Nettime — um grupo e uma lista de e-mails sobre cultura digital (ou networked cultures), política e tática que, desde 1996 (!), reúne uma série de pesquisadores, professores, teóricos e práticos europeus —, também fundou, em 2004, o Institute of Network Cultures, que trabalha com pesquisas e publicações ligadas a arte digital, cultura da imagem, design e publicação digital a partir de uma perspectiva interdisciplinar e crítica. É autor de livros como Networks Without a Case (2012), Social Media Abyss (2016) e Organization after Social Media (com Ned Rossiter) — todos sem edição brasileira, mas traduzidos para o alemão, espanhol e italiano. Nos últimos anos, Geert tem reforçado sua posição crítica ao que a internet se transformou em livros como Sad by Design (2019) e Stuck on the Platform (2022), nos quais ele analisa o crescimento das plataformas de mídias sociais e a relação do design pela qual foram feitas com a proliferação da desinformação, da circulação de memes tóxicos e discursos de ódio, da fadiga online a partir das telas (explorado durante a pandemia no chamado “zoom bombing”) e da adicção online.

Neste Extinção da Internet, ele segue nessa análise, agora de modo sintético e dialético, trazendo um resumo de suas principais questões atuais sobre essa “ressaca da internet”, como eu mesmo já a chamei em 2018. Provoca sua plateia — o texto parte de uma aula inaugural dada em 18 de novembro de 2022 na Universidade de Amsterdam — a examinar o status atual da internet para se pensar, criativamente, em alternativas de bifurcação. Para isso, usa memes, cita fóruns da internet, menciona ativistas conhecidos e chama um time de pensadores que estão, quase todos, se debruçando sobre a relação do capitalismo neoliberal com a tecnologia digital: há Bernard Stiegler, Franco “Bifo” Berardi, Tiziana Terranova, Donatella Della Ratta, Yuk Hui, mas também outros, como Mark Fisher, Jacques Derrida, Bertold Brecht e Walter Benjamin. De Stiegler, vem uma máxima que também percorre as intenções deste livro: “colocar os automatismos a serviço de uma desautomização negantrópica”. De Benjamin, um convite à uma tarefa de hoje: “escovar a história a contrapelo”. Propor bifurcações é uma forma de lutar contra o imobilismo do “não há nada a fazer”, que a leitura dos primeiros parágrafos dessa introdução pode sugerir. Geert faz, diversas vezes neste livro, perguntas para nos tirar dessa posição exclusivamente niilista e nos chamar à ação. Por exemplo: “Como transformar descontentamento e contra-hegemonia em uma verdadeira transição de poder nesta era da plataforma tardia? O que pode ocupar o vazio em nossos cérebros desfragmentados depois que a internet desocupar a cena? Em que pode consistir a vida depois que nossas mentes frágeis não forem mais atacadas pelos efeitos entorpecentes e deprimentes de descer a barra de rolagem do apocalipse (doomscrolling)?”

Embora fale em colonialismo, a perspectiva de Geert ainda é a europeia branca. Nesse caso, sua visão nos ajuda a entender os problemas do ocidente em que a internet foi concebida, capturando um zeitgeist de quem — com menos problemas de conexão, mais produção de tecnologias digitais e a caminho (neste 2023) de uma regulação razoável das plataformas — ainda se pergunta o que pode ser feito para reinventar a internet. Nos próximos volumes da coleção, trataremos perspectivas sobre as bifurcações possíveis a partir de pontos de vista do sul global. Acreditamos que nossa região, ainda com todos os problemas de acesso, regulação possível e desigualdade generalizada, tem o potencial real de alternativas novas ao incorporar e incubar soluções desde abajo, baseadas na inventividade gambiarrística de quem cria porque entende melhor que não há outro caminho para (sobre)viver.

[Leonardo Foletto]

*: Que tem dado origem a outras denominações e hipóteses sobre o sistema econômico político hoje. Cito aqui duas delas: 1) “tecno-feudalismo”, que afirma que o capitalismo industrial, enquanto um modo de produção progressivo e gerador de crescimento econômico, foi já substituído por um capitalismo rentista, depredador, que deve ser agora chamado de tecno-feudalismo, termo popularizado especialmente a partir de Cédric Durand em Technoféodalisme: Critique de l’économie numérique (2020); e 2) “o capital está morto”, como defende McKenzie Wark no livro homônimo, que anuncia o que seria um novo modo de produção, não mais capitalista, mas pior, que não baseia mais seu poder na propriedade privada dos meios de produção, mas sim no controle do “vetor de informação”, formado por aquelas tecnologias que não apenas coletam grandes quantidades de dados, mas também os ordenam, gerenciam e processam para extrair seu valor.

 

 

]]>
https://baixacultura.org/2023/11/20/a-extincao-da-internet/feed/ 2
BaixaCharla ao vivo #8: Racismo Algorítmico https://baixacultura.org/2021/07/14/baixacharla-8-racismo-algoritmico/ https://baixacultura.org/2021/07/14/baixacharla-8-racismo-algoritmico/#respond Wed, 14 Jul 2021 20:15:53 +0000 https://baixacultura.org/?p=13694

A oitava BaixaCharla ao vivo, quinta de 2021, vai falar sobre racismo algorítmico a partir de  “Comunidades, Algoritmos e Ativismos Digitais: Olhares Afrodiaspóricos“, organizado pelo nosso convidado da conversa, Tarcízio Silva, que é pesquisador, produtor cultural e mestre em Comunicação e Cultura Contemporâneas pela UFBA, doutorando em Ciências Humanas e Sociais na UFABC, onde estuda imaginários sociotécnicos de resistência, e Tech + Society Fellow pela Fundação Mozilla, atuando em promoção de segurança digital e defesa contra danos algorítmicos. Também atua como curador na Desvelar, entre outras atividades que podem ser conferidas em seu currículo.

Editado em 2020 pela Literarua, “Comunidades, Algoritmos e Ativismos Digitais: Olhares Afrodiaspóricos” busca relacionar raça, racismo, negritude e branquitude com os estudos de tecnologias digitais, especialmente algoritmos, mídias sociais e comunidades online. Reúne 14 artigos de pesquisadores/as provenientes do Brasil, países da Afrodiáspora e África, como Congo, Etiópia, Gana, Nigéria, Colômbia, Estados Unidos e Reino Unido. É uma publicação que, com sua diversidade de perspectivas, tenta suprir uma lacuna nos estudos acadêmicos brasileiros na área. 

No prefácio, Emicida escreve que “se a essência das redes sociais é a conectividade, está para nascer uma que cumpra seu papel com mais eficácia do que um tambor”. É importante  desnaturalizar a ideia de que “tecnologia, storytelling, minimalismo e ideias que visam ampliar a percepção do que significa ser humano sejam apenas invenções do vale do silício”, diz o rapper, que cita Paulina Chiziane, “às vezes sinto que nos oferecem algo que já era nosso antes deles chegarem”. 

O capítulo de abertura é de Ruha Benjamin, autora de “Race After Technology: Abolitionist Tools for the New Jim Code” (2019), ativista e professora da Universidade de Princeton, nos Estados Unidos. Nesse texto, Ruha incentiva um compromisso de incorporar abordagens raciais críticas no campoos Estudos de Ciência e Tecnologia – Science and Technology Studies (STS), no inglês.  Como ela escreve: “seja na arquitetura de máquinas (…) ou na arquitetura de  tecnologias legais, os pesquisadores de STS devem treinar nossas ferramentas analíticas sobre as diferentes formas de “correção racial” que sustentam uma forma perniciosa de construção do conhecimento”. A tecnologia é um dos muitos meios pelos quais as formas anteriores de desigualdade são atualizadas, por isso, ela explica, a necessidade vital de se fazer um balanço rotineiro também das ferramentas conceituais que são usadas para entender a dominação racial.

Nos outros 12 textos, o livro colabora com a crescente complexificação do pensamento sobre a comunicação digital e internet resultante da diversificação dos olhares e falas nos espaços acadêmicos. “Da matemática na divinação Ifá ao ativismo político, os temas e objetos dos capítulos passam por transição capilar, blackfishing, afroempreendedorismo, Black Twitter, contra-narrativas ao racismo e métodos digitais de pesquisa apropriados à complexidade das plataformas, algoritmos e relações de poder incorporadas nas materialidades digitais racializadas”, como escreve Tarcízio na apresentação.

É do nosso convidado da BaixaCharla o artigo no livro que complexifica o tema em voga no debate: “Racismo Algorítmico em plataformas digitais: microagressões e discriminações em código”. Para ele, o racismo online é um “sistema de práticas contra pessoas racializadas que privilegiam e mantém poder político, econômico e cultural para os brancos no espaço digital” (citando Tynes, Lozada, Smith & Stewart, 2019). Nos ambientes digitais, especialmente plataformas de publicidade (Facebook), de nuvem e computação (Amazon Web Services, Microsoft Azure, etc), de produto (como Zipcar etc), plataformas lean (Uber, AirBnB), o desafio se torna mais profundo na medida em que o racismo adentra os processos automatizados “invisíveis” como recomendação de conteúdo, reconhecimento facial e processamento de imagens. 

Nesse cenário em que a tecnologia cada vez mais é tanto mediação das atividades humanas quanto interação interpessoal e negociação de serviços e comércio, os casos de identificação de racismo algorítmico passam a ser somados por diversas pesquisadoras, ativistas e desenvolvedores – entre eles o próprio Tarcízio, com sua Linha do tempo do racismo algorítmico, projeto paralelo de sua pesquisa no doutorado (intitulado provisoriamente de “Dados, Algoritmos e Racialização em Plataformas Digitais”) que incorpora casos de 2010 a partir da pergunta: “Como as plataformas digitais, mídias sociais, aplicativos e inteligência artificial reproduzem (e intensificam) o racismo nas sociedades?”

O artigo também fala de chamadas “microagressões”,  “ofensas verbais, comportamentais e ambientais comuns, sejam intencionais ou não intencionais, que comunicam desrespeito e insultos hostis, depreciativos ou negativos contra pessoas de cor” (Sue, 2010a, p. 29). São expressões, consciente ou não, usadas para manter “aqueles à margem racial em seus lugares” e que mostram como o racismo é sistemático em nossa sociedade. No texto, o pesquisador identifica sete tipos dessas microagressões: Suposição de Criminalidade; Negação de Realidades Raciais/Democracia Racial; Suposição de Inferioridade Intelectual; Patologização de Valores Culturais; Exotização; Estrangeiro na Própria Terra / Negação de Cidadania; Exclusão ou Isolamento.

Outro tema em voga na discussão sobre racismo e plataformas digitais são as tecnologias baseadas em inteligência artificial para ordenação e vigilância de cidadãos no espaço público. Conhecidas como “tecnologias de reconhecimento facial”, elas ganharam mercado nos últimos anos tanto a partir do lobby das big techs quanto pelo avanço de ideologias de extrema-direita. Por conta disso, têm sido usadas (ou contratadas para serem) em polícias de diversos lugares, entre eles o Brasil; um estudo do Intervozes afirma que “dentre os 26 prefeitos de capitais empossados em janeiro de 2021, 17 apresentaram propostas que, de algum modo, preveem o uso das tecnologias de informação e comunicação na segurança pública”. Publicamos em nossas redes uma notícia da Folha de S. Paulo nesta semana que conta que 20 estados brasileiros, das cinco regiões do Brasil, utilizam ou estão implementando a tecnologia de reconhecimento facial na segurança pública local. 

Na Linha do Tempo citada há diversos casos de erros dessas tecnologias. Há, por exemplo, situações em que os sistemas de reconhecimento facial da Amazon e da IBM erram mais em imagens de mulheres negras, assim como sistemas de biometria visual costumam falhar de 10 a 100 vezes mais com imagens de pessoas negras ou asiáticas. Por conta dessas falhas que ajudam a perpetuar o racismo algorítmico, pesquisadores têm defendido o seu banimento; nos Estados Unidos, há decisões como a de Minneapolis, cidade onde Geroge Floy foi morto, onde Câmara Municipal vetou o uso da tecnologia pela polícia, por sinais de que a I.A. é tendenciosa contra negros e outros grupos raciais. Na Europa, o Comitê Europeu de Proteção de Dados (EDPB) e a Autoridade Europeia para a Proteção de Dados (EDPS), apresentaram opinião conjunta que sugere o banimento do reconhecimento de pessoas em espaços públicos.

Tarcízio recentemente participou do podcast Tecnopolítica em que conversou com Sueli Carneiro (e Sérgio Amadeu, âncora do podcast) sobre o tema, resgatando inclusive o questionamento à neutralidade da ciência moderna – Sueli lembrou de como a ciência tem origem racista, tendo por base um pensamento universal europeu colonizador que excluía os povos africanos e as diversas cosmologias ameríndias e asiáticas. 

O pesquisador também escreveu em seu blog sobre 10 razões para as tecnologias de reconhecimento facial serem banidas. Estão entre eles o reconhecimento facial e visão computacional são técnicas altamente imprecisas, em especial sobre pessoas racializadas; de como as tecnologias digitais vistas como “neutras” ou “objetivas” favorecem ainda mais excessos de policiais, e no espaço público pressupõe e fortalecem uma sociedade vigilantista. Também é fator para defender o banimento o fato de que não podemos pressupor boa-fé de corporações de tecnologia, como exemplifica casos como o impacto do Facebook no Brexit e nas eleições americanas, do extremismo digital no YouTube e do lobby da Google no Conselho Administrativo de Defesa Econômica, entre muitos outros. 

No aspecto econômico, mesmo o custo-benefício para captura de condenados não justifica a coleta massiva, como exemplifica a milionária implementação de reconhecimento facial em Londres, onde bases reuniam fotos de mais de 2.400 suspeitos que geraram apenas 8 prisões. Dados proporcionais ainda piores foram reportados no Brasil, onde gigantesca infraestrutura de reconhecimento facial foi implementada na Micareta de Feira de Santana, Bahia, coletando e vulnerabilizando 1,3 milhões de rostos para o cumprimento de apenas 18 mandados.

Para debater o livro e os temas citados, Leonardo Foletto e Tatiana Balistieri, do BaixaCultura, conversam com Tarcízio Silva no dia 22 de julho, às 19h, no canal do Youtube do BaixaCultura, onde as outras charlas já estão disponíveis. Nas próximas semanas ela também vira podcast, que pode ser escutado aqui e nas principais plataformas de streaming. Essa é a última charla do ciclo de 2021 que discutiu diferentes perspectivas dos estudos das tecnologias de comunicação no Brasil e no mundo. 

*

Você pode assistir aqui, em áudio e vídeo (YouTube).

]]> https://baixacultura.org/2021/07/14/baixacharla-8-racismo-algoritmico/feed/ 0