BaixaCharla ao vivo #8: Racismo Algorítmico

A oitava BaixaCharla ao vivo, quinta de 2021, vai falar sobre racismo algorítmico a partir de  “Comunidades, Algoritmos e Ativismos Digitais: Olhares Afrodiaspóricos“, organizado pelo nosso convidado da conversa, Tarcízio Silva, que é pesquisador, produtor cultural e mestre em Comunicação e Cultura Contemporâneas pela UFBA, doutorando em Ciências Humanas e Sociais na UFABC, onde estuda imaginários sociotécnicos de resistência, e Tech + Society Fellow pela Fundação Mozilla, atuando em promoção de segurança digital e defesa contra danos algorítmicos. Também atua como curador na Desvelar, entre outras atividades que podem ser conferidas em seu currículo.

Editado em 2020 pela Literarua, “Comunidades, Algoritmos e Ativismos Digitais: Olhares Afrodiaspóricos” busca relacionar raça, racismo, negritude e branquitude com os estudos de tecnologias digitais, especialmente algoritmos, mídias sociais e comunidades online. Reúne 14 artigos de pesquisadores/as provenientes do Brasil, países da Afrodiáspora e África, como Congo, Etiópia, Gana, Nigéria, Colômbia, Estados Unidos e Reino Unido. É uma publicação que, com sua diversidade de perspectivas, tenta suprir uma lacuna nos estudos acadêmicos brasileiros na área. 

No prefácio, Emicida escreve que “se a essência das redes sociais é a conectividade, está para nascer uma que cumpra seu papel com mais eficácia do que um tambor”. É importante  desnaturalizar a ideia de que “tecnologia, storytelling, minimalismo e ideias que visam ampliar a percepção do que significa ser humano sejam apenas invenções do vale do silício”, diz o rapper, que cita Paulina Chiziane, “às vezes sinto que nos oferecem algo que já era nosso antes deles chegarem”. 

O capítulo de abertura é de Ruha Benjamin, autora de “Race After Technology: Abolitionist Tools for the New Jim Code” (2019), ativista e professora da Universidade de Princeton, nos Estados Unidos. Nesse texto, Ruha incentiva um compromisso de incorporar abordagens raciais críticas no campoos Estudos de Ciência e Tecnologia – Science and Technology Studies (STS), no inglês.  Como ela escreve: “seja na arquitetura de máquinas (…) ou na arquitetura de  tecnologias legais, os pesquisadores de STS devem treinar nossas ferramentas analíticas sobre as diferentes formas de “correção racial” que sustentam uma forma perniciosa de construção do conhecimento”. A tecnologia é um dos muitos meios pelos quais as formas anteriores de desigualdade são atualizadas, por isso, ela explica, a necessidade vital de se fazer um balanço rotineiro também das ferramentas conceituais que são usadas para entender a dominação racial.

Nos outros 12 textos, o livro colabora com a crescente complexificação do pensamento sobre a comunicação digital e internet resultante da diversificação dos olhares e falas nos espaços acadêmicos. “Da matemática na divinação Ifá ao ativismo político, os temas e objetos dos capítulos passam por transição capilar, blackfishing, afroempreendedorismo, Black Twitter, contra-narrativas ao racismo e métodos digitais de pesquisa apropriados à complexidade das plataformas, algoritmos e relações de poder incorporadas nas materialidades digitais racializadas”, como escreve Tarcízio na apresentação.

É do nosso convidado da BaixaCharla o artigo no livro que complexifica o tema em voga no debate: “Racismo Algorítmico em plataformas digitais: microagressões e discriminações em código”. Para ele, o racismo online é um “sistema de práticas contra pessoas racializadas que privilegiam e mantém poder político, econômico e cultural para os brancos no espaço digital” (citando Tynes, Lozada, Smith & Stewart, 2019). Nos ambientes digitais, especialmente plataformas de publicidade (Facebook), de nuvem e computação (Amazon Web Services, Microsoft Azure, etc), de produto (como Zipcar etc), plataformas lean (Uber, AirBnB), o desafio se torna mais profundo na medida em que o racismo adentra os processos automatizados “invisíveis” como recomendação de conteúdo, reconhecimento facial e processamento de imagens. 

Nesse cenário em que a tecnologia cada vez mais é tanto mediação das atividades humanas quanto interação interpessoal e negociação de serviços e comércio, os casos de identificação de racismo algorítmico passam a ser somados por diversas pesquisadoras, ativistas e desenvolvedores – entre eles o próprio Tarcízio, com sua Linha do tempo do racismo algorítmico, projeto paralelo de sua pesquisa no doutorado (intitulado provisoriamente de “Dados, Algoritmos e Racialização em Plataformas Digitais”) que incorpora casos de 2010 a partir da pergunta: “Como as plataformas digitais, mídias sociais, aplicativos e inteligência artificial reproduzem (e intensificam) o racismo nas sociedades?”

O artigo também fala de chamadas “microagressões”,  “ofensas verbais, comportamentais e ambientais comuns, sejam intencionais ou não intencionais, que comunicam desrespeito e insultos hostis, depreciativos ou negativos contra pessoas de cor” (Sue, 2010a, p. 29). São expressões, consciente ou não, usadas para manter “aqueles à margem racial em seus lugares” e que mostram como o racismo é sistemático em nossa sociedade. No texto, o pesquisador identifica sete tipos dessas microagressões: Suposição de Criminalidade; Negação de Realidades Raciais/Democracia Racial; Suposição de Inferioridade Intelectual; Patologização de Valores Culturais; Exotização; Estrangeiro na Própria Terra / Negação de Cidadania; Exclusão ou Isolamento.

Outro tema em voga na discussão sobre racismo e plataformas digitais são as tecnologias baseadas em inteligência artificial para ordenação e vigilância de cidadãos no espaço público. Conhecidas como “tecnologias de reconhecimento facial”, elas ganharam mercado nos últimos anos tanto a partir do lobby das big techs quanto pelo avanço de ideologias de extrema-direita. Por conta disso, têm sido usadas (ou contratadas para serem) em polícias de diversos lugares, entre eles o Brasil; um estudo do Intervozes afirma que “dentre os 26 prefeitos de capitais empossados em janeiro de 2021, 17 apresentaram propostas que, de algum modo, preveem o uso das tecnologias de informação e comunicação na segurança pública”. Publicamos em nossas redes uma notícia da Folha de S. Paulo nesta semana que conta que 20 estados brasileiros, das cinco regiões do Brasil, utilizam ou estão implementando a tecnologia de reconhecimento facial na segurança pública local. 

Na Linha do Tempo citada há diversos casos de erros dessas tecnologias. Há, por exemplo, situações em que os sistemas de reconhecimento facial da Amazon e da IBM erram mais em imagens de mulheres negras, assim como sistemas de biometria visual costumam falhar de 10 a 100 vezes mais com imagens de pessoas negras ou asiáticas. Por conta dessas falhas que ajudam a perpetuar o racismo algorítmico, pesquisadores têm defendido o seu banimento; nos Estados Unidos, há decisões como a de Minneapolis, cidade onde Geroge Floy foi morto, onde Câmara Municipal vetou o uso da tecnologia pela polícia, por sinais de que a I.A. é tendenciosa contra negros e outros grupos raciais. Na Europa, o Comitê Europeu de Proteção de Dados (EDPB) e a Autoridade Europeia para a Proteção de Dados (EDPS), apresentaram opinião conjunta que sugere o banimento do reconhecimento de pessoas em espaços públicos.

Tarcízio recentemente participou do podcast Tecnopolítica em que conversou com Sueli Carneiro (e Sérgio Amadeu, âncora do podcast) sobre o tema, resgatando inclusive o questionamento à neutralidade da ciência moderna – Sueli lembrou de como a ciência tem origem racista, tendo por base um pensamento universal europeu colonizador que excluía os povos africanos e as diversas cosmologias ameríndias e asiáticas. 

O pesquisador também escreveu em seu blog sobre 10 razões para as tecnologias de reconhecimento facial serem banidas. Estão entre eles o reconhecimento facial e visão computacional são técnicas altamente imprecisas, em especial sobre pessoas racializadas; de como as tecnologias digitais vistas como “neutras” ou “objetivas” favorecem ainda mais excessos de policiais, e no espaço público pressupõe e fortalecem uma sociedade vigilantista. Também é fator para defender o banimento o fato de que não podemos pressupor boa-fé de corporações de tecnologia, como exemplifica casos como o impacto do Facebook no Brexit e nas eleições americanas, do extremismo digital no YouTube e do lobby da Google no Conselho Administrativo de Defesa Econômica, entre muitos outros. 

No aspecto econômico, mesmo o custo-benefício para captura de condenados não justifica a coleta massiva, como exemplifica a milionária implementação de reconhecimento facial em Londres, onde bases reuniam fotos de mais de 2.400 suspeitos que geraram apenas 8 prisões. Dados proporcionais ainda piores foram reportados no Brasil, onde gigantesca infraestrutura de reconhecimento facial foi implementada na Micareta de Feira de Santana, Bahia, coletando e vulnerabilizando 1,3 milhões de rostos para o cumprimento de apenas 18 mandados.

Para debater o livro e os temas citados, Leonardo Foletto e Tatiana Balistieri, do BaixaCultura, conversam com Tarcízio Silva no dia 22 de julho, às 19h, no canal do Youtube do BaixaCultura, onde as outras charlas já estão disponíveis. Nas próximas semanas ela também vira podcast, que pode ser escutado aqui e nas principais plataformas de streaming. Essa é a última charla do ciclo de 2021 que discutiu diferentes perspectivas dos estudos das tecnologias de comunicação no Brasil e no mundo. 

*

Você pode assistir aqui, em áudio e vídeo (YouTube).

Eugene e a tecnologia inteligente

eugene de oculos

Ano passado, no doutorado que faço em comunicação, cursei uma disciplina na pós em computação da UFRGS chamada “Mentes e Máquinas“. Entre diversas conversas e leituras sobre o que de fato seria inteligência, o “Teste de Turing” sempre aparecia como o clássico paradigma da inteligência artificial – quando que um computador teria a esperteza e a criatividade para enganar diversos seres humanos?

[Criado pelo matemático Alan Turing, um dos “pais” da computação, o teste funciona assim: um julgador humano entra em uma conversa, em linguagem natural, com outro humano e uma máquina projetada para produzir respostas indistinguíveis de outro ser humano. Todos os participantes estão separados um dos outros. Se ao final a máquina conseguir enganar os 30 avaliadores em 30% das interações, num chat de 5 minutos, diz-se que ela passou no teste.]

Pois bem, parece que no último 7 de junho, no aniversário de 60 anos da morte de Alan Turing, um computador chamado Eugene Goostman passou no teste. Criado por um time russo, ele convenceu 33% dos juízes que era humano, segundo disseram os pesquisadores da Royal Society da Inglaterra, onde o teste foi feito. Entre os que comentou sobre a vitória do robô russo estava Kevin Warwick, um dos maiores especialistas em cibernética do planeta, cara que já controlou um braço mecânico com diversos eletrodos na cabeça e escreveu sobre essa (e outras experiências) num livro chamado “I, Cyborg“.

Existe ainda muita controvérsia sobre o que, de fato, passar no teste significa – e se este foi realmente o primeiro caso na história a isso ter acontecido, como afirmou a Universidade de Reading. Muitos consideram que Eugene não “pensa” no sentido cognitivo dos seres humanos e é “apenas” um chatbox, um simulador de conversação rodado através de um script sofisticado. Critica-se também o fato de que os criadores do robô foram malandros ao fazerem Eugene como um adolescente de 13 anos, o que tornou mais “aceito” para os jurados que ele não respondesse tudo, ou respondesse dizendo que gosta de hambúrgueres, livros, tem um pai ginecologista e ouve Eminem. “Our main idea was that [Eugene] can claim that he knows anything, but his age also makes it perfectly reasonable that he doesn’t know everything”, respondeu Vladimir Veselov, um dos criadores do robô.

Por essas e outras questões, muitos acreditam que o fato dele ter vencido o teste não responderia a questão “as máquinas podem pensar?”, que estaria na base do exercício proposto por Alan Turing. Testaria, sim, a capacidade dos pesquisadores de desenvolver um sistema capaz de responder perguntas do que propriamente um sistema pensante. A revista Wired, por exemplo, testou o sistema e deu nota F (equivalente a 0) para Eugene.

Perguntado sobre o seu feito, Eugene disse à Independent que se sente tranquilo em bater o teste, que não é “nada de mais”. Resposta típica de um guri de 13 anos.

[Leonardo Foletto]

P.s: Eugene voltou à rede e pode ser acessado. Confira também esta entrevista (em inglês) com o guri.

Robos e jornalismo – um futuro próximo?

robo e jornalismo

Na primeira semana de maio de 2014, li um texto que me instigou bastante: “um jornal impresso feito por robôs é o futuro da mídia ou apenas uma atividade secundária?”. Nele, o jornalista relatava o causo de que o The Guardian, um dos principais jornais da Inglaterra – certamente um dos mais inovadores do planeta, especialmente na seara digital – experimentou uma edição limitada de seu jornal impresso totalmente produzido por algoritmos, as sequências de cálculos automatizadas que estão por trás de todo software. E a partir da notícia, fazia a pergunta que dá título ao artigo, questionando também se é este, de fato, o jornalismo que queremos de nossos famigerados jornais impressos.

Como ando pesquisando a cultura hacker e o jornalismo no doutorado, esse é um assunto que me interessa. Não é de hoje que vemos um crescimento absurdo da influência da tecnologia digital em todos os processos e produtos jornalísticos. Enquanto trabalhamos como jornalistas, apuramos, escrevemos, filmamos, editamos, gravamos, fazemos fotos, publicamos e fazemos circular nossas matérias, reportagens, vídeos e fotografias em máquinas governadas por dígitos, combinações infinitas e complexas de binários (0 e 1).

Não importa o suporte que o jornalismo é veiculado, todos eles estão tomados por máquinas digitais em alguma – ou em todas – etapas. A não ser que você queira fazer um jornal artesanal, escrever a mão, copiar o texto em mimeógrafos (existem ainda?) e distribuir na rua, ou em bancas e livrarias, não há como escapar da digitalização.

Daí que, ao ler a matéria sobre o avanço dos “robôs” sobre os processos jornalísticos que antes humanos faziam, diversas questões vieram à tona. Se a competência da técnica é cada vez mais importante na produção do jornalismo, e se a forma de ‘objetividade’ na atividade jornalística, especialmente nas seções “últimas notícias” dos sites, desumaniza tanto o processo que fica fácil um robô fazer isso, o que aconteceria se eles, robôs (scripts, combinações várias de algoritmos bem construídos de seleção e hierarquização da informação) substituíssem de fato um editor de um jornal?

Teríamos um jornal somente da “bolha” de nossos amigos ou pessoas com pontos de vistas semelhantes, com informações sobre coisas que já demonstramos interesse em algum momento na rede, como é o caso da timeline do Facebook, o nosso “jornal diário” que consultamos diariamente (alguém de vocês não faz isso?) e mistura notícias importantes, exibição turística, gastronômica e apaixonada alheia, memes da internet e muito, mas muito comentário sobre tudo e todos?

Imagino que nem eu nem ninguém tenha respostas a estas questões. Para produzir um jornalismo de qualidade, que traz uma informação que as vezes nem sabíamos ser de suma importância para o interesse público, sempre foi necessário aquele “feeling” do repórter em buscar informações, sentir quando elas podem se tornar notícias relevantes e de que forma elas devem ser apresentadas para fisgar quem lê/assiste/ouve. Com a maior influência da tecnologia no jornalismo, e a onipresença das redes digitais, cada vez mais informações podem ser buscadas por ferramentas digitais, quanto mais avançadas as buscas melhor a qualidade e a possibilidade de cruzamentos dessa informação – e taí o jornalismo de dados (ou datajournalism) e as reportagens multimídia para provar o quão bom jornalismo é possível fazer dessa maneira.

Mas o “faro” de identificar “isto é notícia!” depende de tantos fatores, tantas variáveis e de tantas questões subjetivas, que fica difícil de elaborar, hoje, uma coleção de algoritmos (um “robô”) tão robusta que dê conta de fazer automaticamente esse processo. Os robôs do The Guardian talvez estejam tateando nesse caminho, mas se não houver quem os programe, quem coloque sentenças do tipo “se a informação X estiver na rede deve ser notícia, portanto publicada”, não há robô que dê conta.

Além disso, outras questões surgem: e se as informações de alguma forma não estiverem digitalizadas em nenhum espaço na rede, como um robô irá saber quem entrevistar ou que esse acidente que aconteceu agora em frente a minha casa deve ser notícia? E se esse “jornal diário” feito pelos robôs, baseados nos nossos interesses demonstrados nas redes sociais (posts que curtimos, fanpagens que seguimos, pessoas que mais acompanhamos e comentamos), não trouxer informações básicas sobre o tempo, trânsito, horários e preços, informações básicas de interesse de uma coletividade organizada, em torno de uma cidade, por exemplo, consumiríamos assim mesmo esse produto?

Questões, questões e mais questões que hoje não têm resposta, mas que só o fato de poderem ser colocadas dão uma pista de como o mundo – e o jornalismo – está em profunda mutação.

[Leonardo Foletto]

* Texto publicado originalmente no site de Claudemir Pereira

Crédito imagem: Pepper Robot