{"id":13694,"date":"2021-07-14T20:15:53","date_gmt":"2021-07-14T20:15:53","guid":{"rendered":"https:\/\/baixacultura.org\/?p=13694"},"modified":"2021-07-14T20:15:53","modified_gmt":"2021-07-14T20:15:53","slug":"baixacharla-8-racismo-algoritmico","status":"publish","type":"post","link":"https:\/\/baixacultura.org\/2021\/07\/14\/baixacharla-8-racismo-algoritmico\/","title":{"rendered":"BaixaCharla ao vivo #8: Racismo Algor\u00edtmico"},"content":{"rendered":"
<\/p>\n
A oitava BaixaCharla ao vivo, quinta de 2021, vai falar sobre racismo algor\u00edtmico a partir de\u00a0 “<\/span>Comunidades, Algoritmos e Ativismos Digitais: Olhares Afrodiasp\u00f3ricos<\/b>“, organizado pelo nosso convidado da conversa, Tarc\u00edzio Silva, que<\/span>\u00a0\u00e9 pesquisador, produtor cultural e mestre em Comunica\u00e7\u00e3o e Cultura Contempor\u00e2neas pela UFBA, doutorando em Ci\u00eancias Humanas e Sociais na UFABC, onde estuda imagin\u00e1rios sociot\u00e9cnicos de resist\u00eancia, e Tech + Society Fellow pela Funda\u00e7\u00e3o Mozilla, atuando em promo\u00e7\u00e3o de seguran\u00e7a digital e defesa contra danos algor\u00edtmicos. Tamb\u00e9m atua como <\/span>curador na Desvelar<\/span><\/a>, entre outras atividades que podem ser conferidas em seu <\/span>curr\u00edculo<\/span><\/a>.<\/span><\/p>\n Editado em 2020 pela Literarua, “<\/span>Comunidades, Algoritmos e Ativismos Digitais: Olhares Afrodiasp\u00f3ricos<\/span><\/a>” busca relacionar ra\u00e7a, racismo, negritude e branquitude com os estudos de tecnologias digitais, especialmente algoritmos, m\u00eddias sociais e comunidades online. Re\u00fane 14 artigos de pesquisadores\/as provenientes do Brasil, pa\u00edses da Afrodi\u00e1spora e \u00c1frica, como Congo, Eti\u00f3pia, Gana, Nig\u00e9ria, Col\u00f4mbia, Estados Unidos e Reino Unido. \u00c9 uma publica\u00e7\u00e3o que, com sua diversidade de perspectivas, tenta suprir uma lacuna nos estudos acad\u00eamicos brasileiros na \u00e1rea.\u00a0<\/span><\/p>\n No pref\u00e1cio, Emicida escreve que \u201cse a ess\u00eancia das redes sociais \u00e9 a conectividade, est\u00e1 para nascer uma que cumpra seu papel com mais efic\u00e1cia do que um tambor\u201d. \u00c9 importante\u00a0 desnaturalizar a ideia de que \u201ctecnologia, storytelling, minimalismo e ideias que visam ampliar a percep\u00e7\u00e3o do que significa ser humano sejam apenas inven\u00e7\u00f5es do vale do sil\u00edcio\u201d, diz o rapper, que cita Paulina Chiziane, \u201c\u00e0s vezes sinto que nos oferecem algo que j\u00e1 era nosso antes deles chegarem\u201d.\u00a0<\/span><\/p>\n O cap\u00edtulo de abertura \u00e9 de Ruha Benjamin, autora de \u201c<\/span>Race After Technology: Abolitionist Tools for the New Jim Code<\/span><\/a>\u201d (2019), ativista e professora da Universidade de Princeton, nos Estados Unidos. Nesse texto, Ruha incentiva um compromisso de incorporar abordagens raciais cr\u00edticas no campoos Estudos de Ci\u00eancia e Tecnologia – <\/span>Science and Technology Studies<\/span><\/i> (STS), no ingl\u00eas.\u00a0 Como ela escreve: \u201cseja na arquitetura de m\u00e1quinas (…) ou na arquitetura de\u00a0 tecnologias legais, os pesquisadores de STS devem treinar nossas ferramentas anal\u00edticas sobre as diferentes formas de \u201ccorre\u00e7\u00e3o racial\u201d que sustentam uma forma perniciosa de constru\u00e7\u00e3o do conhecimento\u201d. A tecnologia \u00e9 um dos muitos meios pelos quais as formas anteriores de desigualdade s\u00e3o atualizadas, por isso, ela explica, a necessidade vital de se fazer um balan\u00e7o rotineiro tamb\u00e9m das ferramentas conceituais que s\u00e3o usadas para entender a domina\u00e7\u00e3o racial.<\/span><\/p>\n Nos outros 12 textos, o livro colabora com a crescente complexifica\u00e7\u00e3o do pensamento sobre a comunica\u00e7\u00e3o digital e internet resultante da diversifica\u00e7\u00e3o dos olhares e falas nos espa\u00e7os acad\u00eamicos. \u201cDa matem\u00e1tica na divina\u00e7\u00e3o If\u00e1 ao ativismo pol\u00edtico, os temas e objetos dos cap\u00edtulos passam por transi\u00e7\u00e3o capilar, blackfishing, afroempreendedorismo, Black Twitter, contra-narrativas ao racismo e m\u00e9todos digitais de pesquisa apropriados \u00e0 complexidade das plataformas, algoritmos e rela\u00e7\u00f5es de poder incorporadas nas materialidades digitais racializadas\u201d, como escreve Tarc\u00edzio na apresenta\u00e7\u00e3o.<\/span><\/p>\n \u00c9 do nosso convidado da BaixaCharla o artigo no livro que complexifica o tema em voga no debate: \u201cRacismo Algor\u00edtmico em plataformas digitais: microagress\u00f5es e discrimina\u00e7\u00f5es em c\u00f3digo<\/strong>\u201d. Para ele, o racismo online \u00e9 um \u201csistema de pr\u00e1ticas contra pessoas racializadas que privilegiam e mant\u00e9m poder pol\u00edtico, econ\u00f4mico e cultural para os brancos no espa\u00e7o digital\u201d (citando Tynes, Lozada, Smith & Stewart, 2019). Nos ambientes digitais, especialmente plataformas de publicidade (Facebook), de nuvem e computa\u00e7\u00e3o (Amazon Web Services, Microsoft Azure, etc), de produto (como Zipcar etc), plataformas <\/span>lean<\/span><\/i> (Uber, AirBnB), o desafio se torna mais profundo na medida em que o racismo adentra os processos automatizados \u201cinvis\u00edveis\u201d como<\/span> recomenda\u00e7\u00e3o de conte\u00fado, reconhecimento facial e processamento de imagens.\u00a0<\/span><\/p>\n Nesse cen\u00e1rio em que a tecnologia cada vez mais \u00e9 tanto media\u00e7\u00e3o das atividades humanas quanto intera\u00e7\u00e3o interpessoal e negocia\u00e7\u00e3o de servi\u00e7os e com\u00e9rcio, os casos de identifica\u00e7\u00e3o de racismo algor\u00edtmico passam a ser somados por diversas pesquisadoras, ativistas e desenvolvedores – entre eles o pr\u00f3prio Tarc\u00edzio, com sua <\/span>Linha do tempo do racismo algor\u00edtmico<\/span><\/a>, projeto paralelo de sua pesquisa no doutorado (intitulado provisoriamente de \u201c<\/span>Dados, Algoritmos e Racializa\u00e7\u00e3o em Plataformas Digitais<\/span><\/a>\u201d) que incorpora casos de 2010 a partir da pergunta: \u201cComo as plataformas digitais, m\u00eddias sociais, aplicativos e intelig\u00eancia artificial reproduzem (e intensificam) o racismo nas sociedades?\u201d<\/span><\/p>\n O artigo tamb\u00e9m fala de chamadas \u201cmicroagress\u00f5es\u201d,\u00a0 \u201cofensas verbais, comportamentais e ambientais comuns, sejam intencionais ou n\u00e3o intencionais, que comunicam desrespeito e insultos hostis, depreciativos ou negativos contra pessoas de cor\u201d (Sue, 2010a, p. 29). S\u00e3o express\u00f5es, consciente ou n\u00e3o, usadas para manter \u201caqueles \u00e0 margem racial em seus lugares\u201d e que mostram como o racismo \u00e9 sistem\u00e1tico em nossa sociedade. No texto, o pesquisador identifica sete tipos dessas microagress\u00f5es: Suposi\u00e7\u00e3o de Criminalidade; Nega\u00e7\u00e3o de Realidades Raciais\/Democracia Racial; Suposi\u00e7\u00e3o de Inferioridade Intelectual; Patologiza\u00e7\u00e3o de Valores Culturais; Exotiza\u00e7\u00e3o; Estrangeiro na Pr\u00f3pria Terra \/ Nega\u00e7\u00e3o de Cidadania; Exclus\u00e3o ou Isolamento<\/em>.<\/span><\/p>\n Outro tema em voga na discuss\u00e3o sobre racismo e plataformas digitais s\u00e3o as tecnologias baseadas em intelig\u00eancia artificial para ordena\u00e7\u00e3o e vigil\u00e2ncia de cidad\u00e3os no espa\u00e7o p\u00fablico. Conhecidas como \u201ctecnologias de reconhecimento facial\u201d, elas ganharam mercado nos \u00faltimos anos tanto a partir do lobby das big techs quanto pelo avan\u00e7o de ideologias de extrema-direita. Por conta disso, t\u00eam sido usadas (ou contratadas para serem) em pol\u00edcias de diversos lugares, entre eles o Brasil; um <\/span>estudo do Intervozes<\/span><\/a> afirma que \u201cdentre os 26 prefeitos de capitais empossados em janeiro de 2021, 17 apresentaram propostas que, de algum modo, preveem o uso das tecnologias de informa\u00e7\u00e3o e comunica\u00e7\u00e3o na seguran\u00e7a p\u00fablica\u201d. Publicamos em nossas redes <\/span>uma not\u00edcia da Folha de S. Paulo nesta semana<\/span><\/a> que conta que 20 estados brasileiros, das cinco regi\u00f5es do Brasil, utilizam ou est\u00e3o implementando a tecnologia de reconhecimento facial na seguran\u00e7a p\u00fablica local.\u00a0<\/span><\/p>\n Na Linha do Tempo citada h\u00e1 diversos casos de erros dessas tecnologias. H\u00e1, por exemplo, situa\u00e7\u00f5es em que os sistemas de reconhecimento facial da <\/span>Amazon e da IBM <\/span>erram mais em imagens de mulheres negras<\/span><\/a>, assim como sistemas de biometria visual costumam falhar de <\/span>10 a 100 vezes mais com imagens de pessoas negras ou asi\u00e1ticas<\/span><\/a>. Por conta dessas falhas que ajudam a perpetuar o racismo algor\u00edtmico, pesquisadores t\u00eam defendido o seu banimento; nos Estados Unidos, h\u00e1 decis\u00f5es como a de Minneapolis, cidade onde Geroge Floy foi morto, onde <\/span>C\u00e2mara Municipal vetou o uso da tecnologia pela pol\u00edcia<\/span><\/a>, por sinais de que a I.A. \u00e9 tendenciosa contra negros e outros grupos raciais. Na Europa, o Comit\u00ea Europeu de Prote\u00e7\u00e3o de Dados (EDPB) e a Autoridade Europeia para a Prote\u00e7\u00e3o de Dados (EDPS), a<\/span>presentaram opini\u00e3o conjunta que sugere o banimento<\/span><\/a> do reconhecimento de pessoas em espa\u00e7os p\u00fablicos.<\/span><\/p>\n Tarc\u00edzio recentemente participou do <\/span>podcast Tecnopol\u00edtica<\/span><\/a> em que conversou com Sueli Carneiro (e S\u00e9rgio Amadeu, \u00e2ncora do podcast) sobre o tema, resgatando inclusive o questionamento \u00e0 neutralidade da ci\u00eancia moderna – Sueli lembrou de como a ci\u00eancia tem origem racista, tendo por base um pensamento universal europeu colonizador que exclu\u00eda os povos africanos e as diversas cosmologias amer\u00edndias e asi\u00e1ticas.\u00a0<\/span><\/p>\n O pesquisador tamb\u00e9m <\/span>escreveu em seu blog sobre 10 raz\u00f5es para as tecnologias de reconhecimento facial serem banidas<\/span><\/a>. Est\u00e3o entre eles o reconhecimento facial e vis\u00e3o computacional s\u00e3o t\u00e9cnicas altamente imprecisas, em especial sobre pessoas racializadas; de como as tecnologias digitais vistas como \u201cneutras\u201d ou \u201cobjetivas\u201d favorecem ainda mais excessos de policiais, e no espa\u00e7o p\u00fablico pressup\u00f5e e fortalecem uma sociedade vigilantista. Tamb\u00e9m \u00e9 fator para defender o banimento o fato de que n\u00e3o podemos pressupor boa-f\u00e9 de corpora\u00e7\u00f5es de tecnologia, como exemplifica casos como o impacto do Facebook no Brexit e nas elei\u00e7\u00f5es americanas, do extremismo digital no YouTube e do lobby da Google no Conselho Administrativo de Defesa Econ\u00f4mica, entre muitos outros.\u00a0<\/span><\/p>\n No aspecto econ\u00f4mico, mesmo o custo-benef\u00edcio para captura de condenados n\u00e3o justifica a coleta massiva, como exemplifica a milion\u00e1ria implementa\u00e7\u00e3o de reconhecimento facial em Londres, onde bases reuniam fotos de mais de 2.400 suspeitos que geraram apenas 8 pris\u00f5es. Dados proporcionais ainda piores foram reportados no Brasil, onde gigantesca infraestrutura de reconhecimento facial foi implementada na Micareta de Feira de Santana, Bahia, coletando e vulnerabilizando 1,3 milh\u00f5es de rostos para o cumprimento de apenas 18 mandados.<\/span><\/p>\n Para debater o livro e os temas citados, Leonardo Foletto e Tatiana Balistieri, do BaixaCultura, conversam com Tarc\u00edzio Silva no dia 22 de julho, \u00e0s 19h, no <\/span>canal do Youtube do BaixaCultura<\/span><\/a>, onde as outras charlas j\u00e1 est\u00e3o dispon\u00edveis. Nas pr\u00f3ximas semanas ela tamb\u00e9m vira podcast, que pode ser escutado aqui e nas principais plataformas de streaming. Essa \u00e9 a \u00faltima charla do ciclo de 2021 que discutiu diferentes perspectivas dos estudos das tecnologias de comunica\u00e7\u00e3o no Brasil e no mundo.\u00a0<\/span><\/p>\n *<\/p>\n Voc\u00ea pode assistir aqui, em \u00e1udio e v\u00eddeo (YouTube).<\/p>\n<\/p>\n
<\/p>\n
<\/span><\/p>\n