Leia a edição de setembro/23 da Revista E na íntegra
Você já se sentiu à deriva no vasto oceano de textos, vídeos, músicas e tanto conteúdo produzido e propagado nas plataformas digitais? O que ler? Será que este filme vai me agradar? E essa reportagem, é importante? Ou estou lendo uma fake news? Orientados por um farol chamado “algoritmo”, somos levados a acreditar que navegamos com segurança. Mas será que podemos confiar nesse filtro que promete nos entregar conteúdo personalizado em meio à sobrecarga de informações que recebemos?
A pesquisadora em comunicação Issaaf Karhawi observa que “falamos do algoritmo como uma entidade sobre-humana, aquele que tudo vê e que tudo decide”. No entanto, explica a professora titular do Programa de Pós-Graduação em Comunicação da Universidade Paulista (Unip): “Algoritmos não são apenas modelos ou representações de um processo. Eles são ‘opiniões embutidas em matemática’, como afirmaria a estudiosa Cathy O’Neil. Ou seja, apesar de uma aparente neutralidade que conferimos às máquinas, aos códigos e à tecnologia, não há tecnologia neutra”.
Assim como Cathy O’Neil, autora de Algoritmos de destruição em massa (2021), chegou à conclusão de que os modelos de algoritmos usados hoje são opacos, não regulamentados e incontestáveis, outros pesquisadores somam-se ao ressaltar que, sim, os algoritmos também reforçam a discriminação. Em Racismo algorítmico – inteligência artificial e discriminação nas redes digitais (Edições Sesc São Paulo, 2022), o pesquisador Tarcízio Silva traz desdobramentos desse debate. “Precisamos entender os modos pelos quais o racismo se imbrica nas tecnologias digitais através de processos ‘invisíveis’ nos recursos automatizados e/ou definidos pelas plataformas, tais como recomendação de conteúdo, moderação, reconhecimento facial e processamento de imagens”, escreve.
Neste Em Pauta, um artigo de Issaaf Karhawi e excertos do primeiro capítulo do livro Racismo algorítmico – inteligência artificial e discriminação nas redes digitais, de Tarcízio Silva, analisam a lógica algorítmica e suas implicações sociais e cognitivas em uma população cada vez mais conectada.
Por Issaaf Karhawi
Ainda que você não tenha qualquer relação com as tecnologias, é provável que a palavra “algoritmo” faça parte do seu vocabulário. Essa gramática própria das plataformas já adentrou as nossas vidas por conta da plataformização – a penetração das plataformas de redes sociais em distintas esferas sociais. Falamos do algoritmo como uma entidade sobre-humana, aquele que tudo vê e que tudo decide. Os mais jovens, navegando no TikTok, dirão que o algoritmo os conhece bem e, por isso, entrega apenas conteúdos que eles adoram assistir. No YouTube, aceitamos as indicações de “próximo vídeo”: “Era isso mesmo que eu gostaria de ver!”. Durante as eleições, ouvimos acusações: “O algoritmo está nos polarizando!”. Essa entidade parece estar por trás de todas as nossas pequenas ações diárias. Mas sabemos o que ele é, de fato?
Um algoritmo é uma combinação de passos. Como uma receita de bolo, sustenta o funcionamento da internet. De forma bastante simplificada, eles são conjuntos de etapas a serem executadas, um passo a passo computacional, um código de programação. A internet é uma combinação de códigos matemáticos e os algoritmos são responsáveis pela tradução do mundo em dados. Pela digitalização do mundo. Pela dataficação daquilo que antes era apenas uma ação. Os nossos afetos são convertidos em dados, nossos interesses, dúvidas, personalidade. Uma simples curtida materializa um afeto, uma predileção, e transforma em dados algo que não imaginávamos possível quantificar.
Além disso, algoritmos variam em suas funções: os algoritmos de buscadores, como o Google, determinam aquilo que é mostrado ou não, o que é considerado relevante. Os algoritmos de serviços de streaming, como a Netflix, definem o que será consumido ou não, a partir de seu sistema de recomendações. Nas redes sociais, em todas elas, os algoritmos funcionam como filtros invisíveis responsáveis por selecionar o montante de conteúdo. Afinal, consumir o volume de posts, notícias, fotos e memes publicados diariamente nas redes seria humanamente impossível.
Tudo indica, portanto, que os algoritmos seriam apenas uma ajuda maquínica para a sobrecarga informativa em que vivemos. Mas não. Algoritmos não são apenas modelos ou representações de um processo. Algoritmos são mais que isso, são “opiniões embutidas em matemática”, como afirmaria a estudiosa Cathy O’Neil. Ou seja, apesar de uma aparente neutralidade que conferimos às máquinas, aos códigos e à tecnologia, não há tecnologia neutra. E cada programação não está livre de ideologias, visões de mundo. De interesses econômicos. Os algoritmos – como parte essencial e estrutural das plataformas – configuram uma nova forma de edição do mundo.
O “mundo editado” – conceito cunhado por Maria Aparecida Baccega, uma das fundadoras do campo de educomunicação no Brasil – consiste na construção de realidades outras, a partir das decisões em relação àquilo que deve ser suprimido ou acrescentado a um acontecimento. Na chamada Indústria Cultural, a edição do mundo parecia mais clara, ela se materializava na linha editorial de um programa televisivo, no tom de um filme, na pauta escolhida por um jornal. Mas a edição do mundo por algoritmos de plataformas de redes sociais tem como premissa a opacidade. Em uma lógica de caixa-preta, não sabemos como se dão as estruturas das plataformas, tampouco como o algoritmo funciona.
Lidas apenas com o que sai ou entra nessa caixa-preta, sua lógica de funcionamento fica à sombra – ou é tratada como segredo de negócio. E ainda que as plataformas digitais sirvam de espaço para mantermos as nossas redes sociais “da vida real”, as relações com nossos amigos, familiares e ídolos, elas não são exatamente um espaço propício para a construção de comunidades e coletivos, mas para transações comerciais. Não o são porque as plataformas funcionam a partir de um modelo de negócio em que há gratuidade para os usuários, mas o pagamento da plataforma é feito a partir da venda de dados para anunciantes.
É preciso tirar o véu dos algoritmos, desvelar seus objetivos
Issaaf Karhawi
Diferentemente de plataformas de streaming, não fazemos pagamentos mensais a nenhuma das grandes redes sociais digitais. Não há qualquer plano de assinatura, mas isso não impede que a Meta – conglomerado dono do Facebook, Instagram e WhatsApp – seja uma das maiores empresas do mundo. Por sinal, isso só é possível porque para os usuários das redes, a moeda mais importante não é a corrente em seu país – a moeda mais importante são os dados.
Cada foto que curtimos, cada comentário que deixamos nos posts de colegas, cada página que decidimos curtir, todas as nossas ações vão revelando um pouco de nós aos algoritmos. São pistas valiosas que serão convertidas em segmentações para os anunciantes. E é assim que as redes se mantêm funcionando sem que precisemos passar o nosso cartão de crédito. Portanto, há uma relação dupla aí: os algoritmos traduzem instruções que vêm embutidas em seu desenho. Instruções de ações diversas. Ao mesmo tempo, as nossas ações alimentam esse mesmo sistema.
Não seria apocalíptico afirmar, portanto, que algoritmos não apenas filtram conteúdos aos quais
temos acesso, editam nosso mundo de acordo com ditames institucionais, mas também modulam
comportamentos. É o professor Sérgio Amadeu da Silveira quem discute esse conceito no Brasil. Modulação algorítmica é cada microintervenção feita pelas redes no comportamento dos sujeitos: sutilmente, oferecendo mais de um tipo de conteúdo e suprimindo outro, amplificando certas pautas, mudando a frequência de certos posts, aumentando o volume de outros… Habilmente, somos conduzidos para onde os interesses mercadológicos vão. Todos os dias. Individualmente. Reiteradamente. Em cada clique. Mas há antídoto para a relação com as plataformas e seus algoritmos: a literacia algorítmica – temática que discuti longamente ao lado da jornalista Daniela Osvald Ramos, professora da Escola de Comunicações e Artes da Universidade de São Paulo (ECA-USP), no trabalho Por uma literacia algorítmica: uma leitura educomunicativa do documentário ‘O dilema das redes’ (2023).
O cenário descrito até aqui coloca os sujeitos do lado mais fraco da corda quando comparados aos
grandes monopólios midiáticos contemporâneos: Google e Meta, para citar apenas dois. Estamos no escuro, pouco letrados nas questões tecnológicas, desconhecedores dos interesses comerciais (e políticos, por que não?) das big techs, incapazes de reconhecer em nossas ações cotidianas a entrada intrusa da modulação algorítmica, ou mesmo anterior a ela, da filtragem ou recomendação algorítmica.
No instigante livro Dez argumentos para você deletar agora suas redes sociais (Intrínseca, 2018), de Jaron Lanier, o antídoto para a modulação de comportamentos e intervenções das plataformas em nossas vidas está logo no título. Mas assumo aqui uma postura que não nega o digital, mais do que isso: que o reconhece como indissociável da vida “real”. E me associo ao que o educador midiático David Buckingham defende: precisamos entender como as mídias funcionam. E isso não significa saber de programação ou abrir a caixa-preta e se deparar com códigos binários, mas reconhecer que a mídia – ampliando o termo para abarcar as plataformas de redes sociais – não é apenas ferramenta ou aparato de comunicação, mas forma de linguagem, produtora de sentidos. É preciso tirar o véu dos algoritmos, desvelar seus objetivos, entender suas dimensões políticas, sociais e econômicas. É só a partir do reconhecimento das lógicas embutidas nas plataformas que seremos capazes de abrir caminhos para resgatar a autonomia dos sujeitos, para a agência e – por que não!? – para certa subversão algorítmica?
Issaaf Karhawi é doutora em Ciências da Comunicação pela Escola de Comunicações e Artes da
Universidade de São Paulo (ECA-USP) e professora titular no Programa de Pós-Graduação em Comunicação da Universidade Paulista (Unip).
Por Tarcízio Silva
Por serem um tipo de manifestação inequívoca do racismo, xingamentos e ofensas verbais são também o tipo mais estudado pelo campo dos estudos de internet, mas não devem ser vistos como a única pauta antirracista, sob o risco de nos cegarmos ao racismo estrutural. Na verdade, frequentemente podemos testemunhar a tentativa de delimitação da própria concepção de “racismo” a apenas ofensas, com o objetivo de diluir o combate ao racismo estrutural e “sutil” nas esferas da economia, conhecimento ou política institucional.
Como era de se esperar, a maioria das primeiras formulações hegemônicas nos estudos sobre internet foram caracterizadas por uma miopia em torno da ideia equivocada de descorporificação online. Conflitos de ideias sobre o papel da internet na relação, intensificação ou erosão de grupos identitários e suas controvérsias estiveram presentes, pois a ideia de um self cambiante que poderia ser diferente a cada nova janela dos ambientes online ganhou popularidade nos anos 1990 do século 20.
Muitos defenderam que o “ciberespaço” ou ambientes “virtuais” e digitais derrubariam variáveis vistas como apenas identitárias, tais como raça, gênero, classe ou nacionalidade. Isto se deu sobretudo quando: a) os ambientes digitais eram ainda informacionalmente escassos, com poucas modalidades de comunicação, focando sobretudo em textualidade; b) pesquisadores advindos de populações minorizadas nos países de diáspora africana ainda eram poucos e ignorados; c) a pretensão de neutralidade das plataformas e mídias, advindas de um tecnoliberalismo em consolidação, já se fazia vigente. Hegemonicamente, então, este mito da descorporificação e superação das identidades fortaleceu-se na intersecção de uma série de motivações, desde o olhar utópico de quem via a internet como um possível éden à cegueira racial que já não via as disparidades estruturais e hiatos digitais.
Um exemplo contundente e influente foi a Declaração de Independência do Ciberespaço, proposta
por John Perry Barlow, em 1996, como uma reação da elite tecnológica estadunidense a iniciativas
estatais de regulação. Oferecendo uma concepção determinista da internet, alegou-se que não seria desejável ou possível a existência de controles estatais. Em grande medida, as propostas da declaração apresentaram posições utópicas sobre o mundo “virtual” de então, mas foram um ponto de inspiração para uma postura “tecnolibertária” da internet, cega a questões de classe, gênero, raça e colonialismos, como podemos ver no trecho que alega que “todos poderão entrar sem privilégios ou preconceitos de acordo com a raça, poder econômico, força militar ou lugar de nascimento”.
O racismo algorítmico é alimentado e treinado por outras práticas digitais de discriminação mais explícitas, como o racismo discursivo – além de impulsioná-lo por vários expedientes
Tarcízio Silva
Mas a realidade, como podemos imaginar, era bem diferente. Estas proposições foram realizadas por grupos hegemônicos em termos de origem, raça e gênero que relegaram à relativa invisibilidade a multiplicidade de experiências e olhares sobre a internet e tecnologias digitais. Entretanto, grupos de cientistas, teóricos e ativistas da comunicação e tecnologia apontaram os processos pelos quais a construção tanto das tecnologias digitais de comunicação quanto da ideologia do Vale do Silício são racializadas, a partir de uma lógica da supremacia branca. O racismo algorítmico é alimentado e treinado por outras práticas digitais de discriminação mais explícitas, como o racismo discursivo – além de impulsioná-lo por vários expedientes. Antes de chegar aos algoritmos, vamos percorrer uma tipologia compreensiva do racismo online que abarca as práticas contemporâneas nas plataformas digitais.
RACISMO ONLINE E MICROAGRESSÕES. Concordamos com Brendesha Tynes e colaboradoras
ao dizer que, apesar do frequente foco da pesquisa digital em ações – individuais ou coletivas – pontuais, o racismo online é um “sistema de práticas contra minorias racializadas, que privilegia e mantém poder político, cultural e econômico em prol de Brancos no espaço digital”. Estas práticas, portanto, não se resumem a ofensas explícitas em formato textual ou imagético. Técnicas como análise de texto e circulação de discursos dão conta de apenas uma parte da questão.
Nos ambientes digitais, temos um desafio ainda mais profundo. Precisamos entender os modos pelos quais o racismo se imbrica nas tecnologias digitais através de processos “invisíveis” nos recursos automatizados e/ou definidos pelas plataformas, tais como recomendação de conteúdo, moderação, reconhecimento facial e processamento de imagens. Então, é preciso entender também as manifestações do racismo “construídas e expressas na infraestrutura, ou back end (ex.: algoritmos) [o termo back end é usado nos campos de desenvolvimento de tecnologia para descrever processos de suporte e base para um sistema, tais como a programação de mecanismos de gestão de dados], ou através da interface (ex.: símbolos, imagens, voz, textos e representações gráficas)”.
Uma questão chave para pensarmos as particularidades do racismo nos meios de comunicação digitais é a relação entre pervasividade, de um lado, e o seu caráter aparentemente sutil e difuso, de outro. Afinal de contas, como abordar os modos pelos quais práticas racistas se materializam em bases de dados e conhecimento digital? Um mecanismo de busca pode ser racista? E como falar sobre esses casos de forma distinta: sejam as injúrias racistas explícitas, sejam os níveis diretamente necropolíticos? Uma das construções teóricas mais importantes, ainda que controversa, para o antirracismo em áreas como educação e psicologia, é o conceito de “microagressões”, que nos será útil para entender desde o racismo verbal até o racismo algorítmico. Microagressões são “ofensas verbais, comportamentais e ambientais comuns, sejam intencionais ou não intencionais, que comunicam desrespeito e insultos hostis, depreciativos ou negativos” contra minorias vulnerabilizadas, como pessoas racializadas, mulheres, migrantes, entre outros – assim como as interseções dessas variáveis.
O conceito de microagressões, assim como a importância de estudá-las e enunciá-las, foi criado pelo psiquiatra Chester Pierce (1927-2016) ao desenvolver um trabalho propositivo sobre a necessidade de estudar também os “mecanismos ofensivos” dos grupos opressores em medida similar ao que as práticas psiquiátricas já realizavam sobre os “mecanismos defensivos” para pessoas negras. Afinal de contas, o racismo não é algo que deva ser entendido apenas em seus efeitos – mas também deve ser compreendido em suas motivações, para assim idealizarmos defesa e reação dos grupos alvos em diversas camadas, como legais, econômicas, educacionais e psicológicas.
Tarcízio Silva é mestre em Comunicação e Cultura Contemporâneas pela Universidade Federal da Bahia (UFBA), liderou times de pesquisa digital no Instituto Brasileiro de Pesquisa e Análise de Dados (IBPAD), do qual é também sócio e cofundador; e já organizou publicações como Comunidades, algoritmos e ativismos digitais: olhares afrodiaspóricos (LiteraRUA, 2020).
A EDIÇÃO DE SETEMBRO/23 DA REVISTA E ESTÁ NO AR!
Para ler a versão digital da Revista E e ficar por dentro de outros conteúdos exclusivos, acesse a nossa página no Portal do Sesc ou baixe grátis o app Sesc SP no seu celular! (download disponível para aparelhos Android ou IOS).
Siga a Revista E nas redes sociais:
Instagram / Facebook / Youtube
LEIA AQUI a edição de SETEMBRO/23 na íntegra. Se preferir, baixe o PDF para levar a Revista E contigo para onde você quiser!
Utilizamos cookies essenciais para personalizar e aprimorar sua experiência neste site. Ao continuar navegando você concorda com estas condições, detalhadas na nossa Política de Cookies de acordo com a nossa Política de Privacidade.