Governamentalidade Algorítmica: Da Biopolítica à Modulação Digital - Capítulos 3 e 4
- carlospessegatti
- 9 de jun. de 2025
- 8 min de leitura

Este ensaio que está sendo escrito por Callera Jarreliss e Atena Cybele e está previsto para ter um total de oito capítulos, foi baseado no livro How Data Happened: A History from the Age of Reason to the Age of Algorithms (2023), de Chris Wiggins e Matthew L. Jones.
Apresentamos hoje o 3º e o 4º capítulos desta série

Capítulo 3 — Da Biopolítica à Psicopolítica: O Poder que Opera nas Emoções e Desejos
O século XXI inaugura uma virada silenciosa nas formas de exercício do poder: se antes o paradigma biopolítico consistia na administração da vida orgânica dos corpos, na normatização da saúde, da sexualidade e da produtividade por instituições disciplinares e biopolíticas, hoje assistimos à ascensão de uma racionalidade ainda mais imaterial, mais difusa e, por isso mesmo, mais eficaz — a psicopolítica. Esta nova forma de governamentalidade não atua prioritariamente sobre os corpos, mas sobre os afetos, os desejos, os estados emocionais e os fluxos de atenção. Trata-se de uma economia do poder que captura o sujeito por dentro, explorando sua interioridade como fonte inesgotável de capital.
A psicopolítica digital, tal como teorizada por pensadores como Byung-Chul Han, representa o desdobramento pós-biopolítico do neoliberalismo algorítmico. Se a biopolítica foucaultiana operava por técnicas de normalização e vigilância institucionais, a psicopolítica contemporânea infiltra-se na subjetividade através da sedução, da autoexposição e do apelo constante à performance individual. A governança algorítmica hoje não se contenta em vigiar ou punir: ela prevê, modula, estimula, recompensa. Ela se torna emocionalmente inteligente.
A modulação afetiva das massas é hoje intermediada por plataformas digitais que aprenderam a extrair valor econômico diretamente das experiências subjetivas. Likes, curtidas, compartilhamentos, visualizações e comentários são os novos índices do poder; neles se inscrevem tanto a autovalorização narcísica quanto a domesticação comportamental. Através da economia da atenção, o capitalismo se subjetiviza, transformando cada indivíduo em microempreendedor de si mesmo, produtor incessante de dados, emoções e presença online.
Ao contrário da coerção clássica, a psicopolítica atua por meio do desejo. A governamentalidade algorítmica não impõe regras: ela sugere, recomenda, influencia. O sujeito contemporâneo não é coagido a obedecer — ele é induzido a querer. As plataformas sabem mais sobre seus usuários do que estes sabem sobre si mesmos, graças à capacidade preditiva dos algoritmos, que operam com dados biométricos, padrões comportamentais, expressões faciais e registros emocionais, transformando-os em mapas dinâmicos de consumo e fidelização.
Nesse regime, o inconsciente freudiano é reconfigurado: já não se trata da repressão do desejo, mas de sua hipervisibilidade e sua mercantilização. A lógica do “curta, exponha-se, compartilhe-se” transforma o íntimo em espetáculo, e o desejo em dado bruto. As emoções são mineradas, etiquetadas e redirecionadas para campanhas de engajamento, marketing emocional e retroalimentação algorítmica. O sujeito é governado por aquilo que sente — ou, mais precisamente, pelo modo como suas emoções são capturadas, gerenciadas e devolvidas sob a forma de estímulo mercadológico.
Por isso, é necessário compreender que a psicopolítica não é apenas uma forma de dominação, mas também uma economia afetiva, onde os afetos circulam como mercadoria e, ao mesmo tempo, como dispositivo de sujeição. No universo digital, a atenção tornou-se o recurso escasso por excelência. E a batalha contemporânea, tanto política quanto cultural, trava-se nos campos da empatia, da emoção, da identidade, da visibilidade.
Ao capturar a vida emocional, a governamentalidade algorítmica reinventa o poder como experiência estética e afetiva. O algoritmo não comanda — ele afina, ajusta, personaliza. Ele se traveste de cuidado e conveniência, e é precisamente nesse ponto que reside sua eficácia: governar se tornou sinônimo de personalizar.
Neste novo cenário, resistir exige mais do que criticar as formas visíveis de opressão: é preciso desconstruir os modos como o poder se encarna nos próprios afetos, nas próprias escolhas, nos próprios desejos. A luta política desloca-se, então, para a esfera da produção de subjetividade, e a pergunta que se impõe é: como recusar o desejo que já foi desejado por nós antes mesmo de o desejarmos?
Conclusão do Capítulo 3 — Da Biopolítica à Psicopolítica: O Poder que Opera nas Emoções e Desejos
A transição da biopolítica à psicopolítica representa uma inflexão fundamental na lógica do poder contemporâneo. Deixamos para trás os dispositivos que gerenciavam populações e corpos sob normas e vigilâncias externas, e adentramos um novo regime, onde a interioridade do sujeito se torna o principal campo de intervenção política e econômica. As redes sociais, as plataformas digitais e os sistemas algorítmicos não apenas capturam a atenção e os afetos — eles os moldam, retroalimentam e instrumentalizam.
Neste contexto, o sujeito deixa de ser apenas objeto da política para tornar-se também produto e produtor de governamentalidade. O poder não mais se impõe do exterior; ele se auto-inocula no desejo, operando sob a lógica da liberdade, da escolha e da personalização. O paradoxo da psicopolítica é justamente este: quanto mais o sujeito acredita estar livre para ser ele mesmo, mais ele se conforma aos vetores de modulação emocional impostos pelas plataformas.O poder se torna invisível, porque se confunde com a própria expressão da subjetividade.
A crítica à psicopolítica, portanto, não pode se restringir ao campo da denúncia ou da resistência técnica. É necessário reimaginar formas de subjetivação que escapem à captura algorítmica, e que devolvam à experiência humana uma opacidade estratégica, uma zona de silêncio, de desvio e de reinvenção ética do desejo.
Ponte para o Capítulo 4 — "Corpos Codificados: A Inteligência Artificial e a Nova Arquitetura do Controle Digital"
No próximo capítulo, avançaremos da esfera do emocional e do subjetivo para o registro dos corpos que são continuamente escaneados, preditos e reorganizados por inteligências maquínicas. Se neste capítulo analisamos como o poder se infiltra nas emoções e nos desejos, agora voltaremos o olhar para a reconfiguração do corpo como dado, como vetor de biometria, vigilância e predição comportamental.
A Inteligência Artificial não apenas lê o sujeito — ela o antecipa, o codifica, o traduz em padrões replicáveis, moldando uma nova arquitetura de controle baseada na automatização das decisões.
Será nesse universo que exploraremos como os corpos tornam-se superfícies de leitura e intervenção algorítmica, e como a governamentalidade digital constrói uma topologia de controle que dispensa o visível, o disciplinar e até o subjetivo, operando em nível infraestrutural, pré-consciente, estatístico.
Essa transição da psicopolítica para a materialidade cibernética do corpo codificado nos levará a compreender os desdobramentos mais radicais da governamentalidade algorítmica — quando o poder se torna, finalmente, indistinguível da própria arquitetura digital que habitamos.
Capítulo 4 – Algoritmos e a Automação da Decisão: O Fim do Juízo Humano?
4.1 Epígrafes
“No tribunal da razão, não há lugar para a sentença algorítmica.”(DERRIDA, 1994)
“A máquina nunca hesita. O humano, sim. É da hesitação que nasce o juízo.”(STIEGLER, 2016)
“Governar é decidir, e decidir é julgar entre forças em disputa. A máquina, ao contrário, apenas calcula probabilidades.”(AGAMBEN, 2007)
4.2 A arquitetura da decisão automática
Com o avanço dos sistemas algorítmicos e da inteligência artificial, testemunhamos uma mudança paradigmática na forma como as decisões são tomadas no âmbito jurídico, administrativo, econômico e criativo. Essa transição está enraizada nas bases da cibernética formuladas por Norbert Wiener (1948) e na teoria matemática da comunicação de Claude Shannon (1949), que inauguraram a possibilidade de traduzir o controle e a comunicação em linguagem matemática e estatística.
No campo da governamentalidade, Michel Foucault (2008) apontou que o neoliberalismo transformou o governo em gestão de riscos e previsões comportamentais, consolidando o homo oeconomicus como agente racional. Os sistemas algorítmicos emergem como os novos dispositivos que capturam, preveem e orientam condutas — inclusive com base em dados históricos enviesados.
Um exemplo crítico é o uso do algoritmo COMPAS, amplamente adotado nos tribunais estadunidenses para prever reincidência criminal. A investigação conduzida pelo ProPublica (2016) revelou que o sistema reproduzia vieses raciais, atribuindo maior risco a pessoas negras sem base jurídica objetiva. Segundo Eubanks (2018), trata-se de uma "desigualdade automatizada", na qual os algoritmos perpetuam e legitimam injustiças históricas sob a aparência de neutralidade técnica.
4.3 O eclipse do juízo crítico
A substituição do julgamento humano por inferências algorítmicas representa uma mutação na própria ideia de decisão. Para Kant (1781), o juízo era o exercício da razão autônoma; para Arendt (1958), era a capacidade de pensar com os outros, fundamental para a vida pública. No entanto, com o advento da automação decisória, a decisão torna-se estatística, desprovida de reflexão e responsabilidade.
Como observa Han (2017), vivemos sob o regime da positividade, onde o negativo – a dúvida, a crítica, a resistência – é apagado em nome da fluidez e da eficiência. O juízo crítico é eclipsado por sistemas que operam em tempo real, mas sem historicidade. Para Adorno e Horkheimer (1985), isso é a própria realização da razão instrumental, na qual o pensamento se degrada a função técnica, perdendo sua vocação emancipadora.
4.4 Opacidade algorítmica e crise da temporalidade
Os algoritmos de aprendizado de máquina, especialmente os modelos de deep learning, operam em caixas-pretas cuja lógica interna escapa à inteligibilidade humana (BURRELL, 2016). Segundo Pasquale (2015), essa opacidade desafia os princípios básicos da democracia, como a transparência, a contestação e a responsabilização.
Essa opacidade se articula à aceleração temporal dos processos automatizados. O evento conhecido como Flash Crash(2010), causado por algoritmos de alta frequência no mercado financeiro, ilustra como a decisão foi deslocada para uma temporalidade não-humana. De acordo com Stiegler (2010), essa aceleração compromete a formação da subjetividade e da consciência crítica, provocando uma desindividuação.
4.5 Simulação criativa: arte ou automatismo?
Com a proliferação de inteligências artificiais generativas, como ChatGPT, Suno ou Midjourney, abre-se um novo debate sobre o estatuto da criação. Essas ferramentas não criam no sentido pleno do termo; elas operam por recombinação estatística de dados históricos.
Deleuze e Guattari (1992) defendem que criar é resistir, é romper com os códigos do reconhecimento. A IA, ao contrário, tende a reproduzir o já dito, o já visto, o já escutado. Ferraris (2014) afirma que o digital transforma o mundo em um gigantesco arquivo, esvaziando a experiência de sua singularidade e seu acontecimento.
4.6 Repolitizar a decisão
Repolitizar a decisão significa resistir à automatização do juízo. Como lembra Agamben (2007), a política só existe onde há suspensão — onde se decide não por cálculo, mas por um gesto ético. Recuperar o juízo é reativar a dimensão trágica da decisão: o momento em que o humano se confronta com o imprevisível, com a exceção, com o outro.
Desautomatizar é, portanto, uma forma de reintegrar o tempo, o erro e a responsabilidade ao núcleo da ação política. É afirmar que decidir não é apenas prever, mas escolher entre múltiplos possíveis, levando em conta o que as máquinas não podem calcular: o sentido.
Referências
ADORNO, T. W.; HORKHEIMER, M. Dialética do esclarecimento: Fragmentos filosóficos. Rio de Janeiro: Zahar, 1985.
AGAMBEN, G. O reino e a glória: Uma genealogia teológica da economia e do governo. Belo Horizonte: Editora UFMG, 2007.
ARENDT, H. A condição humana. Rio de Janeiro: Forense Universitária, 2007.
BURRELL, J. How the machine ‘thinks’: Understanding opacity in machine learning algorithms. Big Data & Society, v. 3, n. 1, p. 1-12, 2016.
DERRIDA, J. Força de lei: O fundamento místico da autoridade. São Paulo: Martins Fontes, 1994.
DELEUZE, G.; GUATTARI, F. O que é a filosofia? Rio de Janeiro: Editora 34, 1992.
EUBANKS, V. Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. New York: St. Martin's Press, 2018.
FERRARIS, M. Documentalidade: Por que é necessário deixar rastros. São Paulo: Unesp, 2014.
FOUCAULT, M. Nascimento da biopolítica: Curso no Collège de France (1978-1979). São Paulo: Martins Fontes, 2008.
HAN, B.-C. Psicopolítica: O neoliberalismo e as novas técnicas de poder. Petrópolis: Vozes, 2017.
KANT, I. Crítica da razão pura. Lisboa: Fundação Calouste Gulbenkian, 2001. (original de 1781)
PASQUALE, F. The Black Box Society: The Secret Algorithms That Control Money and Information. Cambridge: Harvard University Press, 2015.
PROPUBLICA. Machine Bias: There’s software used across the country to predict future criminals. And it’s biased against blacks. Disponível em: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing. Acesso em: 7 jun. 2025.
SHANNON, C. E. The mathematical theory of communication. Urbana: University of Illinois Press, 1949.
STIEGLER, B. Ce qui fait que la vie vaut la peine d'être vécue. Paris: Flammarion, 2010.
STIEGLER, B. Dans la disruption: Comment ne pas devenir fou? Paris: Les Liens qui Libèrent, 2016.
WIENER, N. Cybernetics: Or Control and Communication in the Animal and the Machine. Paris: MIT Press, 1948.




Comentários