Algoritmos, inteligência artificial e democracia
Publicado no Jota
Inteligência artificial é uma tecnologia de propósito geral, que tem um caráter disruptivo porque produz mudanças bruscas e incertas em campos como o dos governos, da comunicação social, da logística, indústria e serviços. Tecnicamente, a IA é conceituada como agentes ou multiagentes constituídos como artefatos que percebem um fluxo de dados de entrada e produzem um fluxo de resultados.
O fato de processarem dados e produzirem fluxos de resultados faz com que estes agentes tenham uma natureza epistêmica. Ou seja, são agentes que executam tarefas ou constituem decisão a partir de um conhecimento construído e calculado com dados. Assim, a inteligência artificial, por ser construída como agente epistêmico, interage com humanos e transforma a forma como percebemos o mundo e agimos nele.
Dados são compostos de imagens, sons, números e textos. O fato é que hoje, com o grande volume de dados sobre qualquer coisa, podemos pensar em agentes artificiais inteligentes capazes de realizar uma ação na sociedade em interação com humanos.
As interações entre humanos e máquinas estão transformando diferentes aspectos da sociedade e da política, estando presentes na forma como burocratas e agentes artificiais tomam decisões importantes de políticas públicas, como as questões de segurança, que são decididas com agentes humanos e artificiais interagindo para tomar um curso de ação, ou simplesmente como nós, consumidores, interagimos com agentes artificiais para comprar algo que nos é recomendado.
As interações entre humanos e máquinas vão se tornando pervasivas em diferentes aspectos de nossa existência. Mas isso não significa que os avanços tecnológicos não tenham implicações de natureza social, econômica ou política.
Os riscos que emergem destas interações são variados e incertos. Os riscos decorrem, por exemplo, da possibilidade de bases de dados racializadas e com vieses que fazem com estes agentes artificiais reproduzam diversas formas de racismo, xenofobia ou misoginia, com impactos importantes que comprometem a implementação e a efetividade de políticas públicas. Em diversas situações, os riscos para os humanos são elevados, impactando a vida e a forma como construímos o conhecimento sobre as coisas.
Existem, hoje, várias preocupações regulatórias que visam a mitigar ou diminuir estes riscos. Abordagens regulatórias baseadas em riscos têm se tornado comuns. Seja no AI Act da União Europeia, no PL 2338/2023 no Brasil, na proposta chilena de regulação da inteligência artificial ou em propostas que têm emergido nos Estados Unidos, nota-se uma abordagem dos riscos e a criação de formas de mitigação, bem como o delineamento de novos direitos digitais que parecem se consolidar ao longo do tempo, associados com alguns princípios éticos que emergem da discussão política.
A abordagem baseada em riscos vai se tornando comum e um quase consenso entre reguladores preocupados em criar alguma forma de controle e governança sobre a inteligência artificial. Existe uma pretensão de regular a ação dos agentes artificiais em interação com humanos para diferentes propósitos. Contudo, não observamos no processo de regulação uma outra camada de natureza mais política e institucional, sobreposta à dos agentes artificiais. É comum em diferentes situações do cotidiano a confusão entre inteligência artificial e algoritmos.
Como dissemos antes, a inteligência artificial é um agente que percebe um fluxo de dados de entrada e produz um fluxo de saída na forma de um conhecimento sobre alguma coisa. Algoritmos, por outro lado, estão em uma camada mais profunda, que diz respeito às regras que vão estruturar e organizar as interações entre humanos e máquinas. Agentes artificiais interagem com humanos com base em regras que estão definidas nos algoritmos.
Uma definição simples do que é um algoritmo é dada por Alan Turing, para quem um algoritmo pode ser pensado como um livro de regras. As interações humanas são baseadas em regras de natureza formal e informal que foram sendo construídas ao longo da civilização. Regras que definem nossas decisões de natureza coletiva e também regras que organizam nossas relações cotidianas e pessoais. Nestas diferentes situações, temos instituições que definem aquilo que é permitido, proibido ou possibilitado no nosso cotidiano. Agimos com base em regras que estruturam a forma como interpretamos determinada realidade e agimos nela.
O mesmo pode ser pensado sobre as interações entre humanos e máquinas. No bojo das interações entre humanos e máquinas, temos os algoritmos operando como instituições. Esse é o desiderato que articulamos no livro Algorithmic institutionalism, recém-publicado pela Oxford University Press. Diferentes famílias de algoritmos como os de machine learning, deep learning ou rule-based algorithms desinstitucionalizam e reinstitucionalizam diferentes formas de relações sociais no mundo contemporâneo. Por isso, eles têm uma natureza disruptiva.
Algoritmos representam instrumentos de racionalização, balizando a forma como nós, humanos, decidimos e enquadramos diferentes situações de ação a partir de regras que são transcritas e calculadas em códigos computacionais complexos. A camada dos algoritmos é mais profunda que da própria inteligência artificial. São eles que definem regras e normas que organizam e enquadram nossas estratégias em diferentes situações de ação que surgem nas interações entre humanos ou entre humanos e máquinas.
Instituições são aspectos centrais da nossa vida coletiva e definem a forma como interpretamos diferentes situações que nos requer alguma ação. Os algoritmos, por exemplo, calculam árvores de decisão que enquadram escolhas coletivas ou individuais importantes e definem, assim, um script para a ação humana. Instituições também implicam um aspecto organizacional das relações humanas.
Algoritmos pensados como instituições emergentes da sociedade contemporânea reorganizam diferentes aspectos por meio de uma outra forma de racionalização da vida. Gradativamente temos ordens políticas algorítmicas, em que diferentes decisões e estratégias de conflitos são mediadas e racionalizadas por via de máquinas.
O impacto destas ordens políticas algorítmicas é enorme para a democracia. Esta é a camada mais profunda porque as mudanças que emergem com as crescentes formas de interação entre humanos e máquinas produzem mudanças epistêmicas diversas na sociedade. Estas mudanças têm consequências sobre como decidimos e agimos e como institucionalizamos um mundo baseado em incertezas e racionalidade limitada.
Os impactos para a democracia ocorrem em várias camadas, compreendidas na comunicação social, nas políticas públicas, em mercados, na cultura e nas organizações – tanto públicas quanto privadas. O ponto é que gradativamente decidimos de maneira tecnocrática, com novas instituições – os algoritmos – as quais são desenhadas por elites inovadoras e grandes corporações com base em tentativa e erro, reproduzindo desigualdades históricas, criando novas formas de adesão e resistência e novos mecanismos de regulação da ação humana.
Ordens políticas algorítmicas requerem novas formas de governança que estão além da questão do risco inteligência artificial. Elas requerem democratização mediante mecanismos de accountability, o exercício da liberdade, equidade, colaboração e participação, de modo que humanos assumam o controle. Democratizar a ordem política dos algoritmos é um desafio para o qual os mecanismos regulatórios da inteligência artificial são necessários, mas não suficientes para conter os impactos de tecnologias emergentes. Ir mais além significa pensarmos na centralidade da democracia como chave para pensar sobre como controlar os impactos tecnológicos em uma sociedade permeada por instituições algorítmicas.
FERNANDO FILGUEIRAS – Professor da Faculdade de Ciências Sociais da UFG. Professor do doutorado profissional em Políticas Públicas da ENAP. Pesquisador do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq). Pesquisador associado do Ostrom Workshop on Political Theory and Policy Analysis (Indiana University)
VIRGILIO ALMEIDA – Professor emérito do Departamento de Ciência da Computação da UFMG. Professor associado ao Berkman Klein Center for Internet and Society em Harvard University
RICARDO FABRINO MENDONÇA – Professor do Departamento de Ciência Política da UFMG. Pesquisador do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)