O FIM(S) DA CRÍTICA: BEHAVIORISMO DE DADOS VERSUS DEVIDO PROCESSO 1
Antoinette Rouvroy INTRODUÇÃO As operações de coleta, processamento e estruturação de dados com o propósito 2 de datamining (mineração datamining (mineração de dados) e profiling e profiling (criação (criação de perfis), ajudando indivíduos e organizações organizações a lidar com circunstâncias de incertezas ou aliviá-los do fardo da interpretação de eventos e tomada de decisões no cotidiano, situações triviais tornaram-se cruciais para atividades dos setores públicos e privados em domínios tão variados quanto a prevenção da criminalidade, a gestão da saúde, o marketing ou mesmo o entretenimento. 3 A disponibilidade de novas interfaces de TIC em perfis refinados e produzidos algoritmicamente, permitindo indiscriminadamente a personalização (e a imersão útil, segura e confortável de usuários no mundo digital) 4 e a prevenção (e não a regulação) de comportamentos individuais e coletivos e de trajetórias parece providencial para lidar com as complexidades de um mundo de fluxos maciços de pessoas, objetos e informações, bem como para compensar as dificuldades de governar pela lei num mundo complexo e globalizado. A crença implícita que Data” é que, desde que se tenha acesso a enormes quantidades de acompanha o crescimento do “ Big “ Big Data” dados brutos (e o mundo está atualmente submerso em uma quantidade astronômica de dados digitais), é possível antecipar a maioria dos fenômenos (incluindo os comportamentos humanos) do mundo físico e do mundo digital, graças a algoritmos relativamente simples que permitem, numa base estatística puramente indutiva, construir modelos de comportamentos ou padrões, sem ter que dados ” essa nova maneira de produzir considerar causas ou intenções. i ntenções. Chamarei de “behaviorismo “behaviorismo de dados” conhecimentos sobre atitudes preferenciais futuras, comportamentos ou eventos sem considerar as dados. A motivações psicológicas, os discursos ou as narrativas do sujeito, mas sim com base em dados. “operacionalidade “operacionalidade em tempo t empo real” dos dispositivos que funcionam em tal lógica algorítmica dispensa os atores humanos do ônus e da responsabilidade de transcrever, interpretar e avaliar os eventos do mundo. Poupa-lhes os processos de produção de sentido da transformação ou representação, institucionalização, institucionalização, convenção convenção e simbolização.
1 In:
HILDEBRANDT M., DE VRIES K. (eds), Privacy, Due Process and the Computational Turn. Philosophers of Law Meet Philosophers of Technology. Technology . Routledge, 2013, capítulo 6. 2 O termo “ propósito” propósito” pode parecer contra-intuitivo contra -intuitivo neste contexto, falando de data-warehouses (armazéns data-warehouses (armazéns de dados) que, por definição, contêm quantidades maciças de dados recolhidos em contextos heterogêneos, para uma variedade de propósitos iniciais que, na fase de armazenamento nos data-warehouses, data-warehouses, tornaram-se irrelevantes. Ao contrário das estatísticas tradicionais – tradicionais – que que foram realizadas tendo em vista confirmar ou o u infirmar hipóteses específicas sobre o “real”, ou foram realizadas por funcionários do governo para que o Estado obtenha conhecimento específico e quantificado de seus recursos humanos e materiais – o o objetivo do datamining é muito menos pré-orientado para qualquer fim específico. 3 O Escritório Geral de Contabilidade dos Estado Unidos define o datamining como “a “a aplicação de técnicas e tecnologia de bancos de dados (tais como análise estatística e modelagem) para descobrir padrões ocultos e relações sutis nos dados e inferir regras que permitam a previsão de resultados futuros. Como tem sido amplamente divulgado, muitos esforços federais de datamining envolvem o uso de informações pessoais extraídas de bancos de dados mantidos tanto por organizações públicas quanto por privadas”. privadas”. Os objetivos do datamining, datamining, de acordo com o mesmo relatório incluem “o melhoramento do serviço ou do desempenho; a detecção de fraude, desperdício e abuso; a análise de informações científicas e de pesquisa; a gestão de d e recursos humanos; a detecção de atividades ou padrões criminosos; e a análise de inteligência e detecção de atividades terroristas ” (General Accounting Office: 2004). 4 Farecast, por exemplo, uma parte do motor de busca Bing da Microsoft, aconselha seus usuários sobre o momento ideal para comprar suas passagens de avião, prevendo quando os preços são os mais baixos, examinando 225 bilhões de registros de vôo e de preço.
A questão de saber se os poderes preemptivos dos algoritmos são superestimados, se os algoritmos produzem previsões “válidas” ou não, ou, em outras palavras, se “funciona ou não” não é realmente crucial para o que me interessa aqui; o que quer dizer que, independentemente independentemente da validade de tudo isso, o que mais importa é identificar em que medida confiar na aparente operacionalidade dos algoritmos nos poupa uma série de percepções individuais, coletivas, cognitivas, avaliativas, convencionais, convencionais, institucionais, esforços linguísticos ou tarefas, e, a que preço. Os impactos da virada computacional sobre a governamentalidade estão longe de serem triviais. A constante “adaptação” dos ambientes aos “perfis” individuais e coletivos produzidos pela “inteligência de dados” – seja ela chamada “personalização” ou “tecnologia de segurança” – é – é um modo de governo sem precedentes. 5 O tipo de conhecimento que consome e produz, as modalidades através das quais impacta os comportamentos individuais e coletivos, os modos de individuação que podem influenciar ou resistir à governamentalidade algorítmica 6 merecem um exame cuidadoso. O objetivo deste capítulo é precisamente inaugurar tal investigação. Este capítulo é, assim, sobre uma questão vertiginosa. Formulada como uma indagação sobre o estado do conhecimento, do poder e dos sujeitos após a virada computacional, ela se transforma em reformulação da questão da possibilidade de crítica, recalcitrância e subjetivação 7 em um universo epistêmico e político gradualmente abandonado pela experiência empírica e dedutiva, lógica causal, e no que diz respeito a um modo de governo que parece ignorar as capacidades reflexivas e discursivas (assim como suas “capacidades “capacidades morais”) de agentes humanos, humanos, em favor do computacional, computacional, preventivo, contextual contextual e sensível aos comportamentos comportamentos de risco e oportunidades. oportunidades. Em outras palavras, quero saber se é ainda possível praticar o pensamento crítico após uma virada computacional que, a despeito de sua pretensão à “objetividade”, aparece como um afastamento das ambições da racionalidade moderna ancoradas em experimentos empíricos e lógica ló gica dedutiva-causal, e, apesar de suas promessas de personalização personalização e de uma melhor tomada em consideração de méritos individuais, necessidades, habilidades, preferências, não aborda os indivíduos através de suas capacidades reflexivas, nem através de sua inscrição dentro das estruturas coletivas, mas meramente através de seus “perfis”. Será então argumentado que o que torna a crítica tão difícil de praticar em relação à virada computacional que estamos experimentando agora com a generalização gradual e quase viral de mineração de dados (datamining ( datamining)) e criação de perfis ( profiling ( profiling)) é: - primeiramente, o fato de que produz uma zona onde a realidade (construída) e (o fundo do) mundo em toda espontaneidade e incerteza se tornam indistintas; - em segundo lugar, o fato de que a dimensão transversal – essencial essencial nos domínios científico, judicial e mesmo existencial – do – do “teste”, da “experimentação”, do “exame”, d a “avaliação” ou da “prova”, ou mesmo da “experiência”, se torna ob soleta no tempo real, produção preventiva de realidade algorítmica; algorítmica; - em terceiro lugar, o fato de que a governamentalidade algorítmica não permite processos processos de subjetivação e, portanto, recalcitrância, mas ignora e evita qualquer encontro com sujeitos reflexivos humanos. A governamentalidade algorítmica não tem sujeito: opera com dados 5
Por “governo “governo”” eu quero dizer a prática de enquadrar os campos de ação dos outros. Nesse sentido, o “ governo” governo” não é o monopólio das autoridades públicas. Os agentes privados – prestadores prestadores de serviços de internet, operadores de motores de busca e redes sociais, ou, de um modo mais geral, comerciantes, empregadores, e mpregadores, seguradores, pais, professores, etc., na medida em que enquadram o possível campo de percepções e ações dos outros, governam. 6 Para uma descrição detalhada da governamentalidade algorítmica, ver Rouvroy e Bens (2010). 7 Ver, por exemplo, Boltanski e Thévenot (2005).
infra-individuais e padrões supra-individuais sem, a qualquer momento, chamar o sujeito a se dar conta de si mesmo. O capítulo apresentará, portanto, uma defesa de todas essas coisas que geralmente aparecem como as fraquezas da regulação pela lei e da adjudicação pelo sistema judicial – ou seja, da construção legal da realidade – em comparação com a regulação pelos algoritmos: ineficácia, ineficiência, atrasos, etc., que são todos “criação” de espaço temporal e cena (judicial) onde o sentido recupera a autonomia face à factualidade pura do “behaviorismo de dados”, onde as normas podem ser negociadas e contestadas, onde os sujeitos (legais) podem materializar, construindo suas motivações e, chamando-se mutuamente em conta através da linguagem, criam ocasiões para individuações individuais e coletivas que são sempre desvios de padrões e perfis conhecidos.
A PRODUÇÃO ALGORÍTMICA DA "REALIDADE": O BEHAVIORISMO DE DADOS Descobrindo uma realidade imanente ao mundo dos dados
Cada época tem seus próprios meios privilegiados de construir evidências e tornar o mundo significativo. Como explica Pierre Legendre, o mundo não é dado ao homem. O homem somente pode acessar o mundo através da mediação da linguagem e, portanto, da representação (LEGENDRE, 2001: 17). Com base no que está presente e disponível aos sentidos humanos, a representação atesta a presença do que não está imediatamente disponível para os nossos sentidos: as causas (ocultas) dos fenômenos, as motivações psicológicas das ações, o seu potencial para desenvolver ou dar à luz outros fenômenos ou ações,... Boltanski (2009: 93-94) indica a este respeito uma distinção interessante entre a “realidade” (o resultado da representação) e o “mundo” : A questão da relação entre, por um lado, o que parece manter-se firme, ser consistente e, de outro, aquilo que está repleto de incerteza e abre caminho para a crítica, não pode ser plenamente implantada se se situa no solo da realidade. De fato, em um espaço de coordenadas bidimensionais, a realidade tende a ser confundida com o que parece permanecer, de algum modo, por sua própria força, isto é, com a ordem, e nada, então, permite compreender os desafios contra essa ordem, pelo menos em suas formas mais radicais. (...) Mas falar da realidade nestes termos equivale a relativizar seu alcance e, assim, sugerir que está separada de um fundo distinto que não esgota. Chamaremos a este fundo o mundo, considerado, parafraseando Wittgenstein, como “o que quer que aconteça”. Pode-se, a fim de tornar palpável esta distinção entre “a realidade” e “o mundo”, fazer uma analogia com a maneira pela qual se pode distinguir entre o risco e a incerteza. O risco, na medida em que é probabilizável, constitui, precisamente, um dos instrumentos inventados no século XVIII para construir a realidade. (...) Mas todos os eventos não são controláveis na lógica do risco, de modo que permanece uma parte desconhecida da incerteza radical. E, assim como se pode fazer o projeto de conhecer e representar a realidade, o objetivo de descrever o mundo, no que seria sua totalidade, não está no alcance de ninguém. No entanto, algo do mundo manifesta-se precisamente cada vez que acontecimentos ou experiências cuja possibilidade (...), ou probabilidade, não tinham sido inseridos no desenho da realidade, surgem na fala e/ou na superfície do campo da ação individual ou coletiva. A distância entre “o mundo” e “a realidade” esta “parte desconhecida da incerteza radical” sempre foi um desafio para as instituições e, ao mesmo tempo, uma pré-condição para a possibilidade de crítica se, por crítica nós consideramos, como Foucault (1990): a virtude que consiste em desafiar as próprias categorias através das quais se está predisposto a perceber e avaliar as pessoas e as
situações do mundo, em vez de simplesmente julgá-las de acordo com essas mesmas categorias. Crítica é: a prática que suspende o julgamento e a oportunidade de praticar novos valores, precisamente com base nessa suspensão. Nesta perspectiva, a crítica visa a construção de um campo de categorias oclusivas em si mesmas, e não a subsunção de um caso particular sob uma categoria pré-constituída. Datamining e profiling, baseando-se na disponibilidade efetiva de quantidades enormes de dados digitais brutos, instauram um novo “regime de verdade” – que eu chamo de “behaviorismo de dados” – criando a mais ampla zona de indistinção possível entre a realidade e o mundo, e erodindo a “parte desconhecida da incerteza radical”, reduzindo, igualmente, o alcance da crítica. O resultado da necessidade ressentida de automatizar os processos, que vão dos dados brutos ao conhecimento, resulta na descoberta do que “conta como real” dentro dos exponencialmente crescentes depósito de dados tomados como a versão digital do mundo; é uma “factualidade pura” dos perfis gerados, de acordo com um processo diagnosticado por Alain Supiot (2010: 81) como a metamorfose de toda qualidade singular em quantidade mensurável pela qual estamos ligados a um ciclo especulativo em que a crença nessas imagens numéricas substituem o contato com a realidade que essas imagens pretendem representar. Como já sugerido, os perfis aparecem – ao público em geral pelo menos – como uma germinação “espontânea” 8 da transcrição digital e da análise estatística da “realidade” (através da do dataminig preditivo), resistindo à caracterização como espontânea ou artefactual e ignorando a interpretação humana. 9 O uso de dataminig e profiling é geralmente justificado por argumentos de racionalização. A “trituração de números” aparece como uma vitória do pensamento racional sobre a emocionalmente, politicamente e racialmente tendenciosa percepção humana. 10 Com a virada computacional, nossa relação com o conhecimento parece realmente estar mudando. Em “ Managing Information”, uma reportagem especial publicada pela The Economist na edição de 25/02/2010, lê-se que epistemologicamente falando, a informação é constituída por uma coleção de dados e o conhecimento é constituído por diferentes vertentes de informação. Mas esta reportagem especial usa “dados” e “informações” de forma intercambiável porque, como argumentará, os dois são cada vez mais difíceis de distinguir. Obtendo bastante dados brutos, os algoritmos de atuais e os computadores poderosos podem revelar novos insights que anteriormente permaneciam ocultos. (CUKIER: 2010) Dados, informação, conhecimento são, assim, mais ou menos considerados as mesmas coisas. Tal “conhecimento” não aparece assim como uma “produção da mente”, com toda a artificialidade e preconceitos cognitivos e emocionais que, inevitavelmente, sugerem as produções mentais, mas como sempre já “dado”, imanente ao mundo (gravado digitalmente), no qual ele é meramente “descoberto” automaticamente, ou do qual literalmente floresce graças e operações algorítmicas que tornam correlações invisíveis operacionais. 8 Apesar do fato de que a intervenção humana está, claro, envolvida no projeto inicial, na formação (no caso de algoritmos
de aprendizagem) e na supervisão de algoritmos, a natureza e a extensão desta intervenção humana gradualmente indefinida com sua crescente capacidade “autonômica” de algoritmos. 9 Sobre a interpretação como papel ou função essencial das humanidades, e sobre a necessidade absoluta de pensar a interpretação como etapa essencial na produção do conhecimento, ver Citton (2010). 10 Ver, por exemplo, Zarsky (2011: 327): “se a mineração de dados [ datamining] for aceita pela legislação, poderá exigir apenas uma revisão judicial limitada. Isto é o oposto do uso de perfis e do critério dos oficiais de campo, que exige um exame mais minucioso”.
A que categoria de signos ou de sinais pertencem os “ big datas” brutos que formam a textura da racionalidade algorítmica? Qual é sua relação com as “coisas do mundo” das quais elas são consideradas um “signo” ou “sinal”? Os dados brutos não se assemelham, nem mantêm sequer ligação física indireta com qualquer coisa do mundo, 11 e tampouco são símbolos convencionais dele. É, no entanto, essa quantidade maciça de dados brutos, esses enormes dados estatísticos impessoais, em constante evolução, que hoje constituem o “mundo”, no qual os algoritmos desvendam o que a governamentalidade algorítmica leva para a “realidade” . “Realidade” – esse conhecimento parece manter-se, não parece mais produzido, mas sempre já lá, imanente às bases de dados, à espera de ser descoberto por processos algorítmicos estatísticos. O conhecimento não é produzido mais sobre o mundo, mas a partir do mundo digital. Um tipo de conhecimento que não é testado por nem testando o mundo que descreve e do qual emana: a realidade algorítmica é formada dentro da realidade digital sem qualquer contato direto com o mundo que pretende representar. Em vez da validade de seus modelos preditivos,12 é sua operacionalidade sua plasticidade, sua contribuição para a “fluidificação” da vida econômica e social (e, portanto, do capitalismo), sua eficiência em poupar de agentes humanos tempo e esforços de interpretação e avaliação das pessoas e eventos do mundo que caracterizam a “inteligência” dos “big datas”. Dados brutos funcionam como sinais desterritorializados, 13 induzindo respostas reflexas em sistemas computacionais, e não como sinais portadores de significados e que exigem interpretação. Tudo se passa como se a criação de significados não fosse mais necessária, 14 como se o mundo já estivesse, sem nenhuma interpretação, saturado de significado. 15 “Nós não falaríamos não porque tudo teria sido dito, mas teria sido previsto, sempre já escrito, decretado, editado, mas em uma escrita que seria a própria escrita das coisas. Não a assinatura das coisas, mas um pouco como sinais-coisas, e signos, esta doença do pregado, palavra fixa, nunca removida de sua eternidade, presa em um topos”. (NEYRAT: 2011)
Atopia da realidade algorítmica
Esse conhecimento imanente também é atópico, no sentido de que não está mais vinculada a nenhuma âncora temporal ou geográfica. A partir da realidade eterna dos depósitos de dados, alimentada por dados gravados em contextos heterogêneos, as produções do behaviorismo de dados estão em desacordo com a idéia de conhecimento “interessado” (Spinoza), ou do conhecimento como a promulgação e o resultado de relações de poder (Foucault). Os padrões descobertos nos depósitos 11 Os
eventos do mundo físico podem deixar traços (marcas de passos na areia, feromônios de animais ou de plantas deixados para trás e que servem como mensagens para outros indivíduos da mesma espécie, impressão fotográfica da luz sobre o papel fotográfico,...). Esses traços podem bem ser traduzidos em dados, mas os próprios dados não são, de forma alguma, traços por si mesmos. Eles podem representar traços, mas não são em si mesmos uma impressão de algum evento do mundo físico em uma superfície reativa. É claro que uma objeção poderia ser levantada com base no fato de que o terreno sobre o qual os usuários “deixam traços” na internet. Aqui novamente eu sugiro que, de um ponto de vista algorítmico, nós não existimos como sujeitos nesse contexto, mas simplesmente como uma rede de pontos de dados transindividuais em constante evolução. Os dados que divulgamos na internet, assim que são descontextualizados, anonimizados e agregados com dados divulgados por outros em uma infinidade de contextos geográficos e temporais heterogêneos são, não individualmente, traços nossos, mas funcionam como “sinais” puros que provocam diferentes tip os de agregações e reconstruções de significados operacionais. 12 A “trituração de números” pode muito bem ser “uma nova maneira de ser inteligente” (Ian Ayres), mas como triturar números fornece apenas uma conta quantitativa (do potencial) da realidade, o “conhecimento” que produz é inevitavelmente reducionista, “somente” levando em consideração aspectos do mundo que podem ser traduzidos em dados-sinais, e inscritos no cálculo algorítmico. 13 Os sinais podem ser calculados quantitativamente, independente do seu significado (ECO, 1976: 20). Ver também GENOSKO (2008). 14 Tradução da autora. 15 A governamentalidade algorítmica aparece, então, como a materialização perfeita do mundo capitalista cuja textura é feita de fluxos liberados de sinais desterritorializados, descodificados e neutralizados. Ver GUATTARI (1977: 264).
de dados têm uma aura de conhecimento “puro”, autônomo em relação aos poderes e suas influências. Refinando-se em tempo real, construindo e reconstruindo- se a partir das enormes “memórias numéricas”, onde cada bit , não importa não importa quando e onde gravado e armazenado, flutua na superfície plana da pura atualidade e da pura presença, 16 o corpo estatístico parece ter expurgado cada bit [pedaço] de obscuridade: tudo está sempre disponível, se encaixa perfeitamente em uma estética da luminosidade total e da transparência intemporal ou acronológica. Consequentemente, a “informação” a partir da qual o novo conhecimento é produzido não será avaliada com base em critérios tradicionais de autenticidade, de coerência histórica ou apercepção crítica, mas meramente sobre os méritos de operacionalidade imediata, plasticidade, adaptação flexível a circunstâncias em mudanças e disponibilidade imediata. Esta atitude coloca algumas dúvidas sobre a possibilidade de falar sobre conhecimento e, neste caso, conhecer, como argumenta Didi-Huberman (2009: 11), exige “tomar posição”, isto é, situar-se duas vezes pelo menos, sobre duas frentes pelo menos que cada posição compreende porque qualquer posição é, necessariamente, relativa. Isso acontece, por exemplo, com o afrontamento de alguma coisa, mas, diante dessa coisa também é preciso levar em consideração tudo o que é deixado de lado, o que está fora do quadro e fica para trás, o que se pode recusar, mas que, para uma parte substancial, afeta nosso próprio movimento, assim como nossa posição. Tomar posição implica em estar desejando, solicitando algo, situando-se no presente e visando o futuro. 17
Um uso distinto das estatísticas
O behaviorismo de dados é diferente da quantificação estatística O “ behaviorismo de dados” é muito diferente de outras estratégias “governamentais” baseadas em estatísticas e que, na maioria das vezes, são sistemas de quantificação que tornam as situações heterogêneas e as realizações comensuráveis. Como explicado por Desrosières (2010) a análise comparativa [benchmarking] também contribui para reduzir ou administrar a incerteza, mas tem como objetivo a construção e a negociação de espaços de comensurabilidade, alcançando acordos sobre procedimentos de medição e permitindo a arbitragem dos meios e finalidades. A análise comparativa traduz objetos e situações, de outra maneira incomensuráveis, em números. Esse mecanismo de quantificação resolve uma série de dificuldades de avaliação (de ações e produções humanas). A quantificação é uma maneira de construir objetos com um valor (idealmente) negociado, convencional. O processo de quantificação vincula os indivíduos em um determinado sistema de avaliação e os obriga a usar a “linguagem” da quantificação na comparação de seus resp ectivos méritos, necessidades, etc. Isso faz com que a análise comparativa seja uma estratégia perfeitamente articulada com o ideal de “devido processo”. As lógicas de quantificação criam comunidades epistêmicas e permitem processos de avaliação humana, enquanto que a razão algorítmica simplesmente isenta do fardo de criar qualquer tipo de comunidade, de organização de processos de interpretação ou avaliação. A racionalidade algorítmica que regula os processos de datamining [mineração de dados] e profiling [criação de perfis], e a lógica do “data-behaviourism” [behaviorismo de dados] realizado é simplesmente incompatível com a ideia de (devido) processo ou mesmo, simplesmente, com a ideia de aparência (no laboratório, no tribunal judicial, ...) de pessoas, situações ou objetos reais. Como será 16 Isso
pode mesmo tornar-se mais verdadeiro na era da computação em nuvem. da autora.
17 Tradução
desenvolvido mais adiante, a governamentalidade algorítmica evita cuidadosamente todos os tipos de confrontações, especialmente com aqueles que são afetados por seus efeitos governamentais. O “behaviorismo de dados” economiza o fardo de testar, questionar, examinar, avaliar fatos reais e pessoas de carne e osso; bem como evita que objetos ou pessoas apareçam em laboratórios ou tribunais para testar ou questionar suas causas ou intenções.
O behaviorismo de dados não pressupõe nem testa hipóteses sobre o mundo Ao contrário de outros usos das estatísticas – como usos em epidemiologia – o datamining não pressupõe nem reforça ou invalida qualquer hipótese sobre o mundo, 18 mas simplesmente aparece como uma maneira agnóstica, pragmática, altamente operacional e efetiva de estruturar, de forma antecipada, o campo possível de ação dos “corpos”. Este agnosticismo contribui para que apareça uma maneira inofensiva e universalmente válida de tornar o mundo significativo. Em particular, o “abandono” da causalidade não reavivou a metafísica determinista que acompanha os primeiros usos das estatísticas, apesar das possíveis interpretações erradas da ideia de que, em um ambiente rico em dados como o nosso, “qualquer coisa pode ser prevista” por “trituração de números” (AYRES: 2007) . A virada computacional não é de forma alguma um retorno à metafísica determinista que acompanhou o advento das estatísticas no século XIX e exibido, por exemplo, nos escritos de Laplace (1814) – defendendo a ideia de que as ações humanas, mesmo aquelas que parecem resultar do acaso ou da liberdade humana são, de fato, governadas por leis tão necessárias quanto as leis que governam fenômenos físicos – , ou Quetelet (1835) – que construiu a ideia de “homem médio”. Pelo contrário, é precisamente porque o pensamento determinista não parece mais plausível, e porque as motivações e singularidades psicológicas humanas aparecem – talvez mais do que nunca – incomensuráveis e imprevisíveis devido à complexificação e massificação de fluxos de pessoas, dados e objetos que os sistemas algorítmicos de criação de perfil estatístico parecem hoje tão atraentes, aliviando os seres humanos das difíceis tarefas de interpretação e avaliação de fatos em um universo epistêmico desprovido de testes comuns e critérios de avaliação.
A redução da taxa de intencionalidade, da causalidade, da experiência e do discurso
Traindo as ambições da racionalidade moderna, dedutiva, que relaciona fenômenos observáveis (ou seja, fenômenos pré-selecionados como objetos de observação e avaliação em vista dos interesses explícitos e determinados) às suas causas, a “racionalidade algorítmica” segue uma lógica indutiva. Indiferente às causas dos fenômenos, o “behaviorismo de dados” está ancorado na observação puramente estatística de correlações (independentemente de qualquer tipo de lógica) entre os dados coletados em uma variedade de contextos heterogêneos. Isso não significa, claro, que a virada computacional tenha um impacto direto na existência/inexistência empírica de interações causais entre fenômenos, ou na natureza e grau de intencionalidade, ou na racionalidade das ações humanas. 19 Eu apenas sugiro, comparando ao que Benjamin (2000: 115) observou em relação à experiência: 18 “Criações de perfis na União Européia: uma prática de alto
risco”, nota política INEX, Nº 10, junho de 2010: “enquanto outras abordagens estatísticas clássicas visam validar ou invalidar as correlações propostas que se consideram respostas pertinentes às questões existentes, com a criação de perfis não existem questões preliminares. As correlações como tal tornam-se a informação ‘pertinente’, provocando perguntas e suposições”. (GON ZALEZ-FUSTER, GUTWIRTH, ELLYNE: 2010). 19 E é possível, claro, discutir se as relações causais existem por si mesmas ou são meramente atribuídas pelos homens, mas isso realmente não importa para nossa atual discussão, já que a existência ou inexistência de relações causais “naturais” não são afetadas pela virada computacional.
É como se tivéssemos sido privados de uma faculdade que parecia inalienável, a mais assegurada a todos: a faculdade de trocar experiências. Uma das razões desse fenômeno é óbvia: a taxa de experiência caiu. E continua a cair indefinidamente. 20 Agora, as taxas de causalidade e intencionalidade – por “taxa” quero designar nossa capacidade ou vontade de usar essas categorias para prever, regular e dar conta dos fenômenos – também caíram. Algumas vezes, os “recursos de significados” ficam indisponíveis. Walter Benjamin, em 1933, identificou a incapacidade de transmitir uma experiência e, portanto, a “fraqueza da experiência” em consequência da guerra mundial (os sobreviventes dos campos de batalha voltaram mudos, não enriqueceram com a experiência que poderiam compartilhar, mas empobreceram pelo “irrepresentável”). O funcionamento da experiência como recurso para a produção de significado também pode ser prejudicado em situações em que ocorre a diminuição do “valor de verdade” atribuído à experiência ou ao experimento. Giorgio Agamben, por exemplo, articula a queda da taxa de experiência com o declínio da “autoridade para falar”: Porque a experiência encontra sua correlação necessária menos no conhecimento do que na autoridade, isto é, no discurso e na narrativa, hoje ninguém parece ter autoridade suficiente para garantir uma experiência; se alguém o tivesse não seria tocado pela ideia de estabelecer uma experiência com base nessa autoridade. Aquilo que caracteriza o tempo presente é, pelo contrário, que toda autoridade se baseia no que não pode ser experimentado; a uma autoridade que fosse legitimada apenas por uma experiência, ninguém concederia qualquer crédito (AGAMBEN, 2002: 26). 21 No contexto da mineração de dados [datamining] e de criação de perfis [ profiling] acontece a mesma coisa: os padrões e os perfis não estão meramente competindo com o testemunho, a experiência, os discursos de autoridade ou a confissão; eles tornam obsoletas as modalidades linguísticas de “evidência” em relação à operacionalidade, imediaticidade e objetividade do behaviorismo de dados. Assim, se a virada computacional não tiver nenhum impacto nos fenômenos da causalidade e agenciamento humano e das capacidades reflexivas que ela pressupõe, e as deixa intocadas, não obstante desvia interesses ou atenções para longe dessas perspectivas previamente privilegiadas de causalidade e agenciamento intencional ou “autoridade” individual e coletiva (isto é, para nosso propósito, a capacidade de alguém ser “autor” de suas ações, para ter a “autoridade” de dar conta dos significados de suas ações).
Desafios e obsolescência dos testes
A “razão algorítmica”, imanente ao “real” gravado digitalmente, escapa aos tipos de ensaios, testes, exames, experimentos e outras provas [épreuves] ou desafios que geralmente parecem essenciais para testar a robustez, a verdade, a validade ou a legitimidade das solicitações e hipóteses formuladas sobre a realidade nos domínios científico, judicial e até mesmo existencial (RONELL: 2005). O behaviorismo de dados simplesmente parece ter tornado irrelevante o tempo e espaço interpretativos do julgamento ou processo. É um regime de verdade avaliado em função de critérios 20 Tradução
da autora. da autora. Versão tradução em português: “Porque a experiência tem o seu necessário correlato não no conhecimento, mas na autoridade, ou seja, na palavra e no conto, e hoje ninguém mais parece dispor de autoridade suficiente para garantir uma experiência, e se dela dispõe, nem ao menos o aflora a idéia de fundamentar em uma experiência a própria autoridade. Ao contrário, o que caracteriza o tempo presente é que toda autoridade tem o seu fundamento no ‘ inexperienciável’ , e ninguém admitiria aceitar como válida uma autoridade cujo único título de legitimação fosse uma experiência ” (AGAMBEN, Giorgio. Infância e história: destruição da experiência e origem da história. Belo Horizonte: Editora UFMG, 2005, pág. 23). 21 Tradução
de rentabilidade e operacionalidade. A virada computacional atesta, assim, o declínio da interpretação em benefício de algo muito mais imediato (e o imediatismo é uma das conotações geralmente associadas à eficiência), que é a inferência estatística com base em correlações, enquanto a validação de padrões ou perfis ocorre através de uma espécie de “performatividade regressiva”: qualquer coisa que aconteça e seja gravada, não importa se ela se encaixa em um padrão ou perfil pré-existente ou não, contribuirá para o refinamento e a melhoria do “corpo estatístico” e “validará” 22 os métodos de interpretação automática ou correlação a que estão sujeitos. Isso não significa que os sistemas não sejam de todo verificados, que eles não sejam monitorados para assegurar que trabalhem em função do que devem alcançar: é apenas que esses tipos de verificações e testes se limitam a verificar a operacionalidade do sistema. A operacionalidade, o caráter de tempo real, a plasticidade da “razão algorítmica”, estão em desacordo com a interrupção, a distância, os atrasos que são précondições para uma avaliação crítica de qualquer tipo de conhecimento produzido. Se a “mineração de dados preditiva” não representa a realidade, sua operacionalidade “em tempo real”, o fato de que as decisões são cada vez mais tomadas com base em perfis, a relativa performatividade desses perfis levam, de fato, a uma situação de quase indistinção entre a “realidade” produzida algoritmicamente e o “mundo” do qual se supõe que emana, visto que a distinção, a falta de coincidência das coisas e suas representações são necessárias para deixar aberto o espaço da crítica. Este regime de verdade é frequentemente elogiado por sua “objetividade” não em razão de que seria “robusto” o suficiente para passar nos testes habituais de validade científica ou legitimidade política. Pelo contrário, a “força” do conhecimento produzido por algoritmos é proporcional à dificuldade de submetê-lo a qualquer convenção de quantificação ou a qualquer tipo de teste. A “força” da governamentalidade algorítmica é, portanto, proporcional à sua “não -robustez” (se se toma como robustez a capacidade de sustentar desafios e críticas). Esta “não -robustez” é também o que compõe a estética da governamentalidade algorítmica: uma estética da fluidez, continuidade, adaptação em tempo real, imediatismo, dinamismo, plasticidade, não-obstrução, transparência... Comparado a uma estética tão poderosa, a interpretação humana e a descrição subjetiva da realidade parecem bastante inestéticos (demorados, sempre atrasados, talvez mais autênticos mas menos confiáveis, talvez mais críticos mas menos operacionais, etc.).
GOVERNAMENTALIDADE ALGORÍTMICA A disseminação do “behaviorismo de dados” que acompanha a implementação de sistemas de mineração de dados [datamining] e criação de perfis [ profiling] em uma diversidade de aplicações inaugura um regime de poder sem precedentes que denomino “governamentalidade algorítmica”.
O governo algorítmico é espectral
O foco na antecipação e na prioridade muda o alvo do “poder” da realidade da atual natureza selvagem dos fatos para a potencialidade, os riscos, as oportunidades (que são a dimensão virtual do aqui e agora, isto é, a porção de incerteza irredutível que se desistiu de tentar transformar em algo comensurável 23), o futuro que tenta dominar através do enquadramento antecipativo de contextos informativos e físicos. O “behaviorismo de dados” é, por tanto, uma coincidência antecipativa com 22
Embora esta não seja uma verdadeira “validação”. A validação verdadeira pressupõe algum ponto externo a partir do qual a avaliação é realizada. Aqui, a “validação” é imanente ao sistema que espera a validação. 23 Qualquer coisa que seja “real” está sempre cercada por uma nuvem de imagens virtuais. A realidade pura não existe. (DELEUZE e PARNET, 1996: 179).
um “real” que se objetiva prevenir e que, se o sistema funcionar corretamente, nunca acontecerá 24 (este é o caso quando mineração de dados [ datamining] e criação de perfis [ profiling] são usados em cenários de segurança); ou com um “real” com o qual manterá relações de performatividade regressiva (ou performatividade de ciclos de retorno [ feedback loop]). O “sujeito probabilístico” não é o mesmo que o sujeito real, experiencial, presente e senciente. O governo algorítmico contrasta, portanto, com o que conhecemos sobre o modo liberal de governo que produz os sujeitos que precisa. Através da injunção onipresente – e sua internalização por temas – de maximização do desempenho (produção) e do prazer (consumo), o neoliberalismo produz “hiper -sujeitos” que têm, como horizonte normativo, o projeto continuamente reiterado de “tornar -se eles mesmos” e engajou-os apaixonadamente no “auto-controle”, “auto-empreendimento”, “auto-avaliação”.25 A governamentalidade algorítmica não produz nenhum tipo de sujeito. Isso afeta, sem abordá-las, pessoas em todas as situações de possível criminalidade, fraude, decepção, consumo,... que são situações em que não é requisitado que produzam nada e, certamente, não a subjetivação. Em vez disso, a governamentalidade algorítmica ignora a consciência e a reflexividade e opera no modo de alertas e reflexos.
Ao contrário do governo pela lei, o governo algorítmico afeta potencialidades em vez de pessoas e comportamentos reais
Na visão clássica, “governar”, isto é, produzir uma certa “regularidade” de comportamentos (entre cidadãos, clientes, pacientes, estudantes, funcionários, etc.) consiste – pelo menos em países liberais – em induzir os indivíduos a escolherem, na gama de coisas que podem fazer ou podem se abster de fazer, as coisas que melhor se adequam aos interesses da comunidade. Em Nomografia, ou A arte de ditar Leis, Bentham (1834) explica o processo através do qual o cumprimento das leis é produzido: (...) para ser produtor de alguns dos efeitos pretendidos por ela, a lei do legislador exige um apêndice que, para a produção de seus efeitos, nunca será necessário para o chefe de uma família privada. Com referência à lei que acabamos de mencionar este apêndice pode ser denominado lei subsidiária: desta lei subsidiária, o negócio e o objeto consistem na apresentação à parte ou partes sujeitas, incentivo dirigido ao propósito de produzir em suas partes conformidade com a lei principal. E aqui, então, temos existência em cada ocasião, em conexão necessária uns com os outros, duas espécies distintas de leis; a saber: 1)- a principal, ou diga-se a lei de fornecimento de direção [direction-giving law]; 2)- a subsidiária, ou diga-se a lei de fornecimento de incentivo [inducement-giving law]. Estas espécies distintas de leis são dirigidas a duas classes distintas de pessoas: – a lei de fornecimento de direção [direction-giving law] é dirigida à pessoa ou às pessoas em cujas mãos o cumprimento é constantemente procurado em primeiro lugar; – endereçada sempre a uma pessoa ou a um conjunto de pessoas diferentes das anteriores é a subsidiária, ou seja, a a lei de fornecimento de incentivo [inducement-giving law].
24 Isso
não significa que o sistema não detectará falsos positivos. Contudo, a proporção desses falsos positivos será impossível de avaliar. 25 Ver LEBLANC (2007).
Esta pessoa, ou conjunto de pessoas, é diferente, de acordo com a incentivo empregado pelo legislador é da natureza do mal ou da natureza do bem. Se for da natureza do mal, o incentivo é denominado punição; e o tipo de pessoa a quem esta lei subsidiária é endereçada é o juiz: e o ato que ele calcula para executar, em caso de não cumprimento da vontade expressada pela lei principal, é um ato de punição – um ato a que o exercício é dado produzindo o mal, ou para dizer de outro modo, a dor por parte de quem o cumprimento da vontade expressada pela lei principal não foi feito. Esses incentivos/desincentivos não afetam de forma alguma as potencialidades (ou a potência de agir [ puissance d’agir ]) dos indivíduos, das pessoas a que se dirige o primeiro tipo de leis. 26 Descrever as “potencialidades do sujeito jurídico” – isto é, para descrever o campo de possibilidades imunes, do que permanece imune às conciliações pela lei – exigiria uma análise de vários níveis. Deveria, por um lado, descrever como as operações da lei impactam as condutas individuais. Os preceitos legais merecem uma atenção muito mais cuidadosa do que a atenção que posso dedicar ao tema no presente capítulo. Além da declaração contundente de que as restrições legais não são as mesmas que as restrições físicas ou restrições pré-conscientes – deixando aos indivíduos a escolha final de obedecer ou desobedecer a lei, seja por seus próprios riscos, existem distinções na lei entre “direitos a” e “direitos a não”. Que os (presumidos) seres calculadores obedecem à lei porque, após uma deliberação racional, eles acreditam que as desvantagens decorrentes do risco de ser punido por desobediência se forem superadas pelos ganhos ou vantagens que ele pode esperar por desobedecer 27 não impacta por si só (aumento ou diminuição) a faculdade individual de cumprir ou não cumprir a lei. No sistema jurídico liberal, a integração da norma pelos sujeitos pressupõe e depende de suas capacidades reflexivas e suas capacidades de equilibrar os prazeres e dores esperados decorrentes do cumprimento ou violação das leis. Mas escolher o cumprimento não afeta suas faculdades (teóricas e práticas) para violar a lei. Essa “potencialidade” que é, segundo Giorgio Agamben, uma “faculdade”, algo que não precisa ser atualizado para existir, mas que não desaparece nem em caso de atualização, 28 pode ser um elemento crucial para “definir” sobre o que é a subjetividade, em uma perspectiva que leva em consideração a herança da erudição crítica dos anos sessenta e setenta. Desde então, o “sujeito” não é mais definido por sua possibilidade de auto posicionamento, mas por sua capacidade de descobrir de forma contínua e interativa uma “realidade” de maneira apropriada ; capacidade de estar presente nessa realidade, isto é, abrir-se e expor-se nela mesma enquanto se mantém como “eu”, isto é, como projeto para ser e tornar-se ele mesmo (HABER, 2007: 213). Isso é o que aproximadamente é a “virtualidade” do sujeito, e se vê que a virtualidade é certamente de modo paradoxal a definição do sujeito. 29 Em situações em que existe uma (privada ou pública) necessidade ou desejo de “governo”, 30 o “sucesso” da “razão algorítmica” é proporcional à sua capacidade de ajudar as burocracias públicas
26 Ver
HOHFELD (1913). claro, muitas outras razões que explicam o cumprimento da lei, incluindo a coerência entre o conteúdo legal e as normas sociais e expectativas, hábitos, respeito à autoridade, etc. 28 Ver AGAMBEN (2002). 29 Sobre a dimensão virtual do sujeito e sua relação com a utopia coletiva, ver ROUVROY (2011a). 30 Por “governo” quero dizer qualquer ação, realizada por agentes públicos ou privados, com o objetivo de estrutu rar ou enquadrar o campo possível de ações de terceiros, não importa para quais propósitos específicos, e não importa o sucesso ou fracasso de tal empreendimento. Governar, portanto, pressupõe uma certa quantidade de conhecimento sobre o que os outros “poderiam fazer”, do que os impediria ou incitaria a se comportar de certa forma ou a escolher certas trajetórias em vez de outras. Alternativamente, quando esse conhecimento não está disponível – e está cada vez mais indisponível devido à dissipação de microcosmos sociais homogêneos e ao declínio correlativo de normas sociais implícitas – “governar” requer a implantação de novas lógicas, estratégias e táticas. Minha hipótese é que a virada computacional contribui para a renovação dessas lógicas, estratégias e táticas de governo. 27 Existem,
e privadas a antecipar o que os corpos e pessoas poderiam fazer ,31 permitindo perceber (ao invés de entender) o que não é (ainda) perceptível aos sentidos comuns sem ter que testar, experimentar, interrogar corpos32 materiais (humanos ou não humanos), nem confiar em testemunhos, confissões, conhecimentos ou outro discurso de autoridade. A virada computacional torna as pessoas e situações imediatamente e operacionalmente “significativas” através de sua subsunção automática em (oportunidade ou riscos futuros) padrões e perfis, sem o desvio interpretativo do julgamento ou do processo e mesmo sem confronto concreto e material e o concernente encontro com os objetos e pessoas reais. Essas práticas estatísticas algorítmicas sem precedentes combinam com o domínio contemporâneo de novos princípios reguladores (muitas vezes inspirados por um novo conjunto de medos de “catástrofes” iminentes), como precaução e minimização de riscos , detecção de privilégios, classificação, avaliação antecipativa e prevenção ou precedência do que os corpos poderiam fazer, sobre esforço pontual para remediar as causas de situações presentes e realidades inferiores. 33 Ao contrário do governo pela lei, a “força” do governo algorítmico consiste em separar os sujeitos de sua capacidade de fazer ou não fazer certas coisas. Seu alvo – como atesta seu foco em previsão e precedência – é contingência como tal, o modo condicional da fórmula “o que um corpo poderia fazer”,34 visto que este modo condicional é a definição de agência como tal: Mais que problemas, que maneiras de ser, sentir e agir a palavra agência resume ou sinaliza? De que forma poderia nos ajudar? Isso poderia nos ajudar a suspender a oposição metafísica e escolástica entre liberdade e necessidade, afastando-se da oposição entre sociologias do determinismo e filosofias do “milagre”, do “ato” ou do “evento”. Poderia nos ajudar a perceber a liberdade como o outro do poder e da dominação. Para não pressupor que a liberdade tem sua origem em um sujeito absolutamente soberano. Para pensar na liberdade como produção e como relação, e, indissociavelmente, pensar na liberdade como produtividade: como capacidade prática para ser afetada e produzir efeitos. Para orientar o pensamento para uma abordagem empírica e pragmática da questão da emancipação: uma arte da agência. (VIDAL, 2008: 17-23).35 A governamentalidade algorítmica, portanto, apresenta uma nova estratégia de gerenciamento da incerteza que consiste em minimizar a incerteza associada à agência humana: a capacidade dos seres humanos de fazer ou não fazer tudo aquilo que são fisicamente capazes de fazer. Efetuado através da reconfiguração de arquiteturas informacionais e físicas e/ou ambientes dentro dos quais certas coisas se tornam impossíveis ou impensáveis, e lançando alertas ou estímulos produzindo respostas reflexas ao invés de interpretação e reflexão; isso afeta indivíduos em sua agência que é, em sua inatualidade, dimensão virtual da potencialidade e da espontaneidade (quais incentivos e dissuasões legais deixam intactos), incluindo no que diz respeito à desobediência potencial. Aplicações tais como a biometria dinâmica, videovigilância inteligente, sistemas de recomendações individualizadas, ambientes inteligentes, inteligência ambiental e computação autônoma aparecem, primeiramente, como soluções para um problema governamental epistêmico: a indeterminação radical e a incomensurabilidade dos contextos e comportamentos. Contudo, esses novos tipos de tratamento estatístico de dados brutos, não menos do que as estatísticas “clássicas” 31
Um projeto que pareceria impossível para Espinosa. Segundo ele, “não se sabe o que um corpo pode fazer...”. Ver ESPINOSA (1990) e DELEUZE (2003: 28). 32 No contexto da aprendizagem em máquina os “testes” não são direcionados a “corpos”, mas a “dados”. 33 Ver, por exemplo, NEYRAT (2008). 34 DELEUZE e GUATTARI (1980: 318): “Um corpo é definido apenas pela longitude e latitude, isto é, por todos os elementos materiais que lhe pertencem conforme relações de movimentos e repouso, velocidade e lentidão (longitude), o conjunto de afetos intensivos que é capaz sob um determinado poder ou grau de potência – ou melhor, de acordo com os limites desta extensão”. [Tradução da autora]. 35 Tradução da autora.
(DOSROSIÈRES, 2008), são ao mesmo tempo “interfaces cognitivas” produzindo tipos específicos de “conhecimento operacional” (no caso de datamining e profiling, conhecimentos probabilísticos sobre intenções, propensões, preferências, riscos e oportunidades efetuados ambos por indivíduos ou situações), e instrumentos de direcionamento “governamental” (em vez de regulamentar ou coordenar) das atividades sociais e de orientação das intervenções públicas. Esta “virada computacional” subverte as modalidades tradicionais de produção política, jurídica e social e a aplicação de normas. Como tal, as normas resultantes (padrões e perfis) escapam dos testes usuais de validade epistêmica e de legitimidade política, apesar de ter, quando incorporadas em sistemas de detecção, classificação e avaliação antecipativa de comportamentos humanos, os efeitos governamentais nas diversas esferas onde são aplicadas. Essa “governamentalidade algorítmica” e suas normas auto executadas, implícitas, estatisticamente estabelecidas que emanam, em t empo real, da realidade digitalizada, contrastam com a “governamentalidade política”, e o imperfeitamente aplicado, explícito, deliberado caráter das leis resultantes do tempo desgastante da deliberação política. Portanto, dependendo do contexto e das circunstâncias, a adjunção ou substituição da governamentalidade algorítmica pela governamentalidade política pode ser sentida como uma bemvinda, eficiente objetivação e a automatização da aplicação e produção normativa, ou como uma evolução perigosa para uma posterior despolitização da produção normativa e como uma erosão ameaçadora do papel protetivo e recursivo do processo judicial.
ASSUNTO EM QUESTÃO: POTÊNCIA A governamentalidade algorítmica evita todo tipo de confrontação com sujeitos humanos
O caráter preventivo da governamentalidade algorítmica, o fato de que ele opera frequentemente em uma fase pré-consciente (enquadramento de condutas por “lançamento de avisos” – e nada é menos intencional, no sentido de direção consciente da atenção, do que ser “alertado” ou ter sua atenção atraída por alguma coisa), seguindo a avaliação automática e antecipativa do que os corpos poderiam fazer (potencialidades) em vez do que as pessoas realmente estão fazendo; o fato de que a criação de perfil [ profiling] poupa o fardo de fazer as pessoas aparecerem como agentes não deixa nenhuma ocasião para que as pessoas tornem- se “sujeitos” da “governamentalidade algorítmica”. A governamentalidade algorítmica não permite que o processo de subjetivação ocorra porque não encara os “sujeitos” como agentes morais (evitando questioná-los sobre suas preferências e intenções, sobre as razões e motivações de suas ações), mas concilia seu futuro informativo e ambiente físico de acordo com as previsões contidas no corpo estatístico. A governamentalidade algorítmica precisa somente de um “sujeito” único, supra-individual, “corpo estatístico” constantemente reconfigurado feito de traços digitais infra-pessoais de facetas e interações impessoais, díspares, heterogêneas e divididas da vida diária. Este corpo estatístico infra- e supraindividual traz uma espécie de “memória do futuro” visto que a estratégia da governamentalidade algorítmica consiste em garantir ou impedir sua atualização. A governamentalidade algorítmica não precisa dominar a região selvagem dos fatos e comportamentos, nem visar produzir sujeitos dóceis. Pode-se até mesmo dizer – contra parte da comunidade de estudos de vigilância – que a governamentalidade algorítmica diminui os riscos de conformidade antecipativa dos comportamentos ou os efeitos inibidores associados à vigilância ubíqua. Isso ocorre porque ao contrário da “visível”, “escópica” vigilância gerando “normas” que permanecem, amplamente, inteligíveis aos indivíduos e disponível para que comparem e sintonizem seus comportamentos, a governamentalidade algorítmica evita cuidadosamente qualquer confrontação e impacto direto com pessoas de carne e osso. É possível até mesmo dizer que a governamentalidade algorítmica simplesmente ignora os indivíduos incorporados que afeta e tem
como único “sujeito” um “corpo estatístico”, ou seja, um “corpo de dados” constantemente crescente ou uma rede de localizações em tabelas atuariais. Em um contexto tão governamental as singularidades subjetivas dos indivíduos, suas motivações ou intenções psicológicas pessoais não são importantes. O que importa é a possibilidade de vincular qualquer informação ou dado trivial deixado para trás ou divulgado voluntariamente pelos indivíduos com outros dados coletados em contextos heterogêneos e estabelecer correlações estatisticamente significativas. O processo ignora a consciência individual e a racionalidade (não somente porque as operações de mineração de dados [ datamining] são invisíveis, mas também porque seus resultados são incompreensíveis para os instrumentos da racionalidade moderna), e produz seus “efeitos de governo” por “adaptação” antecipativa do ambiente informacional e físico das pessoas de acordo com o que essas pessoas são susceptíveis de fazer ou desejar; e não adaptando as pessoas às normas que são dominantes em um determinado ambiente.
Além do sujeito jurídico como ficção funcional: repensando a potência do sujeito
Não pretendo reabilitar o sujeito autônomo, unitário, perfeitamente intencional e racional que é a unidade fundamental do liberalismo. Quanto ao “sujeito”, ou a “pessoa”, minha hipótese é de que nunca houve qualquer coisa de nostálgico. O sujeito racional, liberal e individual, ou o sujeito jurídico autônomo, nunca foram mais do que úteis ou mesmo necessárias ficções funcionais sem correlações empíricas e fenomenais, apesar de seus méritos e do fato de que, em uma série de domínios, eles precisam ser pressupostos. No entanto, o sujeito legal deve ser pressuposto pela lei, mesmo que este sujeito não seja de modo algum uma entidade empírica. Isso é poderosamente explicado por CLÉRO (2007: 76): Pode-se, por exemplo, desafiar a existência do Eu, de mim, desafiar as características que, de forma espontânea ou tradicional, se atribuem ao Eu ou a mim, a de ser uma substância, de ser algo, de existir individualmente e como uma pessoa, pode-se igualmente refutar os paralogismos que pretendem demonstrar suas características. Ainda assim, pode-se usar a ficção do eu para orientar comportamentos morais, finalizar condutas legais, organizar sistemas de valores. A pessoa, desafiada no nível ontológico, é reabilitada no nível deontológico: isso é razoável? Mas também: temos a possibilidade de fazer de outro modo? Poderíamos, subitamente, reorganizar nossa Lei, nossa ética, sem a ajuda da noção de pessoa, não obstante a fraqueza de seu valor ontológico? Incapaz de operar tal mudança prevejo minha vida como a realização de minha pessoa, a vida dos outros como promovendo valor no mesmo terreno ou, pelo menos, digna do mesmo respeito. Digamos que a noção de pessoa é uma ficção. Assim, eu, felizmente, endosso a postura anti-humanista de Althusser (os sujeitos são constituídos através da interpelação ideológica e não preexistem a tais interpelações); Butler (os sujeitos se constituem “dando conta de si mesmos” e é este “gesto” do “dar conta”, não a “verdade” ou “falsidade” do que eles estão dizendo, que constitui os sujeitos); ou Derrida (1990) 36, de acordo com quem a lei pressupõe e constrói o sujeito do direito (surgimos antes da lei com nossa vontade e imaginação, mas sem a lei não seríamos sujeitos); ou, de modo mais geral, na única perspectiva possível levando em conta a herança da crítica dos anos sessenta e setenta: De agora em diante, temos que operar com um sujeito definido não pela possibilidade de se auto-postular, mas pela capacidade contínua de descobrir interativamente uma realidade, de 36 Ver
também SARAT (1995).
maneiras ad hoc, e estar presente nela ao interpretar este presente real, ou, dito de outra maneira, abrir e expor-se nela enquanto se mantém como “eu”, isto é, como um projeto de ser e tornar-se a si mesmo. (HABER, 2007: 213) Essas considerações “pragmáticas” compreendem o “eu” como um processo , em vez de um fenômeno, um processo que acontece entre os indivíduos, em um espaço que pressupõe e constitui “o comum”. 37 O self – como processos de subjetivação e individuação – é uma questão intersticial e uma contribuição para o contínuo; nunca conseguido do “esforço de recomposição individual e coletiva da totalidade perdida” – não importa a natureza simbólica de tal totalidade (BOURRIAUD, 1994). Compreender que o objetivo da governamentalidade algorítmica é a inatual, a potencial dimensão da existência humana, suas dimensões da virtualidade, o modo condicional do que as pessoas “podem” fazer, sua potência ou agência permite -nos compreender o que está em jogo aqui: uma privação que não tem o seu oposto, a posse de si mesmo. 38 Certamente, o que nos interessa não é uma transparência mítica do sujeito para si mesmo, sua pré-existência fingida, como uma entidade fixa, mas, ao invés disso, os processos contínuos através dos quais ocorre a subjetivação e a individuação e, assim, as dimensões virtuais e utópicas da existência humana. 39 Walter Benjamin descreveu a utopia como uma antecipação excessiva, ou uma antecipação sempre em excesso, como o gesto de uma criança aprendendo como agarrar coisas jogando sua mão na direção da lua (ADENSOUR, 2010: 99). Esses tipos de gestos em excesso são modelos [design]. Eles dão forma aos nossos projetos. Eles desenham motivos. Por esses gestos também tomamos “posição”, isto é, situamo -nos, apesar da atopia da governamentalidade algorítmica, tomamos consistência (tanto como entidades físicas quanto como trajetórias autobiográficas) em um “exterior” aberto por nosso gesto (ou enunciação), como portadores de “eventos” (que não são nada mais que o encontro de circunstâncias [imprevisíveis] e o significado dos gestos feitos). A “motivação” é o desenho do “motivo”, a singularidade do modelo [design], para além da verdade e da falsidade. Tomando posição, fazendo tal gesto, não se exige tanto “informação igual”, tecnologias de aprimoramento de privacidade ou transparência, etc., que nos mantêm fechados dentro da “realidade algorítmica”, porque exigem espaços e tempos “externos” para modos heterogêneos de criação de realidade. As tecnologias de melhoria da transparência (TETs) e as tecnologias de aprimoramento da privacidade (PETs), etc., pretendem capacitar os indivíduos e permitir a contestação, mas como eles estão operando “dentro” da governamentalidade algorítmica, são incapacita dos porque a governamentalidade algorítmica é um modo de governamentalidade sem negatividade (nenhuma organização do questionamento ou ameaça de produções cognitivas ou normativas). Não há espaço nem tempo para contestar (mesmo que se chegue ao ponto em que tudo se torne transparente para todos). A recalcitrância deve vir de fora, do “ consistente” [consistant ], isto é, dos corpos sensíveis animados com uma vida perceptiva (intensidade) cuja extensão não se limita à “infosfera”. Como encontramos um “exterior”, um excesso do mundo sobre a realidade, um espaço de recalcitrância a partir do qual ganhar solidez e praticar a crítica? 40 Em vez de ressuscitar as abordagens personológicas (simbolizadas pelo individualismo possessivo dos regimes de proteção de dados) que 37 Para
uma elaboração mais detalhada da ideia de que o comum é o que ameaçado e é o recurso privilegiado para uma crítica da racionalidade algorítmica, ver ROUVROY (2012). 38 O desafio também consiste em encontrar uma perspectiva crítica após o declínio do conceito de alienação. Sobre isso, ver HABER (2007: 151). 39 Para desenvolvimentos adicionais em torno desta idéia, ver ROUVROY (2011a). 40 Ver ROUVROY (2011b).
seriam mal fundamentadas e ineficazes, devemos alcançar a participação fundamental – o que deve ser preservado como um recurso que antecede tanto o “sujeito” quanto a sociedade, como um excesso do mundo sobre a realidade algorítmica, é “o comum”, esse “intermédio”, esse espaço de surgimento comum (comparecimento [comparution]) dentro do qual somos mutualmente tratados uns pelos outros. O modo de tratamento que nos liga é essencialmente linguístico. 41 A linguagem é a “forma” polifônica de nossa união, de nossas projeções comuns de “transformação”. “Mas como alguém pode voltar a ser o que nunca foi?”, perguntou Frédéric Neyrat em seu magnífico livro sobre Artaud e o “encantamento ocidental”. “Aqui, não é / desenho / no sentido próprio da palavra, de alguma incorporação / da realidade no desenho”, 42 não se trata da incorporação de uma realidade (a comum), que seria antecedente ao desenho, porque esta realidade (do comum) é precisamente aquilo que falta. (NEYRAT, 2009: 54)43 Na medida em que os sujeitos têm de dar conta de si mesmos, apesar do fato de que podem não ter dominado as circunstâncias que os fizeram agir de uma certa maneira, o “motivo” ou “desenho” que “fazem”, não “re -a presentam” a realidade antecedente tanto quanto abre novas possibilidades políticas no próprio lugar onde os limites da re-apresentação e representabilidade são expostos: neste interstício entre “o mundo” e “a realidade”, e este é o “exterior” que nós procurávamos (BUTLER, 2000). Aqui se percebe, enfim, que o “processo devido”, a “subjetivação” e a “crítica” podem ser três nomes diferentes para uma mesma exigência: falamos, precisamente, porque estamos no limite do abismo, porque nenhum sujeito é antecedente de sua enunciação e, portanto, para voltar a se juntar a um “comum” que se desmor ona sob nossas palavras, que nunca é adquirido de forma segura, que acontece somente como fulguração inesperada. A exigência é esta: convocar esta forma impessoal do comum através de uma linguagem que nos dá consistência individual e coletiva – na distância segura tanto da criação de perfil [ profiling] algorítmico como das injunções neoliberais de desempenho e maximização do prazer [ jouissance]. Então, como poderíamos usar as tecnologias da sociedade da informação de modo a reencantar o comum? Fazendo deste reencantamento do comum seu principal objetivo, reconfigurando seu projeto adequadamente quando necessário, protegendo este objetivo por lei, buscando este objetivo em nossas práticas. “Colocar o homem na máquina”, seguindo o convite de Félix Guattari, poderia significar apenas isso: produzir interstícios em que o comum pode acontecer – mesmo que estes interstícios interrompam ou segurem a fluidez de nossa realidade tecno-capitalista produzindo realmente a crise e, enfim, permitindo uma recomposição do que, para os seres humanos, para o comum, aparece uma realidade humanamente consistente. Essas consistências precisam, para acontecer, de espaços heterotópicos espaço-temporais que interrompem fluxos digitais e capitalistas – tais como as cenas judiciais, teatrais, literárias e 41 NANCY
(2010: 12): “O comum não associa nem dissocia, não reúne nem separa, não é nem substância nem sujeito. O comum é o que nós somos – tomando este termo em seu completo teor ontológico – em referência ao outro (mais ainda, concede existência ao outro). O elemento desta referência é a linguagem. Esta nos dirige uns aos outros e nos dirige todos juntos a aquilo que essencialmente faz surgir: o infinito de sentido que nenhuma significação preenche, e que, digamos desta vez, reveste com os homens a totalidade do mundo com todo seu vigor. (...) O sentido do mundo não é garantido, nem perdido de antemão: ele é desempenhado inteiramente na referência comum que, de alguma forma, nos é proposta. Ele não é “sentido” naquilo que levaria referências, axiomas ou semiologias fora do mundo. É desempenhado naquilo que os existentes – os falantes e os outros – fazem circular a possibilidade de uma abertura, de uma respiração, de um direcionamento que é propriamente o ser-mundo do mundo ”. 42 ARTAUD (2004: 16) citado por NEYRAT (2009: 54). 43 Tradução da autora.
laboratoriais. Estas cenas garantem uma certa heterogeneidade dos modos de construção das realidades contra o desenvolvimento onipresente de uma racionalidade algorítmica operacional, mas “neutralizante” e sem sentido.
CONCLUSÃO O governo algorítmico, não reconhecendo nada além de dados infra-individuais e perfis supraindividuais, e evitando confrontos com sujeitos, tanto física quanto linguisticamente (testemunho, declaração e outras formas de representação biográfica estão se tornando inúteis na era do Big Data), pode ser compreendido como o ponto culminante de um processo de dissipação das condições institucionais, espaciais, temporais e linguísticas de subjetivação por causa do “objetivo” e antecipação operacional de comportamentos potenciais. Um governo algorítmico que molda o futuro, afetando indivíduos e grupos sobre o modo de lançar alertas e respostas reflexas, mas que nunca os confronta nem se expõe a ser desafiado pela liberdade humana, erradica as condições de crítica, priva os seres humanos de sua potência fundamental, que é sua capacidade de emergir como sujeito individual e coletivo em um “comum” que é intersticial entre o mundo e a realidade. As diferenças muito fundamentais entre o governo pela lei e o governo por algoritmos são, certamente, as seguintes: — a lei preserva agências ou potências individuais e coletivas, enquanto que a postura preventiva do governo algoritmo e sua afetação de indivíduos em uma fase pré-consciente ou por reconfiguração de seus ambientes para que certos cursos de ação se tornem impraticáveis, não preserva essa agência ou potência; — porque organiza o desafio de suas próprias produções normativas (através do processo judicial e dos processos legislativos), a lei abre o tempo e os espaços (com rituais específicos, etc.) interrompendo a fluidez e o metabolismo em tempo real dos processos algorítmicos, e fornece uma série de cenas onde as normas podem ser visíveis, inteligíveis e contestáveis, onde os sujeitos individuais e coletivos podem se tornar consistentes e dar forma ao comum. — talvez, de modo mais fundamental, porque requer que as pessoas conversem, que façam uso da linguagem, depois dos fatos, que recordem, que relembrem os fatos, que recapitulem os motivos de seus atos, a lei (assim como o teatro ou a literatura) – especialmente no contexto do processo judicial – fornece um cenário onde os sujeitos podem desempenhar sua “autoria”, com autoridade para falar, para dar conta de si mesmo. Tornando-se sujeitos as pessoas podem, desse modo, re-historicizar o tempo contra a total sincronização de um espaço digital do mundo do qual todos os pontos são imediatamente contemporâneos (FISCHBACH, 2011: 11112) em um “tempo real”, privando as pessoas da duração (o “tempo real” não é uma dimensão da vida porque a vida é sempre experimentada ao longo do tempo e não como uma justaposição de instâncias sucessivas de “agora”). Os sujeitos contribuem para uma construção legal da realidade em desacordo com a construção algorítmica de “seus” perfis, bem como com injunções de produtividade neoliberal e maximizações de prazer. Estes cenários privilegiados (judicial, legislativo, teatral, literário,...) não são ameaçados hoje por tecnologias (elas também poderiam ser usadas para reencantar o comum, facilitar as enunciações e a emancipação), mas por aquela pela qual o sucesso da governamentalidade algorítmica é mais do que um sintoma. Um modo de governo motivado quase que exclusivamente pelo objetivo de fluidificação (ou liquidação) das existências, exigindo a supressão de tudo aquilo que se oponha à indistinção do mundo e de uma realidade numérica e calculável. Percebendo a magnitude do fenômeno e encontrando, coletivamente, novas configurações entre existências humanas, leis e tecnologias, estas seriam nossas tarefas para o presente e para o futuro, pois não existe
nenhuma necessidade de mineração de dados (datamining) para adivinhar que essas tarefas estão destinadas a nunca ser alcançadas.
BIBLIOGRAFIA ABENSOUR, Miguel. L’homme est um animal utopique. Paris: Les Editions de la Nuit, 2010. AGAMBEN, Giorgio. Enfance et histoire. Destruction de l’expérience et origine de l’histoire. Paris: Payot & Rivages, 2002. [Edição em português: AGAMBEN, Giorgio. Infância e história: destruição da experiência e origem da história. Belo Horizonte: Editora UFMG, 2005]. ARTAUD, Antonin. 50 dessins pour assasiner la magie. Préface d’Evelyne Grossman. Paris: Gallimard, 2004. AYRES, Ian. Super Crunchers: why thinking-by-numbers is the new way to be smart . Random House Publishing Group, 2007. [Edição em português: AYRES, Ian. Super Crunchers: por que pensar com números é a nova maneira de ser inteligente. Rio de Janeiro: Editora Ediouro, 2008]. BENJAMIN, Walter. Oeuvres, III. Paris: Gallimard (Coll. Folio Essais), 2000. BENTHAM, Jeremy. Nomography: the art of Inditing Laws. In: The Works of Jeremy Bentham, published under the superintendence of his executor, John Bowring. Edinburgh: Willian Tait, 18381843, 11 vols, Vol.3, 1843. BOLTANSKI, Luc. De la critique. Précis de sociologie de l’émancipation. Paris: Gallimard, 2009. BOLTANSKI, Luc; THÉVENOT, Laurent. De la justification. Les économies de la grandeur . Paris: Gallimard, 1991. BOURRIAUD, Nicolas. “Le paradigme esthétique”. Revue Chimères, nº 21, 1994. BOUVERESSE, Jacques. L’homme probable. Robert Musil, le hasard, la moyenne et l’escargot de l’histoire. Paris: L’Éclat, 1993. BUTLER, Judith. Antigone’s Claim, Kinship Between Life and Death. New York: Columbia University Press, 2000. [Edição em português: BUTLER, Judith. O clamor de Antígona: parentesco entre a vida e a morte. Florianópolis: Editora da UFSC, 2014]. CITTON, Yves. L’avenir des humanités. Economie de la connaissance ou cultures de l’interpretation. Paris: La Découverte, 2010. CLÉRO, Jean-Pierre. “Quelques difficultés symptomatiques de la théorie benthamienne des fictions”. Cahiers critiques de philosophie, nº 04, 2007. CUKIER, Kenneth. “Data, data everywhere. Interview with Kenneth Cukier”. The Economist , Feb. 25th, 2010. See in: https://www.economist.com/node/15557443. DELEUZE, Gilles. Spinoza. Philosophie pratique. Paris: Editions de Minuit, 2003. [Edição em português: DELEUZE, Gilles. Espinosa: filosofia prática. São Paulo: Escuta, 2002]. DELEUZE, Gilles.; GUATTARI, Félix. Mille plateaux. Paris: Editions de Minuit, 1980. [Edição em português: DELEUZE, Gilles; GUATTARI, Félix. Mil Platôs (5 volumes). Rio de Janeiro: Editora 34, 1995 (Coleção Trans)].
DELEUZE, Gilles.; PARNET, Claire. Dialogues. Paris: Flammarion (Coll. Champs), 1996. [Edição em português: DELEUZE, Gilles; PARNET, Claire. Diálogos. São Paulo: Escuta, 1998]. DERRIDA, Jacques. “Force of Law: the ‘Mystical Foundation of Authority’” . Cardozo Law Review, nº 11, p. 919-1045. [Edição em português: DERRIDA, Jacques. Força de Lei: o fundamento místico da autoridade. São Paulo: Editora Martins Fontes, 2002]. DESROSIÈRES, Alain. Gouverner par les nombres. L’Argument statistique II . Paris: Presses de l’Ecole des Mines, 2008. DESROSIÈRES, Alain. “Est-il bom, est-il méchant? Le role du nombre dans le gouvernement de la cite néolibérale”. Communication at the workshop L’informazione prima dell’informazione. Conoscenza e scelte pubbliche. Université de Milan Bicocca, 27 mai 2010. DIDI-HUBERMAN, Georges. Quand les images prennent position. L’oeil de l’histoire, I . Paris: Editions de Minuit, 2009. [Edição em português: DIDI-HUBERMAN, Georges. Quando as imagens tomam posição: o olho da história, I . Belo Horizonte: Editora UFMG, 2017]. ECO, Umberto. A Theory of Semiotics. Bloomington: Indiana University Press, 1976. FISCHBACH, Franck. La privation du monde. Temps, espace et capital. Paris: Vrin, 2011. FOUCAULT, Michel. “Qu’est-ce que la critique?”. Proceedings of the session of 27 May 1978, Bulletin de la Sociéte Française de Philosophie, 1990. GENERAL ACCOUNTING OFFICE . “Data Mining: Federal Efforts Cover a Wide Range of Uses”. Reports & Testimony Newsletter . Stonehenge International, 2004. GENOSK O, Gary. “Banco sur Félix. Signes partiels a -signifiants et technologie de l’information”. Revue Multitudes, nº 34, p. 63-73, 2008. GONZALEZ FUSTER, Gloria; GUTWIRTH, Serge and ELLYNE, Erika. “Profiling in the European Union: a high-risk practice”, INEX Policy Brief , nº 10, Centre for European Studies (CEPS), INEX, 2010. GUATTARI, Félix. Révolution moléculaire. Paris: Recherches, 1977 (Coll. Encres). [Edição em português: GUATTARI, Félix. Revolução molecular: pulsações políticas do desejo. São Paulo: Editora Brasiliense, 1985]. HABER, Stéphane. L’aliénation. Vie sociale et expérience de la dépossession. Paris: PUF, 2007. HENMAN, Paul. “Conditional Citizenship? Electronic Networks and the New Conditionality in Public Policy”. Policy & Internet, Vol. 03, Issue 03, Article 05. See in: http://www.psocommons.org/policyandinternet/vol3/iss3/art5/?sending=11513 HOHFELD, Wesley. “Some Fundamental Legal Conceptions as Applied in Judicial Reasoning”. Yale Law Journal, vol. 23, nº 16, 1913. LAPLACE, Pierre-Simon. Essai philosophique sur les probabilités. Paris: Courcier, 1814. LEBLANC, Guillaume. Les maladies de l’homme normal . Paris: Editions du Passant, 2007 (Coll. Poches de Résistance). LEGENDRE, Pierre. De la Société comme texte. Linéaments d’une anthropologie dogmatique. Paris: Fayard, 2001.
NANCY, Jean-Luc. L’adoration (Déconstruction du Christianisme, II). Paris: Galilée, 2010. [Edição em português: NANCY, Jean-Luc. A adoração (Desconstrução do Cristianismo, II). Coimbra: Terra Ocre Edições, 2014]. NEYRAT, Frédéric. Biopolitique des catastrophes. Paris: Editions MF, 2008 (Coll. Dehors). NEYRAT, Frédéric. Instructions pour une prise d’âmes. Artaud et l’envoûtement occidental. Paris: La Phocide, 2009. NEYRAT, Frédéric. “Désajointement: l’existence, son amour et as haine”. Revue Variations [online], nº 15, 2011. In: https://variations.revues.org/91 QUETELET, Adolphe. Sur l’homme et le développement de ses facultes, ou Essai de physique sociale. Paris: Bachelier, 1835. RONELL, Avital. Teste Drive. Chicago: University of Illinois Press, 2005. ROUVROY, Antoinette. “Face à la gouvernementalité algorithmique, repenser le sujet de droit comme puissance”, 2012. In: https://works.bepress.com/antoinette_rouvroy/43 ROUVROY, Antoinette. “Epilogue – Technological mediation and human agency as recalcitrance”. In: HILDEBRANDT, Mireille; ROUVROY, Antoinette (eds.). Law, Human Agency and Autonomic Computing: the philosophy of law meets the philosophy of technology. New York: Routledge, 2011. ROUVROY, Antoinette. “Technology, virtuality and utopia: governmentality in na age of autonomic computing”. In: HILDEBRANDT, Mireille; ROUVROY, Antoinette (eds.). Law, Human Agency and Autonomic Computing: the philosophy of law meets the philosophy of technology. New York: Routledge, 2011. ROUVROY, Antoinette; BERNS, Thomas. “Le nouveau pouvoir statistique: ou quando le contrôle s’exerce sur um réel normé, docile et sans événement car constitué de corps ‘numériques’...” . Revue Multitudes, nº 40, p. 88-103, 2010. SARAT, Austin. “A Prophecy of Possibility: Metaphorical Explorations of Postm odern Legal Subjectivity”. Law and Society Review, vol. 29, nº 04, p. 615-630, 1995. SPINOZA, Baruch. Éthique. Livre III, scolie 2. Paris: PUF, 1990. [Edição em português: Espinosa, Baruch de. Ética. São Paulo: EDUSP, 2015]. SUPIOT, Alain. L’esprit de Phil adelphie. La justice sociale face au marché total. Paris: Seuil, 2010. [Edição em português: SUPIOT, Alain. O Espírito de Filadélfia: a justiça social diante do mercado total. Porto Alegre: Sulina, 2014]. VIDAL, Jérome. La fabrique de l’impuissance 1. La gauche, les intellectuels et le libéralisme sécuritaire. Paris: Éditions Amsterdam, 2008. ZARSKY, Tal Z. “Governmental Data Mining and its Alternatives”. Penn Stat Law Review, vol 116, nº 02, p. 285-330, 2011.