O potencial desempregador da inteligência artificial

Um dos maiores temores em relação à crescente presença da inteligência artificial na vida cotidiana tem a ver com a possibilidade de que ela (ou seus controladores, pois a IA ainda não tem (tem ?) vontade própria) cada vez mais reivindique para si incumbências até então somente atribuídas a humanos. A bem da verdade, isto já está acontecendo, como bem documenta uma excelente matéria da BBC sobre seu emprego na redação de textos.

A gritaria não é novidade alguma. Já no final do século 18, na aurora da revolução industrial, ludistas invadiam tecelagens inglesas e quebravam máquinas temendo que as mesmas ameaçassem a existência de seus empregos. Desde lá pouca coisa mudou. A diferença é que se, antes, novas tecnologias substituíam o trabalho braçal, as de hoje clamam para si operações mentais até pouco tempo consideradas território exclusivo da inteligência humana. Tudo faz parte de uma longa e única narrativa, a saber, a obsolescência progressiva do trabalho humano. Primeiro, o braçal. Agora, o mental.

Isto é bom ou ruim ? Depende de como você encarar. Se definirmos trabalho do modo como é habitualmente entendido numa cultura capitalista, i.e., como emprego, com perpetuação de funções exercidas e manutenção de direitos adquiridos, a automação é preocupante, por ser indiferente ao desemprego que dela decorre.

Se, por outro lado, a automação servisse para garantir a manutenção de atividades reconhecidamente essenciais à sobrevivência e ao bem estar humanos gerando, com isto, mais tempo ocioso para ser dedicado à criatividade e ao lazer, não haveria nada de errado.

Só que o que acontece não é nada disto. Quando alguém é desempregado por alguma nova tecnologia, tal não se dá em nome da desoneração do indivíduo de algo que pode ser feito tão bem ou melhor por uma máquina, de forma automática, mas tão somente em razão da maior lucratividade na operação. Fica claro, então, que o problema não é a automação e sim o lucro. Ou, mais precisamente, a automação a serviço do lucro e não do bem estar humano, como deveria ser num mundo ideal.

Eis a principal razão de não estarmos avançando na direção da previsão de Keynes, a saber, de que, ca. 2030, trabalharíamos em média 15 horas por semana.

Cabe, também, perguntar até que ponto vale a pena (exceto, é claro, pelo fenômeno da desempregabilidade crescente) um humano produzir um texto que já possa ser escrito por um algoritmo. Penso, de imediato, em bulas de remédio, manuais e receitas culinárias (um tipo de manual), mas a lista pode ser rapidamente expandida para incluir textos de referência (dicionários, enciclopédias e artigos acadêmico/científicos), jornalísticos, publicitários (como na supracitada matéria da BBC) ou, por que não, legais. Em suma, toda e qualquer categoria de redação sobreformatada. Isto representaria um passo importante em direção a uma escrita exclusivamente criativa, talvez eliminando, de quebra, o excesso textual (produzido, em grande parte, pela academia) denunciado já em 1989, no New York Times (não incluí o link por que, agora, o NYT também se esconde atrás de um paywall), pela bibliotecária chefe da Universidade de Harvard. Seu apelo, quase uma súplica, à comunidade: “– Por favor, escrevam menos ! Pois já não temos mais onde guardar tanto material, tendo que alugar galpões fora do campus para tanto.” Mas isto (namely, o excesso textual) já é assunto prá outro post. Intitulado, talvez, Why write ?

* * *

Do jeito que se fala em IA, como uma expressão nova, que ainda não existia há poucos anos atrás, pode até parecer se tratar de algo novo. Não houve, no entanto, nenhuma ruptura, como uma descoberta ou evento específico, que interrompesse uma tendência verificável já há muito tempo. Desde os primeiros programas de computadores ou mesmo antes.

No começo do uso de computadores, se podia perfeitamente entender a lógica operante em um programa pelo mero exame de seu código fonte. Era como se as linguagens de programação fossem não mais do que versões mais precisas da verbal. Isentas de ambiguidades. Bastava, então, “ler” um programa para se saber o que ele fazia.

Com o passar do tempo, tarefas mais complexas começaram a demandar um recurso mais frequente a subrotinas e, ao mesmo tempo, interfaces gráficos, mais “amigáveis”, dependentes de um grande volume de cálculos vetoriais. De tal modo que, hoje, a compreensão total, nos mínimos detalhes, de tudo o que um programa (hoje, aplicativo) executa está muito além da possibilidade de abrangência pela mente humana.

Para melhor se entender essa evolução exponencial que a programação computacional, alavancada por tecnologias cada vez mais rápidas e miniaturizadas, teve em poucas décadas, vale a pena lançar mão de uma analogia com o jogo de xadrez.

Entre o leigo e o enxadrista avançado, cujo estereótipo é o russo que disputa competições internacionais, existe um abismo. Como leigo, sei movimentar as peças no tabuleiro e conheço as regras do jogo. Tanto que tenho boas chances ao disputar uma partida com outro leigo, pois consigo prever o desfecho de lances imediatos mais prováveis (i.e., descartados os absurdos).

Notem, no entanto, que, a cada nova jogada “antecipada”, crescem exponencialmente as possibilidades. Tanto que, ao cabo de poucos lances, chega a milhares, até milhões, o número de possíveis desfechos – somente um dos quais interessa, a saber, o cheque-mate. Ao final, ganha geralmente quem conseguir visualizar o maior número de jogadas à frente.

Pois a computação é assim. Se, nos primórdios, era como uma partida de xadrez entre leigos ou quase isto, hoje é como uma disputa entre um Mequinho e um Kasparov. Mas tudo isto, é claro, é totalmente transparente (invisível) ao usuário.

* * *

Disse há pouco que a inauguração do uso da expressão inteligência artificial não está associada a nenhum evento ou tecnologia disruptivos específicos. Talvez isto não seja verdade. Não escaneei pioneiros da ficção futurista (ficção científica é, a meu ver, uma formulação inadequada) para saber, por exemplo, se Asimov se referia, em Eu, robô, ao cérebro positrônico como IA. Certo é, no entanto, que seu uso hegemônico para designar algoritmos e programas a partir de uma certa complexidade se tornou popular a partir do momento em que operações realizadas pelos mesmos puderam não apenas ser confundidas com aquelas executadas pela mente humana, mas levadas a cabo de modo mais preciso, rápido e eficiente. Há quem considere isto um marco histórico a sinalizar o início do fim do trabalho.

Há também quem ache isto, mais do que preocupante, alarmante. Como Harari, num artigo que citei recentemente – o qual, de tão provocativo, suscitou respostas fortes e imediatas como, por aqui, a de Fernando Schüller. Tudo bem que Harari tenha, como já me disseram, uma sensibilidade aguçada para o sensacional ou bombástico. Até por ser bem atuante no super competitivo mercado editorial (é autor de best sellers) e ter, afinal, que promover seus livros. Mas suas análises históricas e especulações futurísticas são prá lá de plausíveis.

* * *

Abre parêntesis. Por vezes, algumas projeções, não mais do que fantásticas, de ficcionistas futuristas – como a de Kurt Vonnegut, em Cat’s Cradle, que imaginou o que chamou de gelo 9, uma nova forma de água com ponto de fusão mais alto que, em contato com mais água, líquida e em temperatura ambiente, a congelaria – são assustadoras ao ponto de não apenas gerar pânico mas induzir a comunidade científica a produzir uma avalanche de artigos refutando a mera possibilidade de existência do gêlo 9 e, com isto, restaurando a tranquilidade. Fecha parêntesis. Ou melhor, ainda não. Vonnegut batizou o capítulo de Cat’s Cradle em que uma banheira contendo a única amostra existente de gêlo 9 despenca de um penhasco (putz, que cacofonia) caindo no oceano, cujo congelamento instantâneo produz um estrondo que se propaga pela superfície de todo o globo, nos mergulhando numa nova era glacial (o cenário da novela de Vonnegut), como “O Grande Ahum“. Pois Ah Um também é o nome de um álbum de Charles Mingus. Aqui, entenderei perfeitamente se alguém disser “– Sim, mas daí ?“. Agora sim, fecha o parêntese.

* * *

Que a IA acabaria por se igualar à humana e, a partir daí, suplantá-la, nunca foi difícil de prever. O motivo é simples. Enquanto a inteligência humana reside num suporte biológico, o cérebro, cuja evolução é medida em milhões de anos, a artificial existe em circuitos que se tornam menores e mais rápidos (portanto mais poderosos) praticamente da noite para o dia. Não tinha como o progresso tecnológico não dar nisso. O que nos traz de volta a pergunta: isto é bom ou ruim ?

Se a sociedade humana continuar a privilegiar a concentração de riqueza sobre sua distribuição, a IA só vai acelerar o desemprego, gerando, com isto, fome, pobreza, desagregação social, guerra e, eventualmente, a extinção da espécie, da vida e do planeta, nesta ordem. Ou nem tanto, pois a IA, sem precisar competir com a humana, talvez opte por preservar o planeta ou mesmo formas de vida não inteligentes. Mas isto não interessa, pois não vai sobrar ninguém prá contar.

Se, por outro lado, o ser humano conseguir abraçar o ócio, se libertando de todos os preconceitos morais sobre o trabalho (que só servem aos grandes acumuladores), aí então será possível vislumbrar um futuro mais auspicioso para a espécie, cujas possibilidades são tantas que prefiro deixar a cargo da imaginação de ficcionistas.

Sobre teorias conspiratórias e outros quetais

Meus filhos descobriram a dialética. Gostam de conversar sobre livros que leio. Dia desses, quando, falando sobre O Intelectual (2006), de Steve Fuller, mencionei que, segundo aquele autor, o modus operandi de todo intelectual é formular continuamente teorias conspiratórias, as quais não seriam, a priori, nem boas nem más, fui advertido por um deles a tomar cuidado quando proferisse esse tipo de coisa para não ser confundido com terraplanistas ou antivacs (tive que perguntar a ele o que era um antivac) e, consequentemente, ridicularizado.

Na hora só achei graça (ele está assim depois de ter lido A Estrutura das Revoluções Científicas (1962), de Thomas Kuhn; também tive, na juventude, meu momento de fascínio pela razão). Aquilo ficou martelando em minha mente. Como a bela expressão teoria da conspiração (tautológica, já que toda teoria é, por definição, conspiratória) assumiu um caráter tão pejorativo ? Será que ela já nasceu assim, como uma categoria capaz de abranger toda formulação estapafúrdia ? Careço de subsídios etimológicos para responder adequadamente. Mas que é intrigante, é. Súbito, me pareceu natural que Fuller procedesse à reabilitação semântica do termo, do mesmo modo como elogiou os sofistas, oponentes de Sócrates, detratados por Platão.

Toda tentativa de explicação de fenômenos naturais e sociais que ocorrem constantemente à nossa volta surge como uma teoria conspiratória. Explicar algo é encadear premissas em silogismos mais complexos. Se as premissas forem falsas é outra história, mas nenhuma teoria surge de outra forma. Então, de pouco importa se tantas formulações, pejorativa e inadequadamente chamadas de conspiratórias, forem ridículas se ao menos algumas delas servirem para termos uma compreensão melhor de qualquer coisa.

A história, por exemplo, é resultado de conspirações validadas pela aceitação ampla. Não me refiro aos fatos, que são, obviamente, verdadeiros ou falsos. Mas toda correlação entre eles é uma narrativa condicionada pelo espírito dos tempos e necessariamente ideológica – de modo que épocas e grupos distintos podem oferecer narrativas radicalmente diferentes sobre os mesmos fatos.

Todo esse relativismo é ruim ? Não acho. Pois é justamente do conflito entre narrativas contrastantes que podemos esperar algum progresso (ou, é preciso admitir, retrocesso) nas relações humanas.

* * *

A correlação espúria. Toda teoria conspiratória original procura estabelecer alguma correlação entre fatos verificáveis até então não percebida. Por vezes, acerta. Em todos os outros casos, temos o que se convencionou chamar de correlação espúria. Um exemplo. Já demonstraram que, toda vez que um filme com Nicholas Cage é lançado, [ocorrem/se evitam] tragédias. É razoável supor que boa parte da pesquisa científica consiste em procurar aleatoriamente correlações para depois descartar as que forem espúrias.

* * *

Em Zen e a Arte da Manutenção de Motocicletas (1974), Robert Pirsig narra uma saga de autoconhecimento ambientada numa viagem de motocicleta que empreendeu com seu filho de 11 anos na garupa pelo oeste norte-americano. A parte chata do livro (acreditem que há), mais linear, descreve seu progresso pela paisagem. Em meio a isto, intercala, com profundas incursões pela filosofia (“a mãe de todas as disciplinas”), a degradação de sua crença no método científico e, como ele mesmo chama, na “Igreja da Razão”.

Numa das melhores partes deste discurso fascinante que entremeia seu relato de viagem, Pirsig se debruça demoradamente sobre a origem das hipóteses, a seu ver o calcanhar de Aquiles do método – já que este, em momento algum, fornece qualquer pista sobre o surgimento das mesmas.

” A formação das hipóteses é a fase mais misteriosa do método científico. De onde elas vêm, ninguém sabe. A pessoa está sentada num lugar qualquer, pensando na vida, e de repente – zás ! – passa a entender uma coisa que não entendia antes. Até ser testada, a hipótese não é verdadeira, mas ela não provém de experiências. Origina-se num outro lugar. Disse Einstein:

O homem tenta elaborar para si mesmo, do modo que melhor lhe pareça, uma descrição simplificada e inteligível do mundo. Depois, tenta até certo ponto substituir o mundo da experiência por esse universo por ele construído, para poder dominar toda a natureza… Ele faz desse universo e de sua construção o centro de sua vida emocional, para encontrar, assim, a paz e a serenidade que não consegue dentro dos limites a ele impostos pelo turbilhão da experiência pessoal. O objetivo último a ser atingido é chegar àquelas leis elementares universais a partir das quais o universo foi construído a partir de pura dedução. Não há um caminho lógico que conduza até essas leis; apenas a intuição, baseada no conhecimento afetivo da experiência, pode conduzir a elas…

Intuição ? Afetividade ? Palavras estranhas para descrever a origem do conhecimento científico. “

Pirsig se diverte relatando ter percebido diversas vezes, no laboratório, que o que pareceria ser a parte mais difícil do trabalho científico era, na verdade, a mais fácil. Que ao testar uma primeira hipótese já lhe vinha a mente um verdadeiro enxame de novas hipóteses, as quais, por sua vez, ao serem testadas, conduziam necessariamente a outras – de tal modo que se multiplicariam indefinidamente se não fossem descartadas após cada teste. Em dado momento, chegou a formular, jocosamente, uma lei segundo a qual “o número de hipóteses racionais que podem explicar qualquer fenômeno dado é infinito”.

* * *

Fuller, em seu livro supracitado, categoriza os entes pensantes em filósofos, cientistas e intelectuais para, então, fazer distinções entre as categorias, tais como Cortázar em Histórias de Cronópios e de Famas (1962). Ainda que Cortázar nunca tenha definido precisamente o que seria um cronópio ou um fama, é improvável que qualquer leitor minimamente sensível não consiga entender ao que ele esteja se referindo ao tipificar, por meio de exemplos, representantes de cada categoria.

Sei que tais categorias não são estanques entre si, podendo um mesmo indivíduo apresentar simultaneamente traços de mais de uma delas. São, ainda assim, bem úteis para fins didáticos. Tal é o caso, por exemplo, dos autores de ficção científica. Sem se preocupar, enquanto intelectuais, com a fundamentação teórica do que dizem, deitam formulações – como o “gelo 9”, de Kurt Vonnegut, em Cama de Gato (1963), a partir de cuja enunciação cientistas lançam mão de todo seu arsenal teórico para validá-las ou, ao invés, refutá-las.

Nesta longa digressão que se assemelha, no máximo, a um esboço, nada melhor para concluir do que a arrebatadora metáfora de Richard Dawkins, guru maior do ateísmo, que compara, em sua obra Deus, um Delírio (2006), a percepção humana ao que se é dado a ver através da estreita janela de uma burka. As frequências de luz visíveis, por exemplo. Nada suspeitamos do que possa ser “iluminado” por radiações inferiores ao infra-vermelho ou superiores ao ultra-violeta. Do mesmo modo, não enxergamos o que é pequeno demais (o átomo) ou grande demais (a “terra plana”), nem o que se move rápido demais (a luz). Então (conclui), temos que recorrer à ciência para desvendar tudo aquilo que se situa além dos limites de nossa percepção.

* * *

PS: tenho enorme curiosidade por conhecer o que Dawkins teria a dizer sobre o ceticismo de Pirsig.