O potencial desempregador da inteligência artificial

Um dos maiores temores em relação à crescente presença da inteligência artificial na vida cotidiana tem a ver com a possibilidade de que ela (ou seus controladores, pois a IA ainda não tem (tem ?) vontade própria) cada vez mais reivindique para si incumbências até então somente atribuídas a humanos. A bem da verdade, isto já está acontecendo, como bem documenta uma excelente matéria da BBC sobre seu emprego na redação de textos.

A gritaria não é novidade alguma. Já no final do século 18, na aurora da revolução industrial, ludistas invadiam tecelagens inglesas e quebravam máquinas temendo que as mesmas ameaçassem a existência de seus empregos. Desde lá pouca coisa mudou. A diferença é que se, antes, novas tecnologias substituíam o trabalho braçal, as de hoje clamam para si operações mentais até pouco tempo consideradas território exclusivo da inteligência humana. Tudo faz parte de uma longa e única narrativa, a saber, a obsolescência progressiva do trabalho humano. Primeiro, o braçal. Agora, o mental.

Isto é bom ou ruim ? Depende de como você encarar. Se definirmos trabalho do modo como é habitualmente entendido numa cultura capitalista, i.e., como emprego, com perpetuação de funções exercidas e manutenção de direitos adquiridos, a automação é preocupante, por ser indiferente ao desemprego que dela decorre.

Se, por outro lado, a automação servisse para garantir a manutenção de atividades reconhecidamente essenciais à sobrevivência e ao bem estar humanos gerando, com isto, mais tempo ocioso para ser dedicado à criatividade e ao lazer, não haveria nada de errado.

Só que o que acontece não é nada disto. Quando alguém é desempregado por alguma nova tecnologia, tal não se dá em nome da desoneração do indivíduo de algo que pode ser feito tão bem ou melhor por uma máquina, de forma automática, mas tão somente em razão da maior lucratividade na operação. Fica claro, então, que o problema não é a automação e sim o lucro. Ou, mais precisamente, a automação a serviço do lucro e não do bem estar humano, como deveria ser num mundo ideal.

Eis a principal razão de não estarmos avançando na direção da previsão de Keynes, a saber, de que, ca. 2030, trabalharíamos em média 15 horas por semana.

Cabe, também, perguntar até que ponto vale a pena (exceto, é claro, pelo fenômeno da desempregabilidade crescente) um humano produzir um texto que já possa ser escrito por um algoritmo. Penso, de imediato, em bulas de remédio, manuais e receitas culinárias (um tipo de manual), mas a lista pode ser rapidamente expandida para incluir textos de referência (dicionários, enciclopédias e artigos acadêmico/científicos), jornalísticos, publicitários (como na supracitada matéria da BBC) ou, por que não, legais. Em suma, toda e qualquer categoria de redação sobreformatada. Isto representaria um passo importante em direção a uma escrita exclusivamente criativa, talvez eliminando, de quebra, o excesso textual (produzido, em grande parte, pela academia) denunciado já em 1989, no New York Times (não incluí o link por que, agora, o NYT também se esconde atrás de um paywall), pela bibliotecária chefe da Universidade de Harvard. Seu apelo, quase uma súplica, à comunidade: “– Por favor, escrevam menos ! Pois já não temos mais onde guardar tanto material, tendo que alugar galpões fora do campus para tanto.” Mas isto (namely, o excesso textual) já é assunto prá outro post. Intitulado, talvez, Why write ?

* * *

Do jeito que se fala em IA, como uma expressão nova, que ainda não existia há poucos anos atrás, pode até parecer se tratar de algo novo. Não houve, no entanto, nenhuma ruptura, como uma descoberta ou evento específico, que interrompesse uma tendência verificável já há muito tempo. Desde os primeiros programas de computadores ou mesmo antes.

No começo do uso de computadores, se podia perfeitamente entender a lógica operante em um programa pelo mero exame de seu código fonte. Era como se as linguagens de programação fossem não mais do que versões mais precisas da verbal. Isentas de ambiguidades. Bastava, então, “ler” um programa para se saber o que ele fazia.

Com o passar do tempo, tarefas mais complexas começaram a demandar um recurso mais frequente a subrotinas e, ao mesmo tempo, interfaces gráficos, mais “amigáveis”, dependentes de um grande volume de cálculos vetoriais. De tal modo que, hoje, a compreensão total, nos mínimos detalhes, de tudo o que um programa (hoje, aplicativo) executa está muito além da possibilidade de abrangência pela mente humana.

Para melhor se entender essa evolução exponencial que a programação computacional, alavancada por tecnologias cada vez mais rápidas e miniaturizadas, teve em poucas décadas, vale a pena lançar mão de uma analogia com o jogo de xadrez.

Entre o leigo e o enxadrista avançado, cujo estereótipo é o russo que disputa competições internacionais, existe um abismo. Como leigo, sei movimentar as peças no tabuleiro e conheço as regras do jogo. Tanto que tenho boas chances ao disputar uma partida com outro leigo, pois consigo prever o desfecho de lances imediatos mais prováveis (i.e., descartados os absurdos).

Notem, no entanto, que, a cada nova jogada “antecipada”, crescem exponencialmente as possibilidades. Tanto que, ao cabo de poucos lances, chega a milhares, até milhões, o número de possíveis desfechos – somente um dos quais interessa, a saber, o cheque-mate. Ao final, ganha geralmente quem conseguir visualizar o maior número de jogadas à frente.

Pois a computação é assim. Se, nos primórdios, era como uma partida de xadrez entre leigos ou quase isto, hoje é como uma disputa entre um Mequinho e um Kasparov. Mas tudo isto, é claro, é totalmente transparente (invisível) ao usuário.

* * *

Disse há pouco que a inauguração do uso da expressão inteligência artificial não está associada a nenhum evento ou tecnologia disruptivos específicos. Talvez isto não seja verdade. Não escaneei pioneiros da ficção futurista (ficção científica é, a meu ver, uma formulação inadequada) para saber, por exemplo, se Asimov se referia, em Eu, robô, ao cérebro positrônico como IA. Certo é, no entanto, que seu uso hegemônico para designar algoritmos e programas a partir de uma certa complexidade se tornou popular a partir do momento em que operações realizadas pelos mesmos puderam não apenas ser confundidas com aquelas executadas pela mente humana, mas levadas a cabo de modo mais preciso, rápido e eficiente. Há quem considere isto um marco histórico a sinalizar o início do fim do trabalho.

Há também quem ache isto, mais do que preocupante, alarmante. Como Harari, num artigo que citei recentemente – o qual, de tão provocativo, suscitou respostas fortes e imediatas como, por aqui, a de Fernando Schüller. Tudo bem que Harari tenha, como já me disseram, uma sensibilidade aguçada para o sensacional ou bombástico. Até por ser bem atuante no super competitivo mercado editorial (é autor de best sellers) e ter, afinal, que promover seus livros. Mas suas análises históricas e especulações futurísticas são prá lá de plausíveis.

* * *

Abre parêntesis. Por vezes, algumas projeções, não mais do que fantásticas, de ficcionistas futuristas – como a de Kurt Vonnegut, em Cat’s Cradle, que imaginou o que chamou de gelo 9, uma nova forma de água com ponto de fusão mais alto que, em contato com mais água, líquida e em temperatura ambiente, a congelaria – são assustadoras ao ponto de não apenas gerar pânico mas induzir a comunidade científica a produzir uma avalanche de artigos refutando a mera possibilidade de existência do gêlo 9 e, com isto, restaurando a tranquilidade. Fecha parêntesis. Ou melhor, ainda não. Vonnegut batizou o capítulo de Cat’s Cradle em que uma banheira contendo a única amostra existente de gêlo 9 despenca de um penhasco (putz, que cacofonia) caindo no oceano, cujo congelamento instantâneo produz um estrondo que se propaga pela superfície de todo o globo, nos mergulhando numa nova era glacial (o cenário da novela de Vonnegut), como “O Grande Ahum“. Pois Ah Um também é o nome de um álbum de Charles Mingus. Aqui, entenderei perfeitamente se alguém disser “– Sim, mas daí ?“. Agora sim, fecha o parêntese.

* * *

Que a IA acabaria por se igualar à humana e, a partir daí, suplantá-la, nunca foi difícil de prever. O motivo é simples. Enquanto a inteligência humana reside num suporte biológico, o cérebro, cuja evolução é medida em milhões de anos, a artificial existe em circuitos que se tornam menores e mais rápidos (portanto mais poderosos) praticamente da noite para o dia. Não tinha como o progresso tecnológico não dar nisso. O que nos traz de volta a pergunta: isto é bom ou ruim ?

Se a sociedade humana continuar a privilegiar a concentração de riqueza sobre sua distribuição, a IA só vai acelerar o desemprego, gerando, com isto, fome, pobreza, desagregação social, guerra e, eventualmente, a extinção da espécie, da vida e do planeta, nesta ordem. Ou nem tanto, pois a IA, sem precisar competir com a humana, talvez opte por preservar o planeta ou mesmo formas de vida não inteligentes. Mas isto não interessa, pois não vai sobrar ninguém prá contar.

Se, por outro lado, o ser humano conseguir abraçar o ócio, se libertando de todos os preconceitos morais sobre o trabalho (que só servem aos grandes acumuladores), aí então será possível vislumbrar um futuro mais auspicioso para a espécie, cujas possibilidades são tantas que prefiro deixar a cargo da imaginação de ficcionistas.

Deixe um comentário