Por que o jazz é a música do futuro

Com o avanço exponencialmente mais rápido a cada dia da inteligência artificial (leia-se: cada vez mais ocupações até hoje desempenhadas exclusiva ou predominantemente por humanos vem sendo total ou parcialmente automatizadas), todas as profissões conhecidas tendem a desaparecer. Umas antes, outras depois (o famoso estudo de Oxford). É só uma questão de tempo. E com a morte das profissões, está decretado o fim do trabalho. Podemos até duvidar que isto aconteça durante nossas vidas. Mas, queiramos ou não, testemunhemos ou não, se trata de um desfecho histórico inevitável.

Por exemplo. Ainda que a fotografia já tenha sido uma profissão com nichos bem específicos de atuação profissional (jornalismo, publicidade, perícia, etc.), é difícil acreditar que hoje, com todas as facilidades embutidas em telefones celulares, seja mais do que uma ocupação recreativa ou, no máximo, artística. Mas a própria figura do artista profissional, que comercializa o que produz para o consumo de meros espectadores, tende a desaparecer com a universalização da criação artística, hoje privilégio de alguns, doravante ao alcance de toda a população.

Este quadro é demasiado sombrio ? Soo pessimista ? Não acho. Primeiro, por que já está acontecendo. Se já é difícil, senão impossível, se viver de fotografia, o mesmo acontece com a música. Como evitar o encolhimento das profissões musicais quando fica cada vez mais fácil a qualquer um criar e produzir sua própria música ? Isto sem falar no enorme manancial de música do passado que pode ser garimpada a qualquer instante a um custo que tende ao zero. E a produção textual, antes um privilégio de indivíduos mais instruídos, emprega cada vez menos gente, como vimos no post anterior.

Não me entendam mal: falo do fim das profissões, e não das ocupações ! É claro que as últimas continuarão (oxalá !) existindo; só não poderemos mais contar com elas para garantir a subsistência.

O futuro é lúdico. Ao menos se a economia se transformar radicalmente e uma revolução moral permitir que a humanidade deixe de culpar a si própria (e aos outros) pelo ócio. Mas voltemos à música, objeto deste texto.

Por mais abomináveis que possam ser, rótulos também são bem úteis por nos ajudarem a categorizar. Aí incluídos os gêneros musicais. Se a música erudita ambiciona a posteridade, para além da morte do compositor, o pop visa o lucro imediato, desfrutável ainda em vida. Sei, são generalizações um tanto apressadas. É claro que o melhor pop, graças ao culto dos fãs, sobrevive a seus criadores. E a indústria bem que tentou fazer da música clássica um produto. Mas, via de regra, pop é coisa de gente viva e música clássica, de gente morta. E não me venham, por favor, com exceções, que existem, e muitas. Por que minha generalização, por mais tosca que seja, se aplica a uma amostra estatisticamente neutra, a saber, o que mais se ouve no rádio e em concertos.

Mas e o jazz ? Parece correr em banda própria, paralelamente à música conforme vista pela indústria. É como se, nela, a música, pop ou erudita, fosse, de certo modo, domesticada. O jazz, não: permanece uma manifestação selvagem. A maior prova disto é que seus produtores, ao invés de tentar ajustar a música a demandas de mercado, na maior parte das vezes se limitam a capturá-la (uma amostra, como veremos adiante).

Sim, bem que a indústria tentou domar o jazz e, por um breve instante, até conseguiu. Kind of Blue foi um campeão de vendas tão expressivo como um hit pop. Mas já estou, aqui, a falar da exceção. Todo jazzófilo sabe que, por mais discos de músicos icônicos que tenha colecionado, o jazz enquanto risco (a alma de toda improvisação, alicerce do jazz) só acontece em apresentações ao vivo, quase sempre para audiências minúsculas.

Não toco jazz. Tenho profunda inveja de quem sabe e se atreve a improvisar. Mas posso ter ideia da estranheza com que um músico de jazz deve perceber um produtor de gravações do gênero. Ora, todo disco de jazz é não mais do que uma pálida amostra de toda a gama de possibilidades que uma performance poderia ter assumido. É justo isto que o torna tão interessante.

Continuo, mesmo assim, com a ideia de que o produtor de discos de jazz é um profissional condenado ao fracasso por tentar, repetidamente (fez, na verdade, disto uma profissão), capturar num meio reproduzível algo que jamais acontecerá do mesmo jeito no tempo. Por isto mesmo, sou enormemente grato aos bons produtores de gravações de jazz, por quem nutro profundo respeito.

Mas por que o jazz é, afinal, a música do futuro ? Elementar, meu caro Watson: por que é a música do aqui e do agora. Enquanto toca, um improvisador exponencial não está preocupado com a remuneração que poderá auferir da performance, nem tampouco com o que legará à posteridade. Naquele momento, só está preocupado em superar a si próprio, ao que entregou na gig anterior. Neste sentido, é a música mais honesta que conheço. Remuneração e legado interessam, é claro, mas são meramente circunstanciais.

O potencial desempregador da inteligência artificial

Um dos maiores temores em relação à crescente presença da inteligência artificial na vida cotidiana tem a ver com a possibilidade de que ela (ou seus controladores, pois a IA ainda não tem (tem ?) vontade própria) cada vez mais reivindique para si incumbências até então somente atribuídas a humanos. A bem da verdade, isto já está acontecendo, como bem documenta uma excelente matéria da BBC sobre seu emprego na redação de textos.

A gritaria não é novidade alguma. Já no final do século 18, na aurora da revolução industrial, ludistas invadiam tecelagens inglesas e quebravam máquinas temendo que as mesmas ameaçassem a existência de seus empregos. Desde lá pouca coisa mudou. A diferença é que se, antes, novas tecnologias substituíam o trabalho braçal, as de hoje clamam para si operações mentais até pouco tempo consideradas território exclusivo da inteligência humana. Tudo faz parte de uma longa e única narrativa, a saber, a obsolescência progressiva do trabalho humano. Primeiro, o braçal. Agora, o mental.

Isto é bom ou ruim ? Depende de como você encarar. Se definirmos trabalho do modo como é habitualmente entendido numa cultura capitalista, i.e., como emprego, com perpetuação de funções exercidas e manutenção de direitos adquiridos, a automação é preocupante, por ser indiferente ao desemprego que dela decorre.

Se, por outro lado, a automação servisse para garantir a manutenção de atividades reconhecidamente essenciais à sobrevivência e ao bem estar humanos gerando, com isto, mais tempo ocioso para ser dedicado à criatividade e ao lazer, não haveria nada de errado.

Só que o que acontece não é nada disto. Quando alguém é desempregado por alguma nova tecnologia, tal não se dá em nome da desoneração do indivíduo de algo que pode ser feito tão bem ou melhor por uma máquina, de forma automática, mas tão somente em razão da maior lucratividade na operação. Fica claro, então, que o problema não é a automação e sim o lucro. Ou, mais precisamente, a automação a serviço do lucro e não do bem estar humano, como deveria ser num mundo ideal.

Eis a principal razão de não estarmos avançando na direção da previsão de Keynes, a saber, de que, ca. 2030, trabalharíamos em média 15 horas por semana.

Cabe, também, perguntar até que ponto vale a pena (exceto, é claro, pelo fenômeno da desempregabilidade crescente) um humano produzir um texto que já possa ser escrito por um algoritmo. Penso, de imediato, em bulas de remédio, manuais e receitas culinárias (um tipo de manual), mas a lista pode ser rapidamente expandida para incluir textos de referência (dicionários, enciclopédias e artigos acadêmico/científicos), jornalísticos, publicitários (como na supracitada matéria da BBC) ou, por que não, legais. Em suma, toda e qualquer categoria de redação sobreformatada. Isto representaria um passo importante em direção a uma escrita exclusivamente criativa, talvez eliminando, de quebra, o excesso textual (produzido, em grande parte, pela academia) denunciado já em 1989, no New York Times (não incluí o link por que, agora, o NYT também se esconde atrás de um paywall), pela bibliotecária chefe da Universidade de Harvard. Seu apelo, quase uma súplica, à comunidade: “– Por favor, escrevam menos ! Pois já não temos mais onde guardar tanto material, tendo que alugar galpões fora do campus para tanto.” Mas isto (namely, o excesso textual) já é assunto prá outro post. Intitulado, talvez, Why write ?

* * *

Do jeito que se fala em IA, como uma expressão nova, que ainda não existia há poucos anos atrás, pode até parecer se tratar de algo novo. Não houve, no entanto, nenhuma ruptura, como uma descoberta ou evento específico, que interrompesse uma tendência verificável já há muito tempo. Desde os primeiros programas de computadores ou mesmo antes.

No começo do uso de computadores, se podia perfeitamente entender a lógica operante em um programa pelo mero exame de seu código fonte. Era como se as linguagens de programação fossem não mais do que versões mais precisas da verbal. Isentas de ambiguidades. Bastava, então, “ler” um programa para se saber o que ele fazia.

Com o passar do tempo, tarefas mais complexas começaram a demandar um recurso mais frequente a subrotinas e, ao mesmo tempo, interfaces gráficos, mais “amigáveis”, dependentes de um grande volume de cálculos vetoriais. De tal modo que, hoje, a compreensão total, nos mínimos detalhes, de tudo o que um programa (hoje, aplicativo) executa está muito além da possibilidade de abrangência pela mente humana.

Para melhor se entender essa evolução exponencial que a programação computacional, alavancada por tecnologias cada vez mais rápidas e miniaturizadas, teve em poucas décadas, vale a pena lançar mão de uma analogia com o jogo de xadrez.

Entre o leigo e o enxadrista avançado, cujo estereótipo é o russo que disputa competições internacionais, existe um abismo. Como leigo, sei movimentar as peças no tabuleiro e conheço as regras do jogo. Tanto que tenho boas chances ao disputar uma partida com outro leigo, pois consigo prever o desfecho de lances imediatos mais prováveis (i.e., descartados os absurdos).

Notem, no entanto, que, a cada nova jogada “antecipada”, crescem exponencialmente as possibilidades. Tanto que, ao cabo de poucos lances, chega a milhares, até milhões, o número de possíveis desfechos – somente um dos quais interessa, a saber, o cheque-mate. Ao final, ganha geralmente quem conseguir visualizar o maior número de jogadas à frente.

Pois a computação é assim. Se, nos primórdios, era como uma partida de xadrez entre leigos ou quase isto, hoje é como uma disputa entre um Mequinho e um Kasparov. Mas tudo isto, é claro, é totalmente transparente (invisível) ao usuário.

* * *

Disse há pouco que a inauguração do uso da expressão inteligência artificial não está associada a nenhum evento ou tecnologia disruptivos específicos. Talvez isto não seja verdade. Não escaneei pioneiros da ficção futurista (ficção científica é, a meu ver, uma formulação inadequada) para saber, por exemplo, se Asimov se referia, em Eu, robô, ao cérebro positrônico como IA. Certo é, no entanto, que seu uso hegemônico para designar algoritmos e programas a partir de uma certa complexidade se tornou popular a partir do momento em que operações realizadas pelos mesmos puderam não apenas ser confundidas com aquelas executadas pela mente humana, mas levadas a cabo de modo mais preciso, rápido e eficiente. Há quem considere isto um marco histórico a sinalizar o início do fim do trabalho.

Há também quem ache isto, mais do que preocupante, alarmante. Como Harari, num artigo que citei recentemente – o qual, de tão provocativo, suscitou respostas fortes e imediatas como, por aqui, a de Fernando Schüller. Tudo bem que Harari tenha, como já me disseram, uma sensibilidade aguçada para o sensacional ou bombástico. Até por ser bem atuante no super competitivo mercado editorial (é autor de best sellers) e ter, afinal, que promover seus livros. Mas suas análises históricas e especulações futurísticas são prá lá de plausíveis.

* * *

Abre parêntesis. Por vezes, algumas projeções, não mais do que fantásticas, de ficcionistas futuristas – como a de Kurt Vonnegut, em Cat’s Cradle, que imaginou o que chamou de gelo 9, uma nova forma de água com ponto de fusão mais alto que, em contato com mais água, líquida e em temperatura ambiente, a congelaria – são assustadoras ao ponto de não apenas gerar pânico mas induzir a comunidade científica a produzir uma avalanche de artigos refutando a mera possibilidade de existência do gêlo 9 e, com isto, restaurando a tranquilidade. Fecha parêntesis. Ou melhor, ainda não. Vonnegut batizou o capítulo de Cat’s Cradle em que uma banheira contendo a única amostra existente de gêlo 9 despenca de um penhasco (putz, que cacofonia) caindo no oceano, cujo congelamento instantâneo produz um estrondo que se propaga pela superfície de todo o globo, nos mergulhando numa nova era glacial (o cenário da novela de Vonnegut), como “O Grande Ahum“. Pois Ah Um também é o nome de um álbum de Charles Mingus. Aqui, entenderei perfeitamente se alguém disser “– Sim, mas daí ?“. Agora sim, fecha o parêntese.

* * *

Que a IA acabaria por se igualar à humana e, a partir daí, suplantá-la, nunca foi difícil de prever. O motivo é simples. Enquanto a inteligência humana reside num suporte biológico, o cérebro, cuja evolução é medida em milhões de anos, a artificial existe em circuitos que se tornam menores e mais rápidos (portanto mais poderosos) praticamente da noite para o dia. Não tinha como o progresso tecnológico não dar nisso. O que nos traz de volta a pergunta: isto é bom ou ruim ?

Se a sociedade humana continuar a privilegiar a concentração de riqueza sobre sua distribuição, a IA só vai acelerar o desemprego, gerando, com isto, fome, pobreza, desagregação social, guerra e, eventualmente, a extinção da espécie, da vida e do planeta, nesta ordem. Ou nem tanto, pois a IA, sem precisar competir com a humana, talvez opte por preservar o planeta ou mesmo formas de vida não inteligentes. Mas isto não interessa, pois não vai sobrar ninguém prá contar.

Se, por outro lado, o ser humano conseguir abraçar o ócio, se libertando de todos os preconceitos morais sobre o trabalho (que só servem aos grandes acumuladores), aí então será possível vislumbrar um futuro mais auspicioso para a espécie, cujas possibilidades são tantas que prefiro deixar a cargo da imaginação de ficcionistas.

A neutralidade da(s) rede(s)

A neutralidade da rede é um princípio que norteia o protocolo da internet, garantindo que qualquer conteúdo nela trafegue com a mesma velocidade, de acordo com a ordem de chegada, independentemente de quanto está sendo pago e por quem para que a informação nela viaje. Como numa fila única de transplantes.

Como todo princípio isonômico, há quem a ele se oponha. Os argumentos contra a neutralidade variam. Desde os mais comerciais, como garantir a quem pague mais o direito de suas informações circularem mais rápido e/ou eficientemente, como no caso de aplicações que demandam maior largura de banda, tais como plataformas de streaming; até aqueles supostamente mais “altruístas”, como o de que a neutralidade seria um obstáculo à inovação tecnológica.

Uma das propostas mais criativas é a existência não de uma rede única, neutra, mas de várias redes concomitantemente: uma neutra, universalmente acessível, para emails, blogs e sites menos acessados, e tantas outras quanto forem necessárias com facilidades para grandes usuários com necessidades mais específicas.

Assim, tendo surgido como uma condição praticamente utópica, que igualava grandes e pequenos no que tange ao tratamento recebido pela rede, a neutralidade logo se tornou objeto de debate. Tanto que possui nuances diferenciadas em cada país. No Brasil, a internet é neutra, regulamentada pelo Marco Civil da Internet (Lei 12.965/2014).

Para um entendimento mais abrangente e detalhado da neutralidade da rede, vale a pena consultar a Wikipedia – a qual, ainda que por vezes seja bem sumária, ao menos sobre este assunto é altamente informativa. E neutra.

* * *

Mas não é sobre isto que vim falar. Perto de tudo o que encontrei facilmente sobre o tema, discorrer mais seria como chover no molhado.

Com certeza notaram a licença poética, por assim dizer, do título do post, com os “(s)” depois das duas últimas palavras. A ambiguidade se deve à referência tanto à internet como um todo, com seu controverso ideal isonômico, como, ao mesmo tempo, às redes sociais que nelas residem – as quais, por sua vez, de neutras não tem nada. Ou, ao menos, é nisto que, do alto de minha teoria conspiratória, acredito. Como tento deixar claro adiante.

Redes sociais residem em plataformas (sites) que residem na internet. Como todo site, tem seus proprietários. E, salvo notáveis exceções de sites colaborativos (wikis) não lucrativos que atendem a interesses públicos – como, por exemplo, a wikipedia ou a IMSLP (maior repositório online de partituras musicais), plataformas de redes sociais são, via de regra, startups que deram certo, com alto valor de mercado e que remuneram seus proprietários, sejam eles indivíduos ou acionistas, com polpudos lucros advindos da exibição de publicidade (mais comumente) ou venda de assinaturas para versões ad free.

Até aí tudo bem. Já banalizamos a ideia de que o mercado está aí para quem dele saiba tirar proveito. Todo o problema começa com o algoritmo de distribuição – o qual, numa rede, seleciona quais postagens são (e, o que mais nos interessa, não são) mostradas a cada usuário. Num mundo perfeito, algoritmos seriam transparentes (como, sei lá, a programação em código aberto), configuráveis às necessidades e preferências de cada um. Mas não. Funcionam como caixas pretas, sobre cuja ação podemos não mais do que tecer suposições. Teorias conspiratórias inclusive, como aquela adiante.

* * *

Antes, porém, de prosseguir, cabe um esclarecimento: minha experiência primária se restringe a uma única rede social, a saber, o facebook (não consigo acessar com a devida frequência (que dirá nela interagir) mais do que uma). Não descarto, portanto, a existência de outras redes mais transparentes no tratamento da informação que nelas circula.

* * *

Algoritmos de distribuição existem por que o grande volume de informação (acho que o nome disso é metadados) torna proibitiva a análise por humanos de todos os conteúdos que circulam em redes sociais. Tecnologias de inteligência artificial para reconhecimento de imagem já permitem, no entanto, atribuir automaticamente um viés moral ou ideológico a cada postagem ilustrada. Amigos já tomaram ganchos por postarem imagens com seios, bundas ou genitálias. Pouco importa se forem “nús artisticos”. Experimentem, por exemplo, postar uma reprodução de A Origem do Mundo (BRINCADEIRA, NÃO FAÇAM ISTO !).

Também é fácil para um algoritmo identificar e, conforme o caso, impulsionar ou ocultar imagens contendo símbolos tais como, por exemplo, uma estrela de Davi ou uma bandeira palestina. Com texto, no entanto, a coisa é um pouco mais complicada. É difícil apontar o matiz ideológico de algo escrito exclusivamente pelas simples presença ou contagem de palavras. Da seguinte maneira. Mesmo que vocábulos como capitalismo ou Marx apareçam uma ou mais vezes num texto, nada podemos afirmar sobre o viés ideológico do que foi escrito, i.e., se o texto é apologético ou condenatório em relação aos mesmos.

Ou, ao menos, assim eu supunha até poucos dias atrás. Quando manifestei meu ceticismo sobre o estado da arte da interpretação automática de textos, um de meus filhos simplesmente perguntou “– Conheces o ChatGPT ?” Talvez ele tenha razão. Se uma IA já consegue criar um texto convincente a ponto de passar por uma formulação humana, o caminho reverso (i.e., entender algo escrito por um humano) não deve ser, afinal, tão difícil. E, neste caso, vale atualizar a proposta por Harari, em The Economist, de uma legislação que obrigue aplicações que utilizem IA a informarem seus usuários sobre isto; para outra que também obrigue plataformas de redes sociais que utilizem algoritmos de distribuição seletivos que informem seus usuários sobre o funcionamento dos mesmos. Talvez como seu código fonte, ainda não compilado, comentado para inteligibilidade universal. Sonhar não custa nada.

* * *

Desde lá de cima, venho prometendo relatar a experiência, involuntária, que funcionou como um sinal de alerta para o fato de redes sociais não serem tão neutras como era de se esperar. Não sou ingênuo, é claro. Sempre suspeitei. Até sabia. Mas os fatos abaixo narrados só aguçaram minha percepção da coisa.

Até poucos anos atrás, sempre era informado pelo facebook de novas postagens pelos perfis de Evonomics (Holanda) e The Guardian (Inglaterra), duas publicações que prezo sobremaneira. Por vezes até traduzi matérias suas neste blog. Só que, ultimamente, notei que há muito não vinho sendo informado pelo face de atualizações destes perfis. Cheguei até a pensar que Evonomics tivesse saído do ar (The Guardian não, por ser um jornal londrino bem tradicional). Preocupado, verifiquei que os bravos holandeses continuam firmes e fortes, tanto no site como no facebook.

Comentando com meu amigo Fábio o ocorrido, ele teceu a hipótese de que, se eu curtisse as postagens dos dois, o face voltaria a me mostrá-las. Entrei, então, em ambos os perfis e curti por atacado. Esperei. Nada. Aprendi, com isto, que, doravante, teria que visitar os perfis (ou os próprios sites) se quisesse saber de novas atualizações, não mais podendo contar com o facebook para tanto. Problema resolvido. A curiosidade, todavia, persistiu.

De início, pensei que o face estivesse ocultando postagens de grandes publicações. Afinal, já tinha ouvido falar que o site “não gosta” de postagens com links que direcionem a navegação para fora da plataforma. Faria sentido. Só que não: continuo a receber normalmente atualizações de The Economist e The New Yorker, entre outros.

Foi então que me dei conta: os dois perfis que sumiam de meu feed são notórios por um viés que, se não escancaradamente de esquerda, não pode de modo algum ser definido como de direita. Ok, The Guardian pode ser classificado como de esquerda. Mas Evonomics publica textos que, de alguma forma, vislumbram possibilidades para “consertar” a iniquidade inerente ao capitalismo.

Já disse, acima, que acho difícil (mas não improvável) que um algoritmo identifique o teor ideológico de um texto para, com base nisto, decidir por sua evidência ou ocultação. Bem mais provável é que publicações maciçamente visualizadas sejam marcadas (talvez até por humanos) como desejáveis ou não no feed de usuários de redes sociais, segundo a matriz ideológica de seus proprietários.

Pouco importa, então, se postagens (ou, mais provavelmente, perfis) são impulsionados ou ocultos com base em julgamento humano ou exclusivamente algorítmico. O que fica patente é que, como já foi dito, de neutro o facebook (e provavelmente outras redes) não tem nada. CQD.

Quais as implicações da concessão de cidadania a robôs

Dentre as muitas notícias pela quais passei os olhos recentemente, talvez a que tenho causado o impacto mais duradouro seja uma que veio da Arábia Saudita, dando conta da concessão de cidadania daquele país a um robô. Não resisti ao título. Na matéria, do ótimo site Big Think, fiquei sabendo se tratar de um androide de feições femininas, modelado a partir de Audrey Hepburn (sic !), turbinado com inteligência artificial (AI), capaz de auto aprendizagem e produzido por uma empresa de Hong Kong (Hanson Robotics).

Impressionado, vi na íntegra o vídeo que ilustrava a matéria, no qual o robô Sofia foi entrevistado no Future Investment Initiative, evento dedicado a inovações tecnológicas realizado em Riyadh, a capital saudita. A argúcia e o humor revelados em diferentes falas do androide me levaram de pronto a julgar se tratar de uma fraude, com a máquina devidamente programada para reagir a determinadas “jogadas ensaiadas”. Infelizmente, uma rápida pesquisa demonstrou se tratar da mais crua realidade.

* * *

No conforto da contemporaneidade, estamos acostumados a considerar a premissa da inteligência artificial capaz de competir com vantagem ou, pelo menos, em igualdade de condições com a humana como uma possibilidade ameaçadora apenas num futuro vagamente distante. Se a eloquente demonstração de Sofia para investidores sauditas não escondeu nenhuma armação (tal como, por exemplo, um script previamente definido para a realização da entrevista), tal futuro, imaginado por Asimov e, mais recentemente, por Harari, já chegou.

A existência de robôs capazes de apreenderem sozinhos não constitui, por si só, uma ameaça mas, antes, um prodigioso avanço tecnológico em prol da raça humana. Assusta, no entanto, que humanos estejam dispostos a conceder a tais máquinas poderes e direitos até então exclusivos de humanos. Neste cenário, não há como não sentir um calafrio ante as imensas e insondáveis possibilidades inauguradas com uma concessão de cidadania a um robô. Pois, se não for apenas uma jogada de marketing, com restrições em letras miúdas que não chegam aos noticiários, tal concessão implica, por exemplo, que robôs podem, a partir de agora, votar e, pior, concorrer em eleições.

Ora, dados os elevados custos atuais destas máquinas, ainda não passa de uma fantasia supor que androides unidos consigam, de algum modo, interferir, como votantes, em resultados de eleições. Mas e quando robôs forem mais baratos e numericamente tão importantes quanto humanos ? Certamente um problema futuro a ser resolvido. Mais preocupante, no entanto, é a possibilidade de robôs como candidatos políticos. Pois, a julgar pela desenvoltura e pelo atrevimento demonstrados por Sofia diante da plateia saudita encantada, é fácil supor que uma máquina provida de inteligência artificial já seria plenamente capaz de “derrotar” nossos rasos políticos em debates eleitorais.

Isto não é, por si só, um problema, na medida em que os atuais atores políticos (presidentes, governadores, prefeitos, senadores, deputados e vereadores) já atendem invariavelmente antes a interesses escusos que financiam suas campanhas do que aos de quem os elegeu. Só que robôs políticos não cometeriam erros humanos – atendendo, com isto, ainda mais eficientemente os interesses de seus proprietários. Oligointeresses, neste caso, já que é bem difícil imaginar robôs que não pertençam a elites.

Mas o problema não termina aí. Pesquisando sobre Sofia, logo descobrimos que o clone cibernético da bonequinha de luxo apreende através daquilo que ouve. Ou, noutras palavras, do que lhe é ensinado. Isto quer dizer que sua conduta será sempre ideologicamente compatível com a moral e a ética implícitas no discurso orientador de sua “formação”. Prestem atenção, por exemplo, em sua fala jocosa, conclamando os empresários a expressarem sua simpatia pelo projeto por meio de cheques encaminhados após sua palestra. Tal exortação denota claramente a ideologia segundo a qual pesquisas científico-tecnológicas são de responsabilidade da iniciativa privada.

Notem, ainda, a rapidez da pergunta “devolvida” ao entrevistador, antes até que o mesmo concluísse sua fala (um robô impaciente ?…), procurando claramente plantar dúvidas sobre atributos que definem humanos como tais.

Não sei de vocês, mas eu tenho medo de robôs filósofos, que venham um dia a escrever os livros que lemos.

* * *

Update 1: a escritora de ficção científica Nikelen Witter recomendou, em comentário sob uma postagem de divulgação deste texto, o filme Ex-Machina (2015), sobre a mesma temática instigante dos robôs empoderados. Verei o quanto antes. Só não incluo o link para o verbete do mesmo na wikipedia por que a sinopse é um tremendo spoiler.

Update 2: Zeca Azevedo, ao compartilhar este post: “Um robô que diz estar feliz quando se vê cercado de gente “esperta, rica e poderosa” é mais uma ameaça (porque é certamente um instrumento de manutenção do status quo) do que um avanço.” Na mosca !