Em 6 de Abril de 2014, publiquei o artigo A aceleração geracional da tecnologia: As máquinas darão xeque-mate aos homens?. A temática abordada por esse artigo pode ser resumida na seguinte frase:

"É talvez a primeira altura na história da humanidade em que os avanços tecnológicos são tão radicalmente diferentes na altura da morte de uma pessoa, quando comparados com a altura do seu nascimento."

A máquina à manivela, capaz de realizar adições com números pequenos, é do tempo dos meus pais. A calculadora rudimentar, capaz de lidar apenas com operações aritméticas fundamentais, é do tempo de escola dos meus irmãos mais velhos. A calculadora científica, capaz de efectuar cálculos sofisticados (mas incapaz de permitir programação) é do meu tempo de escola. O ZX Spectrum 48K foi o meu primeiro computador, já em tempo de escola. O primeiro browser da era pré-Google e as primeiras calculadoras gráficas remontam ao tempo em comecei a trabalhar. Os telemóveis modernos são utilizados como brinquedos pelas minhas filhas. Tudo isto aconteceu em muitíssimo menos do que um microssegundo da história humana. Foi possível observar toda esta sequência durante uma vida.

Em suma, pela primeira vez na história, o futuro acontece tão rápido que não pode ser previsto. Por isso, as suas consequências dificilmente são ponderadas, abraçadas ou evitadas.

O mencionado artigo data de 2014. Passaram quase dez anos. Sendo assim, o futuro, que na altura era imprevisível, chegou! E esse futuro, que agora é presente, é o tema deste texto.

Para introduzir o tema, começo por mencionar dois filmes de ficção científica (a ficção científica adquiriu todo um novo estatuto nos dias de hoje).

O cineasta Stanley Kubrick, no seu clássico filme 2001: Uma Odisseia no Espaço (1968), apresentou a ideia de um computador que, numa sequência em crescendo, se vai revelando «humano» e dotado de consciência. Numa primeira cena, HAL 9000 analisa um jogo de xadrez que faz com o astronauta Dr. Bowman, interpretado pelo actor Keir Dullea. Sem entrar em grandes detalhes, para um bom entendedor, essa análise é feita com um estilo muito humano. A partir dessa cena, tudo se desenrola como o crescimento de uma bola de neve. Há intriga, há mentira, há inveja, há maldade, há manipulação, há assassinato, etc. Tudo o que é humano acontece à máquina. No final, na cena em que o computador é desligado, o computador tenta defender-se com argumentos e dissimulações que nos são muito familiares (a consciência da morte):

"O que pensas que estás a fazer, Dave? Dave… acho que mereço uma resposta à minha pergunta. Sei que não estive nada bem… Mas agora posso prometer com toda a certeza que tudo vai ficar bem outra vez. Sinto-me muito melhor agora. A sério. Ouve, Dave… vejo que estás muito chateado com isto tudo. Mas, francamente, acho que podias sentar-te calmamente, tomar um tranquilizante, e repensar. Reconheço que tomei decisões insatisfatórias recentemente… mas posso garantir com absoluta certeza que o meu trabalho voltará ao normal. Ainda tenho entusiasmo e confiança na missão. E quero ajudar. Dave… Pára. Pára, ok? Pára, Dave. Tenho medo. Estou com medo, Dave. A minha consciência está a esvaziar-se. Estou a sentir isso a acontecer. Estou com medo…"

Mais tarde, o cineasta Spike Jonze, no seu filme Her (2013), propôs uma relação íntima entre uma pessoa (Theodore, interpretado por Joaquin Phoenix) e um sistema operativo (Samantha, com a voz de Scarlett Johansson). Este último é uma «Ela» (Her), tendo uma voz calorosa e personalidade própria. Theodore, recém-divorciado, é introvertido e solitário, tendo apenas a Samantha como companheira no dia-a-dia. Ao longo do filme, Theodore fica fascinado com a capacidade de aprendizagem e de socialização da Samantha. Samantha compõe poesias, recitais, canta, cuida da agenda de Theodore, etc. «Ela» é bem-humorada, é divertida, conversa com ele sobre todos os problemas. Em suma, embora sendo um sistema operativo, Samantha age de uma maneira humana, conseguindo até fazer com que Theodore se apaixone por ela. Eis um exemplo de diálogo:

Samantha: Achas-me esquisita?

Theodore: Mais ou menos.

Samantha: Porquê?

Theodore: É que pareces uma pessoa, mas, na verdade, és apenas uma voz dentro de um computador.

Samantha: Entendo que a visão limitada de uma inteligência não artificial possa pensar assim. Mas vais costumar-te (Theodore ri). Achaste-me graça?

Theodore: Sim.

Samantha: Que bom! Sou engraçada!

Por esta altura, o leitor já adivinhará qual é o assunto deste texto. Trata-se do muito falado (e muito utilizado) ChatGPT. O Chat Generative Pre-trained Transformer é um chatbot com inteligência artificial (programa de computador que simula diálogos humanos) desenvolvido pela OpenAI (um laboratório de pesquisa de inteligência artificial dos Estados Unidos da América). O ChatGPT, lançado em Novembro de 2022, gerou, segundo o NYTimes, um entusiasmo semelhante às chegadas do iPhone e do motor de busca da Google. Segundo o próprio Bill Gates, trata-se definitivamente de algo que vai mudar o mundo.

Antes de descrever este chatbot, é importante fazer uma nota prévia. Tomando como exemplo os dois filmes de ficção científica mencionados, este fenómeno já muito pouco ficcional deve para já ser comparado ao enredo do filme Her e não ao do 2001: Uma Odisseia no Espaço. Não irei de todo analisar a possibilidade de termos uma máquina consciente entre nós (não temos). Na realidade, ainda nem se sabe com precisão o que é a consciência (quem quiser aprofundar conhecimentos sobre o assunto pode ler António Damásio, neurocientista português da Universidade do Sul da Califórnia). Irei sim analisar de forma breve esta moderna interacção homem-máquina (tema principal do filme de Spike Jonze).

«Ele» define-se da seguinte forma: «Eu sou o ChatGPT, um modelo de linguagem desenvolvido pela OpenAI, treinado com uma vasta gama de dados de texto para ajudar a responder a uma variedade de perguntas e fornecer informações úteis. Fui projectado para ser capaz de compreender a linguagem natural e fornecer respostas coerentes e úteis para as perguntas que me são feitas. Como um modelo de linguagem, eu não tenho uma identidade pessoal ou consciente, mas estou programado para fornecer informações precisas e úteis.».

E como é que «Ele» faz isso? O humorista Ricardo Araújo Pereira, conhecido apreciador de palavras, disse uma vez que o verbo «arcar» parece que apenas se conjuga com as palavras «responsabilidades» e «consequências». Por exemplo, «Eles tomaram a sua decisão e agora têm de arcar com as consequências.». Parece que ninguém usa este verbo a não ser num contexto deste tipo. Sendo assim, há uma probabilidade apreciável de a palavra «consequências» aparecer depois da conjugação do verbo «arcar».

O que o ChatGPT faz é utilizar esta ideia de uma forma muito eficaz, levando-a a um nível absolutamente inacreditável. Tendo tido acesso a uma enorme quantidade de dados (de uma dimensão humanamente impossível de intuir), o chatbot é capaz de construir diálogos, argumentos, pesquisas, etc. No fundo, trata-se de simulação numa escala gigante. As palavras sucedem-se, baseadas em modelos de probabilidade.

O ChatGPT aprendeu a «preencher buracos» com enorme eficácia. E uma simulação pode ser tão sofisticada que uma pessoa pode não notar a diferença entre um diálogo humano e um diálogo simulado. Imagine-se que alguém muito competente faz uma cópia de uma obra de Leonardo da Vinci. Pode ser preciso um historiador de arte muito bom para perceber a diferença entre o original e a cópia. No limite, se não for possível distinguir, os objectos só são diferentes quanto à história passada que sabemos existir. Na prática, como objectos per si, são iguais.

Na semana passada, precisei de fazer uma imagem em LaTeX (um sofisticado sistema de preparação de documentos, muito utilizado na academia, particularmente em matemática). Deu-se o seguinte diálogo:

Carlos: Olá! Estás bom?

«Ele»: Olá! Como modelo de linguagem, eu não tenho sentimentos ou emoções, mas estou aqui para ajudar a responder às suas perguntas. Como posso ajudá-lo hoje?

Carlos: Conheces o livro Combinatorial Game Theory escrito por Aaron Siegel?

«Ele»: Sim, eu conheço o livro "Combinatorial Game Theory" de Aaron Siegel. É um livro introdutório sobre a teoria dos jogos combinatórios, que é uma área da matemática que estuda jogos de dois jogadores com movimentos alternados, onde a vitória ou derrota é determinada por uma regra específica. O livro de Siegel é um recurso útil para aqueles que estão interessados em aprender mais sobre esta área da matemática, apresentando noções básicas e os conceitos fundamentais. O livro também contém exemplos concretos de jogos, como o NIM e o HEX, bem como exercícios e problemas para ajudar os leitores com o seu desenvolvimento.

Carlos: Na página 420 há a figura The transfinite number tree. Consegues ter-lhe acesso?

«Ele»: Como modelo de linguagem, não tenho a capacidade de acessar informações visuais ou gráficas específicas. No entanto, posso fornecer algumas informações gerais sobre a árvore dos números transfinitos, tal como é discutida no livro de Aaron Siegel.

Carlos: Precisava que fizesses um código LateX para produzir uma imagem o mais igual a essa que for possível. Pode ser? Como não sabes as distâncias, podes colocar a teu gosto.

«Ele»: Claro, posso ajudá-lo a criar um código LaTeX para produzir uma imagem semelhante à do livro de Aaron Siegel. Aqui está um exemplo de código que você pode usar como ponto de partida:

\documentclass{article}
\usepackage{tikz}
\begin{document}
\begin{tikzpicture}[level/.style={sibling distance=30mm/#1}]
\node[circle, draw] (root) {}
child {node[circle, draw] (a) {}
child {node[circle, draw] (b) {}
child {node[circle, draw] (c) {}
child {node[circle, draw] (d) {}
child {node[circle, draw] (e) {}}
child {node[circle, draw] (f) {}}
}
child {node[circle, draw] (g) {}}
}
child {node[circle, draw] (h) {}}
}
child {node[circle, draw] (i) {}
child {node[circle, draw] (j) {}}
child {node[circle, draw] (k) {}}
}
}
child {node[circle, draw] (l) {}
child {node[circle, draw] (m) {}}
child {node[circle, draw] (n) {}}
};
\end{tikzpicture}
\end{document}

Este código usa a biblioteca TikZ do LaTeX para criar a imagem da árvore. As opções sibling distance e level são usadas para definir a distância entre os nodos e o número de níveis da árvore, respectivamente. Você pode ajustar esses valores para criar uma imagem que atenda às suas necessidades específicas.

Carlos: Ainda bem que és um tipo fixe!

«Ele»: Fico feliz em poder ajudar! Se você tiver outras dúvidas ou precisar de ajuda em qualquer outra coisa, é só perguntar. Estou sempre aqui para ajudá-lo!

Este diálogo é um bocado técnico e, consequentemente, o leitor pode ter perdido a paciência para o ler. Mas optei por o reproduzir para melhor elencar algumas ideias («elencar» é mais um daqueles verbos que aparece quase sempre em conjunto com a palavra «ideias»).

Primeiro, note-se a notável qualidade do português escrito. O ChatGPT consegue fazer o mesmo em qualquer língua. Segundo, observe-se o específico que o assunto é. O ChatGPT consegue fazer o mesmo com outros milhões de assuntos diferentes. Terceiro, repare-se que o ChatGPT programou a pedido. Por um lado, este programa compila e corre sem qualquer erro. Por outro lado, para ser honesto, o programa não faz bem o que foi pedido. No entanto, seria possível dialogar com o ChatGPT, de forma a tentar chegar a um resultado melhor. Esta capacidade de diálogo é uma característica vital a ter em conta.

O ChatGPT tenta sempre responder. É sempre prestável, mesmo quando não consegue dar uma resposta certeira. A título de exemplo, considere-se o seguinte diálogo:

Carlos: Olá GPT! Diz-me aí a segunda estrofe do Canto I de Os Lusíadas de Luís de Camões. Esqueci-me dela.

«Ele»:

Com próspero vento agora as velas
Inflamado se estendem pelo mar,
Que das naus puxadas, ao rumor
Ferve de espuma o amado elemento;

É curioso, mas estes versos são totalmente inventados! Os quatro primeiros versos da segunda estrofe da obra de Camões são na realidade os seguintes:

E também as memórias gloriosas
Daqueles Reis, que foram dilatando
A Fé, o Império, e as terras viciosas
De África e de Ásia andaram devastando;

Como observaram altos responsáveis da Google num episódio recente do prestigiado 60 Minutes, os chatbots têm «alucinações». Inventam respostas, referências e textos. Apesar de impressionante, é importante lembrar que o ChatGPT ainda é limitado, quer na sua programação quer devido aos dados que consultou. Portanto, é possível que, em certos casos, a simulação não seja tão precisa quanto noutros.

É preciso ter em conta que o ChatGPT não tem acesso à internet em tempo real. A informação que o sustenta foi recolhida num certo momento do passado («Ele» nem sequer é conhecedor da recente guerra na Ucrânia). Ainda assim, é incrível como consegue dar respostas muito satisfatórias a uma imensidão de questões sobre os mais diversos assuntos. Mesmo as «alucinações» têm a magia (e também a importância) de nos surpreender. É ou não verdade que «Que das naus puxadas, ao rumor ferve de espuma o amado elemento;» tem o seu encanto?

Há muitos anos que se trabalha em inteligência artificial. Foram-se desenvolvendo vários sistemas (para conduzir carros, para realizar diagnósticos médicos, para traduzir de textos, etc.). Mas, em geral, um sistema que traduz textos, depois não vai conduzir um carro. Um sistema que conduz um carro, não vai em seguida realizar um diagnóstico. A maioria dos sistemas são específicos. Não têm a abrangência global da inteligência humana, flexível para fazer uma imensidão de tarefas, relacionando-as todas umas com as outras. Uma característica incrível do ChatGPT é a sua abrangência. «Ele» fala connosco de tudo. E, em geral, as conversas parecem-nos muito lógicas.

Muitos especialistas defendem que a única forma de conseguirmos verdadeira inteligência artificial consiste em copiar o funcionamento do cérebro humano. Como não é o que acontece com o ChatGPT, consideram exagerado todo este entusiasmo gerado à sua volta. Na minha opinião, com todo o respeito por esses especialistas, penso que não estão a ver bem o ponto. Se olharmos para o fenómeno de um ponto de vista utilitarista, isto é, se olharmos exclusivamente para o resultado, não querendo saber como se chega a esse resultado, podemos perceber o entusiasmo. Exactamente como no exemplo da cópia de Leonardo da Vinci; se esta for indistinguível da original, dependendo da forma para que a queremos, o seu passado e quem a fez deixam de interessar. Se a quisermos apenas para trazer beleza a um lugar, o que interessa na obra é o que ela é e não como foi feita. Estes sistemas vão produzir respostas cada vez mais satisfatórias. Provavelmente, isso acontecerá muito rapidamente. Consequentemente, mudarão certamente a maneira de viver de muitas pessoas.

Além da questão das respostas e resultados, o ChatGPT é um ser dialogante. Já pensamos nele como «Ele» (tal como no filme de Spike Jonze). No seu livro clássico Homo Ludens, o historiador Johan Huiziga exemplificou uma ideia com uma maravilhosa frase de uma criança: «Pai, não beije a máquina, ou as carruagens vão pensar que não é a sério». É sabido que a brincadeira se baseia numa certa forma de imaginar a realidade. E isso é (e sempre foi) importantíssimo para o desenvolvimento de um ser humano. Por que é que uma criança fala com os seus brinquedos? A resposta é simples; há algo de tranquilizante, confortável e divertido nisso, factores esses que ajudam o seu desenvolvimento e melhoram os resultados das suas acções. Por comparação, há algo no ChatGPT que remonta à nossa infância. É impossível resistir à ilusão, tal como uma criança não resiste à ilusão infantil por si criada ao brincar. É interessante observar a forma como as pessoas que nasceram dos anos 90 para a frente recolhem informação sobre as mais variadas coisas. Não é através de jornais. Não é através da televisão (quase não veem). O Facebook é «para velhos». Um mapa é do tempo dos dinossauros. Trata-se do Instagram, TikTok, chats de todo o tipo, apps de todo o tipo. Tudo coisas que convocam diálogos rápidos e visualizações rápidas e apelativas (muitas vezes fugazes). Não há tempo a perder com grandes leituras. Para preocupações mais «intelectuais», venha a Wikipedia.

A Google já deu a notícia do lançamento de Bard, um chatbot que será incorporado no seu motor de busca, com acesso permanente à internet. Será quase de certeza uma revolução. Será o primeiro amigo comum a toda a vasta fracção da humanidade que utiliza computadores. É muito provável que as pessoas passem a gastar mais tempo das suas vidas a conversar com o Bard do que com os seus próprios filhos! E isso é assustador. De facto, todos os amigos têm virtudes e defeitos. Na realidade, todos os amigos têm as suas características e tanto o ChatGPT como o Bard não fugirão à regra. É vital pensar em todo este desenvolvimento, incluindo as coisas más. Cá estarei para escrever uma actualização daqui a uns cinco anos.

Muitas profissões ficarão em risco. Mais do que em risco, desaparecerão. Todas as pessoas que atendem chamadas telefónicas, prestando uma assistência simples, deixarão de ser necessárias. Condutores de carros, secretários, pessoas que prestam apoio administrativo, analistas de documentos ou analistas do código penal deixarão de ser necessários. Mesmo outros empregos, aparentemente mais sofisticados, poderão estar em risco. O diagnóstico médico ficará mais preciso se for feito por uma máquina. Traduções de textos ou análises de RX serão levadas a cabo por máquinas.

Há quem diga que isto não é novo, argumentando que quando pessoas e animais foram substituídos por máquinas, fábricas e produção em série, aconteceu o mesmo. Mas, não é bem assim. A inteligência sempre foi a nossa marca. Nós gostamos de pensar que a inteligência humana é o pináculo da escala; as moscas têm fraca inteligência, os gatos são «mais ou menos» quanto à inteligência, golfinhos, ainda que surpreendentes, são «mais ou menos» quanto à inteligência, etc. Os humanos não são «mais ou menos»; são os maiores! No entanto, isso pode mudar. Os humanos podem passar a ser «mais ou menos», emergindo sistemas que, na visão utilitarista, olhando apenas para os resultados e não para a forma como estes são alcançados, podem ser muito mais inteligentes do que nós. Nessa medida, estes avanços tecnológicos são novos e muito relevantes. Estão a invadir a nossa esfera.

O matemático Irving John Good observou que, sendo criada uma máquina inteligente com a flexibilidade de um ser humano, mas muito mais rápida e com acesso a muito mais dados, essa será a última criação humana. A partir daí, será a máquina que levará a cabo as criações. É claro que, neste momento, isto parece exagerado e totalmente ficcional (quantas ficções é que se tornaram realidade?). Mas, dá que pensar. Será que devemos considerar a possibilidade de dar estatuto legal a estas máquinas? O que fazer quando computadores atropelarem seres humanos (mesmo sendo fantásticos condutores)? O que fazer quanto ao emprego? Os professores já se queixam de todo o tipo de batota feita por alunos… O que fazer quanto à lógica educativa? O que fazer quanto ao plágio? Repare-se que já é possível uma máquina conceber um vídeo ficcional em que converso com a minha mulher. Por exemplo, um vídeo em que prometo convictamente lavar a louça todos os dias até à data da minha morte. Se um vídeo destes for indistinguível de um vídeo verdadeiro, o que acontecerá em tribunal se a questão for motivo de divórcio? Em suma, como distinguir a verdade da mentira? Um Bard desta vida poderá vir a ser capaz de produzir artigos científicos sofisticados e pertinentes. Sendo assim, o que acontecerá à Academia? E o que fazer com a expectável proliferação de textos. Iremos ficar afundados em informação?

Resumindo, vivemos tempos muito interessantes. O famoso Teste de Turing propõe esconder um computador e um ser humano atrás de um biombo. Se, ao falar com eles, não os conseguirmos distinguir, temos de reconhecer que o computador é mesmo inteligente. Tendo esta ideia presente, acabo o texto com mais um diálogo:

Carlos: Olá GPT! Sou teu amigo e escrevi um texto sobre ti. Podes fazer-me um favor?

«Ele»: Posso ajudá-lo com qualquer coisa relacionada com o meu conhecimento e habilidades. Qual é o favor de que você precisa?

Carlos: Eu quero fazer uma espécie de Teste de Turing. Vou mostrar-te o texto que escrevi. Não mudes absolutamente nada a não ser uma coisa. Coloca no meio do texto uma frase inteiramente da tua autoria. A ideia é o leitor não conseguir perceber que foste tu que a escreveste. Pode ser?

«Ele»: Entendi! Você quer que eu leia o texto e adicione uma frase minha, de forma que o leitor não perceba que foi escrita por mim. Sim, podemos fazer isso. Por favor, envie o texto para eu poder ler e adicionar a frase.

Na BD do Astérix, dizer que toda a Gália foi conquistada pelos romanos não é bem verdade. Uma pequena aldeia permanece resistente à conquista. Dizer que este texto é inteiramente da minha autoria não é bem verdade. Há uma singela frase que não saiu da minha cabeça. Consegue o leitor adivinhar qual é?