No primeiro artigo desta série procurei abordar os avanços tecnológicos que tornaram possível o surgimento de serviços ou ferramentas inteligentes como o ChatGPT, Co-pilot, Stable Difusion, Dal-E, Midjourney, entre outros. Como dito no primeiro artigo, esta série pretende ter ainda um último artigo — ou talvez mais dois — falando especificamente das ferramentas, hoje, contudo, vamos falar das bases teóricas (alguma matemática!). Confesso que este artigo foi difícil de escrever porque as várias revisões, me fizeram pensar na sua suficiente clareza e simplicidade … e reescrevi diversas partes algumas vezes nessas últimas semanas. A premissa que tentei me impor é a de que um leitor leigo consiga abstrair algum conteúdo útil deste texto, principalmente, que tenha aqui um quadro geral do que realmente é a Inteligência Artificial — o que nós queremos dizer quando o termo é utilizado no contexto das suas aplicações e, de fato, o que está por trás desse conceito.

Se eu alcançar este objetivo, numa linguagem compreensível, me sinto satisfeito.

Epistemologia

Começar com um tópico como este não ajuda muito no meu objetivo, mas eu preciso começar por aqui. A palavra é difícil, porém seu significado é simples: é uma área da filosofia que estuda o conhecimento, ou propriamente como o ser humano aprende, adquire e defende os seus conhecimentos.

Entenda, pelo menos inicialmente, que a ideia por trás da IA é permitir que a máquina (hardware e software) possa entender a inteligência humana como capacidade de alcançar objetivos no mundo [1], ou seja, ser capaz de entender e fazer algo que um ser humano pode fazer. Logo, a IA como uma área da computação “bebe” muito no campo da epistemologia pois para replicar um sistema inteligente, é necessário entendê-lo. Não é à toa que perguntas sobre verdade — o que é verdade? quando um fato é verdadeiro ou não? como reconhecer um item como verdadeiro ou pertencente a um conjunto? — são importantes para sistemas inteligentes. Eles precisam classificar fatos como verdade!

A pergunta proposta por Alan Turing no seu famoso artigo de 1950 (“A máquina pode pensar?”) e que faz parte do seu “Jogo da imitação” [2], propõe um problema: três pessoas estão em um jogo, um homem (A), uma mulher (B) e um examinador “C” que pode ser um homem ou uma mulher. O objetivo do examinador, que conhece “A” e “B” como “X” e “Y” (obviamente sem saber qual é qual e, não tem qualquer contato visual com eles), é saber qual é homem e qual é mulher, podendo lhe fazer perguntas que serão respondidas através de uma folha datilografada [3]. Turing propõe que durante o jogo, “A” seja substituído por uma máquina que irá então dar respostas, a ponto de fazer com que o examinador (“C”) o classifique como um ser humano.

O artigo é interessante porque Turing propõe o que chama de “computador digital”, um dispositivo formado por três unidades: uma de armazenamento (a memória do “computador humano” do jogo), outra que chamou de unidade de execução (que executaria as regras armazenadas) e, uma unidade de controle (que checaria as regras). Turing descreve as bases do que seria um computador completo como os modernos notebooks ou smartphones que você carrega hoje por ai.

Existe uma clara associação na ideia da criação do computador por Turing com a estrutura biológica de um ser humano: um cérebro capaz de armazenar e processar informações. A forma descrita por Turing é semelhante ao nosso processo de aprendizagem, especificamente em seus exemplos: pense em como nós fazemos uma conta de multiplicação ou adição ou processamos um determinado “comando” que nós é dado — caso alguém diga: “escreva o número 42 nessa folha”.

Na minha geração os teóricos da IA eram outros [4] mas a aproximação da teoria do conhecimento continuou. A diferença foi na abordagem. Ao invés de pensar como Turing, ou seja, pensar num sistema capaz de reproduzir/replicar/copiar algo que um ser humano é capaz de fazer, agora a abordagem era de um sistema que pensa e age racionalmente. Na prática, para tornar isso possível, era necessário que a máquina fosse capaz de combinar grandes volumes de dados e, tivesse grande poder computacional para processá-los e resolver problemas em segundos, agindo como um ser humano age quando recebe um comando: ouvir, processar, decidir e executar. Isso a 60–70 anos atrás era simplesmente inexistente, impossível.

Pense de novo no comando dado: “escreva o número 42 nessa folha”. O que acontece, racionalmente, quando você ouve este comando? Considere que tenha um papel e uma caneta em uma mesa bem a sua frente. Basicamente, ouço o comando, entendo-o (processo a informação), tendo os recursos a minha frente, executo-o, fazendo com que meu braço alcance tais recursos, e reproduzo os traços “4 2” na folha. Imagine agora como fazer uma máquina fazer isso… difícil não? por onde começar? Coisas simples como receber a entrada (ouvir) e processar, ou, literalmente analisar a sintaxe de um comando, interpretá-lo e executá-lo, são tarefas bastante complexas. A máquina precisa dominar um campo de conhecimento vasto que para nós é comum, elementar — alguns diriam “nato”.

Por isso, entender o que é conhecimento ou se o conhecimento é possível, embora esteja no ramo da filosofia orienta o desenvolvimento “da mente” das máquinas que vemos derivadas hoje do trabalho de Turing de 1950. Abordarei um pouco mais sobre este assunto quando trouxer a aproximação teológica do tema, tratando da epistemologia dentro da teologia (reformada).

Por hora, está de bom tamanho entender que o jogo de Turing possibilitou a concepção dos modernos computadores, a partir da sua ideia de fazer justamente isso: uma máquina imitar um ser humano. A evolução disso, ou o pensar e agir racionalmente, é muito para este breve artigo. Limito aqui a dizer que muito se avançou nesse objetivo no campo da aprendizagem de máquina.

Contudo, lembre-se: a forma como aprendemos, adquirimos conhecimento ou que definimos conhecimento foi e é importante, aliás, basilar, para que o está sendo feito hoje no mundo das aplicações da IA.

Matemática, finalmente!

A filosofia é importante porque estabeleceu bases conceituais em relação ao conhecimento, vital para a IA. Contudo, na computação, obviamente, domina um empirismo extremo. A formalização matemática é necessária, uma vez que ela é quem vai permitir que o computador “pense” e “decida”. Se você ainda não sabe, aprenda agora: tudo que o computador — a máquina propriamente dita, ou o hardware — é capaz de fazer se resume a dois estados: ligado e desligado, ou zero e um. O transistor, do qual falei no meu primeiro artigo, é a base da máquina digital. Ele age para manter um entre dois estados, recebendo e tratando uma sequência binária de instruções (algo como: “0000110001…1”), conhecida como sequência de instruções binária. A rapidez com que essas instruções são tratadas hoje é excepcional conforme abordei no tópico sobre a capacidade de processamento no primeiro artigo. E, o arcabouço matemático por traz dessas operações que determinam os estados da máquina que permitiram chegar aonde chegamos é igualmente importante. É muito amplo, por esse motivo nós, novamente, usaremos aqui de uma simplificação.

George Boole no século XIX, e a lógica proposional ou booleana (como ficou conhecida), é quem formula a base do que se tornaria a lógica de primeira ordem, usada para que o computador seja capaz, formalmente, de definir o que é verdade numa determinada expressão, reduzindo o conceito para o que é “satisfação” [5]. Você que estudou expressões lógicas deve estar familiarizado com o conceito. Quem não sabe do que eu estou falando, se imagine num mundo onde “sim” ou “não” são as únicas respostas possíveis para uma pergunta (chamada de “afirmação” ou “sentença” ou “proposição”) 😄 [6]. A máquina é capaz de avaliá-las então, decidindo se um conjunto de preposições é verdadeiro ou falso, ou, se um grupo de símbolos pertence a um grupo, ou, ainda, associar determinados símbolos a um significado. Por exemplo:

  1. avaliar a expressão (sentença ou preposição): 1+1 = 2 (verdadeira) ou 1<0 (falsa)
  2. avaliar se o símbolo pertence ao conjunto: “a” pertence ao alfabeto? (verdadeiro)
  3. avaliar se H = X v ¬X é uma tautologia.

O estudo das relações entre os elementos sintáticos (representação) e semânticos (sentido), denominada teoria dos modelos, é uma das principais razões da aplicação da lógica à ciência da computação. Contudo, saiba que considerar uma expressão válida na computação é muito mais que considerá-la verdadeira. Uma fórmula pode ser verdadeira para uma determinada interpretação, mas não ser válida (pode existir outra situação em que a fórmula é falsa). Logo, verdade para a máquina é, em última instância, uma questão de avaliação lógica de uma proposição.

O computador é capaz de avaliar então qualquer “coisa” como verdadeira ou falsa? Mais uma vez a contribuição de Turing inicia uma discussão: o que é passível de ser computado? ou, o que é possível de ser calculado? Essa discussão é importante e se estende até meados do século XX. É necessário saber quando um problema é intratável — não computável ou não possível de ser formalizado lógica e matematicamente. Se um problema não pode ser resolvido em um tempo razoável, (a) trata-se de um problema que precisa ser fatorado ou (b) ele é insolúvel? Existem formas matemáticas para se chegar a essa resposta — formulações que datam das décadas de 50/60/70 por uma série de pesquisadores.

A teoria da probabilidade é fundamental para a IA. Datada do século XVI, fica famosa com Blaise Pascal no século seguinte, quando este mostra como predizer o futuro num jogo de azar. Laplace (já no final do século XVIII) é quem vai aperfeiçoar a teoria, além claro de Thomas Bayes, também no século XVIII. Obviamente toda a matemática discreta, álgebra elementar, álgebra linear, teorias de conjuntos e cálculo numérico tem sua função na computação em geral e muito particular na IA.

Na formulação dos algoritmos [7] de aprendizagem de máquina há uso da teoria da probabilidade. Com análise baysiana, por exemplo, é possível a uma máquina classificar e-mails como “spam” evitando que eles cheguem a sua caixa de entrada. Ou classificar um artigo em categorias pré-determinadas, ou em um software de reconhecimento facial dizer se o que ele está ‘vendo’ é um rosto ou não. Usando regressão linear é possível calcular os mínimos quadrados para, por exemplo, minimizar a diferença entre valores previstos e reais na saída de um processamento. A regressão logística pode ser usada para modelar um resultado binomial de duas ou mais variáveis, o que significa que se há uma relação entre elas, e uma depende das outras, é possível medir essa dependência. Isto é útil por exemplo em modelos de análise de crédito, previsão de eventos futuros e previsão de receitas.

Veja: a matemática (falando de modo geral) é quem formaliza através de regras e modelos, o que será codificado a partir de algoritmos que, grosso modo, são “cérebro” ou “mente” da IA. Esses modelos que têm mais de 200 anos no caso de Bayes, ou mais de 50–70 anos nos casos de formalizações mais recentes, é que permitem que pergunta feita por Turing possa ser respondida hoje: A máquina pode pensar?

A resposta

A resposta exige uma definição. O que entendemos por pensar?

Se pensar é o equivalente a correta classificação de informação, temos todo os dias máquinas “pensando” em nosso lugar quando decidem por exemplo o que vamos ou não ler num feed de notícias, na sua caixa de e-mails ou na sua rede social favorita. Os computadores são bons em classificar porque a matemática é boa para isso e, as máquinas o fazem infinitamente mais rápido do que eu e você.

Se para você pensar significa vencer o maior campeão mundial no jogo Go[8], a máquina então pode pensar. Lee Sedol, o sul-coreano 18 vezes campeão mundial que o diga![9] Um dos jogos mais difíceis do mundo, com mais jogadas possíveis que os átomos que existem no universo, pode ser decomposto e reduzido a estatística e ponderações (como a máquina pode executar o famoso “feeling”) para ganho de áreas, que no final das contas é objetivo do jogo.

Pensar significa criar arte (ilustrações, desenhos, fotos)? todas as imagens neste artigo foram criadas pelos algoritmos do midjourney e dall-e. Nem vamos falar ainda da questão ética por traz desse “problema” [10].

 

Midjourney em ação

Pensar para você significa — como para Turing — a capacidade de uma máquina se passar por um ser humano, numa “conversa normal”, talvez já chegamos lá. Em 2014, pela primeira vez, um algoritmo foi capaz de passar pelo teste [11] e anualmente os competidores melhoram seus scores [12] nesse “jogo”.

Agora se pensar para você é a capacidade de responder uma pergunta formulada, com base no contexto, com respostas assertivas, a openAI talvez esteja chegado lá. A técnica de sumarização de conteúdo, indexação de temas, balanceamento estatístico e altíssimo poder de processamento, nos leva a computação cognitiva: máquinas que são capazes de pensar.

Dependendo da sua definição, essas são possíveis respostas.

Conclusão

Até aqui, já sabemos que lidamos com alguém do outro lado que é extremamente bom em fazer conta. É rápido e faz classificações como ninguém. É capaz de estar dezenas, centenas de passos a nossa frente, calculando cenários possíveis com base no problema que está analisando.

Uma transformação está acontecendo fruto de anos (décadas!) de pesquisa e, de um ambiente propício. As ferramentas surgem com rapidez, bastante especializadas, atacando problemas que exigem capacidade de classificação, análise de cenários e decisões criteriosas, justamente onde os algoritmos levam extensa vantagem sobre o ser humano.

E agora? isso é pensar? Onde vamos parar? Qual o limite da IA? Como ficam as questões acessórias envolvidas (empregabilidade, ética, identidade)?

Muitos assuntos! Vamos discutir um pouco mais no próximo artigo.

Referências

(*) Artigo escrito por Thiago Serra Ferreira de Carvalho. O autor é Mestre em Teologia (M.Div., Makenzie, 2023) e possui os títulos de especialista em: Gerenciamento de Projetos (MBA, FGV, 2010), Teologia (Makenzie, 2020), Ciência de Dados (UNOPAR, 2021), Arquitetura de Software (UNOPAR, 2025) e Análise de Dados e Processamento de Linguagem Natural (MBA, Anhanguera, 2026). É bacharel em Ciência da Computação (UFMT, 2006) e fez o curso livre de Teologia (IBAA, 2020).

[1] A definição que trago aqui é defendida pelo professor John Mcarthy da Stanford University em seu artigo “What is Artificial Intelligence?”, disponível em https://www-formal.stanford.edu/jmc/whatisai.pdf

[2] O famoso “Máquinas e Computação e Inteligência” de Alan Turing — conhecido como o “O Jogo da Imitação”, existe um filme de mesmo nome — está disponível na internet, este é um dos links válidos para uma cópia do artigo: https://redirect.cs.umbc.edu/courses/471/papers/turing.pdf

[3] Para você que não é tão velho assim e teve que buscar no Google o que significa um texto ser datilografado, antigamente, existia um negócio incrível chamado de máquina de escrever que imprimia numa folha de forma mecânica as letras que eram pressionadas … é melhor você olhar no Google para ter ideia. 😄

[4] O livro texto padrão na minha época de universidade era a obra Artificial Intelligence: A modern approach, do Russel e Norvig — doei a pouco tempo o meu exemplar. A seção sobre conhecimento tratava exclusivamente de filosofia, de Aristóteles a Bertrand Russell.

[5] O trabalho de Alfred Tarski, matemático e um dos maiores lógicos do século XX, é extenso mas o mais indicado para quem quiser se inteirar sobre o assunto. Seu artigo mais famoso é “O conceito de verdade nas linguagens formalizadas” uma fonte: https://fil.cfh.ufsc.br/livro-traducao-a-concepcao-semantica-da-verdade-textos-classicos-de-alfred-tarski/

[6] Por favor, me perdoem os matemáticos e lógicos de plantão!

[7] O algoritmo é como um receita de bolo que diz ao computador o que fazer. É literalmente uma receita escrita em uma linguagem entendida pelo computador, que permite com que ele execute passos para um atingir um determinado resultado, executar determinados processamentos, cálculos …

[8] Tudo que sei sobre o jogo Go: https://pt.wikipedia.org/wiki/Go 😄

[9] Imperdível documentário sobre a competição que sagrou o AlphaGo, isso mesmo um programa de computador, como jogador de nono dan no jogo Go. É interessante ver como o algoritmo “se desenvolveu” nas partidas a ponto de surpreender seus programadores: https://youtu.be/WXuK6gekU1Y

[10] Uma visão: https://www.youtube.com/watch?v=aRPY0ctBCzM

[11] Eugene Goostman era o nome dele. Um bot criado por uma dupla de programadores (um russo e um ucraniano), simulando um menino de 13 anos. https://time.com/2847900/eugene-goostman-turing-test/ .

[12] Existe uma competição (Loebner Prize) para o programa que mais se parecer com um humano nos testes. (https://en.wikipedia.org/wiki/Loebner_Prize).