Acessibilidade / Reportar erro
Este documento comenta:

Comentário a “Por trás da inteligência artificial: uma análise das bases epistemológicas do aprendizado de máquina”

Cristian Arão, em seu artigo intitulado “Por trás da inteligência artificial: uma análise das bases epistemológicas do aprendizado de máquina”, publicado nesta revista, afirma que “[...] será demonstrado como a indução e a matematização funcionam como base epistemológica da inteligência artificial e como algumas das limitações dessa tecnologia podem ser explicadas através das debilidades dos métodos que a sustentam” (Arão, 2024ARÃO, C. Por trás da inteligência artificial: uma análise das bases epistemológicas do aprendizado de máquina. Trans/form/ação: Revista de Filosofia da Unesp, Marília, v. 47, n. 2, e02400163, 2024. Disponível em: https://revistas.marilia.unesp.br/index.php/transformacao/article/view/15196
https://revistas.marilia.unesp.br/index....
, p. 01, itálicos meus). Não obstante, o autor não está, estrito senso, apresentando uma demonstração, no referido artigo, pois deveríamos, para esse propósito, considerar uma análise tanto lógico-matemática quanto do ponto de vista de uma refutação metodológica, no âmbito da ciência da computação, conforme foi enfatizado em Sarmento (2004SARMENTO, G. Inteligência artificial, indecidibilidade e transcomputabilidade. Perspectiva Filosófica, v. I, n. 21, p. 179-209, 2004.). Em princípio, as “debilidades” assinaladas são passíveis de correção, se admitirmos a priori a construção de um sistema maximal consistente como base de conhecimento para o modelo de learning machines.

Em um artigo publicado na Revista Perspectiva Filosófica, em 2004, intitulado “Inteligência artificial, indecidibilidade e transcomputabilidade”, eu propus uma abordagem crítica acerca dos fundamentos lógico-epistêmicos da Inteligência Artificial, na qual alguns aspectos de ordem formal e técnica − os quais fundamentam e demarcam o campo de investigações na área de Inteligência Artificial − foram tratados.

Gostaria de observar inicialmente que, no âmbito das ciências empíricas, métodos de análise estatístico-probabilística são utilizados frequentemente na investigação de fenômenos do mundo físico. Não podemos, simplesmente, prescindir de uma lógica indutivo-probabilística, na prática científica. E, certamente, não devemos ignorar algumas de suas limitações formais, quando a comparamos com as lógicas dedutivas, como, p. ex., a lógica matemática clássica. Vale lembrar que, no caso da primeira, a conclusão (de um argumento indutivo) pode, eventualmente, ser falsa e suas premissas verdadeiras, o que não é admissível, no caso da segunda, pois, a falsidade da conclusão é incompatível com a veracidade das premissas. No caso de uma lógica indutivo-probabilística, no entanto, podemos estabelecer uma medida de probabilidade de certeza da conclusão associada à inferência indutiva.2 2 Ver Costa (1993), para uma abordagem filosófica e um tratamento axiomático.

Outro ponto a ser reconhecido, ao contrário da linha argumentativa do autor supracitado, refere-se ao fato de que os modelos matemáticos são imprescindíveis para as teorias físicas; são esses modelos que permitem estabelecer uma interpretação empírica dos enunciados teoréticos e, consequentemente, validar (ou não) as teorias físicas. Para um esclarecimento sobre a relevância epistêmica da abordagem modelo-teorética ,na física atual, veja-se, p. ex., Bunge (1974BUNGE, M. Teoria e Realidade. São Paulo: Perspectiva, 1974.).

Sem propor, neste ensaio, uma discussão de caráter técnico e formal, apresento, em linhas gerais, alguns pontos direcionados à questão da utilização de uma lógica indutivo-probabilística para os “Large Language Models” (LLM’s) construídos com base nas “redes neuronais” que possibilitam, por sua vez, o processo de aprendizagem de máquinas.

Em primeiro lugar, algumas das áreas da ciência da computação diretamente relacionadas com os desenvolvimentos das LLM’s são a linguística computacional, a neurociência computacional e a computação quântica e, em especial, a teoria algorítmica da informação. Em ambas as áreas destacadas, métodos algorítmicos de inferência estatística são amplamente usados.

Uma das subáreas da teoria algorítmica da informação é denominada complexidade de Kolmogorov, que trata de conceitos essenciais para os métodos estatístico-probabilísticos de inferência; esse campo de estudo enseja um tratamento rigoroso do conceito de aleatoriedade, recorrendo-se a métodos algorítmicos, como, p. ex., o algoritmo de “probabilidade de Solomonoff”. Outro método específico para sistemas de aprendizado de máquinas, via redes neuronais, é o emprego da chamada Lógica Bayesiana3 3 Consultar a entrada da Stanford Encyclopedia of Philosophy, para uma exposição introdutória acerca do Teorema de Bayes e da epistemologia bayesiana. . De um modo geral, há várias técnicas metodológicas algorítmicas que permitem um tratamento computacional rigoroso (e passível de correção) de abordagens probabilístico-estatísticas aplicáveis no desenvolvimento dos sistemas de IA.

Sob uma perspectiva filosófica, a teoria do conhecimento compatível com o desenvolvimento desses sistemas de IA é a abordagem epistêmica reducionista proposta por Lehrer (1990LEHRER, K. Theory of Knowledge. New York. Westview, 1990.), na qual o conceito de conhecimento se reduz, estritamente, ao conceito de informação. Lehrer admite que a explicação do conhecimento4 4 Uma abordagem fundamentada na teoria da coerência para a justificação do conhecimento. , na acepção de informação, pressupõe que

  1. P aceita a informação que s;

  2. A informação que s seja correta;

  3. A aceitação da informação que s seja justificada.

em que “P” e “s” são variáveis, “P” designa qualquer indivíduo e “s” denota qualquer informação que possa ser obtida. Dessa forma, “P sabe que s” expressa o “reconhecimento da correção da informação”. A justificativa (ou a comprovação) da informação é o aspecto central da análise epistêmica, haja vista que esse procedimento deveria ser, em princípio, entendido como uma “medida” entre uma “forte razoabilidade e não como certeza completa”, como defende Lehrer. Isso significa que a justificação, do ponto de vista da lógica indutivo-probabilística, está delimitada entre a razoabilidade e a certeza completa (o conceito de “certeza” significa aqui uma forte evidência de caráter comprobatório, dadas as condições suficientes em um certo tempo t, para a confirmação da correção da informação). Em termos probabilísticos, quanto mais próximo de 1 estiver a correção da informação, maior o grau de certeza de sua confirmação.

A teoria algorítmica da informação (subárea da teoria da informação), a qual se encontra na interseção da teoria da computabilidade de Turing e da teoria da informação clássica de Shannon, poderia servir de fundamento computacional para a abordagem advogada por Lehrer, no que tange ao conceito de informação e, consequentemente, justificar que as LLM’s processam (e geram) conhecimento sobre o “mundo físico” de modo análogo ao ser humano.

A questão filosófica principal, nesse caso, se “desloca” para o nível de autonomia que os sistemas cibernéticos de IA poderiam ter para agir de modo independente da intervenção humana. Trata-se de uma questão que, sem dúvida, requer uma reflexão mais aprofundada.

Até o presente momento, no entanto, esses sistemas cibernéticos não exibem efetivamente uma capacidade de autocorreção e tomada de decisões, de maneira interativa e autônoma.

Aqueles que defendem uma abordagem dessa espécie, i.e., que os sistemas cibernéticos de IA podem gerar conhecimento, não podem ignorar que a IA estará sempre limitada - com respeito à sua capacidade cognitiva - em virtude do teorema de incompletude de Chaitin (uma versão do metateorema de incompletude da Aritmética de Gödel)5 5 Veja Sarmento (1994) para uma discussão lógico-epistêmica sobre o tópico. . E, por conseguinte, a IA não pode ultrapassar a capacidade cognitiva do ser humano.

Referências

  • ARÃO, C. Por trás da inteligência artificial: uma análise das bases epistemológicas do aprendizado de máquina. Trans/form/ação: Revista de Filosofia da Unesp, Marília, v. 47, n. 2, e02400163, 2024. Disponível em: https://revistas.marilia.unesp.br/index.php/transformacao/article/view/15196
    » https://revistas.marilia.unesp.br/index.php/transformacao/article/view/15196
  • BUNGE, M. Teoria e Realidade. São Paulo: Perspectiva, 1974.
  • COSTA, N. C. A. da. Lógica indutiva e probabilidade. São Paulo: EDUSP - Hucitec, 1993.
  • LEHRER, K. Theory of Knowledge. New York. Westview, 1990.
  • SARMENTO, G. Estudo das consequências epistemológicas do teorema de Gödel e do problema da palavra para semigrupos em inteligência artificial. 1995. Dissertação (Mestrado) - UFSCar, São Carlos, SP, 1995.
  • SARMENTO, G. Inteligência artificial, indecidibilidade e transcomputabilidade. Perspectiva Filosófica, v. I, n. 21, p. 179-209, 2004.
  • 2
    Ver Costa (1993COSTA, N. C. A. da. Lógica indutiva e probabilidade. São Paulo: EDUSP - Hucitec, 1993.), para uma abordagem filosófica e um tratamento axiomático.
  • 3
    Consultar a entrada da Stanford Encyclopedia of Philosophy, para uma exposição introdutória acerca do Teorema de Bayes e da epistemologia bayesiana.
  • 4
    Uma abordagem fundamentada na teoria da coerência para a justificação do conhecimento.
  • 5
    Veja Sarmento (1994SARMENTO, G. Estudo das consequências epistemológicas do teorema de Gödel e do problema da palavra para semigrupos em inteligência artificial. 1995. Dissertação (Mestrado) - UFSCar, São Carlos, SP, 1995.) para uma discussão lógico-epistêmica sobre o tópico.

Datas de Publicação

  • Publicação nesta coleção
    29 Jul 2024
  • Data do Fascículo
    2024

Histórico

  • Recebido
    10 Maio 2024
  • Aceito
    20 Maio 2024
  • Publicado
    05 Jul 2024
Universidade Estadual Paulista, Departamento de Filosofia Av.Hygino Muzzi Filho, 737, 17525-900 Marília-São Paulo/Brasil, Tel.: 55 (14) 3402-1306, Fax: 55 (14) 3402-1302 - Marília - SP - Brazil
E-mail: transformacao@marilia.unesp.br