Além do feitiço da tecnologia: entendendo as imprecisões e limitações da Inteligência Artificial

Cristian Arão, Pesquisador de Pós-Doutorado no Programa de Pós-Graduação em Filosofia da Universidade de Brasília, Brasília- DF.

Logo do periódico Trans/form/ação.

Estudo publicado na Trans/Form/Ação propõe uma análise crítica dos fundamentos epistemológicos da Inteligência Artificial (IA), com foco no método indutivo e na estatística. Através de um exame minucioso de obras que explicam o funcionamento da IA, o artigo, intitulado Por trás da inteligência artificial: uma análise das bases epistemológicas do aprendizado de máquina, busca entender como esses elementos permitem que as máquinas aprendam através do reconhecimento de padrões e possam fazer previsões e oferecer respostas concluindo que, apesar dos avanços proporcionados pela IA, existem debilidades e imprecisões significativas na tecnologia.

Imagem gráfica de um rosto humanoide parcialmente coberto por padrões de placas de circuito justaposto a um fundo de código multicolorido em uma tela preta.

Imagem: Pixabay.

Realizado por Cristian Arão – pesquisador de Pós-Doutorado junto ao projeto “Inteligência artificial: desafios filosóficos” do Programa de Pós-Graduação em Filosofia da Universidade de Brasília (UnB) –o estudo surge da necessidade de compreender problemas como vieses algorítmicos, erros, imprecisões e dificuldades da IA. A metodologia empregada envolveu uma análise aprofundada de conceitos como aprendizado de máquina, redes neuronais e algoritmos. A partir disso, foi possível compreender melhor como o método indutivo e a estatística funcionam como fundamento dessa tecnologia e quais são as consequências e limitações dessa base epistemológica.

Os resultados da pesquisa destacam que, apesar de o método indutivo e a estatística serem amplamente utilizados nas ciências naturais e formarem a base da IA, existem críticas significativas a esses métodos na história do pensamento ocidental. Além disso, há um destaque às imperfeições na tecnologia que muitas vezes são escondidas atrás do caráter fetichista da máquina automatizada. Dentre as quais, podem-se destacar os vieses algorítmicos e as “alucinações”[1]. Esses são exemplos de como as inteligências artificiais podem oferecer respostas problemáticas, preconceituosas ou simplesmente inexatas.

Ilustração de um cérebro com padrões de circuitos, lembrando uma mistura de elementos biológicos e digitais, brilhando com reflexos azuis em um fundo escuro.

Imagem: Pixabay.

A pesquisa conclui que, apesar das limitações e problemas, a IA continua sendo uma das tecnologias mais impactantes do nosso tempo. No entanto, é crucial que continuemos a estudar e entender seus fundamentos para poder melhorar suas capacidades e minimizar suas falhas. Destaca-se também a necessidade de futuros estudos para explorar ainda mais as implicações da IA.

[1] A alucinação da inteligência artificial se refere à ocorrência em que um sistema de IA gera resultados errados ou enganosos. Em outras palavras, a IA “inventa” informações que não estão presentes nos dados em que foi treinada, levando a respostas incorretas ou confusas.

Sobre Cristian Arão

É doutor em filosofia pela Universidade Federal da Bahia, realiza pesquisa de Pós-Doutorado junto ao projeto “Inteligência artificial: desafios filosóficos” do Programa de Pós-graduação em Filosofia da Universidade de Brasília e é membro da ELA-IA (Estratégia Latino-Americana de Inteligência Artificial).

Referências

ARÃO, C. As Redes Sociais e a Psicologia das Massas: A Internet como Terreno e Veículo do Ódio e do Medo. Revista de Filosofia Moderna e Contemporânea [online]. 2021, vol. 8, no. 3, pp. 181–206 [viewed 28 June 2024]. https://doi.org/10.26512/rfmc.v8i3.34292. Available from: https://periodicos.unb.br/index.php/fmc/article/view/34292

EMPOLI, G. Os engenheiros do caos. Tradução de Arnaldo Bloch. São Paulo: Vestígio, 2020.

GRAY, M. L. and SURI, S. Ghost Work: how to stop Silicon Valley from building a new global underclass. Boston: Houghton Mifflin Harcourt, 2019.

KAISER, B. Manipulados: como a Cambridge Analytica e o Facebook invadiram a privacidade de milhões e botaram a democracia em xeque. Tradução de Roberta Clapp e Bruno Fiuza. Rio de Janeiro: Harper Collins, 2020.

PASQUINELLI, M. and JOLER, V. The Nooscope manifested: AI as an instrument of knowledge extractivism. AI & Soc [online]. 2021, vol. 36, pp. 1263-1280 [viewed 28 June May 2024]. https://doi.org/10.1007/s00146-020-01097-6. Available from: https://link.springer.com/article/10.1007/s00146-020-01097-6

SUMPTER, D. Dominados pelos números: Do Facebook e Google às Fake News – os algoritmos que controlam nossa vida. Tradução de Anna Maria Sotero e Marcello Neto. Rio de Janeiro: Bertrand Brasil, 2019.

Para ler o artigo, acesse

ARÃO, C. Por trás da inteligência artificial: uma análise das bases epistemológicas do aprendizado de máquina. Trans/Form/Ação [online]. 2024, vol. 47, e02400163 [viewed 28 June 2024]. https://doi.org/10.1590/0101-3173.2024.v47.n3.e02400163. Available from: https://www.scielo.br/j/trans/a/wKP3thTz35fmhG9pnmXNdMj/

Links externos

Trans/Form/Ação – TRANS: https://www.scielo.br/trans/

Revista Trans/Form/Ação: Instagram | Facebook | Academia.edu

 

Como citar este post [ISO 690/2010]:

ARÃO, C. Além do feitiço da tecnologia: entendendo as imprecisões e limitações da Inteligência Artificial [online]. SciELO em Perspectiva: Humanas, 2024 [viewed ]. Available from: https://humanas.blog.scielo.org/blog/2024/06/28/alem-do-feitico-da-tecnologia/

 

Leave a Reply

Your email address will not be published. Required fields are marked *

Post Navigation