Um dos eixos centrais do projeto é demonstrar que os grandes modelos contemporâneos de IA são extremamente eficientes na identificação de padrões, mas não produzem explicações causais no sentido científico clássico
A inteligência artificial (IA) já está presente em diferentes dimensões da nossa rotina — no celular, no ambiente de trabalho, nos serviços públicos. Ela recomenda conteúdos e produtos, seleciona currículos, auxilia em diagnósticos médicos, apoia análises jurídicas e organiza enormes bases de dados com uma rapidez impressionante.
Mas, diante de tantas aplicações, uma pergunta se impõe: como essa tecnologia realmente funciona — e até onde ela pode ir? É a partir dessa reflexão que nasce o projeto “Inteligência Artificial: desafios e limites”, desenvolvido no Departamento de Filosofia da Universidade de Brasília (UnB).
O projeto é apoiado pela Fundação de Apoio à Pesquisa (FAPDF) por meio do Demanda Espontânea (2023), edital que faz parte do Programa de Pesquisa Básica da FAPDF, direcionado a projetos de pesquisa científica, tecnológica e de inovação que buscam validar hipóteses, desenvolver conceitos e consolidar bases experimentais, posicionando-se assim na esteira de níveis iniciais de maturidade tecnológica (TRL 1 a 3).
Coordenado pelo professor Philippe Claude Thierry Lacour, o estudo se dedica a examinar os fundamentos epistemológicos da IA — isto é, as bases que sustentam a forma como esses sistemas produzem resultados. “A inteligência artificial opera principalmente por cálculo formal, probabilidade e indução. O problema é que esses mecanismos não esgotam as formas de racionalidade que estruturam o conhecimento humano”, afirma o professor.
“O fomento da FAPDF foi crucial para estruturar uma dinâmica coletiva de investigação, formar estudantes e ampliar cooperações internacionais. Nosso objetivo é consolidar, no Distrito Federal, um polo de reflexão crítica sobre inteligência artificial” – Philippe Lacour, coordenador do estudo
Para Philippe Lacour, o apoio da FAPDF foi decisivo para consolidar o grupo de pesquisa. “O fomento da FAPDF foi crucial para estruturar uma dinâmica coletiva de investigação, formar estudantes e ampliar cooperações internacionais. Nosso objetivo é consolidar, no Distrito Federal, um polo de reflexão crítica sobre inteligência artificial.”
O núcleo da pesquisa: cálculo não é compreensão
Um dos eixos centrais do projeto é demonstrar que os grandes modelos contemporâneos de IA são extremamente eficientes na identificação de padrões, mas não produzem explicações causais no sentido científico clássico. A pesquisa distingue dois níveis fundamentais:
- correlação estatística, que identifica padrões recorrentes em grandes bases de dados;
- explicação científica, que envolve causalidade, fundamentação teórica e interpretação.
Segundo Lacour, a IA funciona como instrumento heurístico — capaz de organizar informações e formular hipóteses —, mas não substitui o processo explicativo que caracteriza a ciência: “A IA é racional, mas não é uma ciência completa. Ela identifica regularidades, mas isso não equivale a explicar causas.”
Essa distinção é especialmente relevante em áreas como saúde, direito e formulação de políticas públicas, nas quais decisões exigem justificativas transparentes e fundamentadas.
Tradução automática: onde tudo começou
Para aprofundar essa análise, o projeto retoma o campo da tradução automática — área que deu origem histórica à própria inteligência artificial. Ao examinar os limites da tradução de textos culturais e filosóficos, a pesquisa demonstra que o sentido não se reduz à frequência estatística de palavras. Traduzir envolve interpretação, comparação de contextos e escolhas qualitativas.
Esse exemplo ajuda a evidenciar um ponto central da investigação: existem dimensões da racionalidade humana que não podem ser integralmente formalizadas por algoritmos.
Críticas internas e impactos sociais
O estudo também sistematiza críticas contemporâneas à IA em dois níveis. As críticas internas dizem respeito aos próprios limites do cálculo formal, da probabilidade e da indução.
Já as críticas externas envolvem impactos sociais e políticos, como:
vieses algorítmicos;
riscos à privacidade de dados;
concentração de poder tecnológico;
consumo de energia elevado.
O funcionamento das atuais aplicações de inteligência artificial baseia-se, em grande parte, nos chamados grandes modelos de linguagem, que constituem a base tecnológica de muitos sistemas utilizados hoje. Para serem treinados, esses modelos dependem de infraestrutura computacional de alto desempenho, operando em supercomputadores capazes de processar enormes volumes de dados de forma contínua. Esse processo exige grande quantidade de energia elétrica e sistemas intensivos de resfriamento para evitar o superaquecimento dos equipamentos.
Mesmo após o treinamento, o consumo energético continua. Cada interação realizada por usuários é processada em servidores remotos, mantidos em data centers (centros de processamento e armazenamento de dados) que também consomem energia de forma permanente. Quanto maior e mais complexo o modelo, maior tende a ser esse custo.
Por isso, a expansão acelerada da IA tem levantado debates sobre sustentabilidade ambiental e responsabilidade no uso da tecnologia, especialmente em um cenário global de transição energética.
Formação e consolidação de um polo crítico
O projeto fomenta bolsas de iniciação científica e apoio técnico, produção acadêmica e cooperação internacional, fortalecendo a Universidade de Brasília como referência no debate filosófico sobre inteligência artificial.
Mais do que analisar ferramentas específicas, a iniciativa contribui para a construção de fundamentos teóricos capazes de orientar políticas públicas, regulamentações e decisões institucionais.
Compreender a IA é condição para utilizá-la de forma responsável e fortalecer esse debate no Distrito Federal, o que significa posicionar a região no centro de uma discussão estratégica que influencia o presente e o futuro da sociedade.
*Com informações da FAPDF






