O que é IA?

Article title: O que é IA?

Article description: Definições de IA, principais paradigmas e o que conta como inteligência em máquinas.

Inteligência Artificial (Artificial Intelligence, AI) é um campo amplo voltado para construir máquinas que realizem tarefas que associamos à inteligência humana (ou animal) — como perceber o mundo, compreender linguagem, raciocinar, aprender com a experiência e agir de forma autônoma para alcançar objetivos. Como tanto “inteligência” quanto “o que conta como IA” são conceitos escorregadios, a IA acumulou ao longo do tempo múltiplas definições, paradigmas e estilos de avaliação complementares.

Este artigo explica as principais formas de definir IA, os grandes paradigmas usados para construir sistemas de IA e a questão central por trás de todos eles: o que devemos considerar comportamento “inteligente” em máquinas?

Definições de IA (e por que existem muitas)

Definições diferentes enfatizam aspectos diferentes de sistemas inteligentes. Nenhuma é universalmente “correta”; elas refletem objetivos diferentes para o campo.

IA como *máquinas que agem de modo inteligente*

Uma definição prática, orientada à engenharia, é:

  • IA é o estudo e a construção de sistemas que se comportam de maneira inteligente em seu ambiente.

Essa visão foca no comportamento: se um sistema realiza de forma confiável tarefas complexas (tradução, direção, diagnóstico), ele é “IA”, independentemente de como funciona internamente.

Exemplo: Um sistema moderno de fala-para-texto que transcreve com precisão áudio ruidoso é considerado IA mesmo que seja “apenas” um grande modelo estatístico.

IA como *agentes racionais*

Um enquadramento comum em livros-texto define IA como:

  • Projetar agentes que percebem seu ambiente e realizam ações que maximizam o alcance esperado de objetivos.

Isso é frequentemente chamado de visão de agente racional (rational agent). Ela inclui naturalmente incerteza, trade-offs e tomada de decisão sob informação limitada.

Exemplo: Um robô aspirador que detecta obstáculos e escolhe ações para cobrir o chão com eficiência é um agente. Se ele escolhe ações que melhoram de forma confiável a cobertura de limpeza, ele é “mais racional” nesse sentido.

IA como *uma teoria científica da inteligência*

Uma definição mais ambiciosa trata a IA como um projeto científico:

  • A IA busca explicar a inteligência (como fenômeno) e reproduzi-la em máquinas.

Essa visão conecta a IA à psicologia, à neurociência e à modelagem cognitiva. Veja Ciência Cognitiva e Neurociência (Cognitive Science & Neuroscience).

Exemplo: Um modelo de percepção visual que reproduz padrões de erro humanos em ilusões pode ser valioso cientificamente mesmo que não seja o sistema de visão de melhor desempenho.

IA como *a automação de tarefas que exigem inteligência humana*

Historicamente, a IA muitas vezes foi definida socialmente:

  • IA é tudo aquilo que computadores ainda não conseguem fazer — assim que conseguem, vira “apenas software”.

Isso às vezes é chamado de efeito IA (AI effect). Não é uma definição rigorosa, mas explica por que “IA” parece se mover com o tempo.

Exemplo: Reconhecimento óptico de caracteres (OCR) já foi “IA”. Hoje é um recurso padrão.

IA forte vs. IA fraca (capacidades vs. mentes)

Filosoficamente, uma distinção central é:

  • IA fraca (weak AI): máquinas podem simular comportamento inteligente.
  • IA forte (strong AI): máquinas podem de fato ter mentes, entendimento ou consciência.

A maior parte da engenharia moderna de IA foca em capacidades, não em consciência. Para debates e experimentos mentais clássicos, veja Filosofia da IA (Philosophy of AI).

IA vs. Aprendizado de Máquina vs. Aprendizado Profundo

Esses termos são relacionados, mas não idênticos:

  • IA é o guarda-chuva amplo: raciocínio, planejamento, aprendizado, percepção, linguagem, robótica, sistemas multiagentes e mais.
  • Aprendizado de máquina (machine learning, ML) é um subconjunto da IA focado em sistemas que aprendem padrões a partir de dados em vez de serem explicitamente programados.
  • Aprendizado profundo (deep learning) é um subconjunto do aprendizado de máquina que usa redes neurais (neural networks) multicamadas treinadas com otimização baseada em gradiente (gradient-based optimization).

Muitos sucessos modernos vêm do aprendizado de máquina (especialmente aprendizado profundo), mas a IA também inclui busca (search), planejamento (planning), lógica (logic) e raciocínio probabilístico (probabilistic reasoning).

Exemplo prático:

  • Um motor de xadrez como o antigo Deep Blue dependia fortemente de busca + avaliação feita à mão (IA, não “pesada em aprendizado de máquina”).
  • O AlphaZero usou aprendizado profundo + aprendizado por reforço (reinforcement learning) para aprender avaliações e políticas (IA + aprendizado de máquina).

Principais paradigmas em IA

A IA tem várias abordagens (“paradigmas”) principais que diferem em como representam conhecimento e produzem comportamento. Para uma comparação dedicada, veja Paradigmas de IA (AI Paradigms).

IA simbólica (regras, lógica e conhecimento explícito)

IA simbólica (Symbolic AI) (também chamada de GOFAI—“IA à moda antiga (Good Old-Fashioned AI)”) representa conhecimento usando símbolos (fatos, regras, enunciados lógicos) e usa procedimentos de raciocínio para derivar conclusões.

Técnicas comuns incluem:

  • Sistemas especialistas baseados em regras
  • Lógica (proposicional / de primeira ordem)
  • Prova automática de teoremas (automated theorem proving)
  • Planejamento clássico (classical planning) (busca orientada por objetivos em espaços de estados)

Pontos fortes

  • Interpretável: regras e provas podem ser inspecionadas
  • Bom para domínios estruturados com restrições claras
  • Dá suporte a raciocínio composicional (“se X e Y então Z”)

Pontos fracos

  • Frágil sob ruído e ambiguidade
  • Difícil de escalar: codificar conhecimento do mundo real é caro
  • Tem dificuldade com percepção (visão/áudio) sem componentes aprendidos

Exemplo: Um sistema de conformidade que verifica se transações violam regulações explícitas costuma ser orientado por regras.

IA estatística / probabilística (incerteza e inferência)

Outro paradigma trata a inteligência como inferência sob incerteza. O mundo é ruidoso; agentes devem raciocinar com probabilidades.

Ideias-chave:

  • Inferência bayesiana (Bayesian inference) e modelagem probabilística (probabilistic modeling)
  • Modelos gráficos (graphical models): redes bayesianas (Bayesian networks), campos aleatórios de Markov (Markov random fields) (veja Modelos Gráficos Probabilísticos (Probabilistic Graphical Models))
  • Teoria da decisão (decision theory): maximizar utilidade esperada (expected utility)

Pontos fortes

  • Tratamento fundamentado de incerteza
  • Pode combinar conhecimento prévio com dados
  • Frequentemente é mais eficiente em dados do que modelos neurais muito grandes (quando a estrutura está correta)

Pontos fracos

  • Escolher a estrutura correta do modelo pode ser difícil
  • Inferência exata pode ser computacionalmente cara

Exemplo: Um modelo de diagnóstico médico pode combinar sintomas e resultados de exames usando dependências probabilísticas.

Aprendizado de máquina (padrões a partir de dados)

No aprendizado de máquina, o sistema aprende uma função a partir de dados, por exemplo, mapeando entradas para saídas.

Subáreas centrais:

  • Aprendizado supervisionado (supervised learning): rótulos fornecidos (spam vs. não spam)
  • Aprendizado não supervisionado (unsupervised learning): descobrir estrutura (agrupamento)
  • Aprendizado auto-supervisionado (self-supervised learning): criar sinais de aprendizado a partir de dados brutos (prever palavras ausentes)
  • Aprendizado por reforço: aprender com recompensas via interação

Questões teóricas aqui incluem generalização (generalization), sobreajuste (overfitting) e complexidade amostral (sample complexity) — veja Teoria do Aprendizado (Learning Theory).

Exemplo: Filtragem de spam em e-mail treinada com exemplos rotulados de spam/ham.

Redes neurais e aprendizado profundo (aprendizado de representações)

O aprendizado profundo usa Redes Neurais (Neural Networks) para aprender representações (representations) automaticamente. O aprendizado profundo moderno é tipicamente treinado com Descida do Gradiente (Gradient Descent) e Retropropagação (Backpropagation).

Um grande motor recente é o Transformador (Transformer) (veja Arquitetura de Transformadores (Transformer Architecture)), que viabilizou modelos de linguagem e multimodais em grande escala.

Pontos fortes

  • Excelente desempenho em percepção e linguagem
  • Aprende características automaticamente a partir de dados brutos
  • Escala fortemente com dados e computação

Pontos fracos

  • Intensivo em dados e computação
  • Pode ser difícil de interpretar e controlar de forma confiável
  • Pode falhar sob mudança de distribuição ou entradas adversariais

Exemplo: Um modelo de visão que detecta câncer em imagens de radiologia aprendendo características diretamente a partir dos pixels.

Aprendizado por reforço (tomada de decisão sequencial)

Aprendizado por reforço (reinforcement learning, RL) treina um agente a agir maximizando a recompensa cumulativa ao longo do tempo.

Conceitualmente:

  • O agente observa um estado (s)
  • Escolhe uma ação (a)
  • Recebe recompensa (r) e o próximo estado (s')
  • Atualiza seu comportamento para melhorar recompensas futuras

Exemplo: Treinar um braço robótico para pegar objetos: recompensa por pegadas bem-sucedidas, penalidades por colisões.

Um pequeno esboço de pseudo-código de RL baseado em valor:

# Very simplified Q-learning loop
for episode in range(num_episodes):
    s = env.reset()
    done = False
    while not done:
        a = epsilon_greedy(Q[s])
        s2, r, done = env.step(a)
        Q[s, a] = Q[s, a] + alpha * (r + gamma * max(Q[s2, :]) - Q[s, a])
        s = s2

Abordagens híbridas e neuro-simbólicas

Sistemas reais frequentemente combinam paradigmas:

  • Percepção neural + planejamento simbólico
  • Recuperação aprendida + restrições baseadas em regras
  • Raciocínio probabilístico sobre incorporações (embeddings) aprendidas

Esses híbridos buscam o melhor dos dois mundos: reconhecimento robusto de padrões e raciocínio estruturado.

Exemplo: Um assistente de suporte ao cliente pode usar um modelo de linguagem neural para interpretar um pedido e, em seguida, usar regras de negócio determinísticas para impor políticas.

O que conta como “inteligência” em máquinas?

“Inteligência” não é uma única capacidade; é um conjunto. Comunidades diferentes enfatizam critérios diferentes.

Critérios baseados em capacidade (o que ele consegue fazer)

Um sistema pode ser chamado de inteligente se demonstrar várias destas:

  • Percepção: interpretar sensores (visão, áudio)
  • Linguagem: compreender e gerar texto/fala
  • Raciocínio: tirar conclusões, resolver problemas novos
  • Aprendizado: melhorar com experiência/dados
  • Planejamento: escolher ações para atingir objetivos
  • Generalização: ter bom desempenho em entradas novas, porém relacionadas
  • Adaptação: lidar com ambientes em mudança
  • Autonomia: operar sem controle humano constante
  • Robustez: permanecer confiável sob ruído e casos extremos

Exemplo: Uma pilha de direção autônoma (self-driving stack) combina percepção (detectar pedestres), predição (prever movimento), planejamento (escolher trajetória) e controle (acionamento).

Testes behavioristas (por exemplo, o Teste de Turing)

Alan Turing propôs julgar a inteligência de máquinas via comportamento em conversa: se um humano não consegue distinguir de forma confiável a máquina de um humano, então a máquina é inteligente (naquele contexto).

Limitações:

  • Mede semelhança humana (human-likeness) mais do que competência
  • Não garante veracidade, ancoragem (grounding) ou raciocínio
  • Pode ser driblado por enganação ou estilo

Ainda assim, o Teste de Turing influenciou avaliações modernas de sistemas conversacionais. Para mais, veja Filosofia da IA (Philosophy of AI).

Critérios internos (representações e modelos do mundo)

Alguns pesquisadores argumentam que inteligência exige estrutura interna:

Exemplo: Um modelo que prevê “se eu mover este bloco, a torre cai” reflete um modelo interno do tipo causal, e não apenas correspondência de padrões.

Inteligência geral vs. competência estreita

A maior parte da IA implantada é IA restrita (narrow AI): altamente capaz em um domínio limitado.

  • IA restrita: se destaca em tarefas específicas (tradução, diagnóstico, roteamento)
  • IAG (Inteligência Artificial Geral) (Artificial General Intelligence, AGI): competência flexível em muitos domínios, adaptando-se como humanos

Os modernos “modelos de base (foundation models)” (modelos grandes de linguagem e modelos multimodais) borram a linha ao executar muitas tarefas, mas ainda assim frequentemente têm dificuldade com:

  • Planejamento de longo horizonte
  • Factualidade confiável e verificação
  • Raciocínio robusto fora da distribuição
  • Ancoragem em causalidade e restrições do mundo real

Fundamentos teóricos: como sistemas de IA funcionam (em alto nível)

Mesmo quando as implementações diferem, muitos sistemas de IA podem ser entendidos por meio de algumas lentes fundamentais.

Busca e otimização

Muitos problemas de IA podem ser formulados como a busca pela melhor opção:

  • Melhor sequência de ações (planejamento)
  • Melhores parâmetros do modelo (treinamento)
  • Melhor explicação (inferência)

O aprendizado profundo é em grande parte otimização sobre parâmetros (minimizar uma função de perda (loss)). O planejamento pode ser otimização sobre sequências de ações.

Representação

Uma questão central é como representar conhecimento:

  • Símbolos e regras (simbólico)
  • Probabilidades e grafos (probabilístico)
  • Vetores e incorporações (neural)
  • Programas (síntese de programas (program synthesis) / código aprendido (learned code))

Escolhas de representação afetam o que é fácil ou difícil de aprender e sobre o que é fácil ou difícil raciocinar.

Generalização e teoria do aprendizado

Por que um modelo treinado com dados finitos funciona em dados novos?

  • Capacidade (capacity) vs. sobreajuste
  • Trade-off viés–variância (bias–variance tradeoff)
  • Regularização (regularization) e vieses indutivos (inductive biases)

Essas questões são centrais em Teoria do Aprendizado (Learning Theory) e se conectam à geometria e à separação linear (linear separation) (veja Modelos Lineares e Geometria (Linear Models & Geometry)).

Computação e sistemas

A IA é limitada por:

  • Complexidade de tempo e memória
  • Pipelines de dados (data pipelines) e treinamento distribuído (distributed training)
  • Estabilidade numérica (numerical stability) e hardware

Essas restrições práticas se conectam a Fundamentos de CC (Core CS) e ao Resumo de Matemática (Math Primer).

Aplicações práticas: onde a IA aparece hoje

A IA é melhor compreendida por meio de sistemas concretos. Algumas categorias representativas:

Percepção (visão e áudio)

  • Detecção de rostos/objetos em fotos
  • Triagem de imagens médicas (por exemplo, detectar anomalias)
  • Reconhecimento de fala para ditado e centrais de atendimento

Linguagem e trabalho do conhecimento

  • Tradução automática e sumarização
  • Autocompletar e geração de código
  • Classificação de documentos (jurídico, finanças, tickets de suporte)

Recomendações e personalização

  • Recomendações de produtos/vídeos
  • Ranqueamento de busca
  • Segmentação de anúncios (com preocupações importantes de privacidade e justiça)

Tomada de decisão e controle

  • Robótica e roteamento em armazéns
  • Precificação dinâmica e otimização de estoque
  • Agentes que jogam (xadrez, Go, esports)

Ciência e engenharia

  • Predição de estrutura de proteínas
  • Descoberta de materiais
  • Acelerar simulação ou resolver problemas inversos

O que a IA *não* é (equívocos comuns)

“IA é consciente” (geralmente falso)

A maioria dos sistemas de IA não tem uma reivindicação científica de consciência ou experiência subjetiva. Eles otimizam objetivos ou aproximam funções. Se algum sistema poderia ser consciente é um debate filosófico e científico em aberto.

“IA entende como humanos” (frequentemente exagerado)

Um modelo pode produzir linguagem fluente sem ancoragem robusta, crenças estáveis ou raciocínio confiável. “Entendimento” pode significar muitas coisas; desempenho por si só não resolve isso.

“IA é objetiva”

Sistemas de IA herdam vieses de:

  • Dados (viés histórico, viés de medição)
  • Rótulos (julgamento humano)
  • Objetivos (o que é otimizado)
  • Contexto de implantação (ciclos de retroalimentação (feedback loops))

Como avaliamos “inteligência” na prática

Como a inteligência é multidimensional, a avaliação também é multidimensional:

  • Desempenho em tarefas: accuracy, F1, BLEU, taxa de vitória (win rate)
  • Robustez: comportamento sob ruído, entradas adversariais, mudança de distribuição
  • Calibração (calibration) e incerteza (uncertainty): a confiança corresponde à correção?
  • Generalização: desempenho em novos domínios ou divisões mais difíceis
  • Segurança e alinhamento (safety and alignment): saídas nocivas, conformidade com políticas (policy compliance), controlabilidade (controllability)
  • Eficiência (efficiency): latência (latency), memória, uso de energia, eficiência amostral (sample efficiency)

Benchmarks (benchmarks) são úteis, mas podem ser enganosos se modelos fizerem sobreajuste a padrões do benchmark ou se o benchmark não refletir condições reais de implantação.

Um modelo mental conciso de IA

Uma forma útil de unificar definições é:

  • A IA constrói sistemas que mapeiam informação em ação de maneiras adaptativas e orientadas a objetivos, muitas vezes sob incerteza.
  • Paradigmas diferentes diferem principalmente em:
    • como representam o mundo (símbolos, probabilidades, vetores),
    • como aprendem ou são especificados (regras vs. dados),
    • como decidem (inferência, planejamento, otimização de política).

Para se aprofundar em como as abordagens atuais evoluíram, veja Uma Breve História da IA (A Short History of AI). Para os limites filosóficos de “inteligência” e “mente”, veja Filosofia da IA (Philosophy of AI).