Explicações Globais vs Locais

Visão geral

Em aprendizado de máquina explicável e interpretável (explainable and interpretable machine learning), explicações globais e locais respondem a perguntas fundamentalmente diferentes:

  • Explicações globais descrevem o comportamento de um modelo em geral, em todo o espaço de entrada ou conjunto de dados (compreensão do modelo como um todo).
  • Explicações locais descrevem por que o modelo produziu uma previsão particular para um exemplo particular (compreensão por exemplo).

Ambas são úteis — e ambas podem ser enganosas se forem tratadas como mais fiéis, causais ou estáveis do que realmente são. Este artigo explica a distinção conceitual, métodos comuns, quando usar cada uma e os principais riscos que aparecem em implantações reais.

Este tema se encaixa em Explicabilidade/Interpretabilidade dentro de IA Responsável, porque artefatos de explicação frequentemente passam a fazer parte da tomada de decisão, auditoria, confiança do usuário, conformidade e resposta a incidentes.

O que “explicação” significa (e o que muitas vezes não significa)

Na prática de ML, uma “explicação” geralmente significa um resumo interpretável da relação entre entradas e saídas em um modelo treinado. As técnicas de explicação mais populares são:

  • Correlacionais: refletem como o modelo usa características conforme aprendido a partir dos dados, não necessariamente como o mundo real funciona.
  • Aproximadas: muitas vezes são derivadas de modelos substitutos simplificados ou linearizações locais.
  • Dependentes da distribuição: podem mudar dependendo do conjunto de dados de referência usado para atribuição.

Portanto, explicações não são automaticamente:

  • Causais (veja Inferência Causal)
  • Únicas (múltiplas explicações podem se ajustar ao mesmo comportamento do modelo)
  • Estáveis (pequenas perturbações podem mudá-las)
  • À prova de interpretação humana (podem ser lidas incorretamente, receber confiança excessiva ou ser instrumentalizadas)

Entender explicações globais vs locais ajuda a evitar erros de categoria, como usar uma narrativa local para justificar uma política global ou usar uma média global para justificar uma decisão individual.

Explicações globais

Definição e pergunta central

Uma explicação global busca responder:

“Como o modelo se comporta no geral? Quais características importam, em que direção e sob quais condições?”

Explicações globais são tipicamente usadas para:

  • Depuração do modelo e verificações de sanidade
  • Comparação de modelos
  • Comunicação de direcionadores gerais para partes interessadas
  • Auditoria de risco sistemático (por exemplo, discriminação por proxy)
  • Decisões de política ou de produto baseadas no comportamento do modelo

Métodos comuns de explicação global

1) Modelos inerentemente interpretáveis (transparência global por design)

Alguns modelos são globalmente interpretáveis porque sua estrutura é compreensível:

  • Regressão linear/logística: coeficientes como efeitos globais (com ressalvas sobre escalonamento e correlação)
  • Modelos aditivos generalizados (GAMs) (Generalized additive models): funções de forma por característica
  • Árvores de decisão pequenas / listas de regras

Nem sempre são “simples” na prática — características correlacionadas, interações e escolhas de regularização podem complicar a interpretação.

2) Importância global de características

A importância global de características resume quais entradas influenciam as previsões em média.

  • Importância por permutação (permutation importance): mede a queda de desempenho quando uma característica é embaralhada
  • Importância baseada em árvores (por exemplo, ganho de divisão): rápida, mas pode ser enviesada em favor de características com alta cardinalidade
  • Agregação global de SHAP (Global SHAP aggregation): média das atribuições absolutas em muitas amostras (veja SHAP)

Uma limitação importante: “importância” não significa automaticamente “bom para mudar” ou “causal”.

3) Gráficos de efeito global: PDP e ALE

Eles respondem: “O que acontece com as previsões se variarmos uma característica?”

  • Gráficos de Dependência Parcial (PDPs) (Partial Dependence Plots): previsão média como função de uma característica
    Link: Gráficos de Dependência Parcial
  • Efeitos Locais Acumulados (ALE) (Accumulated Local Effects): projetados para serem mais robustos sob características correlacionadas

PDPs podem ser enganosos quando as características são fortemente correlacionadas, porque avaliam o modelo em combinações irreais (fora da distribuição).

4) Modelos substitutos globais (destilação)

Treinar um modelo interpretável para imitar um modelo complexo:

  • Ajustar uma árvore de decisão rasa para aproximar a caixa-preta
  • Ajustar uma lista de regras ou um modelo linear esparso nas previsões da caixa-preta

Isso fornece interpretabilidade do substituto, não interpretabilidade garantida do modelo original. A métrica-chave passa a ser a fidelidade (fidelity) (o quão bem o substituto corresponde à caixa-preta).

Exemplo prático: política de pontuação de crédito

Suponha que um banco treine uma árvore com impulsionamento por gradiente (gradient-boosted tree) para prever risco de inadimplência.

Perguntas globais podem incluir:

  • Estamos nos apoiando fortemente em “CEP”, que pode atuar como proxy de atributos protegidos?
  • O risco diminui monotonicamente com a renda, ou há “saltos” estranhos?
  • O comportamento do modelo é estável ao longo do tempo ou entre regiões?

Ferramentas globais podem mostrar:

  • Importância por permutação: debt_to_income e delinquency_count dominam.
  • PDP para income é não monotônico (inesperado), sugerindo vazamento ou efeitos de interação.
  • SHAP global indica que zip_code é altamente influente, levantando preocupações de justiça (veja Justiça em Aprendizado de Máquina).

Explicações locais

Definição e pergunta central

Uma explicação local busca responder:

“Por que o modelo previu esta saída para esta entrada?”

Explicações locais são tipicamente usadas para:

  • Recurso para o usuário final e suporte à decisão (“O que motivou minha recusa?”)
  • Revisão de casos e recursos
  • Depuração de falhas individuais
  • Narrativas de conformidade vinculadas a decisões individuais (comum em crédito/seguros/saúde)

Métodos comuns de explicação local

1) Métodos de atribuição (contribuições de características para uma previsão)

Eles atribuem um escore de contribuição por característica para um único exemplo.

  • Valores SHAP (SHAP values): atribuição baseada em teoria dos jogos com múltiplas variantes
  • LIME: ajusta um modelo local simples ao redor do ponto amostrando vizinhos perturbados (veja LIME)
  • Gradientes Integrados / mapas de saliência (saliency maps) (aprendizado profundo): atribuições baseadas em gradiente para imagens/texto

Atribuições locais respondem “quais características o modelo usou”, mas não necessariamente “o que você deveria mudar” ou “o que causou o resultado”.

2) Explicações contrafactuais (ação “e se”)

Elas respondem:

“Qual mudança mínima inverteria a previsão?”

Exemplo: “Se sua utilização de crédito fosse 28% em vez de 41%, a decisão mudaria.”

Contrafactuais são atraentes porque sugerem possibilidade de recurso, mas dependem de restrições (o que é viável), suposições causais e de como você define “mínima”.
Link: Explicações Contrafactuais

3) Explicações baseadas em exemplos

Elas explicam uma previsão referenciando exemplos de treinamento semelhantes:

  • k-vizinhos mais próximos no espaço de embeddings
  • Protótipos e críticas
  • Funções de influência (quais pontos de treinamento mais afetaram a previsão)

Podem ser intuitivas (“você foi classificado como estes casos anteriores”), mas podem vazar informação privada se não forem tratadas com cuidado.

Exemplo prático: uma previsão médica anômala

Um modelo hospitalar prevê alto risco para um paciente que parece clinicamente estável.

Uma explicação local pode mostrar:

  • Alta contribuição de um valor de exame laboratorial que foi inserido incorretamente (problema de qualidade de dados)
  • Contrafactual: corrigir esse valor remove a previsão de alto risco
  • Mapa de saliência (para imagem) destaca um artefato em vez de patologia (correlação espúria)

Explicações locais são particularmente úteis para expor modos de falha de caso único e para orientar escalonamento.

Como explicações globais e locais se relacionam

Explicações globais e locais não são opostos; são projeções diferentes do mesmo objeto.

  • Uma explicação global pode ser formada agregando explicações locais (por exemplo, média de |SHAP| nas amostras).
  • Uma explicação local frequentemente é calculada usando suposições que podem não corresponder ao comportamento global (por exemplo, uma aproximação linear local).

Uma implicação crucial:

Um método pode ser fiel localmente (perto de um ponto), mas enganoso globalmente, e vice-versa.

Verdade global vs verdade local (e não linearidade)

Considere um modelo com interações fortes:

  • Para a maioria das pessoas, income reduz o risco de inadimplência.
  • Mas, para um pequeno subgrupo com histórico de emprego instável, maior income se correlaciona com mudanças recentes de emprego, aumentando o risco previsto.

Um gráfico global pode afirmar “renda reduz risco”, enquanto uma explicação local para um indivíduo específico diz “renda aumentou seu risco”. Ambas podem ser consistentes.

Riscos e modos de falha

Riscos específicos de explicações globais

  1. Médias escondem heterogeneidade
    Sumários globais frequentemente colapsam subpopulações. Isso pode mascarar impactos díspares entre grupos (veja Justiça em Aprendizado de Máquina).

Exemplo: uma importância global de características mostra que “gasto com saúde” é importante, mas para uma demografia ela reflete problemas de acesso em vez de necessidade.

  1. Paradoxo de Simpson e confundimento
    Tendências agregadas podem se inverter dentro de subgrupos. Explicações globais podem errar direcionalmente quando a estrutura de grupos importa.

  2. Enganos devido a características correlacionadas
    Importâncias globais e PDPs podem se comportar de forma estranha quando características são correlacionadas (por exemplo, zip_code e proxies de renda).

  3. Confiança excessiva no modelo substituto
    Um substituto global pode parecer limpo e simples enquanto falha em corresponder ao modelo real em regiões críticas. Isso cria uma explicação “de historinha”.

  4. Supergeneralização para política
    Partes interessadas podem tratar padrões globais como leis imutáveis (“o modelo usa X, então X deve ser verdadeiro no mundo”), levando a decisões de política ruins.

Riscos específicos de explicações locais

  1. Instabilidade e não unicidade
    Muitos explicadores locais são sensíveis a:
  • Seeds aleatórias / amostragem (comum no LIME)
  • Pequenas perturbações na entrada
  • Escolha do conjunto de dados de base/referência (comum em variantes de SHAP)
  • Escolhas de codificação de características (one-hot vs ordinal)

Duas explicações locais igualmente plausíveis podem discordar para a mesma instância.

  1. Fidelidade local não implica validade global
    Uma explicação linear local pode se ajustar bem perto do ponto e ainda assim ser enganosa sobre a lógica real de decisão, especialmente para modelos altamente não lineares.

  2. Contrafactuais podem ser irreais
    Um contrafactual pode propor mudar variáveis imutáveis ou fortemente acopladas:

  • “Diminuir sua idade em 5 anos”
  • “Mudar seu CEP” (viável em teoria, mas eticamente e praticamente problemático)
  • “Reduzir dívida mantendo todo o resto constante” (pode ser financeiramente impossível)

Restrições de viabilidade e estrutura causal importam.

  1. Atribuições podem ser confundidas com motivos
    Usuários podem interpretar contribuições de características como justificativa moral (“o modelo negou por causa de X”), quando a explicação na verdade significa “X foi preditivo dado os dados de treinamento”.

  2. Vazamento de privacidade e segurança
    Explicações locais podem revelar informações sensíveis:

Riscos compartilhados (globais e locais)

  • Confusão de causalidade: explicações ≠ causas
  • Risco de apresentação: visualizações de explicação podem persuadir mesmo quando estão erradas
  • Gaming de métricas: equipes podem otimizar por “explicações bonitas” em vez de modelos melhores
  • Desalinhamento regulatório: fornecer um artefato de explicação não garante conformidade se a explicação não for fiel ou acionável

Um exemplo concreto de fluxo de trabalho (global + local com SHAP)

A seguir, uma ilustração simplificada usando um modelo de árvores. Ela mostra como a mesma ferramenta pode suportar visões globais e locais.

import shap
import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.ensemble import HistGradientBoostingClassifier

# X, y are your features and label
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0)

model = HistGradientBoostingClassifier().fit(X_train, y_train)

# TreeExplainer works well for tree-based models
explainer = shap.TreeExplainer(model)

# Local explanations: SHAP values for each example
shap_values = explainer.shap_values(X_test)

# Global explanation: mean absolute SHAP value per feature
global_importance = pd.Series(abs(shap_values).mean(axis=0), index=X_test.columns) \
                      .sort_values(ascending=False)
print(global_importance.head(10))

# Local explanation for a single case
i = 0
x = X_test.iloc[i]
sv = shap_values[i]
local = pd.Series(sv, index=X_test.columns).sort_values(key=abs, ascending=False)
print(local.head(10))

Orientação de interpretação:

  • A importância global responde “quais características importam mais em média?”
  • A explicação local responde “quais características importaram mais para este caso?”
  • Se global e local discordam, isso pode indicar interações, efeitos de subgrupos ou instabilidade da explicação — cada um vale investigação.

Escolhendo entre explicações globais e locais

Use explicações globais quando você precisar:

  • Validar comportamento amplo (verificações de sanidade, detecção de vazamento)
  • Identificar dependência sistemática de características problemáticas (proxies, atributos sensíveis)
  • Comunicar direcionadores do modelo para a liderança
  • Comparar modelos candidatos para implantação
  • Apoiar auditorias e avaliações de risco

Use explicações locais quando você precisar:

  • Apoiar revisão humana de decisões individuais
  • Fornecer razões e recurso voltados ao usuário (com cuidado)
  • Depurar falhas individuais e outliers
  • Investigar incidentes (por exemplo, “por que este deu errado?”)

Uma regra prática

  • Explicações globais são melhores para governança e compreensão do sistema.
  • Explicações locais são melhores para suporte à decisão e trabalho por caso. A maioria das implantações reais precisa de ambas.

Avaliando a qualidade de explicações (o que testar)

Explicações devem ser tratadas como saídas do modelo: artefatos testáveis e falíveis.

Dimensões comuns de avaliação:

  • Fidelidade (fidelity): a explicação reflete com precisão o modelo?
    Para substitutos, medir o quão bem o substituto corresponde às previsões.
  • Estabilidade/robustez: explicações mudam drasticamente sob pequenas perturbações?
  • Sensibilidade: se uma característica “importante” for alterada, a previsão muda de acordo?
  • Consistência: entradas similares recebem explicações similares?
  • Utilidade humana: o público-alvo consegue agir corretamente com base nela?

Para explicadores locais, uma verificação simples é um teste de perturbação: remover ou aleatorizar as características com maior atribuição e verificar se a previsão muda mais do que quando você aleatoriza as de menor atribuição.

Orientações para implantação responsável

  1. Combine a explicação com a decisão
    Não use sumários globais para justificar um resultado individual e não extrapole uma única narrativa local para uma narrativa de política.

  2. Explique incerteza e limitações
    Se explicações são instáveis ou dependentes da distribuição, diga isso. “Esta explicação é aproximada e pode variar com os dados de referência” geralmente é mais responsável do que excesso de confiança.

  3. Segmente sua análise global
    Calcule explicações globais por subgrupo (região, tipo de produto, grupo demográfico quando legal e eticamente apropriado). Isso ajuda a evitar cegueira do “caso médio”.

  4. Restrinja contrafactuais
    Se você fornecer recurso contrafactual, codifique:

  • Características imutáveis (idade) como fixas
  • Restrições de viabilidade (acoplamento renda/dívida)
  • Restrições de plausibilidade (permanecer na variedade dos dados)
  1. Monitore explicações ao longo do tempo
    Deriva de explicações pode ser um sinal precoce de deriva de dados ou mudança de comportamento, complementando Monitoramento de Modelos.

  2. Considere abordagens mais profundas quando os riscos forem altos
    XAI tradicional explica comportamento entrada-saída. Se você precisar de alegações mais fortes sobre computação interna, considere Interpretabilidade Mecanicista (Intro), reconhecendo que é mais intensivo em pesquisa e nem sempre viável para garantia em produção.

Resumo

  • Explicações globais fornecem compreensão do modelo como um todo, úteis para auditoria e governança, mas podem ocultar efeitos de subgrupos e supergeneralizar.
  • Explicações locais esclarecem previsões individuais, úteis para revisão e recurso, mas podem ser instáveis, não únicas e facilmente mal interpretadas como justificativa causal.
  • Ambas são aproximações que devem ser validadas, comunicadas de forma responsável e escolhidas com base na pergunta da parte interessada.

Quando bem usadas, explicações globais e locais se complementam: métodos globais revelam comportamento sistemático, enquanto métodos locais revelam direcionadores e falhas específicos do caso. Quando mal usadas, podem produzir narrativas persuasivas, porém incorretas — um dos riscos centrais na explicabilidade responsável.