Por que, se olharmos para o quadro universal, os modelos Sua visita nos ajuda a continuar oferecendo o melhor para você! caixa preta não são mais precisos
Quando comecei uma vez que observador de dados, esperava usar modelos de última geração. XGBoost, Redes Neurais. Essas coisas são complexas e interessantes e certamente gerariam melhorias. Mal sabia eu, as modelos enfrentavam um tropeço – explicá-las para outras pessoas.
Quem diria que você precisa entender as decisões tomadas pelos seus sistemas automatizados?
Para minha alegria, tropecei na toca do coelho dos métodos agnósticos de modelos. Com isso, eu poderia ter o melhor dos dois mundos. Eu poderia treinar modelos de caixa preta e depois explicá-los usando métodos uma vez que SHAP, LIME, PDPs, ALEs e H-stat de Friedman. Não precisamos mais trocar precisão por interpretabilidade!
Não tão rápido. Esse pensamento é falho.
Na nossa procura pelo melhor desempenho, muitas vezes perdemos o objetivo do estágio de máquina: isto é, fazer previsões precisas sobre novos dados invisíveis. Vamos discutir por que modelos complexos nem sempre são a melhor maneira de conseguir isso. Mesmo que possamos explicá-los usando outros métodos.
Tags:
Crédito: Natividade Original