Machine Learning com Python e R: Decision Trees & Random Forests

Uma abordagem prática com ênfase em Árvores de Decisão e Random Forests

Autor
Afiliações

Caio Lima

Universidade Federal do Pará

Instituto de Ciências Exatas e Naturais

Faculdade de Estatística

Data de Publicação

5 de abril de 2025

1 Autor

Caio Lima

Caio Lima

21 anos
Graduando em Estatística
5º semestre (Desde 2023)

Sou fascinado pela área de Inteligência Artificial, com ênfase em Aprendizado de Máquina, Aprendizad Profundo, IA Generativa e Agentes de IA. Paralelamente, dedico-me ao estudo da Teoria do Cálculo e Teoria das Probabilidades, com foco em compreender suas estruturas formais, demonstrações e aplicações.

Me considero um teórico-empirista, dividindo meu enfoque entre 60% de dedicação à teoria pura e 40% à prática aplicada. Também tenho interesse pelas áreas de Processamento de Linguagem Natural e Visão Computacional, explorando caminhos para o desenvolvimento de sistemas autossuficientes e adaptativos. Tenho uma forte motivação para entender como algoritmos aprendem com dados e como podem ser usados para resolver problemas reais.

Atualmente, sou bolsista PIBIC no projeto de pesquisa intitulado “Técnicas de IA Generativa para Construção de Sistemas Baseados em Large Language Models”, sob orientação do Prof. Dr. Aldebaro Barreto da Rocha Klautau Júnior, vinculado ao Instituto de Tecnologia (ITEC) e ao laboratório LASSE.

O foco da pesquisa é o desenvolvimento de sistemas baseados em LLMs que integram métodos como Retrieval-Augmented Generation e LangGraph, para criação de agentes autônomos aplicáveis em telecomunicações.

LASSE Logo

Núcleo de Pesquisa e Desenvolvimento em Telecomunicações, Automação e Eletrônica (LASSE)

Projeto de Pesquisa: Técnicas de IA Generativa para Construção de Sistemas Baseados em Large Language Models

Orientador: Prof. Dr. Aldebaro Barreto da Rocha Klautau Júnior

Além do foco em IA, também desenvolvo estudos em Econometria, com ênfase na Teoria Hedônica aplicada ao Mercado Imobiliário — área que busca modelar o valor de bens a partir de suas características intrínsecas, sob orientação da Profª Dr. Marinalva Cardoso Maciel. Acredito que a interação entre Estatística, Econometria e Machine Learning abre portas para análises mais robustas e aplicações práticas em mercados complexos, como o imobiliário.

2 Sobre a Oficina

2.1 Nome: Machine Learning com Python e R – Árvores de Decisão e Random Forests

Esta oficina tem como objetivo apresentar conceitos fundamentais de Inteligência Artificial e Aprendizado de Máquina, com ênfase prática em Árvores de Decisão e Random Forests, utilizando Python e R como linguagens base.

Durante os quatro dias de oficina, serão abordados tanto os fundamentos teóricos quanto a implementação prática dos modelos, passando pelas etapas essenciais de um pipeline de Machine Learning: desde a coleta e pré-processamento dos dados até a avaliação de desempenho dos modelos.

A oficina é voltada para alunos de graduação com conhecimentos básicos em programação e estatística, especialmente aqueles dos semestres finais ou intermediários, interessados em aplicações reais da Estatística e da IA.

2.2 Abordagem Didática

A estrutura da oficina está dividida em módulos:

Oficina de Machine Learning

Oficina de Machine Learning

Dia 1: Fundamentos

Objetivo: Pegar a estrada com o pé direito, entendendo os conceitos-chave e preparando os dados.

  • De onde vem o ML no universo da IA? (DL, RL, IA Generativa)
  • Quando usar aprendizado supervisionado vs. não supervisionado?
  • Pré-processamento inteligente: desde dados faltantes até seleção de features importantes.

Dia 2: Árvores de Decisão

Objetivo: Dominar os algoritmos clássicos e aprender a diagnosticar seus modelos.

  • CART e ID3 passo a passo – como a árvore "pensa"?
  • Avaliação de modelos: acurácia, precisão, recall... qual métrica usar?
  • Problemas comuns: overfitting, underfitting e o equilíbrio entre viés e variância.

Dia 3: Otimização e Regularização

Objetivo: Aprender técnicas para deixar seus modelos mais robustos.

  • Tuning de hiperparâmetros: GridSearch vs. RandomSearch
  • Regularização em árvores: como evitar modelos muito complexos?
  • CHAID: árvores para segmentação avançada
  • Comparando modelos: Curva ROC, AUC, MSE e mais
  • Primeiro contato com Ensemble Learning

Dia 4: Ensemble Learning e Florestas Aleatórias

Objetivo: Combinar modelos para resultados melhores!

  • Bagging vs. Pasting: qual a diferença e quando usar?
  • Florestas Aleatórias na prática – por que elas são tão poderosas?
  • Boosting: AdaBoost e Gradient Boosting
  • Stacking: juntando modelos diferentes pra ganhar performance

Precisa saber o quê pra fazer a oficina?

Programação:

  • Se você já manja o básico de Python ou R (sabe o que é e como manipular um loop, uma função, um DataFrame), tá pronto!
  • Experiência com bibliotecas como Pandas, NumPy (Python) ou dplyr, tidyr (R).

Matemática e Estatística:

  • Noções básicas de probabilidade, teste de hipótese e estatística descritiva (média, desvio padrão, distribuições).
  • Conceitos introdutórios de otimização (gradiente, funções de custo) são úteis, mas não obrigatórios.

Ao final da oficina, os participantes terão não apenas compreendido os fundamentos de Árvores de Decisão e Random Forests, mas também serão capazes de aplicar esses modelos em dados reais, utilizando pipelines completos em Python ou R, com uma visão crítica e estatística sobre os resultados.