Análise diagnóstica do processo de inbound logístico do Mercado Envios, com foco em performance de agendamentos, identificação de gargalos e uso de modelos preditivos para apoiar o planejamento operacional.
A solução combina arquitetura de dados em camadas (dbt + BigQuery), modelo de previsão de demanda (ARIMA_PLUS) e dashboard interativo no Looker Studio, com recomendações para otimizar a relação com sellers e a operação dos centros de distribuição.
Visão geral do case
- Objetivo: analisar o processo de inbound (agendamentos de sellers → warehouses), identificando gargalos, mensurando KPIs críticos e propondo melhorias operacionais e analíticas.
- Escopo principal:
- Cálculo de KPIs de inbound (on-time rate, atraso mediano, volume de bookings).
- Criação de um Índice de Criticidade por site, warehouse, dia e slot horário.
- Projeção da demanda de agendamentos para as próximas semanas com BigQuery ML.
- Proposta de sistema de agendamento dinâmico e programa de performance para sellers.
- Stack utilizada: BigQuery, dbt, BigQuery ML (ARIMA_PLUS), Looker Studio, Python (EDA/notebooks), Docker.
Relatórios e materiais principais
-
Apresentação executiva (slides)
Apresenta o contexto, os principais KPIs, heatmaps de criticidade, projeções de demanda e recomendações estratégicas.
apresentacao_analise_inbounds_meli.pdf -
Relatório técnico
Detalha a arquitetura em camadas (RAW → STAGING → AUX → MARTS), construção do Índice de Criticidade, resultados do modelo ARIMA_PLUS e plano de monitoramento.
relatorio_tecnico.pdf -
Documento de enunciado / case
Contextualiza o desafio proposto para a vaga de Analista de Dados, com tarefas e perguntas de negócio.
WS_Analista_Sr_BI_Sales.pdf -
Notebook de exploração (EDA)
EDA_Inbound_Meli.ipynb
Importante: A execução do notebook não funcionará, pois ela necessita de credenciais da autora para acesso a dados no BigQuery. O notebook está disponível no colab apenas para visualização de códigos e saídas. -
Dashboard Looker Studio
Dashboard
Estrutura de dados e código
dbt/ – Modelagem em camadas
Arquitetura organizada em RAW → STAGING → AUX → MARTS, focada em rastreabilidade e métricas consistentes.
- Projeto dbt
dbt/dbt_project.yml– configuração do projeto.dbt/profiles/profiles.yml– perfis de conexão (ambiente local/BigQuery).
- Camada Staging (
dbt/models/staging/)dbt/models/staging/stg_facilities.sql– padronização da dimensão de facilities (sites/warehouses).dbt/models/staging/stg_inbound_operations.sql– tratamento da tabela de operações de inbound (agendamentos × chegadas).dbt/models/staging/stg_sellers.sql– staging de sellers para enriquecimento analítico.
- Camada Auxiliar (
dbt/models/auxi/)dbt/models/auxi/dim_site_from_code.sql– dimensão auxiliar para enriquecimento deSITE_IDa partir de códigos de facilities.
- Camada Marts (
dbt/models/marts/)dbt/models/marts/fct_inbound_events.sql– fato granular de eventos de inbound (base para KPIs).dbt/models/marts/agg_inbound_kpis.sql– agregações por site, warehouse, dia e slot horário (on-time rate, atraso, volume).dbt/models/marts/agg_inbound_kpis_norm.sql– normalização de métricas e cálculo do Criticality Index.
sql/ – Scripts de apoio
sql/create_raw_tables.sql– criação das tabelas RAW de entrada (simulação/ingestão inicial).sql/create_stg_analytics.sql– views/tabelas auxiliares para exploração analítica.sql/booking_forecast_model.sql– script de criação/execução do modelo ARIMA_PLUS no BigQuery ML para previsão de bookings por horário e dia.
deploy/ e scripts/ – Execução e automação
deploy/requirements.txt– dependências Python/CLI para execução local.deploy/run_local.sh– script de orquestração local (subida de ambiente, execução de dbt, etc.).scripts/upload_raw.py– carga de dados RAW para o data warehouse (simulando ingestão).Dockerfile- define o ambiente reprodutível para executar o projeto localmente, incluindo dependências necessárias, configuração do dbt e setup de BigQuery, garantindo portabilidade e execução consistente do workflow de análises.
Principais insights da análise
-
Baixa pontualidade e altos atrasos globais
A taxa média de pontualidade (on-time rate) é de 11,03%, com atraso mediano de 346 minutos. Isso revela um problema estrutural de cumprimento de janelas de inbound, com impacto direto em custos e disponibilidade de estoque. -
Gargalos concentrados em horários e sites específicos
Heatmaps por site × slot horário mostram que o slot das 7h é o mais crítico, combinando alto volume com baixa pontualidade. Alguns warehouses chegam a registrar 0% de on-time rate em determinados períodos. -
Índice de Criticidade como leitura de risco operacional
O Criticality Index combina volume de agendamentos e percentual de atraso, tornando claro onde o risco é maior (por país, warehouse, dia e horário). Isso permite priorizar ações em janelas onde o impacto operacional é mais severo. -
Previsão de demanda apoiando planejamento proativo
O modelo ARIMA_PLUS (BigQuery ML) projeta o volume de bookings para as próximas duas semanas, destacando picos em horários como 8h, 17h e 18h. Essas previsões suportam dimensionamento de recursos (docas, equipes) e desenho de janelas de inbound mais eficientes. - Agenda de melhorias combinando tecnologia + incentivos
As recomendações incluem:- Sistema de agendamento dinâmico (slots adaptados à capacidade e demanda prevista).
- Programa de performance para sellers, com acesso prioritário para quem é pontual.
- Expansão de funcionalidades de WMS para acelerar recebimento, conferência e putaway.
- Modelo de abastecimento proativo (auto-replenishment), pré-agendando inbound com base em vendas e projeções.
- Automação de dashboards e alertas (dbt + Airflow + Looker Studio + Cloud Functions + Slack/Teams).
- KPIs recomendados para monitoramento contínuo
Além do on-time rate, são propostos KPIs como Truck Turnaround Time, Receiving Cycle Time, Acurácia de Agendamento e Índice de Criticidade Médio, formando uma visão robusta da saúde do processo de inbound.
Privacidade e boas práticas
- Os dados utilizados são estritamente operacionais e anonimizados na simulação deste case.
- A arquitetura em camadas (RAW → STAGING → MARTS) permite rastreabilidade, versionamento de métricas e governança clara dos cálculos.
- Esta página expõe apenas os artefatos necessários para avaliação técnica do case; o repositório original permanece privado.
Contato
Caso queira discutir este case em mais detalhes:
- GitHub: @silvaniacorreia
- LinkedIn: silvania-correia
- E-mail: silvania.goularte@gmail.com