CARREGANDO DADOS...

// SELECT * FROM world;

Eu sou Sarah Nascimento

Especialista em dados com foco profundo em Analytics Engineering, Modelagem de Banco de Dados, Arquitetura Cloud e Database Tuning. Minha missão é estruturar bases analíticas eficientes e extrair a máxima performance de ecossistemas de Big Data.

Enviar e-mail

0

Anos de Experiência

0

Projetos e Clientes

0

Tecnologias Core

Minha Expertise

Olá! Sou Sarah Nascimento, especialista em Analytics Engineering, Arquitetura de Dados e Administração de Bancos de Dados (DBA).

Tenho forte atuação técnica conectando as necessidades do negócio com a infraestrutura de dados. Minha vivência abrange desde o desenho de arquiteturas escaláveis (Data Warehouses/Lakehouses) até a modelagem dimensional impecável para suporte analítico.

Sou apaixonada por performance tuning, refatoração de consultas críticas, otimização estrutural de bancos relacionais/analíticos e governança, garantindo que o dado chegue rápido, limpo e com alto nível de confiabilidade ao usuário final.

Stack Tecnológico & Skills

SQL Server & Tuning Avançado Modelagem de Dados Analytics Engineering GCP & BigQuery Arquitetura Cloud (AWS) Python Data Stack Databricks & Delta Lake Modelos Semânticos (BI)

Formação Acadêmica

  • Inteligência Artificial (Graduação) – Universidade Cruzeiro do Sul (2022 - 2024)
  • Física (Licenciatura) – Centro Universitário Una (2024 - 2027)
  • Eletroeletrônica (Pós-médio) – CEFET-MG (2018 - 2021)
  • Mecatrônica (Técnico) – SENAI (2017 - 2018)

Analytics Engineering

Design e implementação de fluxos de transformação de dados e modelagem dimensional, focando na entrega de valor e qualidade da informação.

DBA & Database Tuning

Otimização de performance extrema, administração de bancos relacionais/analíticos, estruturação de índices e refatoração de queries críticas.

Arquitetura de Dados

Desenho de infraestruturas escaláveis em Cloud (AWS/GCP), definição de Data Warehouses, Lakehouses e padrões sólidos de governança.

Data Analytics & Modelos BI

Criação de modelos semânticos robustos e dashboards visuais interativos para traduzir estruturas complexas em decisões de negócio estratégicas.

Showcase Visual & Código

Arquitetura em Prática

Otimização de compute, consultas analíticas de alta performance, modelagem de tabelas e estratégias de database tuning.

databricks_compute_optimize.py
from pyspark.sql import functions as F

spark.conf.set("spark.sql.adaptive.enabled", "true")
spark.conf.set("spark.sql.adaptive.coalescePartitions.enabled", "true")
spark.conf.set("spark.sql.adaptive.skewJoin.enabled", "true")
spark.conf.set("spark.databricks.io.cache.enabled", "true")

df_optimized = spark.table("silver.telemetry_raw") \
    .repartition(F.col("device_id")) \
    .sortWithinPartitions("event_time")

df_optimized.write.format("delta") \
    .option("dataChange", "false") \
    .mode("overwrite") \
    .saveAsTable("silver.telemetry_optimized")
...
zorder_optimization.sql
-- Otimização de leitura e data skipping com Z-Order em tabelas Delta
OPTIMIZE gold.user_transactions
ZORDER BY (user_id, transaction_date);

-- Análise das estatísticas pós-otimização e tuning
DESCRIBE HISTORY gold.user_transactions;
ANALYZE TABLE gold.user_transactions COMPUTE STATISTICS;
...
delta_upsert.py
from delta.tables import DeltaTable

# Instancia a tabela dimensional destino
deltaTable = DeltaTable.forPath(spark, "s3://data-lake/silver/clients")

# Executa o Upsert (Merge) analítico massivo de atualizações
deltaTable.alias("tgt").merge(
    df_updates.alias("src"),
    "tgt.client_id = src.client_id"
).whenMatchedUpdateAll(
).whenNotMatchedInsertAll().execute()
...
create_partitioned_table.sql
-- Estruturação de tabela particionada para performance (Databricks)
CREATE TABLE IF NOT EXISTS silver.events_log (
    event_id STRING,
    user_id STRING,
    event_type STRING,
    event_timestamp TIMESTAMP,
    processing_date DATE
)
USING DELTA
PARTITIONED BY (processing_date)
TBLPROPERTIES (
    'delta.autoOptimize.optimizeWrite' = 'true',
    'delta.autoOptimize.autoCompact' = 'true',
    'delta.deletedFileRetentionDuration' = 'interval 15 days'
);
...
api_ingestion.py
import requests

def fetch_paginated_data(api_url, headers):
    results = []
    page = 1
    
    while True:
        response = requests.get(f"{api_url}?page={page}", headers=headers)
        response.raise_for_status()
        data = response.json()
        
        if not data.get('items'): 
            break
            
        results.extend(data['items'])
        page += 1
        
    return results
...
dbutils_secrets.py
# Governança de acesso via Azure Key Vault / Databricks Secrets
jdbc_user = dbutils.secrets.get(scope="kv-prod", key="db-user")
jdbc_pass = dbutils.secrets.get(scope="kv-prod", key="db-pass")

df_jdbc = spark.read.format("jdbc") \
    .option("url", "jdbc:postgresql://server:5432/prod_db") \
    .option("dbtable", "sales.orders") \
    .option("user", jdbc_user) \
    .option("password", jdbc_pass) \
    .option("fetchsize", 10000) \
    .load()
...
async_web_scraper.py
import httpx
import asyncio
from bs4 import BeautifulSoup

async def fetch_and_parse(url: str, proxy: str = None):
    limits = httpx.Limits(max_keepalive_connections=10, max_connections=20)
    
    async with httpx.AsyncClient(limits=limits, proxies=proxy) as client:
        response = await client.get(url, headers={"User-Agent": "Mozilla/5.0"}, timeout=10.0)
        response.raise_for_status()
        
        soup = BeautifulSoup(response.text, 'lxml')
        payload = [
            {"id": node.get('data-id'), "val": node.find('span', class_='metric').text.strip()}
            for node in soup.select('div.data-row') if node.get('data-id')
        ]
        return payload
...
recursive_hierarchy_analysis.sql
WITH RECURSIVE Hierarchy AS (
    SELECT id, parent_id, amount, 1 AS level
    FROM transactions.raw_ledger
    WHERE parent_id IS NULL
    
    UNION ALL
    
    SELECT child.id, child.parent_id, child.amount, h.level + 1
    FROM transactions.raw_ledger child
    INNER JOIN Hierarchy h ON child.parent_id = h.id
),
RankedLedger AS (
    SELECT *, 
           SUM(amount) OVER (PARTITION BY parent_id ORDER BY level DESC) as rolling_sum
    FROM Hierarchy
)
SELECT * FROM RankedLedger WHERE rolling_sum > 100000;
...

Galeria de Dashboards

Visualizações dinâmicas criadas em Power BI, Grafana e Tableau baseadas em modelos de dados avançados.

Painel Financeiro
Painel Financeiro
People Analytics
People Analytics
Gestão de Projetos
Gestão de Projetos
Gestão de Atendimento
Gestão de Atendimento

Principais Projetos

📊 Analytics Eng. & Modelagem

Construção de modelos semânticos e bases analíticas amplamente otimizadas para monitoramento de KPIs. Desenvolvimento ponta a ponta de dashboards corporativos e relatórios gerenciais escaláveis suportados por arquiteturas consolidadas.

Modelagem Dimensional DAX / Power BI Google BigQuery

🏛️ Integrações & Data Quality

Estruturação de processos automatizados para integração de diversos sistemas operacionais, assegurando a qualidade, consistência estrutural e governança impecável dos dados que chegam à camada analítica.

Python APIs REST Lakehouse

💼 Trajetória Profissional

Data & Business Specialist

Set/2025 - Presente

Ana Gaming | Nova Lima, MG

  • Liderança na arquitetura analítica e estruturação de banco de dados, focando em performance tuning extremo e otimização avançada de queries no ambiente Cloud.
  • Redesign completo de modelos de dados legados para garantir estabilidade e agilidade na camada de consumo.
  • Implementação de frameworks rígidos de governança de dados alinhados com regras de Anti-Money Laundering (AML) e Jogo Responsável.
  • Mentoria e disseminação de melhores práticas em modelagem de dados, arquitetura e SQL avançado para toda a área de tecnologia.

Senior-Level Mid Data Analyst

Mar/2025 - Set/2025

IEBT Innovation | Belo Horizonte, MG

  • Desenvolvimento de modelos analíticos em Python para enriquecimento de bases estratégicas, conectando ecossistemas via APIs e scripts avançados.
  • Atuação direta na definição estrutural de entregas analíticas em projetos de consultoria técnica para clientes grandes como MRV, Petrobras e Bamaq.
  • Monitoramento de integridade e revisão de regras de arquitetura relacional e multidimensional para maximização de performance.
  • Suporte técnico especializado como DBA e mentoria arquitetural para analistas em formação dentro dos squads ágeis.

Data Analyst

Mar/2024 - Set/2025

MRV | Belo Horizonte, MG

  • Modelagem e sustentação de bases de dados analíticas altamente robustas utilizando o Google Cloud Platform (GCP).
  • Criação, refatoração e otimização pesada de queries no Google BigQuery, suportando relatórios financeiros e de engenharia com alta volumetria.
  • Desenho da camada semântica e criação de dashboards interativos no Power BI para embasar estratégias diretas de produtos.
  • Padronização e automação do ciclo de vida dos dados focando sempre em governança, tempo de atualização (SLA) e segurança.

Mid-Level Data Analyst

Out/2023 - Mar/2024

RadarFit | Belo Horizonte, MG

  • Implementação técnica da arquitetura de dados primária e modelagem dimensional para viabilizar toda a operação de analytics do app.
  • Planejamento e construção dos modelos de dados (Star Schema) que alimentavam a matriz de KPIs estratégicos da diretoria.
  • Auditoria constante da consistência de dados reportada em relatórios executivos baseados em bancos relacionais e não-relacionais.
  • Design focado na jornada analítica do usuário utilizando ferramentas de prototipação visual para alinhar expectativas com a diretoria.

Junior Data Analyst & Data Assistant

Mai/2022 - Out/2023

LM 2 Rodas | Nova Lima, MG

  • Apoio prático e direto no desenho arquitetural e sustentação de banco de dados e rotinas ETL operacionais da empresa.
  • Criação de modelagens tabulares eficientes no Power BI, utilizando funções DAX complexas para traduzir as métricas logísticas do negócio.
  • Automação do fluxo de extração e tratamento dos dados, assegurando histórico e estabilidade de acesso da ponta comercial.
  • Diagnóstico de gaps de arquitetura operacional e recomendação de melhores métricas focando em ganhos de performance.

Vamos Otimizar Seus Dados

Precisa estruturar sua arquitetura de dados, implementar modelagem analítica eficiente, realizar um tuning pesado no seu banco de dados ou criar modelos de alto desempenho para suporte à tomada de decisão? Estou à disposição para conectar.