Sobre mim

Meu nome é Stefani Díaz, sou estudante de Ciência de Dados pela UNINTER. Atualmente, estou focada em fazer projetos sobre Ciência de Dados, para adquirir experiência na solução de problemas de negócio e domínio sobre as ferramentas de análise de dados. Estou buscando uma oportunidade de trabalhar profissionalmente como Cientista de Dados para melhorar a tomada de decisão da empresa, através da construção de soluções usando dados.

Habilidades

Linguagens de Programação e Banco de Dados

• Python com foco em análise de dados
• Web scraping com Python
• SQL para extração de dados
• R para modelagem estatística
• Banco de Dados SQLite, Postres, MySQL, Oracle, MongoDB e Cassandra.

Estatística e Machine Learning

• Estatística descritiva (localização, dispersão, assimetria, kurtosis, densidade)
• Algoritmos de Regressão, classificação, clusterização e "learn to rank"
• Técnicas de balanceamento dos dados, seleção de atributos e redução de dimensionalidade
• Métricas de performance dos algoritmos (RMSE, MAE, MAPE, Confusion Matrix, Precisão, Recall, Curva ROC, Curva Lift, AUC, Silhouette Score, DB-Index)
• Pacotes de Machine Learning: Sklearn e Scipy.

Visualização de Dados

• Matplotlib, Seaborn, Plotly e Bokeh.
• Power BI, Tableau, Metabase e Looker.

Engenharia de Software

• Git, Github, Gitlab, Cookiecutter, Virtual Environment e Docker.
• Streamlit, Flask, Python API's.
• Cloud Heroku, AWS Amazon, Google Cloud Platform ( GCP ) e Azure.

Projetos em Ciência de Dados

Construção de um programa de fidelidade com clusterização de clientes.

Eu usei Python, Estatística e técnicas não-supervisionadas de Machine Learning para segmentar um grupo de clientes com base em suas características de performance de compra, a fim de selecionar grupos de clientes para formar um programa de Fidelidade com o objetivo de aumentar a receita da empresa. E o resultado dessa solução, caso fosse implementada, seria de R$ 15MM de dólares de receita anual.

As ferramentas utilizadas foram:

• Git, Gitlab e Github
• Python, Pandas, Matplotlib e Seaborn
• Jupyter Notebook
• K-Means, Hierarquical Clustering, DBScan
• AWS Cloud (EC2, S3, Postgres, SQLite)
• Metabase Visualization

Identificação de imóveis para compra e revenda a fim de maximizar o lucro

Identificação de imóveis abaixo do preço médio de venda e definição do preço ideal de revenda, a partir de uma análise exploratória de dados em Python.

As ferramentas utilizadas foram:

• Python, Pandas, Numpy e Seaborn
• Anaconda, Pycharm e Jupyter Notebook
• Mapas interativos com Plotly e Folium
• Heroku Cloud
• Streamlit Python framework web

Contato

Sinta-se a vontade para entrar em contato.