Uma análise de dados utilizando o database analítico obtido no projeto @ETL-LINKEDIN
A Pipeline de dados criada no projeto ETL-LINKEDIN envia automaticamente um banco de dados analítico para esse repositório, onde o streamlit está configurado para fazer o deploy.
No arquivo lit.py, é lido um database e os gráficos são montados com base nesses dados.
A estrutura atual seria: processo ETL >> banco de dados analítico >> visualização e análise com streamlit
Para o projeto, foi utilizado python, streamlit e o resultado do projeto @ETL-LINKEDIN
Ao executar a pipeline, automaticamente o dashboard é atualizado com novos dados obtidos.
Para esse processo, foi utilizada a lib PYGithub, que permite criar commits e pushs em repos do github, só precisando de um token pessoal do Github (Que é possível gerar nas configurações da conta).
Links
Relatório Streamlit: https://relatorio-linkedin-vagas.streamlit.app/
Fique a vontade para sugerir análises com base nos dados obtidos.
Clone o projeto
git clone https://github.com/PedroCozzati/streamlit-analise-linkedin
Instale as dependências
pip install -r requirements.txt
Rode o comando:
streamlit run lit.py
Verifique o endereço localhost que é mostrado no terminal
Python, SQL, Pandas, Streamlit, SQLITE