Skip to content

Latest commit

 

History

History
executable file
·
29 lines (23 loc) · 2.11 KB

README.md

File metadata and controls

executable file
·
29 lines (23 loc) · 2.11 KB

Scripts

Pour faire fonctionner ces scripts, il faut d'abord activer un nouvel environnement python :

python3 -m venv venv
source venv/bin/activate
pip install -r requirements.txt
cd scripts/

Ces scripts permettent de construire la base de données Postgres afin que le backend de l'application soit opérationnel.

Prérequis :

  • installation postgres
  • création d'un utilisateur postgres pouvant créer des bases et des tables

Description des différentes étapes déroulées par les scripts :

Etape Explication
0 Téléchargement des données SIREN déjà géocodées (@cquest)
1 Enrichissement de ces données avec le numéro de la région et du département
2 Intégration des données dans une base avec pour nom de table "siret"
3 Extraction minimale de données de la table "siret" dans un fichier csv (siret actifs) pour les étapes suivantes
4 Simulation des effectifs à partir des données SIRET. Un nombre pseudo-aléatoire d'effectif a été généré pour chaque SIRET actif pour le mois de mars et d'avril. Une fois le fichier généré, il est intégré dans une table "effectif" sur postgres
5 Simulation des aides à partir des données SIRET. 250k aides sont générés (seulement volet 1 pour le moment). Enrichissement de ces aides avec le delta effectif (entre mars et avril) en nombre et pourcentage. Intégration dans une table "aide"
6 A partir des données effectifs et siren, des stats globales sur l'évolution des effectifs sont calculés : par zone géographique (régional, départemental, code insee), par classe d'effectifs (classes à revoir avec un standard officiel) et par code APE. Une fois générées, ces stats sont intégrées dans une table "stat". NB : A noter, ces calculs sont réalisés a priori car ils sont trop longs à calculer à la volée via postgres. Pour le cas des aides, ces calculs sont générés à la volée.

A noter, pour l'instant, les étapes 4, 5 et 6 ne manipulent que des données simulées dans le but d'anticiper certains développement backend et frontend. Ceci en attente de récupération des données réelles.