Réaliser un projet Nous rejoindre
Apside & S3NS : Pionnier Cloud de Confiance

Apside & S3NS : Pionniers du Cloud de Confiance

02-07-2025 Cloud Expertise

Apside, Pionnier du Cloud de Confiance & des services Google Cloud (Early Adopter)

Chez Apside, l’innovation et l’adoption précoce de technologies de pointe sont au cœur de notre stratégie. En tant qu’Early Adopter du Cloud de Confiance de S3NS, nous avons eu l’opportunité de tester les services Google Cloud Platform dans un environnement souverain alliant sécurité, scalabilité et performance.

Pourquoi S3NS ?

Pour répondre aux enjeux de souveraineté et de conformité de nos clients les plus sensibles, nous avons participé dès début 2025 au programme d’adoption anticipé de S3NS, le cloud de confiance co-développé par Google Cloud et Thalès. Cette immersion nous a permis d’approfondir notre expertise et de valider des cas d’usage réels dans un cadre sécurisé.

 

Notre Démonstrateur : traitement des données d’assurance sensibles

Cas d’usage du démonstrateur

Simuler la migration et l’exploitation de données sensibles issues du secteur assurance, depuis leur génération on-premise jusqu’à leur visualisation dans le cloud, tout en garantissant traçabilité, sécurité et anonymisation.

Architecture Technique Résumée

  • Terraform pour l’infrastructure (GCP, Kubernetes, Kafka, Storage…)
  • Python pour la synchronisation, la publication Kafka et la supervision
  • Kafka comme bus d’événements
  • Prometheus/Grafana pour la supervision

L’objectif de cet article complet est de fournir un guide reproductible, avec des extraits de code concrets, pour déployer et exploiter ce type d’architecture.

 

Notre architecture sur S3NS

Dans notre cas d’usage, en tant que DSI d’une société d’assurance, les systèmes <on-premise> ont été historiquement déployés de cette manière pour garder la maitrise des données sensibles. Mais face à la croissance des volumes, ainsi que la nécessité d’analyser rapidement les données et à la demande de nouveaux services, la scalabilité du cloud devient incontournable.

Le défi est donc de migrer et exploiter ces données sensibles dans le cloud, sans compromis sur la sécurité ni la conformité.

Notre POC simule un flux de traitement de migration de données d’assurance, depuis sa collecte sur site jusqu’à la visualisation, en passant par le stockage et l’analyse avancée.

architecture-apside-source-on-premise-vers-systeme-operationnel-cloud-s3ns.png

Composants clés :

L’infrastructure est décrite et provisionnée via Terraform, permettant la gestion déclarative des ressources (réseaux, IAM, KMS, GKE autopilot, BigQuery, stockage). Les workloads applicatifs sont orchestrés sur Kubernetes (GKEA), avec une séparation stricte des namespaces et des secrets pour l’isolation.

  • Provisioning : Modules Terraform pour GKE, BigQuery, KMS, IAM, stockage.
  • Sécurité : Utilisation de KMS pour le chiffrement qui rajoute une couche de sécurité mais pas nécessaire en EAP, IAM pour le contrôle d’accès, secrets Kubernetes pour les credentials et un VPC Service Control.
  • Observabilité : Prometheus pour la collecte de métriques, Grafana pour la visualisation, intégration native avec les workloads Python.

 

Prérequis : configuration d’un workforce Identity Federation (WIF) via SAML ou OIDC.

#Export variables :

AUDIENCE=locations/global/workforcePools/$WorkforcePool/providers/$Provider

UNIVERSE_WEB_DOMAIN=”cloud.s3nscloud.fr”

UNIVERSE_API_DOMAIN=”s3nsapis.fr”

gcloud iam workforce-pools create-login-config $AUDIENCE –universe-cloud-web-domain=”$UNIVERSE_WEB_DOMAIN” –universe-domain=”$UNIVERSE_API_DOMAIN” –output-file=”$home_repo/wif-login-config.json”

gcloud auth list

output

article-de-blog-s3ns-apside-4.png

Déploiement de la Landing Zone via Terraform :

La landing zone S3NS a été déployée automatiquement avec Terraform, en utilisant les providers et APIs spécifiques à S3NS (ex : endpoints `s3nsapis.fr`).

Particularités S3NS :

  • Gestion des identités et accès (IAM) adaptée à la souveraineté.
  • Utilisation de KMS S3NS pour le chiffrement des données.
  • Déploiement de ressources (GKE, BigQuery, Storage, etc.) dans une région française
  • Configuration des providers Terraform pour pointer vers les APIs S3NS et gérer les credentials de service account de confiance.

## Everytime to login with ADC also – Required to run Terraform modules or impersonate using SA

gcloud auth application-default login –login-config=wif-login-config.json

Backend & provider :

article-de-blog-s3ns-apside-3.png

On-premise :

Les experts Apside ont simulé un environnement local (on-prem) pour générer des données d’assurance (clients, contrats, etc.) à l’aide de scripts Python. Ces données sont stockées dans des fichiers CSV dans un répertoire local (`./data_onprem`).

Ce choix permet de reproduire un contexte réel où les données sensibles sont d’abord créées et stockées sur site, avant toute migration vers le cloud.

Script de migration/ingestion : synch-to-cloud.py load-to-bq.py

 

Pour migrer les données depuis on-prem vers le cloud, les Apsidiens ont développé des scripts Python :

– synch-to-cloud.py : surveille le répertoire local, détecte les nouveaux fichiers et les transfère vers Cloud Storage S3NS.

– `load-to-bq.py` : charge les fichiers depuis Cloud Storage vers BigQuery pour analyse.

Ils ont contourné l’absence de Cloud Functions S3NS (qui arriveront prochainement sur la plateforme) en orchestrant ces étapes via des scripts et des jobs Kubernetes, tout en assurant la traçabilité et la robustesse du pipeline.

article-de-blog-s3ns-apside-2.png

Infrastructure Kafka dans GKE Autopilot :

Pour simuler un bus d’événements cloud-native, une stack Kafka a été déployée sur GKE Autopilot (cluster Kubernetes managé S3NS, le seul disponible dans l’EAP).

article-de-blog-s3ns-apside.png
article-de-blog-s3ns-apside-1.png

Kafka permet de bufferiser, distribuer et traiter les flux de données en temps réel, tout en restant dans l’environnement de confiance S3NS.

article-de-blog-s3ns-apside-5.png

Génération et anonymisation

Les données clients sont générées via des scripts Python notamment avec les librairies Python FAKER, puis anonymisées selon des règles configurables (hash, masquage, suppression). L’anonymisation est réalisée en streaming ou batch, avec suivi des lignes traitées et stockage des résultats dans BigQuery.

Ingestion et Traitement avec Bigquery

Les fichiers CSV sont chargés dans GCS, puis importés dans BigQuery via des jobs Python instrumentés (prometheus_client).

Anonymisation incrémentale

Avant l’analyse, un service d’anonymisation (Python) traite les données pour masquer les informations sensibles (noms, emails, etc.), en appliquant des règles d’anonymisation (hash sha256 avec du bruit, masquage, etc.).

Ce composant garantit que seules des données anonymisées sont exploitées pour l’analyse, en conformité avec les exigences réglementaires.

Application Flask déployée dans le GKE Autopilot :

Au cœur de notre POC, les experts ont développé une application Flask qui sert d’interface utilisateur pour la gestion, l’upload et la visualisation des données d’assurance migrées.

Architecture & sécurité :

L’application est conteneurisée (Docker) et déployée sur Kubernetes. Elle intègre :

  • Authentification et gestion des rôles : via Flask-Login et des modèles SQLAlchemy
  • Sécurité avancée
  • Formulaires robustes pour l’upload de fichiers dans GCS, la saisie de données d’assurances, intégré par la suite dans Bigquery.
article-de-blog-s3ns-apside-7.png

Fonctionnalités principales :

  1. Upload : les utilisateurs peuvent déposer des fichiers de données d’assurance, qui sont ensuite stockés dans un bucket S3NS et traités par le pipeline.
  2. Visualisation : les données clients sont consultables via la connexion à Bigquery.
  3. Admin : Gestion des users, rôles et accès au dashboard.
article-de-blog-s3ns-apside-8.png

Data visualisation :

Pour compléter notre chaine de traitement, un choix a été arbitré afin d’utiliser Grafana, qui est partenaire d’Apside dans le domaine, et leader dans le monde de la data-vizualisation afin de monitorer :

  • Les métriques de performance système
  • Les tendances dans les données de l’assurance
  • Les alertes en cas d’anomalies.
article-de-blog-s3ns-apside-9.png

Conclusion

Notre engagement en tant qu’Early Adopter de S3NS nous a permis :

  • D’acquérir une maîtrise concrète des services Google Cloud Platform en environnement souverain.
  • De collaborer étroitement avec les équipes S3NS, très réactives et à l’écoute de nos retours.
  • D’anticiper les futures évolutions, notamment les composants IA et l’arrivée de modèles Mistral sur la plateforme.

 

L’auteur
Makan Kanté - Apside
Makan Kanté
Senior Data Engineer

Makan Kanté est expert en architecture de données et ingénierie des pipelines cloud pour l’assurance, avec plus de 10 ans d’expérience. Il conçoit et déploie des infrastructures de données scalables grâce à sa maîtrise de GCP, S3NS, Terraform, SAS, SQL, Kubernetes, Python et des technologies de streaming comme Kafka. Au service de la modernisation des systèmes legacy, de la migration cloud et de l’optimisation des flux de données temps réel. Il mène des projets d’envergure mêlant architecture technique, sécurité, conformité et performance. Son approche pragmatique, alliée à une forte expertise DevOps, transforme les environnements on-premise en plateformes cloud souveraines robustes et évolutives. Reconnu pour sa rigueur technique et sa vision d’ensemble, il intervient aussi sur l’automatisation des déploiements, l’observabilité des systèmes distribués et la diffusion des bonnes pratiques d’ingénierie des données.

Notre Blog par nos experts

Des ressources précieuses pour rester à la pointe de l'information

Newsletter

Les données personnelles recueillies par Apside, en sa qualité de responsable de traitement, à partir de ce formulaire sont nécessaires à l’instruction de votre demande d’information. Elles sont transmises à notre service Communication et à nos équipes commerciales. Il s’agit de vos nom, prénom, téléphone et adresse email. Toutes les conditions applicables à leur traitement sont détaillées dans notre politique confidentialité.

En application du RGPD, vous disposez d’un droit d’information, d’accès, d’opposition, de rectification, de limitation, de suppression et de portabilité sur vos données que vous pouvez exercer en contactant notre Délégué à la Protection des Données :

Soit par email : [email protected]

Soit par courrier : Apside – 58 avenue du Général Leclerc – 92100 Boulogne Billancourt)

Ce Site est également protégé par reCAPTCHA. En donnant, votre consentement pour le traitement du formulaire, vous acceptez également les Conditions de service et Politique de confidentialité de Google