Onboarding digital - 2 minutes
-

Les enjeux et bénéfices du coaching des nouveaux arrivants

Notre Blog
Main féminine posée sur un carnet où est écrit lets get started

Coaching des nouveaux arrivants : une initiative exprimée par le besoin

Florence et Jean-Michel, respectivement Responsable du plateau SI à Aix et directeur de projet, ont développé un programme de coaching pour les nouveaux arrivants sur leur plateau. Ils se sont rendu compte que des profils juniors, avec peu d’expérience en sortie d’école, n’avaient pas toujours toutes les clés concernant la vie d’un projet.

Leur initiative, conçue comme un coaching individualisé, permet aux nouveaux arrivants en inter-contrat de monter en compétences et de comprendre tous les rouages de la gestion de projet en travaillant sur toutes les étapes d’un projet fictif mais concret.

De l’expression du besoin du client, au développement, en passant par la création de base de données pour gérer les ressources matérielles et humaines, les participants s’autoforment et apprennent à gérer leur temps pour répondre au mieux à ce client fictif mais exigeant.

Coaching des nouveaux arrivants : développer les compétences techniques

Au travers de cette initiative, Jean-Michel offre aux participants l’occasion de se former sur de nouvelles technologies, en cohérence avec celles qu’ils connaissent déjà. Il s’agit notamment d’acquérir des compétences sur des technologies actuelles et d’avenir, pas toujours apprises dans les établissements universitaires.

Le fait de s’auto-former sur une nouvelle technologie permet d’une part de démontrer les capacités d’apprentissage et d’adaptabilité de la personne, et d’autre part qu’ils deviennent à terme des développeurs autonomes et compétents sur plusieurs langages de programmation.

Écran où sont écrites des compétences sous forme de ligne de code
Une femmes expliquant un projet à une autre sur un tableau blanc

Coaching des nouveaux arrivants : développer les compétences professionnelles et interpersonnelles

Jean-Michel aide également ces recrues à développer leurs compétences professionnelles et interpersonnelles en les confrontant à des situations qu’ils pourront rencontrer sur un projet réel. Comment réagir face à des modifications dans le besoin exprimé, la façon de communiquer avec le client, bien gérer son temps et travaillez sur ce qui a été demandé et validé – autant de choses auxquelles pourra être confronté le collaborateur !

Avec cette initiative, il souhaite ainsi les aider à progresser, et à devenir des développeurs complets, autonomes, capables de comprendre et de répondre aux besoins du client, et de réagir en cas de problème.

Équipe projet informatique au tour d'une table en train d'échanger

Coaching des nouveaux arrivants : un double bénéfice d’intégration et de satisfaction client

Ce coaching des nouveaux entrants ne s’est pas imposé à nous, Apside recrutant des profils ayant démontré leurs compétences. C’est une initiative que nous avons pris dans une démarche d’amélioration continue, qui doit apporter des bénéfices en interne et en externe.

D’une part, ce coaching permet à Apside Aix de s’assurer que chaque profil qui rejoint l’entreprise reçoive une formation intégrante à l’image d’Apside, et qu’il bénéficie d’un suivi alimentant notre GPEC (Gestion Prévisionnelle des Emplois et des Compétences).

D’autre part, Apside Aix s’assure que chacun de ses talents soit immédiatement efficace lorsqu’il commence une mission client, même si c’est un profil jeune diplômé. La qualité des prestations de nos collaborateurs est au cœur de nos préoccupations, et ce coaching est une étape de plus dans notre exigence de résultats pour chaque projet qu’Apside mène.

Digitalisation de la formation : quel LMS choisir et comment ? - 3 minutes
-

Digitalisation de la formation Quel LMS choisir et comment ?

Notre Blog
Deux personnes pointant des fonctionnalités sur un écran d'ordinateur

Les origines du choix d’un LMS

Confrontées aux évolutions incessantes du marché, à la mutation des emplois ou encore aux difficultés de recrutement et de fidélisation, les organisations ont lancé ces dernières années des stratégies de transformation et de digitalisation.

Tous les secteurs d’activités sont concernés, et celui de la formation n’y échappe pas.

Cette dynamique a été renforcée par le législateur et la réforme de la formation professionnelle, qui oblige depuis le 1er janvier 2019 les entreprises au développement des compétences des salariés. Cette réforme reconnaît la formation à distance comme modalité de transmission de connaissance. La crise du Covid-19 et ses conséquences sur le marché de l’emploi ont accéléré cette évolution, l’investissement dans le capital humain des organisations devenant primordial.

La dimension du choix d’un LMS

Cet enjeu de digitalisation de la formation se confronte bien souvent très vite au choix de l’outil, ou autrement dit, à cette interrogation : quelle plateforme d’enseignement à distance sélectionner ?

Le chemin de croix débute alors ! Non seulement le nombre de solutions proposé par les acteurs de ce secteur florissant ne cesse de s’accroître, mais le type de ces solutions explose tout autant.

Pour preuve, aux premiers LMS (Learning Management System) se sont ajoutées les plateformes gratuites en ligne (Parcoroo, iEcole, Podia,…), les plug-ins de solutions de création de site (LearnDash, LearnPress, Tutor LMS,…), les LMS cloud (Moodle Cloud), les LMS customisés (Touch’Lite,…), les plateformes propriétaires de provider (Simplonline, Upility, Didask,…), les LCMS (Learning Content Management System), les LEP (Learning Engagement Platform), les LXP (Learning eXperience Platform), les plateformes de social learning voire mixtes (Tuttis, Hivebrite, Speach.me,…), les plateformes de mobile learning (Beedeez, Teach On Mars, Sparted,…),… Coté fournisseurs, le site capterra.com recense à date plus de 1140 LMS Software (https://www.capterra.fr/directory/30020/learning-management-system/software ) ! Les possibilités offertes sont, si ce n’est infinies, très riches.

Femme suivant un cours en ligne
Homme cadrant la création d'un plateforme web avec des post-its

Les interrogations préalables au choix d’un LMS

Cela étant, si cette question du choix de l’outil est centrale, sans doute n’est-elle pas première au risque de conduire à quelques désillusions. Comme pour tout projet ambitieux et stratégique, une phase de cadrage est indispensable.

Avant de se lancer dans l’expérimentation voire l’acquisition « impulsive » de LA solution, alors qu’elles sont toutes toujours plus attrayantes les unes que les autres, avec l’apparition ces dernières années de technologies comme la réalité augmentée, la réalité virtuelle ou encore les métavers, d’autres interrogations peuvent se révéler déterminantes pour sécuriser cette décision :

  • Quel est le niveau de digitalisation de l’organisation à équiper, voire du dispositif de formation, s’il existe déjà ? Des méthodes simples d’évaluation de ce niveau pour un dispositif existent, comme COMPETICE ou SDL de Jacques Rodet (http://blogdetad.blogspot.com/2020/08/situer-son-dispositif-de-digital.html).
  • Quels sont les niveaux d’acculturation et de maîtrise du digital des futurs acteurs de la plateforme : apprenant, administrateur, équipe pédagogique, formateur, concepteur, mentor, tuteur, manager, RH, commercial… ? La transition digitale nécessite, comme tout changement, d’être accompagnée. Ces deux premiers questionnements visent à projeter le degré de conduite à investir pour espérer la réussir.
  • Quels sont les besoins et les attentes des futurs utilisateurs, tous rôles confondus, au-delà de la seule plateforme, c’est-à-dire en termes d’approche et de modalité de formation, de précision du suivi des apprentissages, de la typologie des contenus pédagogiques et de ressources multimédias… puis, plus spécifiquement pour la plateforme, en termes de fonctionnalités à prioriser ? Quel type de formation, quelles modalités d’enseignement, pour finalement quels usages ? L’interrogation des problématiques rencontrées par les futurs utilisateurs dans l’environnement actuel de l’organisation, au sein du dispositif de formation et au-delà (CRM, SIRH, Qualiopi…), peut se révéler efficace pour éclairer le futur périmètre du projet.
  • Quels sont les moyens disponibles mis à disposition par l’organisation pour conduire et réaliser le projet : humains, budgétaires, temps à consacrer ? Quel est le délai attendu, qui porte le projet, qui le sponsorise ? Les moyens ainsi identifiés, l’ambition de la transformation peut être ajustée objectivement.
  • Quel est l’existant : l’écosystème des matériels et des outils digitaux déjà en place (SIRH voire une plateforme, outil CRM…), le catalogue de formation à date (formation courte, longue, hybride, professionnelle, public…), les contenus et supports pédagogiques, les outils de conception mais aussi d’animation d’une session ? Cette collecte initiale précise le périmètre de la transformation ainsi que les critères de sélection.

Il s’agit par ce questionnement non exhaustif d’affiner les critères de choix de la plateforme pour ensuite se confronter à l’expérimentation de quelques solutions, d’une ou deux typologies de LMS. Cette étape d’essai, tout aussi déterminante et trop souvent négligée, permet d’asseoir le choix de l’outil le plus adapté à l’organisation.

Ordinateur, téléphone, carnet et tasse de café posés sur un bureau

Digitalisation de la formation et LMS : ne pas choisir, c’est aussi choisir !

Opter pour un LMS ne se détermine donc pas par de simples fonctionnalités présentes ou non dans un outil mais bien par une réflexion plus globale centrée sur l’organisation, le dispositif de formation et les acteurs en présence. Réflexion qui peut conduire à la fois à la décision de ne pas s’équiper d’une plateforme mais d’une solution alternative, comme à celle d’en acquérir plusieurs !

 

L’outil n’est qu’un MOYEN, et surtout pas LA solution, face aux enjeux posés par la digitalisation.

Électronique numérique programmable Qu'est-ce que le FPGA ?

Notre Blog

Définition et construction d’un FPGA ou d’un composant électronique numérique programmable

Les FPGA, pour Field-Programmable Gate Array, sont une génération de composants logiques programmables. Ceux-ci sont des circuits électroniques intégrés logiques, qui peuvent être (re)programmés après leur fabrication. Concrètement, ils prennent la forme d’une puce située sur une carte électronique, contenant de nombreuses ressources réintégrées à cette puce. Le rôle d’un développeur FPGA sera alors de configurer cette puce pour réaliser les fonctions souhaitées.

Un FPGA est construit avec des périphériques d’entrées et de sorties (les IO sur la figure 2 ci-dessous) et des éléments programmables tels que des cellules logiques (les CLB – figure 2), des blocs de type mémoire (les Memory – figure 2) et des blocs plus complexes de multiplication par exemple (DSP – figure 2). Tous ces blocs sont agençables et reliés par des routes. L’objectif est alors de configurer ces blocs et ces routes afin que la puce réalise une fonction globale. Fonction qui accueille une information arrivant en entrée, la transforme à l’intérieur et la fait sortir pour qu’elle permette une action.

Dans la figure 2 ci-dessous, sur l’image de droite, on peut s’apercevoir de toutes les cellules configurées – en bleu plus foncé – et reliées aux multiples routes utilisées – en bleu-vert.

Les applications du FPGA

On retrouve ces puces un peu partout et notamment chez soi. Par exemple, il est sans doute arrivé à beaucoup de voir son décodeur TV accepter une mise à jour, avec comme message « mise à jour firmware X.X ». Cette manipulation est en fait une reprogrammation d’un FPGA à l’intérieur du décodeur. Mais la valeur ajoutée du FPGA s’exprime également dans des secteurs stratégiques comme le spatial, l’aéronautique ou la défense. In fine, on peut retrouver des FPGA un peu partout, grâce à sa qualité première qui est la mise à jour à distance de manière infinie afin de réaliser des activités différentes – ou corriger une erreur sans avoir à rappeler tout le matériel.

Le deuxième gros avantage du FPGA étant la rapidité des calculs et des traitements, on les retrouve ainsi dans les clouds, où les FPGA permettent l’accélération de certains traitements. Typiquement, les FPGA vont être utiles aux clouds pour le chiffrement. Aujourd’hui lorsque l’on crée un VPN, entre un point A et un point B, on va vouloir chiffrer des données. Auparavant, seul un CPU en était capable, en récupérant dans le serveur des données et en procédant à des calculs – souvent longs – pour les chiffrer. À la différence du microprocesseur, le FPGA est une configuration matérielle de nombreux éléments unitaires qui fonctionneront de concert. À chaque cycle d’horloge, chaque petit élément effectuera alors une tâche, là où le CPU ne sera capable d’en effectuer qu’une seule. Un chiffrement via FGPA ne pourrait ainsi prendre qu’un cycle d’horloge contre une multitude via un microprocesseur.

Représenation schématique et en 3D d'un FPGA
Circulation d'éléctricité entre deux sources

Performances et intérêt du FPGA

Pour prendre une analogie, la différence entre un microprocesseur et un FGPA est un peu comme la différence entre un garagiste changeant les roues d’une voiture, et une équipe de mécaniciens de formule 1. Là où le garagiste – le CPU – s’attachera à toutes les tâches une à une, c’est-à-dire dévisser, enlever la roue, mettre une nouvelle roue, revisser, passer à la deuxième, etc. une équipe de mécaniciens de formule 1 – le FPGA – aura une personne dédiée à chaque tâche pour chaque roue. Ce qui optimisera évidemment le temps global du projet, même si un CPU sera plus souple et plus rapide en fréquence d’horloge.

On pourrait rétorquer que les CPU sont capables de multithreading, c’est-à-dire du séquençage de phases en parallélisation. Mais bien souvent, c’est parallélisation est de façade. Pour reprendre l’analogie précédente, ce multithreading correspond bien souvent à dévisser un écrou sur une roue, puis un autre sur la deuxième, etc. Or, l’interrogation du CPU lors de cycle régulier donne l’impression que les choses avancent de concert – deux écrous ont été enlevés sur chaque roue – mais finalement, le microprocesseur ne fait qu’effectuer les tâches les unes après les autres, dans un séquençage où les tâches effectuées le sont par groupes similaires. Donc même en prenant en compte la rapidité par tâche supérieure du CPU, bout à bout, les FPGA seront plus rapides qu’un microprocesseur, grâce à leur fonctionnement mono-tâche.

Rapporté à la fréquence, un FPGA oscillera entre 200 et 300 mégahertz à son maximum, mais les projets classiques nécessiteront en général 100 Mhz. Tandis que les microprocesseurs auront une fréquence avoisinant les 3 gigahertz. Pourtant, afin de réaliser un ensemble de tâches, un CPU enchaînera aux alentours d’une trentaine d’instructions en dix périodes d’horloge, là où les FPGA pourront tenir 100, 1 000 voire 10 000 instructions en continu sur une seule période d’horloge.

Codage VHDL et simulation

Le rôle du développeur FPGA ?

Un projet FPGA se déroule en plusieurs phases assez traditionnelles. La première sera la phase de spécification. Particulièrement longue et challengeante, elle va permettre de choisir ce que l’on veut intégrer au FPGA, en termes de fonctionnalités de base et de taille notamment. La deuxième phase correspondra au codage (figure 3), en langage VHDL pour l’Europe, Verilog pour les USA. Elle aboutira à la construction de l’architecture qui va être interprétée et synthétisée, puis routée sur le FPGA.

La troisième phase consistera en la vérification en simulation. Le développeur observera ainsi l’exécution du traitement avant de l’intégrer à une puce FPGA. Cette phase permet ainsi d’aller voir à l’intérieur de tous les liens et signaux pour étudier leur comportement et ainsi d’avoir la vision globale du fonctionnement du FPGA. Et dès que la maturité est jugée suffisante sur ces simulations, le développeur effectuera des tests sur carte des différentes fonctions afin de vérifier qu’elles sont bien présentes et que les spécifications initiales sont respectées.

Toutes ces phases sont réalisées en lien avec les équipes hardware, qui définissent le besoin de comportement de leur carte électronique, et également des équipes logiciel dans le cadre des communications entre CPU et FPGA (voir plus loin la notion de SoC).

Comme un développeur IT, le développeur FPGA peut s’appuyer sur des bibliothèques (appelées composants en langage électronique), en langage VHDL, qui regroupent des outils de base permettant de faire des conversions de type de signaux ou du calcul de base. Pour des fonctions réimplémentées, plus complexes, le développeur se tournera vers les IP (pour Intellectual Property soit propriété intellectuelle). Ce sont des composants logiciels, avec leurs entrées et leurs sorties, qui peuvent être soit ouverts, écrit en VHDL, soit fermés, ou on aura une description en VHDL des entrées et sorties et au milieu une boîte noire qui sera appelée par l’outil de placement routage pour positionner les cellules précompilées et les mettre à la place souhaitée. Ces IP pourront être disponibles en open source ou payantes.

Construction d'un circuit FPGA

FPGA ou composant électronique numérique programmable : une solution d’avenir ?

Les dernières années avaient vu les projets FPGA se réduire, notamment à cause des performances de calcul toujours plus grandes des microprocesseurs. Mais aujourd’hui, on observe un regain d’intérêt pour le FPGA grâce au SoC (System On-Chip). Le on-chip est un FPGA auquel on va rajouter des éléments hardware en dur ou en soft. Typiquement, on peut rajouter en interne ou à côté des matrices FPGA un CPU afin de tirer avantage des deux unités électroniques. Le CPU va ainsi commander les différentes configurations du FPGA.

La matrice FPGA comportera alors plusieurs parties : la partie programmable logique, avec le code VHDL ; et des parties CPU ou dédiées à certaines interfaces. On pourra donc réaliser sur une seule puce ce qu’on pouvait réaliser avant sur plusieurs ou sur la totalité d’une carte.

Outre le fait de centraliser les qualités de chacun, cela permet aussi de concentrer tous les composants en un endroit et donc de réduire le temps de circulation des signaux et de gagner un temps précieux, évitant ainsi soudures, pistes longues, adaptations ralentissant les électrons.

Enfin, grâce aux instructions programmées dans les FPGA, on peut se servir du CPU pour en quelque sorte le reprogrammer en lui donnant des tâches spécifiques au besoin.

 

Finalement et vu son coût (de 1 à 3000$ la puce), le FPGA seul aura un intérêt en fonction des spécifications de la carte électronique. Pour les grandes séries, le CPU seul pourrait être le plus indiqué, mais si on souhaite lui apporter de la flexibilité, on peut se tourner vers le SoC. Et si on veut faire des petites séries, alors le FPGA sera idéal, car il aura le meilleur rapport qualité/prix et le meilleur ROI. En effet, outre son temps de développement, une puce CPU dédiée (ce qu’on appelle un ASIC) prendra environ 6 mois à être fabriquée dans les usines de silicium. Et ceci sans le droit à l’erreur car non reprogrammable.

Assurance qualité : de l’importance des tests fonctionnels - 4 minutes
-

L’assurance qualité de l'importance des tests fonctionnels

Notre Blog
Femme testant un site web sur un ordinateur portable

Le test dans un projet IT

Depuis une vingtaine d’années, le monde se « numérise » à marche forcée (énergie, télécommunication, transports, défense, sécurité…) et derrière tous nos gestes élémentaires du quotidien se cachent des dizaines de milliers de lignes de code d’applicatifs qu’il faut concevoir, développer, entretenir et bien sûr valider (par du test). Les tests sont une activité substantielle de l’ingénierie des systèmes qui va structurer le futur de nos sociétés hyper connectées, et des prévisions prévoient 50 milliards d’objets connectés via Internet aux alentours de 2030 soit l’équivalent de 6 par être humain.

 

Dans l’IT, le but d’un projet est de répondre au besoin d’un client ou de futurs utilisateurs en couvrant les exigences d’un cahier des charges. Ce dernier contient des fonctionnalités à partir desquelles les spécifications fonctionnelles de l’applicatif ou du site internet à réaliser seront décrites.

Dans ce contexte, les tests permettent de garantir un niveau de qualité de ce qui sera produit par l’équipe en charge d’un projet. Cette notion de qualité est certes subjective et n’aura pas la même signification selon que l’on soit développeur, responsable du SI concerné, utilisateur ou financier. Par exemple :

  • Le développeur souhaitera voir la qualité du code produit : est-il modulaire, générique, compréhensible, documenté, facile à maintenir…
  • Le responsable du Système d’Information s’attachera à savoir si le logiciel sera facile à administrer et qu’il ne sera pas susceptible de corrompre la sécurité globale du SI.
  • L’utilisateur final attendra lui, plutôt qu’un logiciel corresponde à son besoin, en étant si possible ergonomique voire esthétique.
  • Le financier voudra s’assurer que le logiciel se vendra bien, qu’il permette de faire du profit ou s’il permet d’améliorer la compétitivité de la structure.

La création logicielle est une activité humaine, donc par nature soumise à erreur. Elle passe par plusieurs étapes et le test en est une au même titre que le développement.

Qu’est-ce que le test fonctionnel ?

La norme ISO/IEC 25010 définit 8 grandes familles de tests (fonctionnels, de performance, de compatibilité, d’utilisabilité, de fiabilité, de sécurité, de maintenabilité et de portabilité). Il existe également 4 niveaux de tests selon l’ISTQB® [1] (tests de composants, tests d’intégration, tests système, tests d’acceptation) couverts par les 8 familles de tests susmentionnés.

 

Mais alors qu’entend-on exactement par « tests fonctionnels » ?

Les tests fonctionnels étant bien nommés, les 7 autres types de tests sont, par opposition, dits « non-fonctionnels ». Les tests fonctionnels ont ainsi pour but de démontrer que l’application ou le site que l’on teste, effectue ce pour quoi il est fait en recherchant d’éventuelles défaillances lorsqu’on le sollicite sur des valeurs nominales.

Plus simplement, les tests fonctionnels visent à qualifier ce qu’un logiciel fait alors que les tests non-fonctionnels, eux, visent à qualifier la façon dont il le fait.

Toujours selon la norme ISO/IEC 25010, les tests fonctionnels sont composés de ce qu’on pourrait traduire par tests d’exactitude (Fonctional Correctness), de complétude (Fonctional Completeness) et d’aptitude à l’usage (Fonctional Appropriateness).

  • Les tests d’exactitude : sont le degré avec lequel un ensemble de fonctions couvrent toutes les spécifications et demandes utilisateurs.
  • Les tests de complétude : sont le degré avec lequel un produit ou un système renvoit des résultats corrects pour un degré de précision attendu.
  • Les tests d’aptitude à l’usage : sont le degré avec lequel les fonctions facilitent l’exécution de tâches et d’objectifs spécifiés.

Il n’existe pas de définition officielle des tests fonctionnels, et il conviendra, en amont d’un projet, de s’assurer que toutes les parties prenantes parlent de la même chose à ce sujet. Ce qui est évident pour les uns ne l’est pas forcément pour les autres et le but final restant de livrer un produit de qualité.

Femme testant une application sur mobile et prenant des notes
Écran d'ordinateur affichant un code

L’intérêt de tester et les risques à ne pas tester

Souvent mal perçus, les tests fonctionnels sont indispensables pour vérifier la conformité des fonctionnalités d’un applicatif avant sa livraison. La qualité de celui-ci s’en trouve alors améliorée notamment dans son utilisation réelle.

Les tests fonctionnels vont également fournir des informations sur le niveau de qualité du produit livré. Ces informations en permettront un suivi lors de ses évolutions.

Sans l’assurance qualité, il est compliqué d’évaluer la fonctionnalité d’un produit et surtout il devient extrêmement difficile de repérer des défauts critiques qui deviennent coûteux à traiter a posteriori. Il est également difficile de satisfaire et garantir non seulement les exigences des clients, mais aussi les objectifs et les attentes de l’entreprise qui produit l’applicatif.

 

Faire l’impasse sur les tests fonctionnels comporte des risques en termes de coûts, de maintenabilité, et parfois même humains (systèmes d’assistance à la conduite de véhicules par exemple…). Malgré cela, on peut constater encore trop souvent, qu’ils se retrouvent écartés des processus par manque de temps, de budget, ou même par méconnaissance. Et les anomalies non détectées faute de test seront embarquées dans les évolutions successives du logiciel pouvant entraîner des conséquences à plus ou moins long terme. C’est pourquoi intégrer tôt le test au cœur du cycle de vie des applicatifs permettra de gagner du temps en traquant les anomalies le plus tôt possible.

 

Négliger les activités de test, pour livrer plus vite de nouvelles fonctionnalités ou de nouveaux produits, pourrait être tentant. Or, les erreurs sont consubstantielles à l’acte de programmation, aussi, il faut surtout s’organiser en conséquence en faisant de l’activité de test un impératif. Le préventif sera toujours moins coûteux que le curatif et ne pas intégrer la validation dans un projet logiciel se fera au détriment de la satisfaction clients.

 

 

[1] L’ISTQB® (en anglais « International Software Testing Qualifications Board ») est le Comité international de qualification du test logiciel.

Qualité industrielle - 3 minutes
-

Objectif Industrie 5.0 accompagner l’industrie ne s’arrête pas à sa digitalisation

Notre Blog
Photo intérieure d'une usine avec un casque de chantier blanc accroché

Vers l’Industrie 5.0 : Un paradigme industriel en évolution

Alors que le paradigme de l’industrie 4.0 n’est pas encore pleinement implémenté sur l’ensemble du secteur, en particulier au sein des petites et moyennes entreprises, les évolutions sociétales impulsent une variation continue de ses préceptes qui ne peut être obérée.

En effet, le retour sur investissement attendu du fusionnement des mondes physique et virtuel au sein de l’industrie n’a pas encore atteint son plein rendement que de nouveaux défis se font jour et réclament déjà une adaptation des feuilles de route industrielles, incitant à une innovation rapide capable de générer de la valeur au service de la société. C’est le genre de défis qu’impose par exemple le « pacte vert pour l’Europe », dont l’objectif est de rendre l’Europe climatiquement neutre en 2050.

De fait, l’industrie du XXIème siècle, aujourd’hui dénommée Industrie 5.0, en arborant des valeurs sociales et écologiques, se veut centrée sur l’humain et ses valeurs plus que sur une productivité économiquement optimisée. Malgré tout, les acteurs industriels fédérateurs en la matière ne l’identifient pas comme une rupture mais bien comme une évolution de l’industrie 4.0 induite par un recentrage jugé inéluctable.

Un recentrage vers la génération de valeur : l’objectif ultime de l’Industrie 5.0

En remettant en avant les concepts initiaux de la version précédente, l’Industrie 5.0 se veut fondamentalement centrée sur l’humain et à son service, dans le sens où elle s’aligne sur les valeurs sociétales.

À ce titre, la mise en œuvre de nouvelles technologies n’est plus considérée comme une finalité en soit mais bien comme un moyen au service d’une vision qui requalifie les objectifs d’efficacité du monde industriel pour les axer vers une contribution à la société et non uniquement vers la productivité.

Sur le plan humain, cette réorientation place le collaborateur au centre du processus de production et incite à utiliser les nouvelles technologies pour rendre compatible l’environnement industriel avec les valeurs sociétales et non l’inverse. L’intention est donc bien d’y rendre chaque fonction plus sûre, moins contraignante, mais aussi porteuse de sens, dans une logique de collaboration humains/machines mettant en exergue leurs plus-values respectives qui se veulent complémentaires.

Parallèlement, l’industrie du XXIème siècle se recentre également vers les valeurs de durabilité et de résilience, objectifs pour lesquels elle fait régulièrement appel à l’innovation technologique.

Pilotage d'une machine industrielle par tablette tactile
Création d'une pièce via imprimante 3D

Industrie 5.0 : quelles conditions à l’atteinte des objectifs ?

Premièrement, l’intégration de l’ensemble des futurs bénéficiaires tout au long du processus d’intégration est nécessaire afin de les impliquer dans la création de valeur, qu’elle soit sociale ou environnementale. En effet, l’acceptation des nouvelles technologies ainsi facilitée devient facteur de confiance, voire de fierté, sur le long terme.

Ceci s’avère d’autant plus important lorsqu’il s’agit d’intégrer aux processus métier des technologies complexes dans une logique de coopération humain/machine. Il faudra alors les rendre compréhensibles afin d’être en mesure d’en démontrer pleinement la valeur ajoutée, étape indispensable à l’obtention d’une adhésion marquée.

Enfin, les individualités devront être prises en compte à différents niveaux, notamment celui de la formation, qui, si elle est suffisamment différenciée, permettra à chaque collaborateur de tirer le plein potentiel de ces nouvelles technologies.

Quatre personnes coiffées d'un casque de chantier et montant un escalier

Industrie 5.0 : un partenariat au-delà de la digitalisation

S’inscrire en tant que partenaire de l’industrie ne consiste pas simplement à fournir et intégrer des solutions techniques innovantes au sein de l’écosystème de production. En effet, pour permettre au monde industriel d’atteindre les objectifs de l’Industrie 5.0, il est nécessaire d’adhérer pleinement à la vision qu’elle constitue et de s’impliquer dans son mouvement de manière plus globale.

À l’égal des technologies, la digitalisation de l’industrie n’est qu’un moyen et non une finalité. À ce titre, elle consiste à outiller les processus de production industrielle dont la prise en compte systématique doit se faire en pleine connaissance des objectifs stratégiques à court, moyen et long terme.

En effet, afin d’être à même de créer la meilleure valeur ajoutée, il faut maîtriser la feuille de route globale de l’entité et pas uniquement celle de sa DSI. Le partage de la vision que cela induit permet d’enforcir les processus de conception et d’implémentation de valeurs communes comme la durabilité et la résilience, puis, à terme, de démontrer la plus-value de l’innovation.

Ceci fait, il est essentiel de s’assurer que la modification des processus ne soit pas source de cassure numérique.

Personnes accroupie dans une pièce aux murs en néon

L’accompagnement vers l’Industrie 5.0 : un processus total

La création de valeur ne peut être totale que si chacun est à même de tirer le plein potentiel des processus métier ainsi réoutillés. L’accompagnement vers l’Industrie 5.0 se doit donc logiquement de prévoir une phase de formation.

L’optimisation des processus industriels par apport de technologies innovantes impacte quasi systématiquement les problématiques de cybersécurité et de protection des données. De même, le niveau de confiance des collaborateurs peut également s’en trouver affecté de manière insidieuse. Il est donc primordial que l’accompagnement soit complet et comprenne une conduite du changement assortie d’une formation adaptée aux besoins de chacun.

L’apprentissage hybride est un type de formation qui continue de faire ses preuves en matière de formation différenciée à la collaboration humains/machines dans le monde de l’industrie. En effet, à la personnalisation des cours en présentiel vient aujourd’hui s’adjoindre la capacité d’adapter les parcours de formation à distance grâce au concours de l’intelligence artificielle.

Ainsi, cet accompagnement, en assurant la compatibilité des objectifs industriels avec les valeurs sociétales, crée de la valeur et, finalement, donne du sens au travail.

Cyber sécurité - 5 minutes
-

Cybersécurité Pourquoi et comment sécuriser un projet SI ?

Notre Blog
Panneau digital d'un système d'information

Pourquoi parler de cybersécurité ?

La cybersécurité n’est pas un enjeu nouveau. Mais avec la multiplication des produit digitaux et plateformes web, elle devient un sujet central pour les entreprises qui ont engagé une démarche de transformation digitale. Soit la quasi-unanimité des entreprises. Et plus qu’un slogan, security by design devient un leitmotiv pour chaque acteur devant le risque grandissant d’attaque.

 

S’il est difficile de mesurer a priori les conséquences d’une attaque cyber (on peut en revanche y préparer ses équipes), les risques sont eux bien identifiés. Ils peuvent notamment porter sur le fonctionnement de l’entreprise, ses finances, ses relations commerciales et son image.

Cybersécurité : les risques encourus en cas d’attaque

Le risque fonctionnel

Le premier risque en cas d’attaque cyber engage le fonctionnement même de l’entreprise. Une attaque prenant le contrôle du système d’information d’une entreprise peut totalement paralyser cette dernière. Récemment, la ville d’Angers a été victime d’un ransomware qui a éteint tout son parc informatique, reléguant la ville au papier crayon pendant de nombreux jours.

 

Le risque financier

Le deuxième risque est financier. Et il n’est pas uniquement lié à l’attaque en elle-même. Car, outre la rançon qui peut être demandée par le hacker, une entreprise victime d’une attaque peut également être ciblée par la CNIL au titre d’un manquement au RGPD et ainsi encourir une amende pouvant aller jusqu’à 5% de son chiffre d’affaires annuel mondial.

 

Le risque commercial

En lien avec le risque financier, le risque commercial est aussi critique. Quelles entreprises voudront continuer à travailler avec une société qui n’a pas réussi à sécuriser ses données et celles de ses clients ? Quels consommateurs souhaiteront toujours acheter des produits ou services de la part d’une société qui a perdu leurs données personnelles ? Si l’on comprend aujourd’hui que tout le monde peut être victime d’une attaque, le niveau de préparation et de réaction d’une entreprise déterminera certainement la poursuite de ses principaux contrats commerciaux.

 

Le risque d’image

Enfin, le dernier risque est lié à l’image et au fait de se retrouver au cœur de l’actualité pour de mauvaises raisons. Les effets sont alors destructeurs, au même titre que les précédents risques. En 2015, le site de rencontre extra-conjugal Ashley Madison a été victime d’une attaque, et, ne souhaitant pas céder au chantage de la rançon, a vu toutes les données de ses utilisateurs publiées. L’un des arguments phare de la plateforme était la discrétion autour de ses membres, il a ainsi volé en éclats. La base de données du site se retrouvant même publiée avec un moteur de recherche permettant d’identifier chacun des utilisateurs.

Panneau digital d'un système d'information
Écran d'ordinateur brouillé

Les réflexes pour une protection cybersécurité

Avec le Règlement Général sur la Protection des Données, les mentalités sur la défense des données ont grandement évolué. Les notions de privacy by default ou de privacy by design sont apparues et la cybersécurité est devenue une composante centrale des projets dès la réflexion amont. Dès la création d’un nouveau canal de circulation – ou sur un existant, si le travail n’a pas été encore mené – la contrainte de la sécurisation de la donnée doit être présente. En d’autres mots, tous les risques doivent être calculés et anticipés dès la construction du produit ou service. Ce mode de pensée se généralise aujourd’hui, mais cela reste jeune et donc fragile.

Cette évolution des mentalités doit maintenant se traduire dans les budgets alloués à la cybersécurité et à leur ventilation. La réflexion ne doit plus par exemple se faire par produit – on avait coutume de dire qu’il fallait 10% du budget logiciel qui devait être consacré à sa sécurisation – mais pour le SI global. Le responsable sécurité n’est d’ailleurs plus aujourd’hui considéré comme un adjoint du DSI, mais comme une personne décisionnaire à part entière. Ces changements sont déjà effectifs pour beaucoup, mais restent minoritaires lorsqu’on regarde la globalité des entreprises françaises.

Enfin, il faut regarder les partenariats noués. Héberger ses données via un logiciel cloud américain va par exemple à l’encontre du RGPD. Le Cloud Act états-unien stipule en effet que le gouvernement a un droit de regard sur toutes les données manipulées par chaque entreprise de nationalité américaine. Ce qui est évidemment contraire à la réglementation européenne. En février dernier, la CNIL a par exemple mis en demeure un grand éditeur de sites français pour son utilisation de Google Analytics, ne garantissant pas l’anonymisation de la donnée des utilisateurs. Une manière de rappeler qu’utiliser les plateformes hors Europe doit se faire de manière encadrée.

Portail fermé par une chaîne et un cadenat

Cybersécurité : sécuriser un projet SI en amont

De manière plus spécifique, si l’on s’intéresse aux projets SI, la sécurisation commence dès la réflexion amont, soit la cartographie, les user stories, la méthodologie de travail, etc.

On se réfère alors au modèle OSI (Open Systems Interconnection – une norme de communication informatique qui régit le fonctionnement des SI) et à ses sept couches, qu’il convient de sécuriser au maximum. Il faut partir du principe que soit l’application (ce que l’on développe), soit le système (la machine physique qui la fait tourner) peuvent être attaqués – voire les deux. Sur l’échelle des 7 layers, beaucoup de questions vont donc devoir être posées. Par exemple et de manière non exhaustive :

  • • Doit-on émettre les communications sur du http ou du https ?
  • • Les données doivent-elles être chiffrées sur le disque de stockage ?
  • • Ce disque doit-il être ouvert à la lecture, à l’écriture ? À quelles personnes ?
  • • La connexion doit-elle être exigée par SSH ? Telnet n’est-il pas plus indiqué ?
  • • Etc.

Toutes ces questions introduisent la notion de security by design, entrouverte par le RGPD. La bonne pratique consiste à limiter au maximum les couches ouvertes, afin de réduire la surface d’attaque. Il y aura donc moins de end points à sécuriser et on sera d’autant plus efficace sur les potentiels points faibles, car ils seront identifiés et anticipés, et on pourra se concentrer sur le système de log par exemple ou des alertes pour savoir à tout moment ce qu’il s’y passe, et si quelque chose d’inhabituel est en train de se produire. Concrètement, si une attaque en brute force arrive, cela va immédiatement ressortir sur les communications, les données traitées, ou la consommation en CPU de la machine.

Programmeur travaillant sur un code dans une pièce sombre

De l’importance de monitorer en cybersécurité

Comme il y aura ainsi énormément de facteurs qui vont permettre de déterminer si l’on subit une attaque – encore un argument pour limiter les couches ouvertes–, il est nécessaire de suivre précisément ce que les équipes sont en train de produire et ce qui a été mis en place en amont pour déterminer si oui ou non, on est dans une situation critique d’attaque. L’aspect monitoring est donc une suite logique et chronologique au security by design.

Aujourd’hui, on estime qu’une entreprise victime met 6 mois à se rendre compte d’une attaque de son système. La pratique des hackers veut en effet qu’entre la découverte de la faille et l’attaque à proprement parler, il y ait une période dormante permettant de ne pas éveiller les soupçons. Et lorsque l’entreprise se rend compte de l’intrusion, c’est trop souvent lors de la demande de rançon et il est alors trop tard. On peut également ajouter d’autres attaques, invisibles, comme l’espionnage industriel. L’intrus ici n’a quasiment pas d’activité suspecte et va être difficilement repérable. En résumé, il faut être capable de voir qui s’est introduit dans le système, où et comment il a fait, sous peine de n’être ni capable de l’identifier, ni l’empêcher de recommencer.

 

Les utilisateurs : la faille numéro un en cybersécurité ?

Dans un projet informatique, et même si on a fait l’effort de le tester à chaque étape de sa construction, il est fréquent que les utilisateurs n’en aient pas l’utilisation prévue initialement. Cela crée donc naturellement des failles non-anticipées. Il est alors indispensable non seulement de préparer son interface ou son SI à des attaques, mais surtout de former ses équipes afin de limiter la faille la plus compliquée à prévenir : l’erreur humaine.

Cyber sécurité - 3 minutes
-

Améliorer la résilience numérique entraînement à la gestion de crise cyber ?

Notre Blog
Grafiti mural représentant une caméra de vidéosurveillance

Le contexte d'un entraînement à la gestion de crise cyber //

Retour d’expérience sur l’exercice organisé au profit de la direction générale d’Apside.

Il y a quelques semaines les principaux managers d’APSIDE ont été invités à rejoindre une «War Room » pour une journée d’exercice particulièrement intense où il a fallu prendre en compte, alerter, analyser, prioriser, coordonner, et décider. Parce qu’une attaque sur le cyber espace provoque des impacts multiformes et généralement sévères, il faut résolument être prêts à y faire face !

Au-delà de l’impact que cet exercice a pu avoir pour Apside en interne, cet article pose les enjeux d’une attaque cyber et les réponses à y apporter, à tous les niveaux d’une structure.

Qu’est-ce qu’une crise cyber et quel est l’objectif de ce type d’exercice ? //

On parle de « crise cyber » lorsqu’une ou plusieurs action(s) malveillante(s) sur le système d’information (SI) de l’organisation ciblée provoque(nt) une déstabilisation majeure de celle-ci. Les préjudices de ce type d’attaque peuvent parfois s’avérer irréversibles.

Il s’agit donc de s’entrainer à faire face à une situation de crise d’origine « cyber » et à savoir alerter les personnes requises pour analyser, puis décider rapidement et judicieusement. « Dans ce genre de situation il faut savoir faire preuve de discernement et restreindre le plus possible l’improvisation. L’expérience montre malheureusement que le manque d’anticipation est souvent dévastateur. » précise le directeur de l’exercice (DIREX). Il s’agit donc d’un exercice de niveau décisionnel. Celui-ci ne vise pas à surprendre ou à piéger les participants, mais, bien au contraire, à les accompagner dans un entraînement cadré qui repose sur des objectifs clairement définis, communiqués et partagés en amont.

Face à une menace de plus en plus présente, l’organisation d’exercices est indispensable. En s’entraînant très régulièrement, les équipes impliquées dans la gestion de crise acquièrent, exercice après exercice, des réflexes et des méthodes leur permettant de travailler ensemble plus efficacement. Savoir réagir à ce type d’attaque ne remplace pas la prévention, en menant une politique de cyber sécurité pro-active, mais elle doit lui être concomitante.

Bouton d'urgence rouge
Groupe de travail Apside sur la gestion d'une crise cyber

Sur quelle base l’exercice de gestion de crise cyber est-il conçu ? //

Préparé dans le plus grand secret par une équipe dédiée, l’exercice est précédé d’une phase dite de « warm’up » consacrée à la présentation du contexte totalement fictif mais proche d’une situation réelle (agence, client, projet). Bien qu’il s’agisse de ne pas créer de confusion avec l’activité réelle de l’entreprise, le contexte choisi se veut vraisemblable et formateur, pour les joueurs, les observateurs mais également pour les organisateurs. Ainsi, le scénario retenu se compose d’un enchaînement d’événements fictifs proposant une mise en situation de crise réaliste, bien que construite de toute pièce. Il se déroule sur une durée limitée.

 

Comment organiser un exercice de ce type ?

Il s’agit de ne pas partir de zéro. À ce titre, l’ANSSI propose un guide baptisé « organiser un exercice de gestion de crise cyber ». Celui-ci présente les actions à entreprendre pour chacune des étapes de conception et de cadrage, de préparation du scénario, de déroulement de l’exercice et enfin d’enseignements à en tirer.

Photo caricatural d'un hacker dans une pièce sombre

A quoi faut-il se préparer et quels sont les caractéristiques d’une crise cyber ? //

La fulgurance de ce type d’évènement, conjuguée au fait que l’entreprise peut être touchée simultanément de manière protéiforme, génère une situation d’incertitude plus ou moins durable. À ce stade, il ne s’agit plus de se préparer au mieux à une future crise mais bien d’agir en suivant la trame d’un plan imaginé à l’avance et éprouvé.

À l’image de n’importe quel événement générateur de crise au sein de l’entreprise, les conséquences d’une cyberattaque sont diverses. En effet, les impacts peuvent être juridiques, réglementaires, légaux, métiers, organisationnels, RH, financiers, réputationnels et techniques. Ils peuvent également engendrer une forte pression médiatique. Par conséquent, la cellule de crise doit être en mesure de coordonner des équipes aux compétences variées dans le but d’endiguer les effets de la crise et de permettre la meilleure résilience possible.

Groupe de travail Apside sur la gestion d'une crise cyber

Quelle est la mission de la cellule de gestion de crise ? //

Il s’agit de coordonner les actions des acteurs de la cellule de crise et des équipes extérieures pour apporter au décideur l’ensemble des éléments d’information nécessaires pour :

  • • Supprimer rapidement l’impact de l’attaque via un cyber confinement par exemple ;
  • • Assurer la continuité de l’activité ;
  • • Communiquer en interne et en externe ;
  • • Prévenir les autorités et déposer plainte…

Et enfin amorcer les opérations de correction et de reconstruction qui sont à prévoir pour une reprise d’activité dans les meilleurs délais. À noter que la sortie de crise doit s’envisager sur le long terme, souvent plusieurs mois.

 

En conclusion, ce type d’exercice s’inscrit dans une réflexion globale visant à renforcer la résilience de l’organisation via une démarche d’apprentissage progressif aux objectifs et paliers à atteindre au fil du temps bien définis. En invitant les bons profils et en les confortant dans leur rôle réel, l’exercice permet également de préparer les personnes. Un double bénéfice collectif et individuel donc.

Le mainframe est-il mort ? - 5 minutes
-

Le Mainframe Est-il mort ?

Notre Blog
Gros plan sur un macroordinateur

Pourquoi se se poser cette question sur le Mainframe ?

Le Mainframe constitue la colonne vertébrale informatique de nombreuses entreprises. Le système de gestion de la plupart des banques et assurances repose notamment dessus. Mais de nouvelles pratiques récentes s’en affranchissent. Google par exemple n’y fait pas appel pour gérer son moteur de recherche, pourtant gestionnaire de plusieurs milliards de données.

Doit-on ainsi s’émanciper de ces macro-ordinateurs ? Et doit-on se libérer par la même occasion du Cobol, cet antique langage de programmation qui y est associé ?

Qu’est-ce que le mainframe ?

Le Mainframe est souvent assimilé à un gros ordinateur. Derrière ce rapprochement un peu grossier, le Mainframe se définit surtout comme un système informatique centralisé. Concrètement, il se compose d’une machine, avec un et plus souvent plusieurs OS installés dessus. Un système d’exploitation principal guide la machine et les OS secondaires sont souvent Linux ou Windows.

En prenant par exemple les z15 IBM, les machines les plus populaires, on peut mettre jusqu’à 5 systèmes en natif :

  • • Le z/OS qui est l’OS standard.
  • • Le VSE, soit de tout petits mainframes, adapté aux très petites configurations. On les retrouve dans les entreprises de moins de 10 salariés, ce qui représente tout de même 8% du marché.
  • • Le VM, pour Virtual Machine, qui est orienté émulation, avec une capacité d’un millier d’instances de machines virtuelles et une virtualisation à 5 niveaux (création d’une machine virtuelle, qui va créer en son sein une deuxième machine virtuelle, qui elle-même va en créer une troisième, etc.). Il existe également une logique de conteneurs sur ce type de système. Pour donner une idée de la puissance, on peut aller jusqu’à 2,4 millions de conteneurs Linux sur une même machine. Mais si la puissance est comparable à des data centers, on se retrouve face à des machines beaucoup plus compactes et beaucoup moins chères à l’utilisation, notamment en termes de ressources consommées.
  • • Le TPF, soit le système pour faire du transactionnel de masse, et ainsi privilégié dans le transport aérien notamment. Avec cet OS, la capacité monte à un billion de transaction par jour (1000 milliards), avec des dizaines de milliers de connexions simultanées. Mais cette puissance de calcul suppose évidemment des machines adaptées au niveau des serveurs et des processeurs.
  • • La dernière option est de n’installer que Linux sur son Mainframe.

 

On entend souvent Mainframe égal Cobol. Si c’est effectivement le langage le plus utilisé, on comprend bien à l’énumération de ces configurations que le Mainframe peut également servir pour d’autres langages comme du Java ou du Node.JS. Et ce, sur la même machine grâce à l’intégration de plusieurs OS différents. Ici réside l’atout principal du Mainframe : tout centraliser sur une même machine – sans avoir à s’équiper de serveurs séparés – avec des outils et des langages différents. Ainsi, le Mainframe permet de résoudre les problèmes de liaisons et de décalages dus à des réseaux distincts.

Couloir bordé d'unités centrales
Couloir bordé d'unités centrales

Mainframe : pourquoi Cobol et Pacbase ?

De la même façon que Java est optimisé pour les applications web ou le C pour les systèmes, Cobol est le langage par excellence pour faire de la gestion. Il comporte deux atouts majeurs et exclusifs :

  • • Les calculs en virgule fixe de manière native, ce qui permet précision en rapidité pour les décimales (à l’inverse des autres langages en virgule flottante), toujours très appréciable dans les métiers financiers
  • • Les redéfinitions de données, qui permettent nativement – contrairement à la plupart des autres langages – d’isoler des variables sans extraction

 

Cobol a souvent l’image d’un langage vieillissant et complexe. Il est d’ailleurs de moins en moins enseigné, mais reste très utilisé, ce qui donne beaucoup d’importance aux personnes capables de l’instruire. Mais la mutation des entreprises, vers des méthodes agiles notamment, déteint sur les projets Cobol qui adoptent le système Scrum par exemple, abandonnant les cycles en V. Il faut toutefois s’attendre à des sprints plus longs, d’environ 3 semaines, pour avoir le temps de développer. Au contraire du Java, le Cobol ne permet de mettre en œuvre une évolution et de la présenter en temps réel (continuous development). Il faut alors se concentrer sur chaque fonctionnalité, pour à la fin des épics, présenter l’application dans sa quasi-globalité. Malgré cette particularité de travail, le langage Cobol fonctionne parfaitement en Scrum, et beaucoup de grandes banques et assurances ont franchi le pas ces dernières années.

 

Et si les pratiques DevOps ne sont pas encore envisagées, la particularité des Mainframes, avec leur abondance de systèmes d’exploitation embarqués, permettent néanmoins des passerelles entre les différents environnements que peuvent être les développements, les tests, les homologations, etc. Cette simultanéité contrebalance ainsi la relative longueur des sprints.

Pasing JSon Cobol sur Visual Studio Code

Le Cobol : vieux langage ?

Historiquement, le Cobol se veut être un langage interopérable, parce qu’il n’est pas le langage originel et que les personnes l’ayant construit ont souhaité pouvoir appeler d’autres langages.

Mais il a cette image de vieux langage, car il est toujours rétro-compatible alors qu’on ajoute des nouveautés. Le langage Cobol continue ainsi d’évoluer (version 6.4 sortie en mai 2022) et est capable de communiquer avec des nombreuses technologies comme du xml, du MQSeries, ou encore du JSON, grâce aux nouveaux ordres du langage. Le plus grand frein reste finalement le silotage de certaines entreprises qui compartimentent leurs équipes par technologie. C’est en fait la nature même du besoin qui va décider si des échanges entre les langages sont nécessaires.

Et comme pour d’autres langages, le Cobol s’appuie sur plusieurs gestionnaires de sources, comme zGit ou SVN. Cela dépend ici aussi des choix de l’entreprise. On observe ainsi sur beaucoup de points une volonté du langage de se moderniser. Le dernier exemple en date est le passage presque systématique à l’outil Eclipse au détriment de l’outil TSO, resté célèbre pour son surnom de Minitel, tant son interface y ressemble.

La part du business dans le mainframe

Le Cobol reste un langage très utilisé dans de nombreux secteurs d’activité comme la banque, l’assurance, mais aussi la grande distribution, l’industrie spatiale et automobile ou la Défense. Populaire en son temps, le Cobol est toujours au cœur des systèmes d’informations de ces secteurs et outre le coût, le temps et les risques liés à une migration, il a l’avantage d’être un des langages les plus sécurisés ce qui perpétue son usage. Et en termes de coût d’utilisation, le Cobol reste inférieur aux autres langages, surtout à long terme, car la durée de vie de son code est plus longue et il n’est pas nécessaire de le réécrire dès que le langage évolue, comme avec du Java par exemple.

Malheureusement, son image vieillissante fait que de moins en moins de développeurs maîtrisent ce langage. Le marché se retrouve donc avec une pénurie de compétences en Mainframe alors que les besoins restent a minima stables. Pourtant, la mauvaise presse du Cobol semble exagérée. Le Cobol reste un langage relativement simple qui permet d’accéder à des projets à dimension fonctionnelle stratégiques que ne permettent pas d’autres langages plus modernes comme le .net ou le Java. Le sens du marché s’apparente ainsi à une double maîtrise Cobol et langage plus orienté objet (JS ou Java par exemple), afin, pour les entreprises, de disposer de compétences transversales, et pour les développeurs, de participer à des missions beaucoup plus valorisantes et complètes.

 

Non, le Mainframe n’est donc pas mort. Au contraire, il est plus vivant que jamais, parce que les besoins ne diminuent pas au sein des entreprises, et, alors qu’il est de moins en moins enseigné, il devient de plus en plus rare et donc recherché.

Green IT et impact du numérique : Entre constats et bonnes pratiques

Notre Blog
Flèches végétales accrochées sur un mur blanc

Green IT et impact du numérique : un contexte préoccupant //

3,8% des gaz à effet de serre émis dans le monde sont dus au numérique [1]. C’est l’équivalent de la flotte mondiale de camions, et plus que aviation civile (<3%) pourtant souvent pointée du doigt. En 2019, on comptait environ 34 milliards d’équipements, pour 4 milliards d’utilisateurs, ce qui fait de la matérialité la principale source de pollution environnementale du numérique.

Le numérique pose aussi des questions indirectes, voire sociétales. Il y a encore nombre de composants que l’Humain n’arrivera pas à recycler, une extraction des ressources qu’il ne sait maîtriser, ou encore une fracture numérique qui touche 17% de la population [2].

Green IT et impact du numérique : constats chiffrés //

La plus grande part de l’impact du numérique sur l’environnement est incontestablement due à la fabrication parmi toute la durée du cycle de vie des équipements. L’utilisation ne doit toutefois pas être minimisée, notamment en raison de sa consommation d’énergie et en particulier d’électricité. (Voir capture d’écran du rapport de greenit.fr ci-contre[1])

On peut identifier trois types d’acteurs dans le numérique : les utilisateurs, le réseau et les serveurs. Et ce sont les utilisateurs (et leur très nombreux équipements) qui ont le plus d’impact, loin devant les serveurs et le réseau. Si leurs effets ne sont pas nuls, les très décriés data centers ont un impact plus limité que nous utilisateurs (une récente étude publiée par l’Ademe et l’Arcep [3] les place cependant en 2ème position, mais toujours loin derrière les utilisateurs. (Voir capture d’écran du rapport de greenit.fr ci-contre[1])

En croisant les deux variables cycle de vie et acteurs, on observe que l’impact du numérique incombe principalement aux utilisateurs et à leurs besoins matériels, avec 37% de l’énergie utilisée, 76% des gaz à effet de serre, 86% de l’eau consommée et 79% des ressources matières exploitées. (Voir capture d’écran du rapport de greenit.fr ci-contre[1])

Tableaux représentant les impacts du numérique en France en 2020
Tableau représentant l

Green IT et impact du numérique : quelques ordres de grandeur //

Très médiatisé, l’impact des emails est largement inférieur à d’autres pratiques en termes d’émission de gaz à effet de serre. Par exemple une utilisation classique de 10 emails par jour (sans pièce jointe) pendant 250 jours reviendrait à 10kg d’équivalent C02. Parallèlement, détenir un iPhone équivaudrait à 86kg d’équivalent C02, une Apple Watch 36kg et un Google Home 82kg. Certes, supprimer ses emails, limiter ses pièces jointes restent des bonnes pratiques qu’il faut encourager. Mais elles auront toujours moins d’impact que le fait de garder ses équipements le plus longtemps possible. Et dans notre quotidien, ce qui a le plus d’impact sont les ordinateurs, qu’ils soient portables (380 kg dont près de 300kg pour la fabrication pour un Dell XPS 15’’) ou de bureau (575 kg pour un Dell OptiFlex 5070), mais surtout les écrans. Un écran de bureau 8k 32 pouces représente un équivalent CO2 d’environ une tonne ! Alors que pour rappel, l’objectif pour une neutralité carbone en 2050 est de se limiter à 2 tonnes par personne par an.

En face, et pour donner des ordres de grandeur, un jean en coton « coûte » 23kg, un gigot d’agneau 49kg et un aller-retour Paris Rome en avion 300kg. Ces comparaisons ne sont là pour exonérer les impacts plus médiatiques de la mode, de l’élevage ou de l’aviation, mais bien pour démystifier les croyances qui élèvent le numérique en solution miracle car tout pourrait se faire à distance.

(Voir tableau d’ordre de grandeur des émissions de gaz à effet de serre du numérique – estimations à titre indicatif [4, 5, 6, 7, 8] – en bleu la fabrication, en orange l’utilisation)

Green IT : la naissance d’une prise de conscience //

Pour contrer ces effets prédateurs du numérique sur notre environnement, est née la pratique du Green IT. C’est une branche du numérique responsable qui vise à réduire l’empreinte environnementale du numérique. Le numérique responsable, outre le green IT, comprend également la conception responsable des services numériques et l’IT for Green qui promeut des services liés au développement durable. Laissons ce dernier de côté car il représente des projets en particulier, et non une démarche applicable à tous.

Né dans les années 90, le Green IT se démocratise au début de notre millénaire, notamment à travers des premières lois qui imposent une prise de conscience aux entreprises. Mais comme souvent, ce sont des associations (CIGREF, Greenpeace) ou des initiatives (Climate Savers Computing Initiative, greenit.fr, INR) qui ont proposé les actions les plus avancées. Florilège des plus efficaces d’entre elles, d’une part du point de vue utilisateur et d’autre part à travers la conception.

Capture du rapport de theshiftproject.org représentant la recyclabilité des métaux

Green IT : des bonnes pratiques du côté utilisateur //

En tant qu’utilisateur, il faut se demander ce que l’on peut faire pour réduire son empreinte. Le premier levier est d’agir sur la fabrication des terminaux, car elle a le plus gros impact. Dans cette optique, allonger au maximum la durée de vie des terminaux est l’objectif prioritaire, compte tenu du fait que nous sommes tous déjà sur-équipés. Cela permettra ainsi de relâcher la pression sur la fabrication. A-t-on réellement besoin de renouveler son parc informatique au bout d’un an d’utilisation ? En cas de perte de performance, n’est-il pas plus judicieux d’augmenter la mémoire vive, ou de changer un disque dur ? Mieux encore, ne peut-on pas rendre plus efficaces nos traitements envers nos équipements pour les garder plus longtemps ?

Ce qui amène naturellement vers la deuxième préoccupation : comment réduire notre équipement. Le besoin d’avoir le dernier gadget pour smartphone ou cet écran supplémentaire n’est pas forcément essentiel. Et si le recours à l’achat devient indispensable, il faut invariablement se poser la question comment bien acheter. Cela passe par vérifier lors de l’achat que l’appareil ainsi acquis est réparable (la batterie de ce nouveau smartphone peut-elle être changée ?) et que les pièces seront disponibles pour une durée suffisamment longue [9]. Plus difficile pour une entreprise mais envisageable pour les particuliers : le reconditionnement.

Enfin, pour participer à réduire le nombre de terminaux fabriqués et ainsi son empreinte numérique, la revente est un levier. Il faut ainsi privilégier les solutions qui assurent un réemploi, soit en l’état, soit là aussi grâce aux reconditionneurs. On préférera effectivement le réemploi au recyclage, car on recycle encore très mal nombre de métaux, souvent parce qu’ils sont en quantité infime et qu’il n’existe pas de rentabilité à les extraire pour les traiter séparément. Mais ces quantités infimes dans un terminal, finissent en impact écologique immense multiplié par le nombre de terminaux.

 

(Voir capture du rapport de theshiftproject.org [10])

Le Green IT et l’éco-conception pour le web //

En tant que concepteur, nous avons également un rôle fort à jouer. Côté front, l’enjeu premier est de concevoir des applications légères et efficaces. Cela permet notamment de ne pas pousser à l’obsolescence des appareils anciens. Une application disponible sur de vieux équipements qui consomme peu de bande passante ou peu de puissance processeur n’encouragera pas les utilisateurs à changer leurs appareils pour des plus récents.

Côté Web, les bonnes pratiques sont similaires. Alléger le poids des pages, le nombre de requêtes serveurs ou encore la complexité du DOM, rend un site plus sobre et plus utilisable sur d’anciens terminaux. Outil parmi d’autres, GrennIT Analysis (anciennement ecoindex.fr) permet de mesurer l’efficacité des pages. L’INR (Institut Numérique Responsable) met également une boîte à outils [11] qui regroupe des solutions d’éco-conception et d’accessibilité, voire même plus récemment guide de conception repsonsable [12]

Des applications légères sont également bénéfiques côté utilisation, serveur et réseau, notamment en éliminant les fonctionnalités non essentielles. Plusieurs études (Cast Softwre et Standish Group, notamment) démontrent que 45% ne sont jamais utilisées et que 70% des fonctionnalités demandées par les utilisateurs ne sont en réalité pas utiles non plus [11]. En réduisant le nombre de fonctionnalités, on réduit donc les requêtes serveurs et la bande passant utilisée notamment, et donc l’impact écologique. On peut également amoindrir le recours à des outils de tracking comme Tag Manager ou Analytics, eux aussi gros consommateurs de ressources.

Enfin, nous pouvons agir côté serveur. Au cœur de la tourmente médiatique, la donnée est souvent pointée du doigt. Compte tenu de sa part de responsabilité sur l’impact du numérique, à tort peut-être, mais cela ne doit pas empêcher d’agir dessus. Combien de données sont collectées, combien de temps est-elle stockée, à quel moment va-t-elle être supprimée ? Ces questions doivent entrer dans les réflexions. Et si possible by design, soit dès la conception l’application ou du site. Framapad, outil de texte collaboratif, demande dès la création du fichier à l’utilisateur quelle sera la durée souhaitée d’existence de son fichier partagé. Une sorte d’expiration by design.

Au-delà d’une bonne pratique, cela permet de faire prendre conscience à l’utilisateur qu’il n’aura pas toujours besoin de ce fichier, et que stipuler une durée de vie à certains fichiers créés est une pratique novatrice et intéressante. En développement, cela se traduit par des pratiques d’éco-conception qui encourage à agir dès le design, le plus en amont possible donc et avant les optimisations.

 

Il existe une foultitude d’autres bonnes pratiques en Green IT. Et chaque pièce participe à l’immensité du puzzle. Si dans chaque projet, programme ou produit, on se pose la question de l’impact, en mettant en tête de la réflexion la consommation de terminaux, alors chaque geste, chaque ligne du cahier des charges, nous conduira dans la bonne direction.

 

[1] https://www.greenit.fr/wp-content/uploads/2021/02/2021-01-iNum-etude-impacts-numerique-France-rapport-0.8.pdf

[2] https://www.vie-publique.fr/en-bref/271657-fracture-numerique-lillectronisme-touche-17-de-la-population

[3] https://www.arcep.fr/uploads/tx_gspublication/etude-numerique-environnement-ademe-arcep-volet02-synthese_janv2022.pdf

[4] https://bilans-ges.ademe.fr/

[5] https://www.apple.com/fr/environment/

[6] https://www.fairphone.com/fr/

[7] https://sustainability.google/reports/

[8] https://www.dell.com/en-uk/dt/corporate/social-impact/advancing-sustainability.htm

[9] L’article L. 111-4 du Code de la consommation introduit une obligation d’information sur la période ou la date de disponibilité des pièces détachées.

[10] https://theshiftproject.org/wp-content/uploads/2018/10/2018-10-04_Rapport_Pour-une-sobriété-numérique_Rapport_The-Shift-Project.pdf

[11] https://institutnr.org/liste-doutils-numerique-responsable

[12] https://gr491.isit-europe.org/

Intégration d’un collaborateur en situation de handicap - 3 minutes
-

Intégration d’un collaborateur en situation de handicap Le témoignage de Yoann

Notre Blog

Intégration d’un collaborateur en situation de handicap : convictions //

Vous avez recruté dans votre équipe Flavien, qui est un travailleur en situation de handicap. Avez-vous ressenti des craintes/appréhensions vis-à-vis de son recrutement ?

« Le recrutement d’une personne en situation de handicap ne génère aucune peur ni inquiétude, je souhaitais cependant connaître son handicap, dans le but de m’assurer que l’environnement de travail serait compatible avec les besoins de Flavien.

Il y a plusieurs niveaux de handicap : des handicaps légers et des handicaps lourds. Je souhaitais éviter que le handicap de Flavien porte atteinte à sa personne, son intégrité, son épanouissement et sa sécurité. Le bien-être de mes préparateurs est quelque chose qui est très important. À mes yeux, il est nécessaire que les nouveaux arrivants s’intègrent dans de bonnes conditions au sein des équipes et qu’ils s’épanouissent. »

 

Intégration d’un collaborateur en situation de handicap : une évidence //

 

Quelles sont les raisons qui vous ont encouragé à tenter l’expérience ?

« Pour être totalement transparent, la notion de handicap n’est pas un élément qui contribue à ma prise de décision, ce sont les compétences qui priment à mes yeux !

Je recrute des personnes qui sont persévérantes, qui ont l’envie d’apprendre, et qui ont le bon mind set. La compétence métier viendra avec les formations que dispense Apside – formations qui ont une réelle plus-value. Je cherche un état d’esprit, un comportement, une assiduité et la compétence. c’est pour ça que je travaille avec David, et que je l’ai soutenu lorsqu’il a créé une école et des formations avec Yvan.

La formation au métier de préparateur est particulière, elle n’est pas disponible sur toutes les plateformes de formation connues. Le métier est très compliqué à appréhender et à transmettre. Je voulais m’assurer qu’Apside était capable de capitaliser sur le savoir et de transmettre ses compétences. Durant les entretiens, je regarde donc le mind set, la persévérance, et l’envie d’apprendre du candidat. Ça se voit tout de suite s’il a l’envie d’apprendre. »

Intégration d’un collaborateur en situation de handicap : réussir une intégration //

Etes-vous satisfait de la prestation réalisée par Flavien ?

« Depuis que Flavien est dans mon équipe, soit environ 5 mois, j’ai vu Flavien prendre de l’assurance, comprendre le métier complexe qu’est la préparation et s’épanouir. A l’instant T, je suis très satisfait par ses prestations. Bien sûr qu’il a du chemin à parcourir, pour ma part ça fait 20 ans que je suis dans la préparation et j’en apprends tous les jours. Mais au niveau de Flavien, et par rapport à ce qui a été réalisé jusqu’à aujourd’hui, Flavien est totalement aux attendus. »

 

Un conseil ou un message aux candidats potentiels ?

« Le conseil que je pourrais donner aux potentiels candidats, c’est d’être persévérants, curieux, organisés. Le métier se transforme au grès des projets Airbus Helicopters. Nous sommes sans cesse en train d’évoluer, il faut donc des personnes capables de s’adapter afin de rester agile.

La préparation méthode donne la possibilité de travailler sur une multitude de sujets allant du développement des nouvelles installations en passant par de la réaffectation, le parachèvement, le support prod, etc. L’éventail est large ce qui permet d’avoir une connaissance globale de l’appareil. La préparation méthode permet de toucher à tout, et de comprendre divers métiers tels que le métier approvisionnement, le métier qualité, et le métier agent d’études techniques (AET). Le préparateur méthode est au milieu de tout ça, il tire les ficelles pour essayer de faire avancer l’Indus ou l’installation sur l’appareil, c’est donc un métier vivant et compliqué. De ce fait, il faut avoir certaines qualités, être persévérant et ne pas laisser le train partir, s’accrocher et avancer. »

Intégration d’un collaborateur en situation de handicap : un message à faire passer //

 

Auriez-vous un message à faire passer aux donneurs d’ordres Airbus Helicopters sur les prestations avec Apsid’EA  ?

« Le message que je pourrais faire passer est qu’il ne faut pas partir avec des a priori lorsqu’on parle de handicap. Lorsque la mission est compatible, le handicap ne doit pas être un élément pouvant impacter la décision.

Je n’ai aucun doute sur le fait qu’il n’y ait pas de frein chez Airbus Helicopters lorsque c’est fait en totale transparence.

En effet, il reste primordial d’être au fait concernant le handicap du futur collaborateur afin de s’assurer de la compatibilité de l’environnement de travail avec les besoins du collaborateur. Il faut instaurer dès le départ un climat de confiance et de transparence.

En l’occurrence, il était nécessaire de prendre en compte le souffle au cœur de Flavien avant de définir son périmètre afin qu’il puisse s’épanouir pleinement : je tiens à ce que mes collaborateurs soient heureux. »

 

Cette interview a été réalisée à la suite du témoignage de Flavien concernant son intégration chez Apside’EA, sa formation et sa montée en compétences orchestrée par Follow Your Collab, et sa prise de poste en tant que préparateur méthode // chez Airbus Helicopters. Retrouvez le portrait de Flavien ici.