Overblog Suivre ce blog
Administration Créer mon blog
18 février 2008 1 18 /02 /février /2008 11:12

Habitués à Facebook, à MSN et aux téléphones mobiles, les jeunes diplômés ont du mal à s'adapter aux outils de bureau traditionnels. Etat des lieux lors du forum Netxplorateur.



Mais comment diable recruter, séduire et retenir les jeunes talents issus de la Net génération ? Car les repères et les modes d'échanges de la génération arrivant aujourd'hui et demain sur le marché du travail - la génération 1982/1998 - diffèrent plutôt fortement de ceux de leurs aînés embaucheurs. Elevés au Web, utilisateurs permanents des messageries instantanées, SMS, et échanges collaboratifs online, ils utilisent couramment le réseau et le partage d'informations comme modes de travail.


« Ils sont mobiles, multimédias et multitâches, a expliqué vendredi JP Rangaswami, DSI Global Services chez British Telecom, au cours d'une table ronde organisée au Sénat dans le cadre du forum Netxplorateur. Mon père a eu un travail unique au cours de sa vie. Moi, j'en aurai sept différents. Mais mes enfants en auront sept en même temps !  »


Ils se retrouvent ainsi face à des équipements de travail inadaptés à leurs yeux : des PC et des téléphones de bureaux, alors qu'ils ne travaillent plus que sur portables et mobiles. Et comment comprendre lorsqu'on évolue dans un univers d'échanges instantanés qu'il ne soit pas possible de consulter Facebook et MSN depuis son poste pour se connecter à ses collègues ? Et pourquoi utiliser un intranet pauvre en informations sur la communauté interne de l'entreprise au regard de ce qu'on trouve en quelques secondes sur le Web ?


« Cette génération a une appréciation très révélatrice du rapport de confiance. Par exemple, ils ne voient aucun intérêt à utiliser le " cc " de la messagerie. S'ils reçoivent un message avec une mise en copie à une autre personne de l'entreprise, ils s'insurgent : " Pourquoi, alors que vous avez une discussion avec moi, vous mettez quelqu'un d'autre en copie ? N'avez-vous donc pas confiance en moi ? », a relaté JP Rangaswami.

L'entreprise communautaire



Dans les petites entreprises technologiques, dirigées elles-mêmes par des entrepreneurs rompus au Web, des formes de management et d'organisation nouvelles se sont déjà mises en place. « Les entreprises devraient penser qu'elles sont une communauté ». Tariq Krim, fondateur et PDG de Netvibes, qui compte 40 salariés, a expliqué lors de la conférence, sa vision du recrutement et du management : « J'ai moi-même bafoué toutes les règles classiques du recruteur. J'ai par exemple demandé à des gens de quitter l'école pour nous rejoindre. Un des freins au développement des talents est souvent issu des entreprises elles-mêmes : elles ne donnent pas la possibilité aux nouveaux embauchés de tenter, de faire, sans a priori et sans assurance de résultats. » 


Si un nouveau management est possible dans les petites entreprises, qu'en est-il dans les grands groupes, avec les plus inquiets de ces jeunes candidats mobiles et impatients ? « 
Je conseillerais aux systèmes d'information de prendre le meilleur des réseaux sociaux, a expliqué Jean-Stéphane Arcis, fondateur et dirigeant de l'éditeur TalentSoft. Que les candidats soient visibles pour toutes les opportunités de postes internes ; que le profil de chacun soit public ; que les expériences puissent être partagées et que chacun puisse indiquer son désir de mobilité. »



Laure Deschamps

Paru dans 01net le 18 février 2008

Repost 0
Published by Laure - La Rédac Nomade - dans Vie numérique
commenter cet article
10 octobre 2007 3 10 /10 /octobre /2007 11:17

D'après Michèle Havelka, ex-directrice générale adjointe d'Unilog et fondatrice de l'Association nationale des informaticiens de France (Anif), il est urgent de prendre en compte la longévité dans la gestion d'une carrière informatique. Car le basculement de l'autre côté de la barrière, où vous êtes déclarés trop vieux ou trop cher, se fait extrêmement tôt ! 


La quatorzième édition du salon Plein emploi high-tech s'est tenu mardi 9 octobre à Paris La Défense. Manifestation bi-annuelle, ce classique salon de recrutement organisé par Delling Expo accueillait une cinquantaine d'exposants, SSII mais aussi grandes entreprises.

Les allées ont été parcourues par des candidats en quête de poste, dont deux-tiers de personnes expérimentés. Car aujourd'hui, tout le problème est bien là : il faut pouvoir tenir la distance dans les métiers de l'informatique.

Trop vieux ou trop cher

Alors que les jeunes diplômés des filières high-tech décrochent leur premier emploi en moins d'un mois pour 50 % d'entre eux, la suite de leur carrière n'est pas aussi florissante. « Dans le domaine de l'informatique, les difficultés commencent dès 37 ans, voire 35 ans dans les SSII. Je veux alerter les informaticiens, les prévenir que ce n'est pas parce qu'ils sont embauchés aujourd'hui qu'ils le seront demain », a expliqué Michèle Havelka face à une salle remplie surtout de personnes expérimentées.

75 000 informaticiens au chômage

L'Anif a été créée en janvier 2006 justement autour de la thématique de la prise en main par les informaticiens de leurs carrières. Mais aussi pour démystifier les chiffres qui circulent sur le marché de l'emploi et en produire qui soient plus en phase avec la réalité. « Selon l'Apec, il y aurait 26 000 informaticiens au chômage, sur les 700 000 recensés en France, a expliqué l'oratrice. Nous estimons pour notre part, qu'ils sont 75 000 à n'avoir pas de travail.  » L'âge est un critère réellement discriminant, car la population de la profession a en moyenne 36 ans.

« Si vous êtes débutant, vous êtes le bienvenu partout. La demande actuelle porte en premier lieu sur les jeunes et ensuite sur les compétences et expertises non produites par les écoles. Par ailleurs, on constate un fossé entre les offres d'emploi, qui à 45,3 % sont destinées à des spécialistes et le positionnement des candidats : 19,8 % d'entre eux seulement se définissent comme tels » , précise Michèle Havelka.

Les effets de l'outsourcing

Dernier grand sujet sur lequel la présidente de l'Anif est intervenue : les délocalisations, afin d'en expliquer les effets réels en terme de recrutement. « Dans les PME, comme dans les grandes DSI, l'effectif reste constant. En fait, les nouveaux besoins sont externalisés. Soit dans des filiales créées par les grandes DSI à l'étranger, soit par l'intermédiaire des SSII qui elles aussi développent leurs propres filiales offshore. Que CapGemini indique qu'en janvier 2008 son effectif en Inde sera plus important que son effectif français, n'est pas une donnée anodine  », note-t-elle en rappelant que le coût par jour d'un informaticien en poste en France est de 450 € (350 € pour une mission d'appoint), contre 270 € au Maroc et 150 € en Inde.

Il n'en reste pas moins que certaines compétences caracolent toujours en tête des recherches des recruteurs : comme les architectes techniques, fonctionnels ou SOA ; les consultants ERP ou encore les développeurs NTIC. Mais soyez prévenus : il est grand temps de penser que l'informatique n'est qu'une première carrière et qu'il vous faut avoir un plan B à partir de 35 ans.

Laure Deschamps, paru dans 01net le 10 octobre 2007

Consultez cet article sur 01net.



Repost 0
Published by Laure - La Rédac Nomade - dans Vie numérique
commenter cet article
1 juillet 2005 5 01 /07 /juillet /2005 21:42

Armor Mobile Security adopte un SAP à sa mesure

Le fabricant de véhicules blindés, AMS, passe du stade d'artisan à celui de carossier industriel grâce un nouveau système d'information de gestion digne des grands groupes indutriels. Pour réussir son projet il a suivi à lettre les processus pré-définis proposés par son intégrateur.

Informatisation : Le spécialiste breton du blindage de véhicules met en place un système d'information de gestion unique, en neuf mois, en adoptant des processus pré-définis.

En novembre dernier, le retour à l'atelier du 4x4 Toyota Land Cruiser criblé de balles de Kalachnikov a marqué les esprits : les quatre fonctionnaires anglais qui voyageaient à son bord, au cours d'une mission en Irak, en sont sortis indemmes grâce au blindage fabriqué sur le site de Lamballe (Côtes d'Armor) d'Armor Mobile Security (AMS). A la fierté légitime de contribuer à préserver la vie, s'ajoute pour les salariés de l'entreprise spécialisée dans le blindage de véhicules, celle d'appartenir à une PMI dont le savoir-faire en terme s'exporte dans 80 pays pour la protection de chefs d'états, de diplomates ou de responsables d'organisation humanitaires.
Devenue filiale de l'américain O'Gara Hess et Eisenhardt en 1998, l'ancien artisan carossier Labbé a franchi, en janvier dernier, un nouveau cap dans l'industrialisation de son activité avec la mise en oeuvre d'un système d'information de gestion capable d'accompagner la montée en charge d'une production en plus grandes séries sur un marché en croissance en raison des conflits au Moyen-Orient. .
Il lui aura suffi de neuf mois pour installer un SAP, un progiciel de gestion intégré digne des plus grands groupes industriels. Mais la culture PMI est restée bien encrée chez le carossier breton ! Pour concrétiser son objectif dans un délai aussi sérré, il a préféré se conformer à la lettre aux méthodologies proposées et aux préparamétrages conçus par la société IDS-Sheer, éditeur allemand de solutions de managements des processus. .
« Il nous a fallu quatre mois pour obtenir l'accord de notre actionnaire qui souhaitait nous faire adopter une autre solution ! Les responsables du siège avaient une mauvaise image de SAP qu'ils jugeaient trop lourd à installer et trop puissant, confie Frédéric Louis, directeur administratif et financier d'AMS France. Nous les avons convaincus grâce à l'apport des fonctions préparamétrées qui évitaient justement d'alourdir le projet. Ces fonctionnalités avaient été testées chez des industriels qui produisaient comme nous des biens d'équipements complexes. Comme nous ne fabriquons pas de produits standards, nous avons besoin de consolider nos résultats à l'affaire, c'est à dire véhicule par véhicule ». La préparation sur le terrain a été particulièrement cadrée. AMS passait en effet d'une informatique de gestion rudimentaire à un progiciel intégré bénéficiant des dernières avancées technologiques. .
« Nous ne souhaitions pas faire fonctionner deux informatiques en parallèle. Nous devions nous lancer rapidement dans la logique du nouveau système » explique Solène Lajoux, contrôleur de gestion d'AMS et chef du projet SAP. .

Une grande disponibilité pour les utilisateurs clés du projet

Lancé en mai 2004, le projet démarre simultanément sur les quatre grandes fonctions à informatiser : gestion commerciale, achats- logistique, production et finance. Pour chaque domaine est associé le responsable du domaine et des utilisateurs-clé (chef d'équipe, magasinier, etc). .
« Nous avons embauché des intérimaires pour libérer 50 à 80% de leur temps, selon la fonction couverte,précise Solène Lajoux. Un fabricant de machines de chantier qui venait de terminer un projet similiaire, nous avait conseillé de donner le maximum de disponibilité aux les utilisateurs directement associés à l'implémentation du projet ». .
Quelle que soit la fonction couverte, les utilisateurs clés découvrent la solution en même temps. puis sont impliqués à toutes les étapes du projet, analyse, paramétrage, tests de lancement, avec des délais à respecter pour avancer simultanément. « Chacun se cantonnant à son rôle nous avions des comités réduits, très impliqués, afin de prendre des décisions rapidement, poursuit Solène Lajoux. Nos utilisateurs-clés n'avaient pas l'habitude de l'outil informatique, il ne fallait pas trop de bureaucratie et d'administratif, les procédures sont donc assez simples : saisie d'heures, état de stock, réceptions de commandes etc… ». En trois mois, de juillet à septembre, l'ensemble des flux pré-paramétrés étaient testés et les écarts analysés, l'intégration et la formation, occupant le trimestre suivant. Les utilisateurs-clés ont ainsi contribué à former quarante-cinq de leurs collègues qui utilisent maintenant au quotidien le progiciel.

Des créations de nouvelles fonctions

Opérationnel, depuis janvier 2005, le progiciel a permis de revoir les processus existants et d'en créér de nouveaux. Par exemple, AMS a du créé un poste d'administration des ventes qui n'existait pas auparavant. Cette fonction couvre le processus qui va de commande client en passant par le suivi de production, la livraison, la facturation jusqu'au recouvrement. « Nous avons aussi rataché le pôle logistique à la fonction achats, nous avions déjà l'idée de le faire, l'installation du nouveau système était donc l'occasion de concrétiser cette idée » ajoute-t-elle. AMS s'est conformé avec une certaine humilité et sans grandes difficultés aux propositions proposées par la solution d'IDS-Sheer, cependant la partie qui a demandé le plus gros effort est la création des monenclatures des véhicules blindés fabriqués en série.
« Le premier MRP (manufacturing ressources plannification) que nous avons lancé avec le système n'était pas cohérent, nous avons du vérifié près de 3000 pièces, code à code. C'était un sujet complètement nouveau pour notre société, avoue Solène Lajoux. Désormais le dossier de fabrication sort du bureau d'étude automatiquement pour engager les investissements nécessaire au blindage d'un modèle ».
Une organisation ajustée
Ces nomenclatures seront constituées pour les modèles produits en série, comme par exemple les 4x4 Toyota ou Land Rover ou les véhicules de transport de fonds. Petit à petit, des ajustements s'opèrent, « Nous avons encore des progrès à faire pour que l'entreprise s'adapte complètement au logiciel. Nous nous sommes concentrés sur l'essentiel, nous ne pouvions pas tout unifier en une seule fois, reconnaît Solène Lajoux. Par exemple nous pensons impliquer le sous-traitant qui gère notre stock de tôles en lui donnant un accès dans notre système SAP ».En disposant maintenant d'un seul système qui permet d'élaborer toutes les combinaisons possibles entre les différentes données des grandes fonctions de l'entreprise, AMS a réussi son pari : devenir un véritable carossier industrie

Sophie Maréchal, L'Usine Nouvelle, 10 juin 2005


 

Produire des véhicules blindés en séries
Les enjeux :

Réaliser des blindages en plus grande série grâce à des accords pris avec des constructeurs de 4x4, de berlines et de véhicules de transport de fonds.

Répondre à la croissance de l'activité en raison des conflits au Moyen-orient.

Satisfaire aux exigences de reporting de la holding américaine

Les solutions :

Mise en place d'un système d'information unique pour une gestion d'activité par affaire, basé sur le progiciel de gestion intégré : SAP R3

Pré-paramétrage avecAris-Smartpath, outil management de processus de la société IDS-Sheer (intervenant aussi comme intégrateur)

Le projet

Neuf mois de travail (mai 2004 à janvier 2005)

Coût total : 1 million d'euros

Périmètre : gestion commerciale, achats et logistique, production, finance

Un chef de projet et quatre consultants IDS-Sheer (intégrateur)

Dix personnes AMS (des responsables de domaines et des utilisateurs clés)

Un chef de projet AMS (le contrôleur de gestion)

Les améliorations qui restent à apporter :

Consolider les résultats par type de véhicule produit.

Gerer l'inventaire en temps réel.

Mesurer la productivité des ateliers, l'encourt de production…

Fiabiliser les informations


 

Facteurs clés de succès
Dégager de la disponibilité à l'équipe projet en recrutant des intérimaires
Respecter les délais définis par chaque comité en charge d'une fonction
Rester au plus près des standards proposés
Intégrité des données de base


L'entreprise
Filiale du groupe américain Armor Mobile Security division de O'Gara Hess & Eisenhardt Company ( leader mondial de la protection de véhicules)
Activité : blindage de 4x4, berlines de luxe, véhicules militaires et transport de fonds Effectifs : 180 salariés.
Siège : Lamballe (22-Côtes d'Armor)
Chiffre d'affaires : 27 Millions d'Euros en 2004

Repost 0
Published by Sophie Maréchal dans L'USINE NOUVELLE - dans Vie numérique
commenter cet article
15 juin 2005 3 15 /06 /juin /2005 14:08

Le sonotone de grand père a bien changé. Plongée au cœur des nouvelles oreilles numériques.

 


oreillette.jpgLa prothèse auditive a fait des progrès. Sans remonter au cornet acoustique de Beethoven, s'en est fini des réglages manuels et des sifflements stridents qui obligeaient à secouer l'appareil sur son oreille.
En France, sur 8 millions de malentendants seuls 10% sont « appareillés ».
Une situation qui évolue heureusement, avec l'arrivée d'une nouvelle génération d'aides auditives. « Les « contours » d'oreille n'ont pas disparus, cela reste même encore la majorité en France. Simplement ils sont devenus numériques », précise Philippe Metzger, audioprothésiste à Paris.
Les avantages du numérique ? Plus de précision, plus de confort, amplification en temps réel, programmation de l'appareil… La puce à l'intérieur est capable d'adapter en permanence l'écoute à l'environnement sonore dans lequel se trouve la personne. Jusqu'à tenir une conversation dans la foule d'une rue passante. Les progrès les plus flagrants concernent les « intra auriculaires », ces aides auditives tellement miniaturisées qu'elles se cachent au fond de l'oreille. Elles représentent 30% des appareils en France, mais 75% aux États-Unis. L'« intra » est au contour d'oreille ce que les lentilles sont aux lunettes. Les animateurs télé, les sportifs, les gardes du corps et même certains comédiens l'ont adopté en version « récepteur HF ». Son prix ? Environ 1500 euros.

Un concentré de technologies

« C'est devenu de la haute technologie : les algorythmes qui traitent l'audition dans un « intra » pourraient tenir sur un livre de 1000 pages ! On est loin des appareils avec trois transistors soudés… », confirme Thierry Daudignon, DG de Starkey France, l'un des principaux fabricants mondiaux.
Prochainement, on pourra même affiner ces réglages soi-même à l'aide de son PDA via une connexion sans fil. D'ailleurs les oreillettes Bluetooth des téléphones mobiles font beaucoup pour dédramatiser le port de ces appareils. « Les aides auditives apportent un grand confort autant auditif que moral », reconnaît Martine Beaussant, docteur en anthropologie de la santé, elle-même souffrant d'une surdité de 60% à l'oreille gauche et de 80% à l'oreille droite. Ses deux « intras » lui permettent de mener une vie harmonieuse.

 


LÉGENDES DU REPORTAGE PHOTO

1. Chez l'audioprothésiste, la première séance commence par l'analyse des besoins du patient : mode de vie, environnement sonore, etc, de manière à déterminer avec lui l'appareil adapté à sa perte auditive et à sa personnalité. A l'aide d'un casque, il réalise ensuite des tests audiométriques, aidé par des logiciels assez proches de ceux qu'utilisent les musiciens et les ingénieurs du son.


2. L'audioprothésiste réalise une empreinte du conduit auditif de sa patiente à l'aide d'une pâte de silicone bleue (ou rouge pour l'oreille droite) mélangée à un durcisseur dans un tube. Il n'a que 2 minutes pour assurer le moulage. Une fois l'empreinte durcie, le praticien l'envoie au fabricant par colis avec sa commande plus tous les pré-réglages audio associés, envoyés par Intranet. Bientôt cette étape de prise d'empreinte sera réalisée par un mini-scanner 3D à introduire directement dans l'oreille.


3. Arrivée chez le fabricant (ici Starkey France), l'empreinte bleue est scannée en 3D puis traitée par un logiciel de modélisation. Elle apparaît alors à l'écran en volume, prête à toutes les manipulations numériques. But : concevoir la coque plastique (l'embout), personnalisée au centième de millimètre, qui se glissera comme un chausson dans le conduit du patient. Finies les étapes fastidieuses et artisanales de moulage, contre-moulage et polissage à la main…


4. Suivant la chaîne de fabrication numérique, un technicien va « placer » dans la coque tous les éléments miniaturisés : amplificateur, micro, transducteurs (puce), pile, évent (ventilation), face plate. L'opérateur devant son écran contrôle tous les paramètres dans « l'oreille virtuelle » du patient. Tout est identifié : chaque coque porte un n° de série. Puis le fichier 3D de la coque part en fabrication dans une autre partie du labo et un plan de montage très précis est édité.


5. Une fois fabriquées par stéréolithographie - sorte d'« imprimante 3D » avec découpage laser - , les coques reçoivent les différents composants électroniques prévus. Ce montage minutieux est réalisé à la main, par des techniciens en gants blancs, selon les emplacements définis par l'ordinateur. Reste à affiner les réglages acoustiques numériques, passer par le contrôle Qualité et envoyer l'appareil neuf à l'audioprothésiste qui la remettra à sa patiente après quelques derniers ajustements. Le tout n'aura duré que deux jours contre plusieurs semaines auparavant.


6. Sorti du laboratoire, l'« intra-auriculaire » est de toute petite taille. Il tient entre deux doigts. Dans ce modèle transparent encore plus discret, on distingue difficilement les petits fils conducteurs et l'électronique miniaturisée. Placé dans l'oreille de sa nouvelle propriétaire, ce bijou dédié à l'audition sera capable de fonctionner en moyenne plus de 18 heures par jour pendant 5 ans. Mais il demande du soin et il craint l'humidité. Baignade interdite !


Pierre Lorimy
Micro Hebdo
15 juin 2005


Repost 0
Published by Pierre Lorimy dans MICRO HEBDO le 15 juin 2005 - dans Vie numérique
commenter cet article
17 mars 2005 4 17 /03 /mars /2005 10:23


Les arrêts intempestifs coûtent cher. Mais la culture du dépannage d'urgence fait de plus en plus place à des démarches préventives, pour agir sur la disponibilité des équipements, le service maintenance doit pouvoir mesurer ses actions.


Le diagnostic est au cœur du métier des techniciens de maintenance. Leur savoir-faire est apprécié dans les moments d'urgence. Mais le risque du métier est de vivre en autarcie, conduit par la seule culture « pompier de service ». Un jour ou l'autre, au même titre que les autres fonctions de l'entreprise, leur responsable se voit inciter à mesurer la performance de ses équipes et leur contribution à l'activité de l'entreprise. Il est donc audité pour corriger ses erreurs et modifier ses habitudes.
Le préalable à tout audit de la fonction est donc de resituer son rôle dans l'organisation transversale de l'entreprise. « L'enjeu est de libérer du temps de production supplémentaire, observe Nicolas Clinckx, partner du cabinet de conseil en management Héméria. Des arrêts trop fréquents pénalisent la production ; pour y remédier il est nécessaire de définir une nouvelle politique de maintenance.
La première difficulté rencontrée est de collecter les données qui permettront d'évaluer l'efficacité des interventions et de poser les bases d'un plan de progrès. Les indicateurs de réactivité seront relativement simples à recueillir : nombre de pannes sur un temps donné, ratio temps de fonctionnement sur nombre d'arrêts, durée totale des dépannages etc.A partir de cette base de référence, il sera possible de lancer des actions pour diminuer les arrêts et raccourcir les délais de réparation.
« Grâce à des éléments tels que l'historisation des opérations sur un logiciel, nous voyons rapidement si le site a une véritable politique de maintenance et une bonne vision de son patrimoine d'équipements, remarque Jean-Paul Ferrière, manager dans le cabinet de consulting Pea Euriware. Tout comme l'on peut cerner quand le service maintenance agit à l'aveugle sans comprendre pourquoi tel ou tel équipement est tombé en panne  ».
Des actions immédiates sur les dépenses peuvent produire des résultats visibles rapidement : suppression de postes de techniciens, diminution du stock de pièces détachées ou résiliation de prestations de maintenance extérieures. « Les effets négatifs de ce genre de mesures ne sont persceptibles, selon le type d'industrie, qu'un an voir deux ans après avoir pris ce type de mesure » remarque Philip Morel vice-président de Proudfoot Consulting.
Cela se complique lorsqu'il s'agit d'analyser tous les impacts financiers de la maintenance d'un équipement à l'intérieur d'une chaîne complète de valeur. De la théorie à la pratique sur le terrain, le décalage se fait sentir. Souvent sur la brèche, les équipes de maintenance n'ont pas toujours le réflexe ou le temps de consigner toutes les données utiles à une analyse pertinente du coût des conséquences d'une panne . « Les responsables de maintenance ont du mal à se mettre au niveau de ce que leur demande les financiers, constate Jean-Yves Andrillon, ingénieur conseil et formateur du cabinet de conseil spécialisé en maintenance GPMG 21. Quant aux systèmes de GMAO, ils sont souvent sous-employés voir inadaptés. On parvient même à sortir de ces systèmes des coûts de maintenance négatifs sur certaines machine !  ».
Une politique de réduction des coûts ne pourra donc être menée qu'avec la mise en place de moyens pour en mesurer les conséquences sur la fiabilité des équipements. Les matériels seront classés en fonction de leur taux de criticité, l'arrêt prolongé de telle machine peut pénaliser la chaîne logistique, telle autre supportera d'être immobilisée sans conséquences importantes sur la production.
Sans référentiel le service maintenance aura de grandes difficultés à s'engager comme partie prenante aux côtés des responsables de production dans des démarches telles que la Total Productive Maintenance, le Kaisen ou autres projets d'entreprise d'envergure. « Fiabiliser un équipement ou améliorer le TRS (taux de rendement synthétique) sont des processus longs. Avant de se lancer dans des projets ambitieux voir conceptuels, il faut s'assurer que les fondamentaux sont en place », souligne Nicolas Clinckx.


Le rôle de manager des équipements

Tous les éléments objectifs, recueillis sur le terrain, permettront de fonctionner en cohérence avec la production, mais aussi le service qualité, les achats et bien-sur le contrôle de gestion, voire, dans l'idéal, avec le bureau d'étude de l'équipement lui-même ! En effet, dans le cadre d'une démarche de « coût global de la maintenance », on considère la conception du matériel comme entrant de 60 à 70% dans l'origine des pannes, une part de 20 à 30% est dû à des problèmes d'utilisation du matériel et seulement 10 à 20% à la réalisation de la maintenance… « Le minimum de coût s'obtient par la mise en œuvre d'actions dont les enjeux sont supérieurs aux dépenses pour les initier » assure Jean-Yves Andrillon. Pour parvenir à une maîtrise globale de la fonction maintenance et de ses conséquences financières, le responsable maintenance deviendra un manager des équipements. Il sera donc, bien, toutes proportions gardées aux machines ce que le directeur des ressources humaines est aux salariés.


Les facteurs déclenchants :

La multiplication des dysfonctionnements
Un budget maintenance excessif
Une augmentation ou une décroissance de l'activité de la production.
Des équipements critiques à installer
Le lancement d'un plan de progrès en lien avec la production


Hutchinson mesure la valeur globale des équipements

Une démarche simple : augmenter le temps d'utilisation des équipements parallèlement à une réduction des coûts de maintenance.

Le problème : des coûts maintenance mesurés partiellement et séparément
La solution : mise en pratique d'une vision du « coût global de possession »

L'usine HutchinsonS NC de Montargis (Loiret) collabore à une réflexion sur « le coût global de possession des matériels », engagée par la direction équipements et énergies du groupe. Cette démarche doit faciliter l'étalonnage des sites de production du fabricant de produits en caoutchouc. En effet, celui-ci partait du constat que les équipements étaient connus pour leurs seuls coûts d'achat et de maintenance. Les éléments liés à leur disponibilité, leur efficacité et leur durée de vie n'entraient pas en ligne de compte. Montargis, comme des autres sites du groupe, a donc mettre en pratique une méthode qui comptabilise non seulement le coût d'acquisition d'un équipement, mais aussi ses impacts sur l'exploitation et l'activité . Il s'agit, en particulier, de chiffrer le coût de sous-utilisation d'une machine ou de comptabiliser le nombre de pannes et le temps consacré à leur réparation. L'objectif annoncé, pour l'ensemble du groupe, en 2003 est d'augmenter le temps d'utilisation des équipements parallèllement à une réduction des coûts de maintenance, avec un gain attendu de l'ordre de 2% du chiffre d'affaires sur une durée de 3 à 5 ans.
« Nous avons avancé dans cette démarche, mais nous sommes loin encore du jour où nous appuierons sur un bouton pour connaître la valeur globale de notre équipement de production !, reconnaît Pascal Lavy, le responsable de la maintenance. Nous n'arrivons pas, notament à chiffrer correctement la dépense énergétique des machines ». Cependant, un ensemble d'indicateurs facilite la rémontée des données. Des éléments comme les bons d'intervention, l'achat de pièces détachées, l'appel aux prestations extérieures, le temps passé sont classés en quatre catégories selon qu'elles appartiennent à des actions curatives, préventives, prédictives et amélioratives. Une base pour un premier étalonnage au sein du groupe.
« La réflexion sur le coût global de possession s'applique plus facilement lors de l'achat ou de la remise à niveau d'un équipement, pousuit Pascal Lavy. Les aspects de maintenance peuvent ainsi être pris en compte dès la conception ». Les frais occasionnés par un dysfonctionnement seront évalués dès la conception de la machine avec le bureau d'étude du constructeur . « Nous avions constaté, sur certains équipements, une augmentation du budget maintenance de 30% , les trois premières années d'exploitation, à cause d'un problème de conception  » précise-t-il.
Première mise en application : lors de l'achat d'une presse de moulage, le cahier des charges a été modifié pour demander un accès plus simple à une pièce. Son démontage demandait une heure sur l'ancien matériel, il ne prendra plus qu'un quart d'heure sur le neuf. « Même si ce changement entraîne un surcoût de 10% , le gain sur le terrain sera significatif, la machine sera arrêtée moins longtemps » commente Pascal Lavy. Le transfert vers les opérateurs de production de certaines manipulations de maintenance préventives relativement simples, comme le changement de capteurs, sont eux aussi étudiés en amont. Les responsables maintenance sont consultés pour arbitrer le choix entre l'achat d' un équipement sophistiqué « dernier cri » aux performances de productivité alléchantes ou un modèle d'une technologie plus éprouvée. Et Pascal Lavy d'ajouter : « Une machine plus simple qui produit 80 pièces au lieu de 100, peut être plus fiable à l'utilisation. Son taux de rendement synthétique (TRS) s'avérera meilleur au final. L'évaluation du coût est à prendre sur la durée de vie d'une machine. Dans le caoutchouc, nos équipements sont achetés pour dix ans, il ne suffit pas d'acheter de belles machines, il faut prévoir leur vieillissement  ».


Isoroy trouve l'équilibre entre le préventif et le curatif

Le problème : un ratio de pannes trop important
La solution : réorganiser les cycles de maintenance pour mettre l'accent sur la prévention

Un service de GMAO fournit des indicateurs identifiant les pannes et planifie les actions de maintenance

Le passage à la norme Iso 9001 version 2000 a été un révélateur. Le service maintenance de l'usine Isoroy d'Auxerre (Yonne), qui fabrique des panneaux en bois ; s'est rendu à l'évidence : 70% de ses interventions étaient lancées suite aux défaillances des installations. « Nous nous sommes alors engagés sur un plan de progrès qui vise à terme à inverser quasiment la tendance en consacrant 60% de notre temps à des actions préventives », expose Michel Nadin, responsable maintenance du site. Parallèllement à une réorganisation des cycles de maintenance, le service s'est donné les moyens de mesurer les résultats de ses actions en s'équipant d'un système de gestion de la maintenance assistée par ordinateur (Maximo de MRO Software). Tous les évènements sur le fonctionnement des outils de production sont collectés au fil de l'eau constituant un ensemble d'indicateurs identifiant les pannes par catégorie et par nature.
Le responsable maintenance dispose donc des éléments pour mettre en exergue les pannes qui reviennent de manière répétitive. Il peut aussi analyser les demandes d'amélioration suggérées par les personnels de production. Ainsi deux ans après la mise en fonction de cette GMAO, le service maintenance est capable de chiffrer les bénéfices de sa nouvelle organisation : le taux de pannes des équipements est passé de 3,46% en 2003 à 2,54% en 2004. « Nous avions des roulements qui lachaient trop souvent sur une ponceuse, nous avons lancé une AMDEC (Analyse des modes de défaillance de leurs effets et de leurs criticités) et avons décidé de changer de type de chaîne. Nous avons ce réflexe aussi lorsque nous constatons qu'une machine n'est pas adaptée à l'utilisation qu'en fait la production », rapporte Michel Nadin. En plus de piloter les plans d'action, ces outils informatiques servent à plannifier de manière optimum les périodes d'arrêt nécessaires à la maintenance. Celles-ci sont passées d'une fréquence de 4 semaines en 2003 à 6 semaines en 2004, soit 345 jours de production en 2004 pour 20 jours de manutention.

Les coûts fixes de maintenance ont baissé de 10%

Moins fréquents mais beaucoup plus optimisés, les arrêts sont préparés minutieusement, grâce à une feuille de route éditée plusieurs jours à l'avance. Les les tâches sont réparties entre les équipes de maintenance interne et celles des prestataires externes qui viennent en renfort. Les pièces à remplacer sont commandées spécialement pour l'opération. Rien n'est laissé au hasard, des caisses remplies des pièces de rechange sont déjà prêtes le jour J, afin d'éviter les aller et retour inutiles vers le stock. Avec cette nouvelle organisation les coûts fixes de la maintenance ont baissé de 10%. Comme le stock de pièces détachées n'est plus utilisé que pour les dépannages d'urgence, il ne représente plus que 4% du budget total du service au lieu de 5% auparavant. La prochaine étape sera reduire de 10% le nombre des techniciens en poste en ne remplaçant pas les personnels qui partiront en retraite.


Périgord Energies communique et implique le personnel

Le problème : résoudre les dysfonctionnements d'une installation
La solution : audit du site puis lancement d'un plan de fiabilisation des équipements

Sensibiliser les équipes aux procédures opérationnelles a permis d'assurer une production plus fiable.

La canicule de 2003 a marqué le point culminant d'une série de problèmes techniques. La température extérieure supérieure à 35° et les fréquents orages estivaux en Dordogne ont entraîné de nombreux arrêts des turbines à combustion que Périgord Energies maintient et exploite sur le site du fabricant de papier Condat de Lardin Saint-Lazare. Pour rétablir la confiance avec son client, la filiale d'Elyo Midi Ocean, fait appel à un cabinet de conseil en management opérationnel, Héméria, qui audite d'abord ses pratiques puis l'aide à lancer un plan de progrès pour fiabiliser l'exploitation et la maintenance de l'installation. « Nous devions nous affranchir des contraintes extérieures pour assurer à notre client une production de vapeur 24h sur 24 et 362 jours par an comme prévu dans notre contrat », explique Patrick Labbé, directeur délégué de la production et distribution d' Energies. La première étape a consisté à analyser la criticité des équipements « Nous avons identifié sur un tableau de bord l'activité de tous les équipements et nous avons examiné avec notre client tous les points que nous pouvions améliorer » poursuit ce dernier.

Le basculement en ilôtages a été réorganisé

L'une des actions les plus significatives a consisté à mieux organiser le basculement en îlotage permettant de mettre en service, dans de courts délais, une ligne de cogénération pour alimenter l'usine en électricité et pallier, les jours d'orage les micro-coupures des lignes RTE/EDF d'alimentation électrique. Elle a pu être menée quarante neuf fois durant l'été 2004 avec 100% de réussite au lieu de 50% l'année précédente.
En dix mois de travail avec Héméria, Périgord Energies a ainsi initié une démarche de progrès axée, en particulier,sur une meilleure communication entre ses équipes et celle de production de Condat. Grâce à de nouveaux indicateurs sur les taux de disponibilité vapeur et production d'électricité, les arrêts usine peuvent être préparés avec plus d'efficacité. La gestion des interventions a également été repensée et les tâches redistribuées. Ainsi, les opérateurs Périgord Energies ont été formés à des réparations de premier niveau. L'ensemble du personnel de Condat a été sensibilisé aux enjeux de l'entreprise et informé des procédures opérationnelles. « Ces documents leur expliquent, par exemple, quelles sont les conséquences d'un appel de charge vapeur trop brutal sur le fonctionnement des équipements. Nous pouvons éviter ainsi un certain nombres d'incidents », ajoute Partrick Labbé. La conduite des installations est aujourd'hui au beau fixe : le taux de disponibilité vapeur est de 99,9% depuis le début de 2004 et la disponibilité horaire de 99% sur la cogénération d'électricité.

Repost 0
Published by Sophie Maréchal dans L'USINE NOUVELLE - dans Vie numérique
commenter cet article
3 février 2005 4 03 /02 /février /2005 09:39

Organisation :L'externalisation de la gestion des actifs informatiques permet d'avoir une vision précise du coût de son système d'information. Mais pour contrôler la qualité de service, il est nécessaire de mettre en place une structure de pilotage et de définir des indicateurs pertinents.

 

 

Cinq raisons d'externaliser

Installer des leviers de contrôle des coûts informatiques
Adapter son système d'information à l'évolution de son activité
Obtenir une qualité et une continuité de service à un coût maîtrisé
Se recentrer sur les problématiques métier
Bénéficier de compétences techniques difficiles accessibles aux PMI



L'infogérance n'est plus l'apanage des grands comptes en Europe, Selon une enquête menée en 2004 par le cabinet d'études IDC pour le compte de la SSII Unilog, 47% des entreprises de moins de 2000 salariés déclaraient utiliser des services d'externalisation pour la gestion de leur informatique. Une tendance de fond confirmée en France par le cabinet Pierre Audoin Conseil qui observait une croissance de 4,3% de l'externalisation des services en 2003, année pourtant morose pour l'ensemble du marché des services informatiques.

Au cœur du phénomène : la volonté des directions des systèmes d'information de réduire les coûts sans sacrifier la qualité et le niveau de service. L'époque des contrats monolitiques est révolue. Du côté des prestataires comme des entreprises, le temps de la maturité est arrivé ! L'offre a évolué vers une organisation plus industrielle, les prestations se sont normalisée et la demande est plus précise.

Les entreprises ont compris qu'elles devaient conserver la maîtrise de leur système d'information pour tirer tous les bénéfices d'une externalisation de leurs moyens informatiques. En France, la préférence va donc à une infogérance sélective. On commence par sous-traiter la gestion des infrastructures informatique, la tierce maintenance applicative ou l'installation et l'exploitation d'un nouveau progiciel d'entreprise. Quitte à confier à un autre prestataire un deuxième pan d'activité.

1. Définir les indicateurs

Pour autant, réussir son infogérance ne s'improvise pas. Tous les éléments d'un bon pilotage sont définis lors de l'établissement du contrat qui détaille le niveau des engagements de service et définit le découpage du système d'information. Le prestataire s'engage à fournir un reporting systématique de l'activité et des indicateurs de qualité de services soumis à résultat. Le non-respect entraînera des pénalités variant de 1 à 5% du montant mensuel de la prestation. Ces engagements sont établis au cas par cas pour répondre aux enjeux métier de l'entreprise. « Il faut éviter le piège de passer plus de temps à mesurer la prestation qu'à la réaliser » prévient Eric Messigny, directeur genéral adjoint de Steria. Par exemple, le taux de disponibilité d'un serveur, les délais de réponse d'une transaction, le temps nécessaire à résoudre un incident sont définis en fonction de la « criticité » de l'application.

Or certains systèmes exigeront une disponibilité de 99,7%. D'autres pourront supporter des taux de réussite inférieurs. Chez le fabricant de DVD MPO, sur les trente indicateurs définis, onze sont soumis à des pénalités. Néanmoins, une forte exigence de service représente inévitablement un coût qui peut s'avérer élevé. « En fonctionnant 24heures en procédures dégradées par fax, nous sauvons 60% de notre activité. Si je demande à mon prestataire une garantie de reprise en moins de 24heures, cele me coûte plus cher que les 40% de pertes » remarque Augustin Thieffry, directeur général de Pains Jacquet.

Le découpage du système d'information en unités d'œuvre apporte aussi une vision chiffrée objective de la prestation en mesurant son activité réelle. La facturation en homme/jour, devra être utilisée, de manière exeptionnelle, selon un barême fixé, pour obtenir un renfort sur un projet. Le calcul des coûts sera plutôt établit sur la base du nombre d'utilisateurs pour une application comme la paie, l'hébergement de serveurs sera facturé selon la surface occupée au sol, un réseau local par rapport au nombre de connexions et les sauvegardes en fonction de la mémoire occupée … « Mieux vaut limiter les unités d'œuvre à une dizaine, pour ne pas alourdir le pilotage du contrat avec trop de détails » conseille Roland de Conihout, consultant du cabinet de conseil de Normae. Ces unités ne seront pas non plus trop figées car elles évolueront avec l'activité de l'entreprise. Et Roland Conihout d'ajouter « ¨Pour ne pas perdre de vue les aspects liés au métier, le système d'indicateurs doit être complété d'enquêtes régulières sur la satisfaction des utilisateurs ».

2. Organiser le pilotage

La mise en place de structures ad hoc s'avère ensuite nécessaire. « En moyenne, le coût d' un pilotage efficace correspond à 7% du montant annuel du contrat d'infogérance » estime Anne Emilian, manager du cabinet de conseil KLC. Si l'on attend de son infogérant une certaine empathie vis à vis des enjeux stratégiques de l'entreprise, la constitution d'une équipe interne de pilotage est fondamentale pour contrôler les résultats. Le directeur général et le directeur des systèmes d'information (DSI) distriburont les rôles. « Les ressources déployées pour le pilotage ne sont pas les mêmes en fonction de la chronologie, détaille Anne Emilian. L'équipe sera trés sollicitée au démarrage pour suivre le bon déroulement du transfert vers l'infogérant, puis viendra la phase de transition où les ajustements sont parfois difficiles et enfin le pilotage récurent ».

Aux techniciens d'assurer le suivi quotidien des incidents et interventions, puis aux chefs de projet d'effectuer un point hebdomaire pour analyser les causes des problèmes les plus fréquents et faire remonter les besoins des utilisateurs. Un comité de pilotage mensuel sera créé par le prestataire et le DSI. Enfin un groupe de pilotage trimestriel -parfois mensuel- fera le point sur la facturation. Un comité stratégique, annuel animé par le directeur général considèrera les évolutions proposées par le prestataire et leurs aspects financiers induits, « Les discussions sont très franches, confie Augustin Thieffry. Nous passons beaucoup de temps sur les moyens de réduire les coûts. L'an dernier, nous avons amélioré, la gestion de nos approvisionnements avec un gain de 1% équivalent au montant de notre contrat ». Dans cette optique, le prestataire doit s'inscrire dans une logique de progrès et s'engager à faire bénéficier son interlocuteur des meilleures pratiques développées pour d'autres clients. « Le cycle de décision est beaucoup plus court dans une PMI, observe Olivier Pegeon, directeur Infogérance Pme-Pmi d'IBM-IGS. Nous insistons toujours pour que la gouvernance se mette en place et fonctionne, c'est un cadre relationnel qui conditionne la réussite du contrat ».

3. Conserver son indépendance

Enfin, la relation de confiance qui unit l'entreprise à son infogéreur s'inscrit une durée prédéfinie. Un contrat d'infogérance est signé en général pour une durée de trois à cinq ans, voir dix ans avec une clause de sortie fixée à trois ans. Pour reprendre le contrôle de son système d'information ou le confier à un tiers, le DSI vérifiera régulièrement la réversibilité de la prestation. La carthographie des applications doit être à jour et les interventions consignées dans un système documentaire accessible en toute transparence. « Cap Gemini, que nous quittions, s'est montré très coopératif lors de la transition vers Stéria et Sopra » remarque Bernard Lavigne, responsable infrastructure du Groupe Bonduelle . Cette opération s'avère périlleuse mais l'infogérant doit conserver sa crébilité et se montrer professionnel. D'autres dispositifs pourront être ajoutés comme l'audit à intervalles réguliers de la sécurité du système ou de la rentabilité de la prestation. Les conditions seront définies dans le contrat. Le prestataires peut en effet exiger d'être audité par un organisme indépendant plutôt que par un concurrent potentiel. L'ensemble peut paraître contraignant, mais il permet de gagener en visibilité. « Dans un système d'information classique, le DSI, peut se sentir aussi pris en otage par les contraintes budgétaires, commente Jean du Puytison, DSI de MPO. Avec l'infogérance il est plus facile d'expliquer à notre direction générale pourquoi et comment l'argent est utilisé, plutôt qu'avec un devis interne difficile à élaborer »


Faut-il céder son matériel ?

« Non, nous n'avions plus le choix de la plate-forme » Bernard Lavigne responsable Infrastructure de la direction des systèmes d'information du Groupe Bonduelle

« Après l'expérience d'un contrat global dans lequel nous n'avions même plus le choix de la plate-forme, nous avons décidé de reprendre la propriété des matériels et des logiciels. Nous avons confié la gestion de l'infrastructure à Stéria et la tierce maintenance applicative à Sopra. Nous limitons donc la relation aux seules prestations intellectuelles. Nos rapports sont plus clairs car nous évitons les risques d'intérêts divergents sur l'évolution des équipements et des logiciels. Nous disposons des éléments statistiques nécessaires sur l'usage et les coûts de maintenance des différents postes pour choisir ou non d'allonger la durée de vie d'un serveur ou d'un parc de micro-ordinateurs » .

« Oui, nous avons une vision complète des coûts » Augustin Thieffry, directeur général de Pains Jacquet

« Nous avons externalisé notre informatique au fur et à mesure que nous réactualisions notre système d'information. Aujourd'hui, nous ne possédons plus rien, tout appartient à IBM, du serveur As 400, aux PC, jusqu'au fax et aux photocopieurs. L'avantage est d'avoir un interlocuteur unique avec lequel nous discutons chaque année des évolutions. S'il me conseille d'acheter de nouveaux ordinateurs portables, nous voyons ensemble sur quels autres postes nous pourrions économiser. Il y a un an nous avons, par exemple, réduits les coûts de l'éditique en supprimant des photocopieuses en couleur. Ce principe nous permet d'avoir une vision complète du coût de l'informatique et de l'édition sur plusieurs années »

Sophie Maréchal, L'Usine Nouvelle, 3 février 2005


Marie Groupe Uniq opte pour un contrat très cadré

L'entreprise

Activité : Fabrication de plats cuisinés et de spécialités laitières.

Effectifs 1900 salariés, 7 usines

Chiffre d'affaires 500 millions d'euros

Siège social Rungis (Val de Marne)

Périmètre infogéré

Exploitation des infrastructures liées à SAP R3 (Atos Origin) Exploitation à distance des serveurs de messagerie (Econocom)

Depuis l'automne 2004, la filiale française de Marie Groupe Uniq paye chaque mois à ses infogérants une facture qui correspond à l'activité réelle de son système d'information. Cette somme n'est acquittée qu'après vérification d'une série d'indicateurs fournis au comité de pilotage mensuel. Tout est passé au peigne fin, nombre de transactions, d'utilisateurs, espace mémoire occupé pour les sauvegardes …Pour sortir d'un contrat global initié par le groupe, la filiale française a élaboré, avec l'aide du cabinet de conseil KLC, un contrat incluant des niveaux de services et des unités d'œuvre pérennes facturables mensuellement. Retenu, en avril 2004, Atos Origin France, s'engage sur un fonctionnement 24heures sur 24. Des pénalités sont reversées en cas d'arrêt. « Tous les indicateurs sont validés et calculés par le prestataire en lien avec nos enjeux métier, commente Stéphane Roger, directeur des systèmes d'information Europe du Sud. Notre intérêt n'est pas de gagner de l'argent avec les pénalités, mais d'agir pour que les incidents ne se reproduisent plus ».


MPO revoit son partenariat en fonction des opportunités

L'entreprise

Activité : Fabrication et pressage de DVD, CD-Rom et CD audio.

Effectif total : 1500 salariés

Chiffre d'affaires : 300 millions d'euros

Siège social Averton (Mayenne)

Périmètre infogéré

« Grâce à l'infogérance, nous avons réalisé tous nos objectifs en même temps » reconnaît Jean du Puytison, directeur des systèmes d'information. MPO a mené en six mois, l'externalisation et le déploiement du système d'information dont l'entreprise avait besoin pour son développement international. « Nous aurions pu gérer cela nous-même, mais l'exploitation de l'application nous aurait posé des problèmes ajoute-t-il. Notre taille ne facilite pas l'embauche de profils capables d'administrer un ERP multilingue et de travailler en équipe sur 3x8 ! ». Le contrat signé, fin 2003, avec Euriware s'adapte aux impératifs du marché de la distribution d'œuvres éditées sur supports numériques. Les niveaux de service sont définis à partir de critères liés à des amplitudes horaires ou de saisonalités. Par exemple, la commande de réassort d'un jeu à succès doit être traitée en moins de deux jours. Le périmètre a évolué, au printemps 2004, vers un nouveau contrat d'infogérance du parc bureautique de la société EMTEC reprise par MPO. Ce qui a facilité son intégration au réseau commercial de ce dernier

En savoir plus :

Observatoire de l'infogérance.

Dictionnaire de l'infogérance- Pierre Laigle -Hermes Sciences Publicat. (2000) - 191 pages -27 euros

Infogérance : Externalisation des systèmes d'information- Alain Champenois.Dunod (2000) - 282 pages - 41,90 euros

Repost 0
Published by Sophie Maréchal dans L'USINE NOUVELLE - dans Vie numérique
commenter cet article
1 décembre 2004 3 01 /12 /décembre /2004 14:19

hopitalDématérialisation, dossier médical personnel, réseaux hôpital-ville, tarification à l'acte… Autant de chantiers de modernisation pour les DSI en blouse blanche, sommés de faciliter la qualité des soins et la relation patient-hôpital tout en économisant.

C'est un bouleversement sans précédent pour le secteur hospitalier. D'une culture administrative il passe à une culture s'inspirant de méthodes éprouvées dans les grandes entreprises. « D'immenses enjeux et d'énormes budgets sont mis sur la table, confirme Bernard Supre, directeur de Medicares, division Santé de la SSII Ares. Lorsqu'on parle d'e-administration à l'hôpital, il faut distinguer deux grands volets : le volet grand public avec la mise en place progressive du dossier de soins informatisés au sein des établissements et plus largement du DMP (dossier médical personnel) et le volet professionnel avec l'arrivée des réseaux de soin, la tarification à l'acte (T2A) et la modernisation des systèmes d'information hospitaliers. »
Depuis l'ordonnance Juppé de 1996 jusqu'au plan Hôpital 2007, en passant par la loi Kouchner du 4 mars 2002 sur le droit des malades, la réglementation tourne autour de trois impératifs pour les hôpitaux français : économie, qualité des soins et respect du patient. Ces mesures ont donné un coup de fouet à l'informatique hospitalière chargée de mettre en face les technologies pour simplifier l'accès aux soins. Elles ont déclenché aussi de nouvelles attentes chez les patients. Et une même temps mis la pression sur les DSI.
« Dans les années 1970 et 80, les systèmes d'information des hôpitaux étaient très centralisés, tournés sur les fonctions purement administratives. Puis on a informatisé les laboratoires et les plateaux techniques. Ce n'est finalement que depuis peu que les SI s'ouvrent à des approches plus transversales orientées vers le patient, rappelle Roland Force, DSI du CHU Bicètre, l'un des gros centres hospitaliers d'urgence d'Ile de France, membre de l'AP-HP.

Informatisation du dossier patient à l'hôpital

L'e-administration rime souvent avec dématérialisation et simplification des procédures internes. Les hôpitaux n'y échappent pas en ajoutant un degré de complexité rare, qui complique la vie du DSI : intervenants multiples issus de services qui n'ont pas l'habitude de partager leur infos, circuits de validation complexes, nomenclatures différentes, organisation de soins aléatoire…
Un grand pas en avant est en cours avec l'informatisation du dossier patient et de la gestion des soins au sein de l'établissement. C'est le socle sur lequel viennent se greffer beaucoup d'applications. Avec des avantages immédiats pour l'hôpital : simplifier sa relation avec les patients, optimiser ses ressources et raccourcir les durées de séjour. « Le dossier électronique permet de s'affranchir de la forme du « contenant » et du mode de rangement. On indexe à l'identifiant du patient tous les éléments disponibles dans les bases de données alimentées par les divers logiciels de l'hôpital (gestion administrative, production des soins, laboratoires, gestion de l'imagerie médicale, courriers et comptes-rendus…) qu'il s'agisse de textes, de données ou d'images. Chaque intervenant peut alors avoir une "vue" du contenu de ce dossier, adaptée à ses préoccupations », détaille Martine Labrousse, DSIO de l'Hôpital Saint-Joseph situé dans le XIVème à Paris.
« Une situation comme la perte d'une radio glissée dans un autre dossier et qui demande au patient de repasser l'examen n'est plus possible chez nous : toutes les radios issues de l'interne comme de l'externe (sur film ou CD-Rom), sont numérisées, indexées, faciles à retrouver à l'écran. C'est le cas de toutes les infos disponibles excepté les examens réalisés par des laboratoire extérieurs », intervient Laurent Treluyer, DSIO de l'Institut Gustave Roussy (IGR), dont les premiers travaux d'informatisation du dossier médical ont démarré il y a quinze ans. « Ce n'est plus le parcours du combattant. Il devient possible de concentrer les examens et les consultations et en fin de journée voir apparaître sur l'écran du médecin l'ensemble des résultats. Le dossier médical informatisé apporte une vraie évolution dans la qualité de service au patient, par une meilleure coordination de l'ensemble des informations produites par l'IGR  », complète Jean-louis Da Silva, DSI adjoint du centre anti cancer, capable de traiter 450 000 dossiers patients.
Pour l'instant pas question d'une ouverture à l'extérieur de l'hôpital : de gros efforts restent à fournir sur les codifications, les référentiels de données. Cela n'empêche pas certaines DSI de mener en complément des expérimentations intéressantes autour des technologies sans-fil pour mettre à jour en temps réel le dossier médical au chevet des malades sur des tablettes PC Wi-Fi. Le centre hospitalier d'Arras a été pionnier dans ce domaine.

Un booster : le dossier médical personnel (DMP)

Le dossier médical personnel (DMP) - c'est désormais la dénomination officielle - est une autre paire de manche pour les tenants de l'e-administration à l'hôpital. Le plan de réforme prévoit qu'à l'échéance 2007, tous les Français de plus de seize ans doivent bénéficier d'un DMP. Le ministère de la Santé entend économiser ainsi 3,5 Md€ par an.
Autant dire un grand chantier technologique autant qu'humain puisqu'il s'agit d'organiser l'ensemble d'une profession pour permettre à chaque patient-citoyen d'accéder en ligne à ses données médicales et dans l'autre sens, que l'hôpital puisse lui adresser par mail son DMP. « Il me semble illusoire de vouloir transmettre tous les résultats d'examens, toutes les prescriptions et tous les comptes-rendus de façon structurée. En revanche la transmission d'un résumé de séjour (synthétique) pourrait être plus facilement envisagé, mais encore faut-il définir les modalités de transfert », alerte Martine Labrousse. « Il faut trouver l'information juste, c'est-à-dire comment faire pour alimenter nos systèmes en données structurées que le patient puisse trouver facilement au bon moment, par le bon moyen et au bon endroit  », précise Roland Force. Les réflexions actuelles portent sur le choix des infrastructures, sur les questions d'hébergement du DMP. On ne parle pas encore des solutions. Vont s'ajouter des problématiques de sécurité, de tracabilité, de normalisation des échanges de données.
« Il faut assurer la cohérence entre la sphère santé et les autres domaines de l'administration électronique, des données sociales, du commerce. Et prévoir aussi les échanges avec les collectivités, les citoyens eux-mêmes », confirme Norbert Paquel délégué général d'Edisanté, association oeuvrant pour une meilleure normalisation des échanges dans le domaine de la santé. Ce qui fait dire à Bernard Supre d'Ares que « l'arrivée du DMP a déjà pris du retard ».
Le DMP agit cependant comme un booster, puisqu'il entraîne de nombreux autres projets dans son sillage comme le refonte du SI (voir plus loin). La plupart des DSI l'ont mis à l'ordre du jour dans leurs plans quinquennaux. Certains centres n'ont pas attendu pour se lancer. C'est le cas du CHU de Besançon et de l'IGR. « Techniquement, nous sommes prêts pour le DMP. Les données sont structurées, notre SI est homogène. Reste encore beaucoup d'obstacles à franchir en terme d'organisation médicale, de structuration des données, de normalisation des échanges… », ajoute Jean-Louis Da Silva. Il faudra que les hôpitaux puissent se dégager les moyens nécessaires pour raccorder au futur DMP tout le travail d'informatisation du dossier patient déjà effectué. A ce jour les hôpitaux disposant d'un véritable dossier médical généralisé à tous les services susceptible d'expédier de façon sécurisée un résumé de sortie se comptent sur les doigts des deux mains.

Éclosion des réseaux de santé

Autre grande tendance liée au développement de l'e-administration à l'hôpital : le fonctionnement en réseaux. Les professionnels de santé gravitant autour d'un centre hospitalier s'organisent peu à peu par grande spécialité pour échanger leurs informations et mettre en commun les rapports de soins. Infirmières libérales, médecins de ville, kinés, laboratoires d'analyse et centres de radiologie créent des réseaux de soin avec l'hôpital via un portail sécurisé. « Les plus en avance sont la gérontologie, la psychiatrie, la cancérologie, les soins palliatifs, des domaines qui impliquent souvent des hospitalisations récurrentes et doivent réagir très vite », précise Jean-Louis Brunet, manager chez Business & Décision.
Parfois l'initiative vient de l'hôpital lui-même. C'est le cas du centre hospitalier de Paimpol qui a profité de la refonte de son système informatique pour se doter d'un portail construit autour d'un dossier médical unique. Les médecins de ville peuvent consulter en ligne via leur carte des professionnels de santé (CPS) les antécédents médicaux de leur patient, les diagnostics, prescriptions, résultats d'analyse, comptes-rendus d'opérations… L'hôpital utilise la solution Via Egora de France Télécom pour ouvrir une partie de son SI à l'extérieur tout en préservant la confidentialité des données. Avec des contraintes telles que d'avoir à demander à chaque patient son autorisation préalable pour que les médecins puissent consulter en ligne son dossier.
Autre bouleversement qui entraîne des conséquences directes sur le SI hospitalier : le passage programmé à la tarification à l'acte (ou T2A). L'idée est de pouvoir mieux calculer le coût réel d'une hospitalisation et d'établir le plan de marge des soins. « C'est un gros projet pour les directions informatiques, et l'encadrement administratif et médical, note Jean-Louis Brunet. Les états d'avancement de la T2A sont d'ailleurs très disparates selon le type d'hôpital, local, départemental ou universitaire (CHU)  ». A terme, le patient bénéficiera aussi d'une meilleure transparence dans les tarifs pratiqués.

Vers une meilleure planification des consultations

DMP, réseaux de soins, T2A… autant de projets prometteurs mais qui en restent aux grandes orientations. L'un des chantiers les plus concrets dans de nombreux centres hospitaliers est la planification des rendez-vous de consultations. Souvent un vrai casse-tête pour les secrétaires médicales comme pour la tenue des agendas des médecins qui engendrent des files d'attente à rallonge et des délais de rendez-vous de plusieurs mois pour certaines pathologies. La mise en place des 35 heures n'a rien arrangé. Les outils de planification multi-ressources sous contraintes de type ORP (Operational Resource Planning) représentent une avancée réelle pour les patients.
Dès 2001, le CHU de Rouen a pris le problème à bras le corps et trouvé une solution capable de gérer 1800 rendez-vous quotidiens de patients auprès de 41 services différents. Il s'est équipé du moteur de planification Opti-Time (Delia Systems), qui s'intègre en front office à son SI. « Nous y allons étape par étape, en étendant notre application vers des tâches de plus en plus complexes, explique Isabelle Gendre-Galichet, DSI du CHU normand. Une meilleure organisation des soins ne fera qu'améliorer la qualité de service aux patients et le confort de travail pour les équipes médicales. » Depuis 2003, l'outil gère aussi l'emploi du temps des 11 blocs opératoires du CHU. Un vrai bol d'oxygène. Ce type de planification n'est pas encore effective partout. L'hôpital européen Georges Pompidou, aux équipements ultramodernes, s'est fait épinglé à ce sujet par un rapport officiel de l'AP-HP rendu en juillet dernier.

Grand vent de modernisation sur les SIH

Tous ces projets liés à l'e-administration reposent sur l'hypothèse d'un SI hospitalier (SIH) performant, fiable et sécurisé. Prêt à accueillir et mettre à disposition les données de santé internes à l'hôpital mais aussi externes (examens, analyses…).
C'est pourquoi nombre de DSI du secteur ont prévu de refondre leur architecture informatique pour permettre aux applications propre à chaque spécialité de dialoguer entre elles au sein de l'hôpital et en dehors. « La mise en place d'une plate-forme d'intégration est une condition sine qua non à la mise en place d'un système informatisé de gestion de la production des soins et du dossier du patient », reconnaît Martine Labrousse de l'hôpital Saint Joseph dont le plan 2005 2008 prévoit de réaliser progressivement l'évolution de son SIH dans ce sens « de manière à transmettre au patient et à son médecin traitant son compte rendu opératoire ou sa lettre de sortie immédiatement au moment de sa sortie de l'hôpital ».
Même volonté de remise à niveau, chez Roland Force, au CHU Bicètre. « Nous sommes engagés dans la refonte complète de notre SI autour du patient tout en respectant les grands projets cadre de l'Assistance Publique ». Reste un dilemme pour les DSI en blouse blanche : avancer vite sur ces projets d'intégration pour coller à la réglementation tout en respectant une enveloppe budgétaire serrée. En France, l'informatique ne pèse en moyenne pas plus de 1,5% du budget total de fonctionnement d'un hôpital.

Pierre Lorimy
O1 DSI
Décembre 2004

Repost 0
Published by Pierre Lorimy dans 01 DSI - dans Vie numérique
commenter cet article
22 janvier 2004 4 22 /01 /janvier /2004 10:40

Métiers :  Pour atteindre leurs objectifs, les entreprises doivent dépasser les clivages entre la direction générale, les services informatiques et les différents métiers. Tout se jouera sur la complémentarité entre maîtrise d’ouvrage et maîtrise d’œuvre.


Alors que les grands projets informatiques – gestion de la relation client ou de la chaîne logistique, mise en place d’un progiciel de gestion intégrée ou fusion des systèmes d’information - , sont cruciaux pour la compétitivité de l’entreprise, leur réussite dépend largement de l’implication des directions « métier » concernées. Et les écarts de perception des objectifs, les désaccords sur les moyens et les méthodes de travail, voire les conflits entre informaticiens et utilisateurs sont autant de facteurs de dérives.
Une délimitation claire des rôles se révèle donc indispensable. A l’image du secteur du BTP, elle se calque sur les concepts de maîtrise d’ouvrage et de maîtrise d’œuvre. Très prisé dans les directions des systèmes d’information des banques et des compagnies d’assurance, ce mode d’organisation définit schématiquement deux parties. D’un côté, la maîtrise d’œuvre est assurée par la direction informatique qui déploie l’infrastructure technique. De l’autre, la direction « métier » endosse le costume du maître d’ouvrage qui dicte ses besoins afin qu’ils soient traduits dans le système d’information. Mais ce modèle induit une dualité et, en cas de retard ou de dérapage, chacun se rejette la faute l’un sur l’autre.
L’Association française de l’audit et du conseil informatiques (AFAI) et le Club informatique des grandes entreprises françaises (CIGREF) ont récemment interpellé les professionnels de leurs secteurs sur cette dichotomie. « Nous ne sommes plus dans un monde où deux acteurs s’affrontent, observe Renaud Phelizon, chargé de mission du Cigref et auteur d’un rapport sur ce thème. Aujourd’hui, l’enjeu n’est plus de savoir qui décide ou qui a raison, mais plutôt comment réussir ensemble ».
Les responsables de la maîtrise d’ouvrage doivent prendre leur destin en main. « Le système d’information possède sa propre sémantique et son langage », remarque Michel Volle, délégué général du Club des maîtres d’ouvrage. Et si les métiers ne sont pas impliqués, ils seront vite dépassés : « Il est difficile de demander à des personnes qui ont déjà leur travail quotidien à assumer de passer non seulement en mode projet, mais aussi de comprendre les anglicismes des consultants, des intégrateurs et des éditeurs ». La solution consiste à nommer un professionnel, compétent et légitime, qui saura traduire les besoins des utilisateurs - un rôle comparable à celui d’un architecte lors de la construction d’une maison.

Si la direction métier souhaite légitimer son autonomie…

Dans le cas des systèmes d’information, cet interprète se caractérise par une double compétence. Il connaîtra la fonction opérationnelle concernée, ses contraintes technologiques, et sera également pédagogue. Si la nécessité de désigner un tel acteur se ressent dans tous les projets, il n’existe cependant aucun modèle universel. Selon la culture du secteur et la volonté de la direction générale, cet intermédiaire sera rattaché soit directement aux fonctions opérationnelles, soit à la direction des systèmes d’information dans un service de « délégation de maîtrise d’ouvrage ».
Difficile de dénicher l’oiseau rare ! Quand les maîtrises d’ouvrage ne souhaitent pas créer un poste spécifique pour un profil difficile à recruter, elles s’assurent les services d’un prestataire extérieur. « Nous avons créé une cellule de trois commerciaux dédiée au suivi des projets de gestion de la relation client, de la logistique et d’optimisation des procédures d’achat, indique Jean-Pierre Lalu, directeur du développement de projets chez Pernod. Nous sommes assistés par un consultant d’Eurogroup qui nous apporte la connaissance des processus et les bonnes pratiques pour gérer le changement, ainsi qu’une dimension benchmarking ».

… la neutralité des consultants est prioritaire

Le choix de cet assistant maîtrise d’ouvrage doit se faire avec précaution. Si la direction métier souhaite légitimer son autonomie vis à vis de sa direction informatique, la neutralité des consultants est un critère de choix prioritaire. Car ceux-ci ne sont pas toujours désintéressés. Les départements assistance maîtrise d’ouvrage des SSII font souvent office de service « avant-vente » de progiciels. « L’intégrateur est payé pour déployer un outil, et non pas pour réaliser les enjeux du métier. Le conseil en maîtrise d’ouvrage doit aider la direction métier à capter ses enjeux de façon durable dans le temps ou la direction générale à réaliser les arbitrages », insiste Jean-Marie Nougaro, associé et responsable du pôle industrie et services d’Eurogroup. Pour une petite entreprise, l’appel à un consultant indépendant est conseillé pour une mission de quelques jours. « Pour la conduite de projet, un ingénieur junior, actif et courtois, fera très bien l’affaire, conseille Michel Volle. Pour aider à traduire la stratégie en terme de système d’information, le choix d’un consultant senior sera plus adéquat. »


Les missions de la maîtrise d’ouvrage

Pilotée par la direction métier, elle doit :
Synthétiser ses besoins et modéliser ses processus métier
Piloter les coûts, les délais et la qualité
Hiérarchiser les priorités et suivre la réalisation
Tester la solution mise en œuvre et mesurer la satisfaction des utilisateurs
Conduire le changement et mener des actions de communication

Les missions de la maîtrise d’œuvre

Assurée par la direction informatique, elle doit :
Concevoir ou choisir les technologies
Evaluer les coûts
Organiser et contrôler la réalisation
Livrer un projet conforme aux engagements
Préparer l’exploitation et la maintenance

Le rôle de la Direction Générale

Définir les priorités avec le comité de direction
Adapter le coût aux enjeux stratégiques
Réaliser les arbitrages
Contrôler l’atteinte des objectifs stratégiques

Sources : études Cigref et AFAI


Dassault Aviation
Rationaliser les programmes

Pour maîtriser ses coûts, le constructeur aéronautique a créé une direction générale des systèmes d’information, avec pour conséquence une diminution de l’autonomie informatique de ses directions métier.

La réorganisation du système d’information de Dassault Aviation fait figure de cas d’école. Dès 2000, l’avionneur constate les limites d’un modèle qui laisse aux directions des métiers une grande liberté sur leurs choix informatiques. Du bureau d’études au service qualité en passant par les ventes, chaque direction opérationnelle possédait alors sa propre entité « systèmes d’information » pilotée par des personnes entièrement dédiées à leurs métiers respectifs. « Non seulement les coûts augmentaient mais, de plus, il en résultait une véritable tour de Babel de technologies diverses et variées qui n’étaient pas compatibles entre elles, se rappelle Patrick Schirlé, directeur du développement à la direction générale des systèmes d’information (DGSI). Nous avons conclu qu’il fallait mettre en place un fonctionnement différent pour mutualiser les moyens et les savoir-faire pour l’ensemble de l’entreprise ».
Pour mieux maîtriser les coûts, l’entreprise décide alors de créer une direction dotée d’un budget qui centralisera à la fois les compétences humaines, les investissements en infrastructure et en développement informatiques. « Nous sommes devenus les fournisseurs des autres directions, poursuit Patrick Schirlé. Elles viennent nous voir pour des améliorations et nous étudions avec elles le retour sur investissement ». Les projets sont affectés à chacun des quatre grands domaines stratégiques du système d’information de Dassault Aviation : les progiciels de gestion d’entreprise, la gestion du cycle de vie produit, la gestion de la connaissance et la gestion de la relation client. « Au début c’était une frustration car une direction métier sans informaticien, c’était le drame ! Désormais nous jouons notre rôle de régulateur au service de l’intérêt général », déclare Patrick Schirlé.
Plusieurs actions ont été lancées pour mieux faire accepter aux maîtrises d’ouvrage leur perte d’autonomie. Tout d’abord, des séminaires sont organisés avec tous les directeurs pour leur présenter la stratégie du nouveau système d’information harmonisé. Sur le terrain, un correspondant informatique fonctionnel (Cif) est resté attaché à chaque direction opérationnelle. Ancien informaticien reconverti ou fonctionnel qui aime l’informatique, il a pour mission de défendre les demandes de projets de sa direction. Il réalise l’articulation entre maîtrise d’œuvre et maîtrise d’ouvrage, « Il a un rôle d’interprète et il est partie prenante de l’accompagnement du changement  », précise Patrick Schirlé. Enfin, tous les correspondants sont réunis chaque trimestre pour se pencher avec la DGSI sur les contraintes globales et fixer ensemble des priorités.
L’un des premiers défis de la nouvelle DGSI a été de mettre à la disposition des coopérants de Dassault Aviation un plateau virtuel dédié à la conception du Falcon 7x, le dernier né des tri-réacteurs de l’industriel. « L’objectif est d’accélérer la conception numérique de l’avion. Ce projet s’intègre dans nos enjeux d’amélioration de la gestion du cycle de vie produit (PLM en anglais). Nous leur avons construit une solution complètement intégrée à partir de progiciels de communication existants et d’une base de données commune à tous les intervenants  », indique encore Patrick Schirlé. Le projet a donné lieu a une relation étroite et différente avec la maîtrise d’ouvrage. Elle a compris qu’elle devait se concentrer sur ses processus de conception « métier » et laisser aux hommes de l’art le soin de trouver l’outil adéquat pour recevoir leur savoir-faire.

Force : une mutualisation des moyens techniques et des compétences humaines
Faiblesse : les métiers doivent faire le deuil de leur autonomie informatique passée


Arcelor
Harmoniser les outils

Une cellule de professionnels hybrides, mi-informaticiens mi-vendeurs, a pris en main l’harmonisation des systèmes d’information commerciaux du secteur Plat Carbone d’Aceralia, Arbed et Usinor.

Dès l’officialisation de leur fusion au sein d’Arcelor, les trois sidérurgistes européens se sont préoccupés de leur informatique. Le système d’information commercial du secteur Plat Carbone était le plus impacté par l’intégration des trois sociétés espagnole, luxembourgeoise et française. En février 2001, le service « commercial process and systems », rattaché à la direction commerciale, se penche sur la définition de la cible à atteindre, avec l’aide d’un consultant d’Eurogroup, spécialiste de l’assistance à maîtrise d’ouvrage. « Il nous a aidés à tout réexaminer, les compétences, la stratégie, la gestion de l’offre des contrats, et à choisir les supports nécessaires pour les processus. Cette réflexion stratégique était nécessaire », détaille Filip Fransen, directeur du service des processus et des systèmes d’information commerciaux d’Arcelor.
Un travail considérable, puisque soixante mille personnes sont concernées dans le secteur produits plats dont mille cinq cents commerciaux, pour une vingtaine d’ usines et une trentaine de centres de services. Une année a été consacrée à décrire les codes et les concepts de chaque entreprise puis à définir un plan stratégique pour les cinq années à venir.
« Nous parlions du même marché mais les contenus étaient différents, indique Filip Fransen. Nous devions faire des efforts pour comprendre les cultures de chacun, éviter les positions dominantes et les rapports de force. Il nous fallait étudier les solutions existantes dans chaque entreprise pour choisir la meilleure . »
Parmi les quatre-vingt personnes du service, quarante ingénieurs travaillent directement à ce vaste chantier de consolidation. « Leur profil est hybride. Ce ne sont plus des informaticiens, ce ne sont pas non plus des vendeurs qui ont en général du mal à formaliser les processus. Ils ont eu une expérience dans le périmètre opérationnel du type ingénieur d’affaires  », ajoute-t-il. Cette équipe sert d’interface entre la direction des systèmes d’information et la direction commerciale. Ils contribuent aux trois grands projets prioritaires définis par le plan stratégique : création d’un infocentre commun pour tous les clients, choix d’un outil unique de collecte de la demande et harmonisation des infrastructures de postes de travail. Aujourd’hui, les deux premiers chantiers sont réalisés. Le carnet de clients est commun et un système d’entrée de commandes permet de suivre le plan de charge des usines. Le dernier dossier, qui demande la définition d’un standard de communication commun, n’est pas encore réalisé. « Il y a des gains à réaliser en choisissant un seul standard au lieu de trois. Actuellement, le client final souffre parce que les systèmes ne communiquent pas entre eux. Des e-mails peuvent être bloqués, ce qui est pénalisant  », poursuit Filip Fransen. Pour l’heure, le choix du concept du système français d’Usinor comme outil de gestion des postes de travail provoque des blocages dans les autres pays qui utilisaient d’autres types de réseaux moins centralisés. « Nous remontons à la direction générale les problèmes que cela pose sur le terrain, indique Filip Fransen. Mais notre rôle est limité, et la direction commerciale ne peut arbitrer seule ce débat ».

Force : grande autonomie et crédibilité vis-à-vis de la direction des systèmes d’information
Faiblesse : peu de pouvoir pour accélérer l’harmonisation des infrastructures techniques


Christian Dior Couture
Orchestrer les évolutions

Renouveler l’informatique des points de vente a permis d’impliquer la direction commerciale dans le choix des solutions et surtout dans la conduite du changement.

Quand la direction générale de Christian Dior Couture demande à ses filiales d’harmoniser le système d’information des boutiques dans le monde entier, la direction informatique se trouve en première ligne pour l’aspect technique du dispositif. Cependant, l’enjeu de cette refonte repose sur les épaules de la direction commerciale de l’entreprise de luxe. « Notre principe est toujours de collaborer avec la direction concernée par le projet. Dans ce cas, une personne a été détachée de la direction des boutiques pour devenir responsable de la conduite du changement  », explique Jérôme Fourmont, directeur informatique de Christian Dior Couture.
Cette fonction, baptisée en interne « change manager », consiste à organiser les actions de communication, à faire valider le fonctionnement du système par des utilisateurs, ou encore à s’assurer de l’efficacité des formations des vendeurs. Il s’agit de mettre en œuvre tout ce qui facilitera la prise en main du nouveau système d’information et par conséquent la réussite du projet. A défaut d’une interface spécialisée dans l’assistance à maîtrise d’ouvrage, Jérôme Fourmont formalise la relation avec les autres directions de l’entreprise par des documents qui jalonnent les projets dont il a la charge. « La notion de projet étant immatérielle, il faut délimiter chaque étape par des éléments concrets », précise-t-il.
La stratégie du projet est définie dans une note de cadrage qui formalise les enjeux et les principales contraintes. Le périmètre du projet, le rôle et la responsabilité de chacun, doivent être clarifiés très tôt lorsque 150 boutiques changent de système d’information, voire s’équipent pour la première fois.
«  Un projet informatique n’a pas d’organisation hiérarchique, c’est la collaboration de compétences transversales, remarque-t-il. Par exemple, je ne suis pas le responsable hiérarchique du « change manager » et mon responsable technique qui couvre l’infrastructure du réseau des magasins ne répond pas hiérarchiquement à la direction commerciale. Je n’ai pas non plus autorité pour modifier l’ordre d’équipement des pays ». Tous ces rôles sont décrits pour le temps du projet dans un plan particulier désignant les personnes habilitées à en contrôler le bon déroulement et à valider la réalisation de ses étapes. Il ajoute : « Chacun doit connaître précisément ses responsabilités. Dans ce contexte, les chefs de projets font figure de chef d’orchestre ».

Force : les relations entre informatique et métiers sont formalisées, chacun sait où il va
Faiblesse : les responsables métiers laissent l’initiative au directeur informatique d’organiser l’évolution de leurs systèmes d’information


En savoir plus

Etudes et rapports :

Maîtrise d’ouvrage de projet de système d’information- Principes, rôles, responsabilités, facteurs de succès- Collection Pratiques Professionnelles. Publié par l’ AFAI, association française de l’audit et du conseil informatiques. Septembre 2003.Prix : 50 euros
Parties prenantes du système d’information. Un nouveau regard sur la maîtrise d’ouvrage. Octobre 2003. Téléchargeable gratuitement sur le site du Club Informatique des grandes entreprises françaises.http:// www.cigref.fr

Sites :

http://www.cigref.fr
http://www.afai.asso.fr
http://www.volle.com
http://www.clubmoa.asso.fr

 

Sophie Maréchal, L'Usine Nouvelle, 22 janvier 2004


L'Usine Nouvelle


Repost 0
Published by Sophie Maréchal dans L'USINE NOUVELLE - dans Vie numérique
commenter cet article
1 avril 2003 2 01 /04 /avril /2003 11:39

Ni devin, ni sorcier, le data mining est avant tout un outil qui segmente finement le fichier client et détecte de nouvelles cibles. La technologie se vulgarise à petit pas. Pourtant il ne suffit pas d’appuyer sur un bouton pour lancer une analyse ! L’aide de spécialistes est nécessaire pour transformer ses prédictions en actions opérationnelles et dynamiser sa stratégie de marketing direct…...

On attribuerait presque des miracles au data mining : une capacité formidable à révéler des comportements cachés des clients et prospects. Mais, derrière ce jargon d’informaticien se cache simplement un outil de traitement de l’information, basé sur des analyses statistiques.
Avec les débuts de l’informatique, les analyses statistiques ont trouvé une nouvelle application et le marketing s’est rapidement emparé de leur potentiel. « Les entreprises ont créé de gigantesques entrepôts de données, c’est le principe de départ du décisionnel, rappelle Philippe Nieuwbourg, PDG du cabinet conseil Marcom Génération. Une fois ces énormes bases construites et alimentées, comment faire pour comprendre les informations ? : Le data mining sert justement à mettre à jour des informations impossibles à déceler. »
L’objectif de l’analyse des données - ou data mining - est ainsi de compartimenter la base des contacts clients et de définir des comportements passés pour en tirer des conclusions pour l’avenir. Son intérêt est d’aller plus loin qu’un simple tableau de bord. « Certaines entreprises pensent disposer de toutes les analyses possibles avec leur panoplie de logiciels décisionnels ou de reporting. Mais ce n’est pas si simple ! Si elles ont ainsi une vision de leur activité commerciale, en revanche elles ne peuvent pas segmenter et classer leurs clients », explique Anne Gayet, responsable des études statistiques de AID, société de conseil en gestion de la relation client.

La partie cachée de l’iceberg

Les vépécistes les assurances et les banques ont tiré profit les premiers des outils de data mining. Leur profil correspond parfaitement au type de situation qui pousse les entreprises à tester l’analyse de données : « Le data mining est pertinent quand on a beaucoup de clients, beaucoup d’informations sur ces clients et beaucoup d’interactions avec eux ! », lance Didier Richaudeau directeur de l’activité data mining de Soft Computing. Or, « le problème majeur des entreprises aujourd’hui est qu’elles ne disposent que de critères limités dans leurs bases de données. Elles ont cinq ou six critères dans leur fichier pour décrire leurs clients et rarement de données qualitatives sur eux », remarque Philippe Nieuwbourg.
Un obstacle de taille qui rejoint un autre pré-requis indispensable à toute analyse : la qualité des données clients. Cela semble être une évidence, pourtant dès que le sujet data mining est évoqué, on oublie bien souvent cette partie cachée de l’iceberg. « 80% du travail consiste à préparer l’analyse, à nettoyer les données et à les traduire avec des indicateurs pertinents », explique Olivier Mazuel, DGA de MRM Customer Intelligence.
Le vépéciste France Abonnements dont la base de données contient plus de 3 millions d’adresses, a acquis progressivement l’expérience du data mining. Depuis les débuts 2002, France Abonnements s’est équipé du logiciel Set Analyzer de Business Objects en complément de l’outil data mining de SPSS. « Le conseil que je donnerais est de de rester très prudent, rappelle Serge Le Brun, directeur des études et fichiers. Si nous avons un doute sur un critère, nous ne l’utilisons pas. Et nous ne lançons des analyses que sur des données pour lesquelles nous avons un historique suffisant de l’ordre de trois ans au moins, par exemple, sur l’abonnement.  »
Si ce pré requis - disposer de nombreuses informations de qualité - est réuni, le data mining peut entrer en action ! En général, les responsables marketing commandent une première analyse avec l’une de ces deux interrogations en tête : Qui sont précisément mes clients  ? Pourquoi mes clients se comportent-ils ainsi ? Pour répondre à la première question, une typologie de clients va être établie. Par exemple, un distributeur souhaite faire un point sur l’utilisation par ses clients de sa carte de fidélité. Grâce aux capacités de modélisation de l’outil, deux groupes sont établis : les utilisateurs des points cadeaux de la carte et les non utilisateurs. Dans ces deux groupes, deux types de clients sont identifiés : les petits et gros acheteurs. Et ainsi de suite, jusqu’à segmenter finement par différents critères les types de clients. Cela facilite la détection de nouvelles niches de cibles. Les deuxièmes types d’interrogations sont plus précis. Il s’agit bien souvent de savoir pourquoi les clients quittent la marque ou bien quels types de clients vont quitter la marque. L’objectif du data mining est alors de «  cloner le comportement passé pour prévoir le futur, explique Didier Richaudeau de Soft Computing. Imaginons que vous avez des cycles de vente saisonniers et que vous voulez savoir quels sont les clients qui risquent de partir dans les trois prochains mois. Vous allez étudier le comportement des clients entre mai et juillet 2002, afin d’estimer quel est le niveau de risque que telle catégorie de clients vous quittent entre mai et juillet 2003. »
Une fois le modèle établi, il va être testé auprès d’un échantillon de clients pour en vérifier la validité… puis se transformer en actions opérationnelles : lancer une campagne de relance auprès de tels segments de clients à telle époque ou créer une nouvelle offre pour des prospects jusqu’à alors ignorés des campagnes habituelles. Néanmoins, on ne peut pas être sûr que telle analyse va éclairer d’un nouveau regard sa segmentation de clientèle. Pour une première approche, il est possible de faire appel à des sociétés spécialisées comme Soft Computing, AID ou Complex Systems ainsi qu’aux départements data mining des cabinets conseils comme MRM. Ces prestataires prennent en charge l’analyse et travaillent de concert avec l’équipe marketing interne. Les entreprises dotées d’un service études et fichiers font également parfois appel à eux. « Malgré notre expérience de vente à distance, nous pensons à confier à des prestataires certaines analyses très spécifiques », explique Serge Le Brun de France Abonnements.

Les interactions humaines

L’analyse de données ne peut être conçue qu’en binôme avec le marketing opérationnel. « Il faut accompagner le data mining d’une excellente réflexion métier en amont », remarque Serge Le Brun. D’ailleurs les analystes appartiennent aux services marketing, aux études et fichiers, et ne sont en lien avec le service informatique que pour récupérer les fichiers de données.
Au sein des Assurances Banque Populaire, les analyses sont assurées par l’équipe du marketing stratégique, responsable des études et fichiers, qui travaille avec le marketing marché et opérationnel. « Nous lançons les analyses soit sur la demande du marketing marché, soit de notre propre initiative, explique Fabrice Friedberg, chargé d’études marketing au sein de l’assureur. Nous voyons systématiquement en amont l’équipe terrain puis en aval, une fois l’analyse menée, afin de corriger le tir si besoin et de lancer les tests en réel. »
Cette collaboration s’avère indispensable à plusieurs titres. « Les outils de data mining ne sont pas adaptés aux non-statisticiens car ils nécessitent au préalable de travailler sur les données : faire le tri dans l’ensemble des données disponibles et recoder certaines informations. Les équipes marketing sont plus amenées à utiliser des outils de requêtes, qui ne sont pas des outils de data mining à part entière  », remarque Hélène Ivanoff, directrice du développement de Complex Systems, société d’études data mining.
Bien sûr, quiconque peut à priori utiliser un outil de data mining et sortir des résultats mais de quelle pertinence ? « Imaginez que vous vouliez segmenter vos cibles sur le marché du tabac : un non statisticien aboutirait certes à un résultat : que le marché a peu de chances de se développer sur la cible des moins de dix ans », s’amuse Philippe Nieuwbourg. Le rôle du statisticien n’est pas seulement de traduire les données en critères pertinents mais aussi de délimiter le champ de d’analyse. « Il apporte également sa valeur ajoutée en faisant appel à des techniques statistiques simples qui ne sont pas présentes dans les logiciels même les plus chers », ajoute Anne Gayet, d’AID.
Nombre de directions marketing opposent encore souvent l’analyse de données et leur vision du terrain. « La créativité est partie intégrante du marketing, qui repose sur une connaissance de ses clients mais aussi sur des convictions stratégiques. Les directions marketing ont encore parfois du mal à accepter la réalité des analyses », regrette Olivier Mazuel de MRM.
Froideur des chiffres d’un côté, qui scrutent sans à priori les comportements des clients, intuitions stratégiques de l’autre côté : pour que ces deux approches marketing parlent le même langage, des formations commencent à voir le jour. A Grenoble Ecole de Management par exemple, en collaboration avec l’éditeur SAS, un mastère spécialisé en informatique décisionnelle, a commencé en septembre 2002. Au Ceram de Sophie Antipolis les étudiants sont également sensibilisés à l’analyse de données : « Nous présentons à nos étudiants tous les outils reliés aux études statistiques et à la gestion des entrepôts de données dans le contexte plus global de la gestion de la relation client. Ils doivent comprendre le jargon des informaticiens pour mieux savoir ce qu’ils peuvent en attendre » explique Lyvie Gueret-Talon professeur de marketing management.
Si la préparation des données et la conception des modèles ne sont pas à la portée des néophytes, en revanche le lancement d’analyse sur des modèles pré-programmés peut être réalisé par le marketing terrain. Des suites logicielles, plus simples dans leur présentation, commencent à voir le jour. Aux Assurances Banque Populaire, il est envisagé à terme de donner accès à une partie de l’outil DataDistilleries aux équipes terrain : les statisticiens prépareront les modèles et les marketeurs pourront les utiliser, sans en modifier la structure. A la caisse régionale du Crédit Agricole Poitou-Charentes, il est également envisagé de donner accès aux experts métiers, via l’intranet, à quelques requêtes simples d’Alice d’Isoft. Chez Decisia, éditeur de Spad, des clients de l’opérationnel demandent parfois à être formé au logiciel : « Récemment un directeur général nous a demandé s’il pouvait participer à un séminaire pour apprendre à utiliser les statistiques, remarque Gilles Hustaix, pdg de Décisia. Les utilisateurs finaux veulent de plus en plus avoir directement accès au logiciel. »
Quand arrive le moment de s’équiper d’une suite logicielle data mining, le casse tête commence ! L’analyse de données est une niche du marché très dynamique de la Business Intelligence. D’après le cabinet d’études high tech Pierre Audoin Consultants, en 2001 le marché français du data mining, incluant licences et services représente un chiffre d’affaires de 40 millions sur les 785 millions d'euros pour la Business Intelligence. Sa croissance se situe entre 5 à 10% et concerne encore une clientèle majoritairement constituée de grands comptes.

Mosaïque logicielle

Ce segment est dominé par des éditeurs spécifiques anglo-saxons issus du monde de la statistique comme Sas ou Spss. Le logiciel Spad, de Decisia, met en avant son expertise des modèles statistiques des universitaires français. Cependant, les fonctions "data mining" commencent à se banaliser. Elles apparaissent aussi dans des suites décisionnelles telles celles de Business Object ou de Cognos. Elles complètent les progiciels de gestion de la relation client édités par Siebel, Sap, ou Oracle. Elles s’ajoutent aux outils de gestion de campagnes tel Marketic. Enfin, elles s’intègrent dans les progiciels Internet de type Websphère d’IBM. 
Par ailleurs la tendance se développe de proposer des produits simplifiés. Ils peuvent automatiser les modèles statistiques et prévoir des scénarios pré-définis. Certains sont limités à des modèles statistiques plus faciles d’accès comme les arbres de décision. Alice d’Isoft s’est positionné sur ce créneau depuis déjà plusieurs années. DataDistilleries, distribué par NextApplication, met aussi en avant sa facilité à être utilisé par des non spécialistes. KXEN est également un éditeur qui compte : son logiciel est intégré soit dans les suites d’autres éditeurs du marché soit dans les projets d’informatique décisionnelle globale de grandes entreprises.
En réalité, les services études fichiers des entreprises ainsi que les prestataires ne sont jamais équipés d’un unique logiciel ! Aux Assurances Banque Populaire, avant de s’équiper de DataDistilleries, le service étude utilisait déjà les logiciels de Sas et Spss. Les combiner les uns aux autres permet de disposer de toute une palette de logiques statistiques différentes. Les outils les plus sophistiqués ont la faveur des experts, ils leur laissent une plus grande liberté pour programmer leurs propres modèles. « Les outils sont assez complémentaires, confirme Olivier Mazuel de MRM. Mais des techniques sont parfois mieux formalisées chez certains ou privilégiées chez d’autres. On choisit aussi son logiciel en fonction de critères comme : la rapidité à traiter de lourds fichiers ou la capacité à s’intégrer au non aux plates-formes logicielles que vous avez déjà. Une autre dimension entre aussi en compte : le recrutement du statisticien ! Car les spécialistes sont formés sur tel ou tel logiciel : si vous ne l’avez pas, vous ne pouvez pas recruter des profils parfois très intéressants. »
Avant de diminuer ses coûts de mailings, grâce à un meilleur ciblage ou de booster son chiffre de vente auprès d’une cible sous exploitée, il faut d’abord débourser quelques milliers d’euros ! En sachant, comme le rappelle Philippe Nieuwbourg que « si les données ne sont pas bonnes, le coût de leur nettoyage peut représenter 10 ou 20 fois le coût d’acquisition d’un logiciel ». Pour s’équiper d’une suite analytique évoluée, les prix débutent à 50 000 euros jusqu’à 200 000 euros en fonction des éditeurs, des fonctionnalités ou du volume de la base traitée. A ce coût d’acquisition s’ajoute le coût de la création d’un poste de statisticien en interne. Les logiciels pré-programmés sont beaucoup plus accessibles à partir de 3000 à 7000 euros. Les sociétés spécialisées en data mining, qui récupèrent les données du client, les traitent, et mènent les analyses proposent des prestations entre 10 000 euros minimum et 100 000 euros, en fonction de la complexité de l’analyse.
Est-il vraiment temps de s’équiper en data mining ? La gymnastique statistique devrait logiquement se banaliser au fur et à mesure que les bases de données clients s’enrichiront. Alors, le "data mining" ne sera plus qu’un souvenir : il s’agira d’un outil décisionnel parmi d’autres, un indicateur sûr du potentiel client à coupler avec la vision stratégique du marché.

 


 

Projet data mining : quatre questions clefs

1. Cet outil est-il indispensable à une stratégie client ?
Le data mining est complémentaire à une stratégie marketing terrain. En se basant sur des analyses statistiques, il permet de segmenter plus finement la base de données clients et de découvrir des potentiels de cibles inexploitées. A partir des résultats des analyses, les campagnes terrain de marketing direct peuvent ainsi être optimisées.

2. Quelles sont les conditions pour obtenir des résultats performants ?
Avoir une base de données complète et saine : un projet data mining est pertinent si l’entreprise dispose de nombreux clients, de nombreuses informations sur eux, et des données régulièrement mises à jour.

3. Combien de temps pour obtenir des résultats ?
L’étape la plus longue consiste à préparer les données, les nettoyer et les transformer en indicateurs performants : en fonction de la situation de l’entreprise, cela peut se compter en mois voire en années. La seconde étape : la conception du modèle par un statisticien et le lancement de l’analyse prend en général au minimum un mois.

4. Comment débuter un projet data mining ?
Soit en externalisant le projet : en faisant appel à un prestataire spécialisé, qui analyse les données de l’entreprise. De nombreuses sociétés font ce choix même s’il existe des freins à confier ses données stratégiques à un prestataire. Soit en créant, au sein du département marketing études et fichiers, un poste de statisticien, afin d’utiliser les logiciels acquis.

 


 

Smatis : une année pour préparer les données

La mutuelle française Smatis a consacré l’année 2002 à améliorer l’accès interne à l’information sur ses clients. Ce travail sera rentabilisé sur les prochaines opérations de mailing.

Smatis, mutuelle complémentaire de santé et de prévoyance a lancé en avril 2002 une campagne marketing sur une nouvelle formule de garantie obsèques. Cela a constitué un test du data mining riche d’enseignements. D’un côté, les envois ont été réduits de moitié grâce à un meilleur ciblage des clients mais de l’autre les taux de retour du mailing ont été décevants…
« Les économies réalisées ont conforté nos prévisions de retour sur investissement du logiciel Enterprise Miner de Sas acheté en janvier 2002, confie Christophe Martino, responsable du pôle actuariat (statistiques et études). Mais nous avons aussi compris que nous manquions de données pertinentes pour comparer les résultats de cette campagne avec d’autres du même type. »
Le nettoyage des données à donc monopolisé l’année 2002 pour obtenir des bases fiables et homogènes sur les 120 000 adhérents. Cela a consisté en particulier à transformer en langage courant les informations fournies sous forme de codes par le service informatique. Par exemple la référence chiffrée d’un produit se traduit désormais par sa marque commerciale ou encore les jours apparaissent par leur nom et plus par leur nombre.
Depuis, les services marketing, commerciaux et financiers ont la même vision des données grâce à des tableaux de bord bâtis avec Sas. Des analyses vont être lancées sur trois domaines : la création de produits, la politique tarifaire et le suivi de la rentabilité des clients. Pour sa part, le marketing direct bénéficiera de meilleurs ciblages de ses campagnes de mailings et de télémarketing, avec pour objectif d’obtenir le même nombre d’adhésions pour un coût réduit. « C’est dans ce domaine que nous aurons les indicateurs les plus concrets pour justifier la rentabilité du data mining, poursuit Christophe Martino. Désormais nous souhaitons inverser la tendance et consacrer 90% de notre temps à l’analyse et 10% au traitement des données ! »

 


 

Crédit Agricole Poitou-Touraine : les statistiques en appuient l’expertise terrain

Grâce au data mining, la caisse régionale complète par la rigueur mathématique les ciblages des équipes de marketing direct.

Depuis janvier 2003, les 800 agents du réseau de la Caisse régionale du Crédit Agricole Poitou-Touraine testent en grandeur réelle les premiers bénéfices de l’apport du data mining dans le cadre des campagnes de vente de produits d’épargne.
Ainsi, ils ont pu vanter notamment les mérites du nouveau Plan d’épargne en action (PEA) qui vient de s’élargir aux fonds de placement européens en appelant un à un les clients d’une liste établie en fonction de leur potentiel d’achat. « Les taux de réussite ont augmenté de 15% par rapport aux listes établies auparavant sur la seule intuition métier des experts en marketing , affirme Manuel Pastor, responsable des études marketing. Ce gain s’explique, notamment, par le meilleur ciblage des clients puisque l’ensemble des listes a été classé par ordre décroissant de pertinence. »

Une analyse à 7500 euros

Les premiers pas vers le data mining correspondent à la création du service études et supports marketing de cette caisse, en mai 2002.
Afin de rationaliser la vision empirique de l’expertise marketing terrain, le nouveau service s’est donc attelé à constituer sa base de données orientée clients (datamart) en fiabilisant les références des 500 000 clients de la région et leurs 200 variables associées.
Après cette mise à plat indispensable, la segmentation et la modélisation du comportement des clients a été effectué grâce au logiciel Alice d’Isoft. « Cet outil est adapté aux premières expérimentations du data mining. L’on peut commencer à analyser et connaître ses clients avec un budget raisonnable de 7 500 euros », poursuit Manuel Pastor. Des compétences poussées en statistiques ne sont pas nécessaires pour tirer partie du logiciel. Il utilise, par ailleurs, la technique des arbres de décision dont la représentation est la plus compréhensible aux marketeurs.
Cependant, prévient Manuel Pastor, « il manque de méthodes statistiques exploratoires qui peuvent se révélées nécessaires pour pousser plus loin l’analyse et sortir de la simple problématique d’explication de variables ».

 

Sophie Maréchal et Laure Deschamps, Marketing Direct, avril 2003


 

Pour approfondir : les archives de Marketing Direct : http://www.e-marketing.fr/

Repost 0
Published by Sophie Maréchal et Laure Deschamps dans MARKETING DIRECT - dans Vie numérique
commenter cet article
1 septembre 2002 7 01 /09 /septembre /2002 11:59

La tempête de la désillusion a secoué les certitudes des années « CRM ». Un client fidèle ne rapporterait donc rien à l’entreprise ? N’aurait-il plus envie de commander lorsqu’il reçoit une offre promotionnelle ? N’aurait-il plus de reconnaissance lorsque l’on sait traiter sa plainte au téléphone ? Pourtant, les résultats d’une informatisation des actions commerciales et marketing sont tangibles.. à condition de se donner les moyens de traduire la satisfaction du client en monnaie sonnante et trébuchante face aux gestionnaires inquisiteurs !

Emportées par la techno-euphorie des années passées, 53 % des entreprises interrogées dans le cadre d’une étude Syntegra/Novametrie, avouent avoir lancé leur projet « CRM » sans indicateurs de retour sur investissement préterminés. Une proportion similaire, (52%) est aussi constatée par l’étude « CRM index » menée par Gartner Group pour le compte de Cap Gemini Ernst and Young (CGEY).

Aujourd'hui, un vent de bon sens souffle donc sur la gestion de la relation client. On redécouvre les fondamentaux : quels coûts ? quels temps passé ? pour quel résultat ? Pour justifier l’investissement consenti pour équiper ses forces de ventes, construire une base de données marketing unifiée multicanale, monter un centre d’appels pour gérer les réclamations, lancer de nouvelles offres, ou encore mettre entre les mains des décideurs les derniers outils de pilotage high-tech de la stratégie commerciale, il faut pouvoir répondre aux questions cruciales : Les parts de marché vont-elle croître ? le chiffre d’affaires augmenter ? les marges bénéficiaires grossir ? « Intrasèquement le projet CRM n’a pas de retour sur investissement, il est d’abord un facteur de différenciation", prévient Patrick Stelmaszysk directeur CRM chez CGEY. "En réalisant un arbitrage sur le coût du système d’information , on risque de perdre l’enjeu de la stratégie commerciale de l’entreprise ».

L’expérience des précurseurs aide à définir les bons indicateurs

Depuis que les offres sont apparues sur le marché à la fin des années 90, déboires et succès se sont succédés. Même si comme le souligne Philippe Cassoulat, partner en charge du CRM chez Valoris : « 75% des projets de la relation client ne voit pas l’ombre d’un retour sur investissement positif ! 1/3 parcequ’ils ont manqué d’objectif métier, 1/3 parce l’on a greffé une technologie sur un processus défaillant, 1/3 parcequ’on a négligé la qualité des données ». Pourtant, grâce à la capitalisation de ces expériences les cabinets de conseils ont défini les critères les plus crédibles à prendre en compte pour prouver aux membres du comité de direction et aux actionnaires que l’achat du progiciel de gestion de la relation client, dernier cri de la technologie, est un passage incontournable.

La tendance 2002 est de proposer, à partir de ces recencements de cas particuliers, une grille d’évaluation des bénéfices attendus et de définir les leviers qui permettent de les obtenir. C’est le cas de CGEY avec une offre de services baptisée « CRM calculator » et de Deloitte consulting avec « CRM Value Map ».

Oui, dans le concert des désenchantés du CRM, des voix positives s’élèvent. « Nous avons augmenté nos ventes jusqu’à 7% dans certains segments dans l’année qui a suivi l’installation du progiciel Siebel. Nous observons une amélioration des marges jusqu’à 2,5% grâce une réduction du coût de la vente, et une réduction des frais financiers de 3 à 5% dans grâce à l’amélioration de la gestion des contrats" affirme Jérôme Camillerapp, directeur organisation et systèmes d’information nord europe d’Otis. Chez le constructeur d’ascenseurs, numéro un mondial, les leviers étaient clairs. L’ancien système CRM, vieux de dix ans, ne pouvait pas passer l’an 2000. La modernisation allait de soit. Les attentes de la direction commerciale avaient été énoncées au comité de direction. Jérôme Camillerapp reconnaît par ailleurs, avoir bénéficier d’autres facteurs favorables : l’intégration avec le progiciel de gestion d’entreprise en place, Baan, c’est déroulée sans soucis et l’organisation du changement a été bien vécue parmi des forces commerciales qui avaient déjà la culture « CRM ».

Chaque brique du CRM a ses propres critères de rentabilité

« Parler productivité en matière de CRM risque d’être perfide. Il faut toujours privilégier la logique d’expansion comme par exemple l’augmentation des ventes, la réduction des démissions des commerciaux , l’ajout d’une ligne sur la commande, la baisse des taux de réclamations » conseille Pierre Picard, directeur en charge de la relation client chez Unilog Management. Dans chaque compartiment de la relation client, les attentes et les leviers varieront. Dans le marketing, il s’agira d’optimiser le taux de retour des campagnes, qui pourront passer de 5 à 15% grâce à une segmentation plus fine des clients. Le temps de lancement d’une campagne pourra passer de six à une semaine. La mutualisation des moyens autour d’une seule base client permettra de réaliser des économies d’échelle et de réaliser plus de campagnes sur un même budget. Tout ces bénéfices ne seront mesurables qu’à condition d’avoir placé en amont les indicateurs nécessaires avec un état des lieux du fonctionnement de départ afin d’avoir les points de comparaison nécessaires. En terme de gestion des forces de ventes, les indicateurs seront plutôt liés à l’organisation et à la productivité des forces de ventes. Ces éléments, sont plus difficile à chiffrer car ils touchent à la qualité de service ou à la performance des commerciaux dotés de nouveaux outils et d’une nouvelle organisation. « Nous lancerons des sondages auprès d’échantillons représentatifs de nos clients. Nous mesurerons ainsi qu’elle est leur taux de satisfaction et leur perception de l’efficacité des forces commerciales depuis notre changement d’organisation » explique Jean-Noël Teoloose, directeur du projet CRM, du Groupe VediorBis, troisième entreprise mondiale de travail temporaire . « Nous avons chiffré le coût de nos actions de vente et nous sommes convaincus de pouvoir optimiser ce résultat si nous ciblons mieux nos opérations commerciales. Sans indicateurs de ce type nous ne pourrions pas définir sans discussions si les gains attendus seront directement liés au projet CRM et aux logiciels installés ».

Peut-on rentabiliser les projets CRM par de nouvelles dépenses ?

Quant aux centres d’appels, tout dépend de leur finalité. S’ils sont dédiés aux appels sortants, ils s’intégreront par exemple dans une redifinition des typologies de clients, ils génèreront directement des ventes facilement mesurables. S’ils s’agit d’appels entrants, comme les réclamations, l’on raisonnera en terme d’amélioration de qualité de service, les gains seront indirects. La technologie sera, là, un levier important grâce aux systèmes de worflow et de remontées des informations à l’écran. « L’investissement dans un centre d’appel permettra d’économiser ailleurs, par exemple dans les forces de ventes. De son côté le marketing se concentrera sur la formalisation de ses offres » indique Bruno Tabourin, vice-président de Syntegra. Enfin, l’optimisation de l’ensemble de ces briques pourra être réalisée par les outils d’analyse qui aideront les directions commerciales, marketing ou des services à définir de nouvelles actions. Ceux-ci ne seront pas directement générateur d’économie ou producteur de revenus. Mais Bruno Toubourin prévient « Penser que l’on va rentabiliser son projet de gestion de la relation client grâce à la mise en place du CRM analytique , c’est la fuite en avant. L’entreprise doit avant tout se demander si elle pourrait répondre à l’attente de ses clients en dépensant trois fois moins… ».

 


 

Test : le CRM présente-t-il un intérêt pour votre entreprise

Deloitte Consulting propose une formule mathématique pour évaluer la complexité de la relation client d’une entreprise :

nombre de clients x nombre d’interlocuteurs par client x nombre d’employés par client x nombre de canaux = complexité de la relation client

si le total est inférieur à 1000 : le CRM n’est pas une priorité s’il est compris entre 1000 et 10 000 : le CRM présente probablement un intérêt si le total est supérieur à 10 000 : le CRM est sans doute un enjeu majeur


 

Une estimation chiffrée des bénéfices quantifiables n’est pas obligatoire si

le projet est porté par la direction générale
le contexte politique et économique du projet est stable
la durée du projet est inférieure à un an
le projet est stratégique ou se justifie de façon évidente
le budget est validé, détaillé et maîtrisé

Mais il faut toujours définir au minimum

Des objectifs métiers réalistes
La liste des bénéfices quantifiables et non quantifiables attendus
Une estimation détaillée des coûts internes et externes et de la charge de travail
Un plan de mise en œuvre

Attention il est fréquent de sous-estimer les coûts suivants

Conduite du changement, formation, communication
Refonte des processus et de l’organisation
Coûts de déploiement des solutions

source : extrait :« Les coulisses du CRM : enseignement et perspectives » étude réalisée par Deloitte Consulting

 


 

Jérôme Camillerapp, directeur organisation et systèmes d’information Nord-Europe d’Otis, constructeur d’ascenseurs. « il faut une forte implication de la direction commerciale pour dégager les retours attendus »

« Ma direction a un rôle de catalyseur, pour que le retour sur investissement soit établit. En binôme avec la direction fonctionnelle, nous établissons le coût du projet, les frais de fonctionnement et de mise en place des nouveaux processus. Il faut convaincre la direction générale de la stratégie qui accompagnemera la mise en place du nouveau progiciel. Lorsque je présente une demande d’investissement conjointement avec le directeur financier, nous sommes dans une logique de réduction de coûts avec une composante subjective. La logique est inversée dans le cas du CRM puisqu’il s’agit d’augmenter les ventes, la subjectivité est alors exarcerbée. Le directeur commercial fait alors un pari sur l’avenir et cela doit se traduire par un engagement fort de ses équipes ».

Sophie Maréchal, CIO, septembre 2002

 

 

Repost 0
Published by Sophie Maréchal dans CIO - dans Vie numérique
commenter cet article