Stratégie SI|

|

Très Haut Débit : les entreprises doivent payer le prix fort

Dans les faits, les entreprises sont les oubliées d’un plan Très Haut Débit pourtant censé « renforcer la compétitivité de l’économie française » en donnant accès aux entreprises au Très Haut Débit à des tarifs accessibles.
Malgré le constat d’inefficacité de ce plan sur sur deux exemples vécus, comment faire pour pour renforcer l’accès des entreprises françaises au Très Haut Débit ?

Le plan « Très haut débit »

Le plan Très Haut Débit a été lancé en France au printemps 2013 avec l’objectif de couvrir l’intégralité du territoire d’ici 2022. L’atteinte de cette ambition s’appuie essentiellement sur le déploiement de la fibre optique.

Le plan est doté d’un budget de 20 Milliards d’euros partagé entre l’Etat, les collectivités locales, et les opérateurs privés.

L’ambition est simple : « renforcer la compétitivité de l’économie française et la qualité des services publics. » Effectivement, l’impact du débit d’une connexion sur la quantité et la qualité des services numériques consommés par une entreprise peut être énorme.  Aujourd’hui, à l’heure du Software as a Service (messageries, échange de fichiers, collaboration, videoconference…), la consommation de débit augmente pour toutes les entreprises.

Le plan divise la France en deux zones : la zone conventionnée (milieu urbain) où les opérateurs privés investissent en propre en se répartissant le gâteau, et la zone non conventionnée (milieu rural) où l’Etat et les collectivités locales subventionnent les opérateurs privés pour installer de la fibre.

Plan_THD

Source : http://www.francethd.fr/comprendre-le-plan-france-tres-haut-debit/

Dans la page de présentation du programme « Comprendre le Plan France Très Haut Débit« , le mot entreprise n’apparaît qu’une fois. Un premier paragraphe fait état de technologies, et un deuxième explique les aspects financiers, notamment en matière de subventions.

On comprend pourquoi en s’intéressant au cahier des charges du plan France Très Haut Débit où l’on découvre un second découpage qui traverse le premier (zones conventionnées et non conventionnées) : les zones résidentielles et les zones d’activités.

Un type de fibre est destiné à chaque zone :

  • La fibre FTTH (Fiber To The Home) [1], pour les zones résidentielles,
  • la fibre FTTO (Fiber To The Office) [2], pour les zones d’activité.

En faisant l’examen approfondi des offres sur le web en date de juin 2015, nous constatons la choses suivante :

Des prix élevés pour des PME

Il est très difficile de trouver une offre ferme pour les entreprises en surfant sur le web. Soit il n’y a rien, et il faut joindre un commercial (cas d’OBS, qui est leader du marché), soit on trouve des prix, avec la mention « à partir de ».  Quand on creuse, les 1 400 €/mois se transforment sauf exception en 2 000 €/mois.

Par exemple, pour deux zones d’activité autour de Paris (Paris Nord II à quelques centaines de mètres de l’aéroport Charles de Gaulle ou la zone de Courtaboeuf à quelques kilomètres du pôle technologique de Saclay par exemple) ne sont pas couvertes par l’offre FTTH. En revanche, une offre FTTO est proposée aux entreprises.

Même en milieu urbain résidentiel, il est parfois impossible de bénéficier de l’offre FTTH. A Malakoff, à quelques centaines de mètres de Paris, la fibre passe dans la rue devant notre cabinet, mais nous ne pouvons pas être raccordés, car notre immeuble fait partie d’une copropriété de moins de douze lots, ce qui n’est pas assez important pour justifier un raccordement pour Orange.

La seule possibilité est de prendre un abonnement FTTO à 2 000 €/mois, en choisissant soigneusement son opérateur, sinon le coût peut doubler. La meilleure offre pro FTTO est donc 50 fois plus chère que l’offre particulier FTTH !

Plus cher mais pas mieux, loin de là !

Pour expliquer ou justifier la différence, les opérateurs télécoms, historique ou non, mettent en avant plusieurs services dans la FTTO absents de la FTTH :

1. Un débit minimum garanti,
2. Une connexion symétrique [4],
3. Une intervention en moins de 4h en cas de perte de connexion,
4. Une « surveillance du réseau »,
5. Un raccordement gratuit au réseau.

Ces services « premium » sont apparemment attractifs pour des professionnels en quête de garanties de qualité de fonctionnement.

En fait, leur réalité et leur valeur sont discutables :

1. Débit minimum garanti : Les connexions FTTH dépassent les 100 Mbps en débit descendant (par exemple chez moi : 300 Mbps) ; à ce jour, il n’existe aucune statistique de disponibilités (= nombre d’heures d’arrêt / nombre d’heures par an) ; chacun, sur la base de son vécu, peut juger de la disponibilité de l’accès à internet ; au pire, en prenant une deuxième ligne à 40 €/ mois chez un autre opérateur, ou un accès 4G permettent de se couvrir en cas de panne,

2. Connexion symétrique : quand internet sert à des utilisateurs, les données envoyées (frappes de clavier, documents) sont en quantité très faible au regard des données reçues (pages web, videos, sons, images…). C’est ce qui rend les connexions ADSL (A pour Asymétrique) pertinentes. Les offres SDSL (S pour Symétrique) sont  pertinentes pour des entreprises multi-sites hébergeant elles mêmes leurs serveurs de données ou gérant un centre d’appel de grande taille (1 000 appels simultanés à traiter [5]),

3. Une intervention en moins de 4h en cas de perte de connexion : comme évoqué au point 1, les accès FTTH sont stables, jusqu’à preuve du contraire, et lorsqu’un problème survient, un simple redémarrage de la box suffit généralement. Si la panne est plus grave, comme aussi évoqué au point 1, soit vous pouvez utiliser un accès redondant FTTH d’un autre opérateur ou 4G. Une autre option est d’utiliser son smartphone maintenant largement répandu avec abonnement aux données en 4G [6] avec des forfaits très largement suffisants (20 Go/mois chez Free pour 20 €/mois). Un téléphone en 4G suffit à connecter 10 personnes à internet. Si vous n’êtes toujours pas convaincus, souscrivez en plus à un abonnement type « routeur 4G » à 20 € par mois. Vous restez largement bénéficiaires,

4. La « surveillance du réseau » est un service qu’aucun opérateur n’a su m’expliquer, en tous cas je n’ai pas réussi à comprendre ce que c’était malgré toute ma bonne volonté. La mise en place de solutions répandues de sécurité (NAT, firewalls logiques) et maitrisées par la plupart des techniciens réseaux, suffit amplement à garantir la sécurité de votre entreprise. Ces solutions sont d’ailleurs fortement recommandées dans tous les cas, la surveillance du réseau ne permettant pas de s’en affranchir,

5. Quand au raccordement « gratuit » au réseau, étant donné le montant de l’abonnement mensuel, nul doute que le coût est amorti dans l’abonnement, assorti d’une durée d’engagement minimale de 24 mois…

Donc, les entreprises, pour un service objectivement quasi identique, doivent payer plus de 50 fois plus cher que les particuliers. La question que nous nous posons est la suivante : où se situe la réalité des coûts ? Les coût sont-ils couverts à 40 €/mois pour 100 Mbps asymétrique, et si oui, à partir de quelle densité d’abonnés ?

Une TPE de 10 salariés a-t-elle les moyens du Très Haut Débit à 2 000 €/mois ? Est-il pertinent, pour la compétitivité du pays, qu’elle soit exclue des offres FTTH à 40 €/mois pour 100 Mbps asymétrique, qui lui conviendrait parfaitement ?

Pourquoi ne pas assumer que, comme pour les services bancaires, les entreprises paient pour les particuliers ?

En effet, les particuliers sont les grands gagnants de cette situation. Si ces offres sont supportables par de très grandes entreprises, elles sont inaccessibles pour les entreprises petites ou moyennes.

Quel est l’intérêt d’une connexion fibre à plus de 100 Mbps pour un usage privé ? Essentiellement visionner des vidéos ou des programmes télévisés en Haute Définition via internet. L’impact sur la compétitivité du pays à l’échelle internationale est très indirect, une connexion ADSL délivrant un débit descendant de quelques Mbps étant amplement suffisante pour permettre le travail à domicile.

En revanche, pour les entreprises l’enjeu est bien plus important. Une connexion THD permet à une entreprise d’avoir tout ou partie de son informatique dans le Cloud : les applications et leurs données, les données utilisateurs et les mails, notamment.

En plus des économies substantielles que cette migration engendre, le passage dans le Cloud offre à l’ensemble des entreprises des technologies de pointe, notamment pour le travail collaboratif et la mobilité [7].

Dans un contexte de forte concurrence internationale, la compétitivité des entreprises françaises passe par la généralisation des technologies internet grand public.

Nous ne contestons pas l’intérêt d’apporter l’internet à Très Haut Débit dans tous les foyers de France, même s’il est lointain et indirect. Si madame Michu a 100 Mbps asymétrique à la maison, elle pourra acheter des films, visualiser ses radiographies HD et ses scanners.

Ce qui nous semble très regrettable, c’est que les entreprises, surtout les petites et les moyennes, doivent payer le prix fort pour le THD, sans dans l’immédiat bénéficier de ce plan de 20 Mds€ qui clame pourtant améliorer la compétitivité de notre pays.

Ceci est-il une fatalité ? Faut-il se résigner pour encore de longues années au bas débit à bas coûts, ou au THD à coût très élevé ?

Bénéficier du THD quand on est une petite ou moyenne entreprise peut relever du parcours du combattant, mais c’est possible !

Vous l’aurez compris, si votre entreprise est dans une zone et un bâtiment éligibles au raccordement à l’offre FTTH, la meilleure solution pour bénéficier du THD est de souscrire à cette offre.

Si, comme la plupart des entreprises, vous n’avez pas cette possibilité, la solution qui reste consiste à souscrire une, deux, voire trois, en fonction de votre besoin de débit, connexions grand public en technologie cuivre à 40 € (Free, Orange, SFR, etc.) en étudiant les performances de chaque opérateur (type de connexion, débits descendant et montant). Vous bénéficierez ainsi à moindre coût du Très Haut Débit que le plan THD ne vous propose pas.

Ne prêtez pas attention aux mises en garde des fournisseurs d’offres pour entreprises FTTO, qui vous dira que ces offres ne sont pas adaptées, que vous mettez votre entreprise en danger. Les fournisseurs d’accès à internet pour entreprises se retrouvent dans la situation inconfortable d’avoir comme seul produit au catalogue une offre sans valeur ajoutée perçue par les PME et ETI, à un coût qui la leur rend inaccessible.

Pire : nous avons rencontré des cas où des accords de non concurrence ont été passés entre la division Entreprises qui vend du FTTO et la division Grand public qui vend du FTTH : si vous êtes une entreprise cliente d’une offre Entreprises, et que vous sollicitez une offre FTTH pour réduire vos coûts, la division Grand Public vous opposera une fin de non recevoir au motif que vous êtes une entreprise déjà en compte avec la division Entreprises.

Si vous êtes dans ce cas, adressez vous à un autre fournisseur d’accès. Il n’y a, à notre connaissance, aucune loi qui interdit à une entreprise de bénéficier d’une offre FTTH, quelle que soit sa taille.

La mise en place d’une connexion à Très Haut Débit est un premier pas vers un système d’information moderne qui tire partie de la révolution de l’internet, pour créer de la valeur pour les entreprises.

Il nous paraît dommage qu’en l’état actuel des politiques publiques, les actions en faveur du THD bénéficient essentiellement aux particuliers, et pas aux petites et moyennes entreprises qui créent pourtant l’essentiel de la richesse produite dans le pays. 

[1] La Fibre FTTH (Fiber To The Home) désigne les connexions fibre grand public (Environ 100 Mbps de débit descendant pour 40 €/mois)

[2] La Fibre FTTO (Fiber To The Office) désigne les connexions fibres dédiées aux entreprises (100 Mbps symétriques pour 2 000 €/mois minimum et jusqu’à 1 Gbps pour beaucoup plus)

[3] Mbps : Mégabits par seconde

[4] Une connexion symétrique offre un débit montant égal au débit descendant

[5] Un appel consomme environ 50Kbps de bande passante soit 50Mbps pour 1000 appels simultanés (http://www.cisco.com/cisco/web/support/CA/fr/109/1091/1091657_bwidth_consume.html)

[6] Plus de 60% de la population active, en forte augmentation (http://www.arcep.fr/uploads/tx_gspublication/etude-CREDOC-diffusion-TIC-2014.pdf)

[7] Salesforce résume les principaux atouts du Cloud : http://www.salesforce.com/fr/socialsuccess/cloud-computing/Les-10-avantages-du-cloud-computing.jsp

Dans les faits, les entreprises sont les oubliées d’un plan Très Haut Débit pourtant censé « renforcer la compétitivité de l’économie française » en donnant accès aux entreprises au Très Haut Débit à des tarifs accessibles.
Malgré le constat d’inefficacité de ce plan sur sur deux exemples vécus, comment faire pour pour renforcer l’accès des entreprises françaises au Très Haut Débit ?

Le plan « Très haut débit »

Le plan Très Haut Débit a été lancé en France au printemps 2013 avec l’objectif de couvrir l’intégralité du territoire d’ici 2022. L’atteinte de cette ambition s’appuie essentiellement sur le déploiement de la fibre optique.

Le plan est doté d’un budget de 20 Milliards d’euros partagé entre l’Etat, les collectivités locales, et les opérateurs privés.

L’ambition est simple : « renforcer la compétitivité de l’économie française et la qualité des services publics. » Effectivement, l’impact du débit d’une connexion sur la quantité et la qualité des services numériques consommés par une entreprise peut être énorme.  Aujourd’hui, à l’heure du Software as a Service (messageries, échange de fichiers, collaboration, videoconference…), la consommation de débit augmente pour toutes les entreprises.

Le plan divise la France en deux zones : la zone conventionnée (milieu urbain) où les opérateurs privés investissent en propre en se répartissant le gâteau, et la zone non conventionnée (milieu rural) où l’Etat et les collectivités locales subventionnent les opérateurs privés pour installer de la fibre.

Plan_THD

Source : http://www.francethd.fr/comprendre-le-plan-france-tres-haut-debit/

Dans la page de présentation du programme « Comprendre le Plan France Très Haut Débit« , le mot entreprise n’apparaît qu’une fois. Un premier paragraphe fait état de technologies, et un deuxième explique les aspects financiers, notamment en matière de subventions.

On comprend pourquoi en s’intéressant au cahier des charges du plan France Très Haut Débit où l’on découvre un second découpage qui traverse le premier (zones conventionnées et non conventionnées) : les zones résidentielles et les zones d’activités.

Un type de fibre est destiné à chaque zone :

  • La fibre FTTH (Fiber To The Home) [1], pour les zones résidentielles,
  • la fibre FTTO (Fiber To The Office) [2], pour les zones d’activité.

En faisant l’examen approfondi des offres sur le web en date de juin 2015, nous constatons la choses suivante :

Des prix élevés pour des PME

Il est très difficile de trouver une offre ferme pour les entreprises en surfant sur le web. Soit il n’y a rien, et il faut joindre un commercial (cas d’OBS, qui est leader du marché), soit on trouve des prix, avec la mention « à partir de ».  Quand on creuse, les 1 400 €/mois se transforment sauf exception en 2 000 €/mois.

Par exemple, pour deux zones d’activité autour de Paris (Paris Nord II à quelques centaines de mètres de l’aéroport Charles de Gaulle ou la zone de Courtaboeuf à quelques kilomètres du pôle technologique de Saclay par exemple) ne sont pas couvertes par l’offre FTTH. En revanche, une offre FTTO est proposée aux entreprises.

Même en milieu urbain résidentiel, il est parfois impossible de bénéficier de l’offre FTTH. A Malakoff, à quelques centaines de mètres de Paris, la fibre passe dans la rue devant notre cabinet, mais nous ne pouvons pas être raccordés, car notre immeuble fait partie d’une copropriété de moins de douze lots, ce qui n’est pas assez important pour justifier un raccordement pour Orange.

La seule possibilité est de prendre un abonnement FTTO à 2 000 €/mois, en choisissant soigneusement son opérateur, sinon le coût peut doubler. La meilleure offre pro FTTO est donc 50 fois plus chère que l’offre particulier FTTH !

Plus cher mais pas mieux, loin de là !

Pour expliquer ou justifier la différence, les opérateurs télécoms, historique ou non, mettent en avant plusieurs services dans la FTTO absents de la FTTH :

1. Un débit minimum garanti,
2. Une connexion symétrique [4],
3. Une intervention en moins de 4h en cas de perte de connexion,
4. Une « surveillance du réseau »,
5. Un raccordement gratuit au réseau.

Ces services « premium » sont apparemment attractifs pour des professionnels en quête de garanties de qualité de fonctionnement.

En fait, leur réalité et leur valeur sont discutables :

1. Débit minimum garanti : Les connexions FTTH dépassent les 100 Mbps en débit descendant (par exemple chez moi : 300 Mbps) ; à ce jour, il n’existe aucune statistique de disponibilités (= nombre d’heures d’arrêt / nombre d’heures par an) ; chacun, sur la base de son vécu, peut juger de la disponibilité de l’accès à internet ; au pire, en prenant une deuxième ligne à 40 €/ mois chez un autre opérateur, ou un accès 4G permettent de se couvrir en cas de panne,

2. Connexion symétrique : quand internet sert à des utilisateurs, les données envoyées (frappes de clavier, documents) sont en quantité très faible au regard des données reçues (pages web, videos, sons, images…). C’est ce qui rend les connexions ADSL (A pour Asymétrique) pertinentes. Les offres SDSL (S pour Symétrique) sont  pertinentes pour des entreprises multi-sites hébergeant elles mêmes leurs serveurs de données ou gérant un centre d’appel de grande taille (1 000 appels simultanés à traiter [5]),

3. Une intervention en moins de 4h en cas de perte de connexion : comme évoqué au point 1, les accès FTTH sont stables, jusqu’à preuve du contraire, et lorsqu’un problème survient, un simple redémarrage de la box suffit généralement. Si la panne est plus grave, comme aussi évoqué au point 1, soit vous pouvez utiliser un accès redondant FTTH d’un autre opérateur ou 4G. Une autre option est d’utiliser son smartphone maintenant largement répandu avec abonnement aux données en 4G [6] avec des forfaits très largement suffisants (20 Go/mois chez Free pour 20 €/mois). Un téléphone en 4G suffit à connecter 10 personnes à internet. Si vous n’êtes toujours pas convaincus, souscrivez en plus à un abonnement type « routeur 4G » à 20 € par mois. Vous restez largement bénéficiaires,

4. La « surveillance du réseau » est un service qu’aucun opérateur n’a su m’expliquer, en tous cas je n’ai pas réussi à comprendre ce que c’était malgré toute ma bonne volonté. La mise en place de solutions répandues de sécurité (NAT, firewalls logiques) et maitrisées par la plupart des techniciens réseaux, suffit amplement à garantir la sécurité de votre entreprise. Ces solutions sont d’ailleurs fortement recommandées dans tous les cas, la surveillance du réseau ne permettant pas de s’en affranchir,

5. Quand au raccordement « gratuit » au réseau, étant donné le montant de l’abonnement mensuel, nul doute que le coût est amorti dans l’abonnement, assorti d’une durée d’engagement minimale de 24 mois…

Donc, les entreprises, pour un service objectivement quasi identique, doivent payer plus de 50 fois plus cher que les particuliers. La question que nous nous posons est la suivante : où se situe la réalité des coûts ? Les coût sont-ils couverts à 40 €/mois pour 100 Mbps asymétrique, et si oui, à partir de quelle densité d’abonnés ?

Une TPE de 10 salariés a-t-elle les moyens du Très Haut Débit à 2 000 €/mois ? Est-il pertinent, pour la compétitivité du pays, qu’elle soit exclue des offres FTTH à 40 €/mois pour 100 Mbps asymétrique, qui lui conviendrait parfaitement ?

Pourquoi ne pas assumer que, comme pour les services bancaires, les entreprises paient pour les particuliers ?

En effet, les particuliers sont les grands gagnants de cette situation. Si ces offres sont supportables par de très grandes entreprises, elles sont inaccessibles pour les entreprises petites ou moyennes.

Quel est l’intérêt d’une connexion fibre à plus de 100 Mbps pour un usage privé ? Essentiellement visionner des vidéos ou des programmes télévisés en Haute Définition via internet. L’impact sur la compétitivité du pays à l’échelle internationale est très indirect, une connexion ADSL délivrant un débit descendant de quelques Mbps étant amplement suffisante pour permettre le travail à domicile.

En revanche, pour les entreprises l’enjeu est bien plus important. Une connexion THD permet à une entreprise d’avoir tout ou partie de son informatique dans le Cloud : les applications et leurs données, les données utilisateurs et les mails, notamment.

En plus des économies substantielles que cette migration engendre, le passage dans le Cloud offre à l’ensemble des entreprises des technologies de pointe, notamment pour le travail collaboratif et la mobilité [7].

Dans un contexte de forte concurrence internationale, la compétitivité des entreprises françaises passe par la généralisation des technologies internet grand public.

Nous ne contestons pas l’intérêt d’apporter l’internet à Très Haut Débit dans tous les foyers de France, même s’il est lointain et indirect. Si madame Michu a 100 Mbps asymétrique à la maison, elle pourra acheter des films, visualiser ses radiographies HD et ses scanners.

Ce qui nous semble très regrettable, c’est que les entreprises, surtout les petites et les moyennes, doivent payer le prix fort pour le THD, sans dans l’immédiat bénéficier de ce plan de 20 Mds€ qui clame pourtant améliorer la compétitivité de notre pays.

Ceci est-il une fatalité ? Faut-il se résigner pour encore de longues années au bas débit à bas coûts, ou au THD à coût très élevé ?

Bénéficier du THD quand on est une petite ou moyenne entreprise peut relever du parcours du combattant, mais c’est possible !

Vous l’aurez compris, si votre entreprise est dans une zone et un bâtiment éligibles au raccordement à l’offre FTTH, la meilleure solution pour bénéficier du THD est de souscrire à cette offre.

Si, comme la plupart des entreprises, vous n’avez pas cette possibilité, la solution qui reste consiste à souscrire une, deux, voire trois, en fonction de votre besoin de débit, connexions grand public en technologie cuivre à 40 € (Free, Orange, SFR, etc.) en étudiant les performances de chaque opérateur (type de connexion, débits descendant et montant). Vous bénéficierez ainsi à moindre coût du Très Haut Débit que le plan THD ne vous propose pas.

Ne prêtez pas attention aux mises en garde des fournisseurs d’offres pour entreprises FTTO, qui vous dira que ces offres ne sont pas adaptées, que vous mettez votre entreprise en danger. Les fournisseurs d’accès à internet pour entreprises se retrouvent dans la situation inconfortable d’avoir comme seul produit au catalogue une offre sans valeur ajoutée perçue par les PME et ETI, à un coût qui la leur rend inaccessible.

Pire : nous avons rencontré des cas où des accords de non concurrence ont été passés entre la division Entreprises qui vend du FTTO et la division Grand public qui vend du FTTH : si vous êtes une entreprise cliente d’une offre Entreprises, et que vous sollicitez une offre FTTH pour réduire vos coûts, la division Grand Public vous opposera une fin de non recevoir au motif que vous êtes une entreprise déjà en compte avec la division Entreprises.

Si vous êtes dans ce cas, adressez vous à un autre fournisseur d’accès. Il n’y a, à notre connaissance, aucune loi qui interdit à une entreprise de bénéficier d’une offre FTTH, quelle que soit sa taille.

La mise en place d’une connexion à Très Haut Débit est un premier pas vers un système d’information moderne qui tire partie de la révolution de l’internet, pour créer de la valeur pour les entreprises.

Il nous paraît dommage qu’en l’état actuel des politiques publiques, les actions en faveur du THD bénéficient essentiellement aux particuliers, et pas aux petites et moyennes entreprises qui créent pourtant l’essentiel de la richesse produite dans le pays. 

[1] La Fibre FTTH (Fiber To The Home) désigne les connexions fibre grand public (Environ 100 Mbps de débit descendant pour 40 €/mois)

[2] La Fibre FTTO (Fiber To The Office) désigne les connexions fibres dédiées aux entreprises (100 Mbps symétriques pour 2 000 €/mois minimum et jusqu’à 1 Gbps pour beaucoup plus)

[3] Mbps : Mégabits par seconde

[4] Une connexion symétrique offre un débit montant égal au débit descendant

[5] Un appel consomme environ 50Kbps de bande passante soit 50Mbps pour 1000 appels simultanés (http://www.cisco.com/cisco/web/support/CA/fr/109/1091/1091657_bwidth_consume.html)

[6] Plus de 60% de la population active, en forte augmentation (http://www.arcep.fr/uploads/tx_gspublication/etude-CREDOC-diffusion-TIC-2014.pdf)

[7] Salesforce résume les principaux atouts du Cloud : http://www.salesforce.com/fr/socialsuccess/cloud-computing/Les-10-avantages-du-cloud-computing.jsp

Organisation DSI|

|

Point de vue : Les SSII viennent de Mars, les DSI viennent de Vénus

Philippe Kalousdian, associé fondateur d’ISlean consulting nous livre son point de vue sur les relations entre DSI et SSII :

Ayant récemment démarré la lecture du livre de John Gray que vous aurez reconnu « les hommes viennent de Mars, les femmes viennent de Vénus », en même temps que j’interviens en audit et redressement de contrats d’outsourcing informatique, je me suis dit que de nombreux parallèles pouvaient être tracés.

Comme entre les hommes et les femmes, un abime d’incompréhension sépare les SSII et les DSI.

Cet abime est à mon avis principalement fait de différences d’objectifs, de différences d’horizons de temps et de différences de culture.

Les différences d’objectifs :

  • – Une DSI doit réaliser le grand écart entre la fourniture d’une énergie informatique (faire fonctionner les applications métiers de l’entreprise, et leurs interfaces homme-machine, que ce soit un PC, un laptop, un PDA, un Smartphone) et l’alignement des systèmes d’information aux métiers de l’entreprise (projets d’évolution ou de construction d’applications métiers).
  • – Une SSII doit d’abord faire du chiffre d’affaires rentable, puis durable.

Réussir à faire converger ces objectifs durablement, nécessite de la part des DSI de mener des appels d’offres auxquels le marché est capable de répondre avec maturité, en soignant la définition du périmètre, le choix des sociétés consultées, et en faisant une estimation ex ante rigoureuse du budget qui permettra d’avoir des offres de qualité adéquate.

Les différences d’horizon de temps :

  • – Les DSI s’inscrivent dans des horizons de temps de l’ordre de leur survie en poste, soit 3 à 5 ans, en moyenne. Horizon en général compatible avec le lancement, voire l’aboutissement partiel d’un programme de transformation des SI de l’entreprise.
  • – Les SSII s’inscrivent d’abord dans un horizon boursier de l’année fiscale, voire le trimestre. Certaines, et en général, pas les plus grandes, ont un soucis de la qualité dans la durée, mais qui n’est pas reconnu dans les modes de promotion des managers, dont l’horizon de promotion ou de mise au placard est de l’ordre de 1 à 3 ans.

Nous constatons donc là encore deux mondes qui structurellement ne peuvent pas construire dans la durée, à moins de bâtir des relations interpersonnelles de dirigeant à dirigeant, loin au-dessus des DSI et autres Client Engagement Executives.

La différence culturelle :

  • – Une DSI bien constituée a d’abord une culture métier et fonctionnelle : quel système pour automatiser tel ou tel processus métier, pour quel gain d’efficacité ou de productivité ?
  • – Une SSII a surtout une culture technique (certaines DSI aussi parfois, malheureusement au détriment des enjeux métiers). Les ingénieurs sont d’abord là pour développer des expertises sur des technologies ou des savoir-faire de management de projet

Là encore, comment réussir à faire se comprendre le voyageur qui veut découvrir du pays et le mécanicien qui veut fabriquer des beaux moteurs ? Comment parvenir à une synergie alors que leurs inclinations culturelles tendent à stériliser par nature même toute relation ?
Une DSI a d’abord besoin de solutions à plus ou moins forte valeur ajoutée, une SSII a besoin d’affecter le plus de ressources possible.

Les relations entre SSII et DSI m’ont souvent fait penser à ce jeu d’enfants de premier âge, où il faut faire pénétrer des formes dans les trous correspondant : carrés, disques, étoiles, triangles… Et où on est témoin de l’acharnement de certains à essayer de faire entrer à toute force un carré dans un rond !

D’autres paramètres, en général de second ordre par rapport aux précédents, peuvent ça et là avoir tout de même un rôle significatif :

  • L’état du marché, entre l’euphorie et la dépression, peut significativement changer la capacité de mobilisation d’une SSII
  • La taille des acteurs. De nouveaux acteurs émergents vont avoir une capacité à se mobiliser pour un client nettement plus forte qu’une SSII historique qui a pignon sur rue. Capacité de mobilisation parfois inversement proportionnelle à leur capacité à tenir les promesses.
  • L’état interne de la SSII : fusions, changement d’actionnaire, départ de dirigeant fondateur ou charismatique, entrainant à plus ou moins brève échéance une fuite des talents, il est majeur de se tenir informé de l’état du marché. Et ce pour éviter de miser sur ce qu’on croit être un point fort pérenne, alors que c’est un point en pleine déliquescence.

Comment avec tout cela encore espérer pouvoir s’en sortir ?

Je ne prétends pas détenir la vérité, et les expériences passées me forcent à l’humilité.
Cependant, quelques facteurs clés de réussite émergent :

  • – Bien se connaître et bien connaître les SSII. Ne pas croire que le marché sait faire des miracles, et pourra répondre à tous vos problèmes, et à fortiori aux problèmes que vous n’êtes même pas capables d’exprimer
  • – Se professionnaliser en matière de gestion de contrat ; faire preuve de rigueur ; ne pas exiger plus des autres que de soi-même. Etre exigeant mais juste.
  • Faire preuve de souplesse. Ne pas s’abriter derrière un contrat perdant pour une des parties, qui finira soit par jeter l’éponge, soit par se refaire par ailleurs. Co-construire en avançant, contractualiser léger au démarrage, quitte à enrichir le contrat ex post, avec des éléments éprouvés par la pratique. Faire le constat de manière adulte, qu’on a parfois pu faire fausse route et qu’il faut réajuster le tir.
  • – Favoriser la présence dans les DSI d’anciens bid managers de SSII, et dans les SSII d’anciens acheteurs de DSI. Tout ce qui permet de rapprocher les bords du gouffre est bon à prendre.

Quelques deals peuvent ainsi vivre un état de grâce pendant un temps plus ou moins long.

Par analogie avec ce que disait A. Lincoln « You can fool some of the people all of the time, and all of the people some of the time, but you can not fool all of the people all of the time. », il est très difficile, sinon impossible, de réussir à bâtir une relation idyllique entre une DSI et une SSII sur une longue durée, de par le caractère éphémère même des facteurs de réussite.

Cela ne doit pas nous rendre pessimiste. Cela doit nous rendre exigeants et rigoureux, pour réussir à réunir durablement les facteurs de réussite.

Philippe Kalousdian

Sur le même thème, consultez notre article « Manager un engagement de résultat ou un engagement de moyen ? ».

Philippe Kalousdian, associé fondateur d’ISlean consulting nous livre son point de vue sur les relations entre DSI et SSII :

Ayant récemment démarré la lecture du livre de John Gray que vous aurez reconnu « les hommes viennent de Mars, les femmes viennent de Vénus », en même temps que j’interviens en audit et redressement de contrats d’outsourcing informatique, je me suis dit que de nombreux parallèles pouvaient être tracés.

Comme entre les hommes et les femmes, un abime d’incompréhension sépare les SSII et les DSI.

Cet abime est à mon avis principalement fait de différences d’objectifs, de différences d’horizons de temps et de différences de culture.

Les différences d’objectifs :

  • – Une DSI doit réaliser le grand écart entre la fourniture d’une énergie informatique (faire fonctionner les applications métiers de l’entreprise, et leurs interfaces homme-machine, que ce soit un PC, un laptop, un PDA, un Smartphone) et l’alignement des systèmes d’information aux métiers de l’entreprise (projets d’évolution ou de construction d’applications métiers).
  • – Une SSII doit d’abord faire du chiffre d’affaires rentable, puis durable.

Réussir à faire converger ces objectifs durablement, nécessite de la part des DSI de mener des appels d’offres auxquels le marché est capable de répondre avec maturité, en soignant la définition du périmètre, le choix des sociétés consultées, et en faisant une estimation ex ante rigoureuse du budget qui permettra d’avoir des offres de qualité adéquate.

Les différences d’horizon de temps :

  • – Les DSI s’inscrivent dans des horizons de temps de l’ordre de leur survie en poste, soit 3 à 5 ans, en moyenne. Horizon en général compatible avec le lancement, voire l’aboutissement partiel d’un programme de transformation des SI de l’entreprise.
  • – Les SSII s’inscrivent d’abord dans un horizon boursier de l’année fiscale, voire le trimestre. Certaines, et en général, pas les plus grandes, ont un soucis de la qualité dans la durée, mais qui n’est pas reconnu dans les modes de promotion des managers, dont l’horizon de promotion ou de mise au placard est de l’ordre de 1 à 3 ans.

Nous constatons donc là encore deux mondes qui structurellement ne peuvent pas construire dans la durée, à moins de bâtir des relations interpersonnelles de dirigeant à dirigeant, loin au-dessus des DSI et autres Client Engagement Executives.

La différence culturelle :

  • – Une DSI bien constituée a d’abord une culture métier et fonctionnelle : quel système pour automatiser tel ou tel processus métier, pour quel gain d’efficacité ou de productivité ?
  • – Une SSII a surtout une culture technique (certaines DSI aussi parfois, malheureusement au détriment des enjeux métiers). Les ingénieurs sont d’abord là pour développer des expertises sur des technologies ou des savoir-faire de management de projet

Là encore, comment réussir à faire se comprendre le voyageur qui veut découvrir du pays et le mécanicien qui veut fabriquer des beaux moteurs ? Comment parvenir à une synergie alors que leurs inclinations culturelles tendent à stériliser par nature même toute relation ?
Une DSI a d’abord besoin de solutions à plus ou moins forte valeur ajoutée, une SSII a besoin d’affecter le plus de ressources possible.

Les relations entre SSII et DSI m’ont souvent fait penser à ce jeu d’enfants de premier âge, où il faut faire pénétrer des formes dans les trous correspondant : carrés, disques, étoiles, triangles… Et où on est témoin de l’acharnement de certains à essayer de faire entrer à toute force un carré dans un rond !

D’autres paramètres, en général de second ordre par rapport aux précédents, peuvent ça et là avoir tout de même un rôle significatif :

  • L’état du marché, entre l’euphorie et la dépression, peut significativement changer la capacité de mobilisation d’une SSII
  • La taille des acteurs. De nouveaux acteurs émergents vont avoir une capacité à se mobiliser pour un client nettement plus forte qu’une SSII historique qui a pignon sur rue. Capacité de mobilisation parfois inversement proportionnelle à leur capacité à tenir les promesses.
  • L’état interne de la SSII : fusions, changement d’actionnaire, départ de dirigeant fondateur ou charismatique, entrainant à plus ou moins brève échéance une fuite des talents, il est majeur de se tenir informé de l’état du marché. Et ce pour éviter de miser sur ce qu’on croit être un point fort pérenne, alors que c’est un point en pleine déliquescence.

Comment avec tout cela encore espérer pouvoir s’en sortir ?

Je ne prétends pas détenir la vérité, et les expériences passées me forcent à l’humilité.
Cependant, quelques facteurs clés de réussite émergent :

  • – Bien se connaître et bien connaître les SSII. Ne pas croire que le marché sait faire des miracles, et pourra répondre à tous vos problèmes, et à fortiori aux problèmes que vous n’êtes même pas capables d’exprimer
  • – Se professionnaliser en matière de gestion de contrat ; faire preuve de rigueur ; ne pas exiger plus des autres que de soi-même. Etre exigeant mais juste.
  • Faire preuve de souplesse. Ne pas s’abriter derrière un contrat perdant pour une des parties, qui finira soit par jeter l’éponge, soit par se refaire par ailleurs. Co-construire en avançant, contractualiser léger au démarrage, quitte à enrichir le contrat ex post, avec des éléments éprouvés par la pratique. Faire le constat de manière adulte, qu’on a parfois pu faire fausse route et qu’il faut réajuster le tir.
  • – Favoriser la présence dans les DSI d’anciens bid managers de SSII, et dans les SSII d’anciens acheteurs de DSI. Tout ce qui permet de rapprocher les bords du gouffre est bon à prendre.

Quelques deals peuvent ainsi vivre un état de grâce pendant un temps plus ou moins long.

Par analogie avec ce que disait A. Lincoln « You can fool some of the people all of the time, and all of the people some of the time, but you can not fool all of the people all of the time. », il est très difficile, sinon impossible, de réussir à bâtir une relation idyllique entre une DSI et une SSII sur une longue durée, de par le caractère éphémère même des facteurs de réussite.

Cela ne doit pas nous rendre pessimiste. Cela doit nous rendre exigeants et rigoureux, pour réussir à réunir durablement les facteurs de réussite.

Philippe Kalousdian

Sur le même thème, consultez notre article « Manager un engagement de résultat ou un engagement de moyen ? ».

Stratégie SI|

|

BYOD et URSSAF

Nous avons reçu la visite d’un contrôleur de l’URSSAF. Voici comment il a considéré notre politique de BYOD (Bring Your Own Device ou Apportez Vos Outils Personnels)

 Un contrôle des URSSAF !

L’été dernier, nous avons reçu ce courrier dans la boîte aux lettres :

2015_08_25 Courrier annonce controle URSSAF - extrait floute

S’ensuivait sur une deuxième page dix-huit autres bullets pour d’autres documents pour les trois dernières années.

Nous avons un responsable administratif et un cabinet d’expertise comptable travailleurs, rigoureux, et très expérimentés, donc au fait de la loi, en théorie et en pratique. Cela nous coûte 2% du chiffre d’affaires en achats, sans compter le temps que nous y passons. Donc tout est très bien tenu, dans des pochettes (électroniques et physiques) par année : comptabilité, fiscalité, paies, social, achats, ventes…

Une gestion au cordeau qui revient cher

Depuis que nous avons créé notre cabinet, nous avons naturellement choisi d’avoir des outils aux petits oignons, notamment informatiques. Nous faisons un métier où les coups de feu sont courants, donc il faut pouvoir travailler vite, bien, sans risque de perte de données, tout le temps et depuis quasi n’importe où. C’est pour ça que nous avons choisi des standards de l’internet et des machines et systèmes standards, avec smartphone et abonnement permettant de se connecter à internet en mobilité.

Mais, dans les standards, il reste l’éternel choix « PC ou Mac » et toute une gamme de produits dans chaque monde, chaque produit étant plus ou moins bon sur un des critères suivants : poids, taille (beaucoup d’entre nous ont des deux-roues), puissance, stockage, robustesse, ergonomie, design, autonomie, richesse d’offre logicielle…

Donc, comme les artisans qui choisissent leur boîte à outil, chaque consultant doit pouvoir choisir son package ordinateur portable, smartphone et abonnement téléphonique qui lui convient le mieux pour sa pratique du métier. Qu’il soit associé ou salarié.

Peu après la création en 2008 du cabinet, nous avons discuté avec notre expert comptable, qui nous a mis en garde sur le thème « je n’ai jamais vu faire », « ça peut être vu comme un avantage en nature donc soumis à charges sociales et fiscales », pour finir par « et pourquoi n’achetez-vous pas comme tout le monde les habituels HP, Dell, Asus, et Lenovo au nom de la société et on n’en parle plus ? ».

Nous ne nous sommes pas satisfaits de ces réponses,  et comme nous sommes obstinés, nous avons cherché.

Du principe à la réalité opérationnelle et légale

C’est vers cette époque que le BYOD a commencé à être connu. BYOD pour « Bring Your Own Device », ou AVOP en français, Apportez Vos Outils Personnels. Je me souvenais des Parties aux Etats-Unis, où c’était BYOB, pour « Bring Your Own Beer ». Les Américains, toujours pragmatiques et portés sur l’humour, ont fondé cet acronyme BYOD par dérivation du festif BYOB. Car dans la Silicon Valley, il n’est pas pensable de faire bosser les développeurs avec des machines « corporate ». Et en France, si vous trouvez quelqu’un de 20 à 30 ans heureux de travailler avec un ordinateur « corporate » au lieu de son portable favori, je trouverai ça bizarre.

Donc nous avons mis en place une politique AVOP. Contre une indemnité mensuelle qui couvre les frais d’équipement du package minimal du consultant, le consultant s’équipe pour pouvoir faire son métier avec efficacité et efficience, et est propriétaire ET responsable de son matériel, panne, perte et vol compris.

Comme tous nos systèmes sont des standards de l’internet, on prend n’importe quelle machine standard achetée à DARTY ou dans un Apple store, on la déballe, ou ouvre un navigateur, on installe la suite bureautique, et ça marche !

Liberté de choix

Comme certains malgré tout pouvaient préférer avoir une machine de l’entreprise, nous avons fait du « ni-ni » : l’AVOP n’est ni obligatoire, ni interdit. Si quelqu’un ne veut pas endosser la responsabilité de son équipement, il peut avoir une machine « corporate ».

Pour fixer tout cela, nous avons fait signer des convention AVOP disant notamment que le matériel doit permettre d’exercer le métier de consultant avec efficacité et efficience, avec des prescriptions techniques. Celui qui vient avec un vieux coucou récupéré sur le bon coin à 100 € et qui du coup n’arrive pas à travailler avec aura des soucis avec son manager, s’il n’en a pas déjà tout seul sur sa mission !

C’est ce que nous avons expliqué à notre contrôleur de l’URSSAF quand il est venu chez nous et est tombé sur la ligne « AVOP » dans notre grand livre comptable.

Sa question a été : « Mais qu’est-ce qui me dit que ce n’est pas une rémunération déguisée ? ». Là dessus j’ai sorti la convention AVOP d’un dossier salarié, convention stipulant les obligations du salarié en échange de la subvention : principe d’efficacité et d’efficience pour le travail de consultant et spécifications techniques, cohérence du montant avec le coût du matériel et sa durée de vie et responsabilité de l’utilisateur.

Comme l’indemnité outillage dans le BTP !

Là dessus, la réflexion du contrôleur a été : « Ah, je comprends, en fait c’est comme l’indemnité outillage pour les salariés du BTP ». Tout à fait ! Je ne savais pas qu’une telle pratique existait, mais ça me semble cohérent et normal : il n’est pas pensable de faire travailler un artisan minutieux avec du matériel X s’il est totalement fan de matériel Y. Et ce dernier mettra un point d’honneur à avoir toujours un outillage en parfait état de marche.

Le contrôle a poursuivi son cours et s’est conclu par :

Capture d’écran 2016-01-07 à 11.31.36

C’est exigeant et cher, mais c’est possible

Nous avons donc pu constater qu’en étant intelligents, transparents, rigoureux et cohérents, on arrivait à faire coincider la loi et la pratique opérationnelle.

 

Voir également nos articles :
« Pourquoi mettre en place le BYOD ? »
« Le BYOD pour garder vos talents et aider vos problèmes de trésorerie !« 

Article du 7 jan. 2016 mis à jour le 25 sep. 2016 et le 12 fév. 2017

Nous avons reçu la visite d’un contrôleur de l’URSSAF. Voici comment il a considéré notre politique de BYOD (Bring Your Own Device ou Apportez Vos Outils Personnels)

 Un contrôle des URSSAF !

L’été dernier, nous avons reçu ce courrier dans la boîte aux lettres :

2015_08_25 Courrier annonce controle URSSAF - extrait floute

S’ensuivait sur une deuxième page dix-huit autres bullets pour d’autres documents pour les trois dernières années.

Nous avons un responsable administratif et un cabinet d’expertise comptable travailleurs, rigoureux, et très expérimentés, donc au fait de la loi, en théorie et en pratique. Cela nous coûte 2% du chiffre d’affaires en achats, sans compter le temps que nous y passons. Donc tout est très bien tenu, dans des pochettes (électroniques et physiques) par année : comptabilité, fiscalité, paies, social, achats, ventes…

Une gestion au cordeau qui revient cher

Depuis que nous avons créé notre cabinet, nous avons naturellement choisi d’avoir des outils aux petits oignons, notamment informatiques. Nous faisons un métier où les coups de feu sont courants, donc il faut pouvoir travailler vite, bien, sans risque de perte de données, tout le temps et depuis quasi n’importe où. C’est pour ça que nous avons choisi des standards de l’internet et des machines et systèmes standards, avec smartphone et abonnement permettant de se connecter à internet en mobilité.

Mais, dans les standards, il reste l’éternel choix « PC ou Mac » et toute une gamme de produits dans chaque monde, chaque produit étant plus ou moins bon sur un des critères suivants : poids, taille (beaucoup d’entre nous ont des deux-roues), puissance, stockage, robustesse, ergonomie, design, autonomie, richesse d’offre logicielle…

Donc, comme les artisans qui choisissent leur boîte à outil, chaque consultant doit pouvoir choisir son package ordinateur portable, smartphone et abonnement téléphonique qui lui convient le mieux pour sa pratique du métier. Qu’il soit associé ou salarié.

Peu après la création en 2008 du cabinet, nous avons discuté avec notre expert comptable, qui nous a mis en garde sur le thème « je n’ai jamais vu faire », « ça peut être vu comme un avantage en nature donc soumis à charges sociales et fiscales », pour finir par « et pourquoi n’achetez-vous pas comme tout le monde les habituels HP, Dell, Asus, et Lenovo au nom de la société et on n’en parle plus ? ».

Nous ne nous sommes pas satisfaits de ces réponses,  et comme nous sommes obstinés, nous avons cherché.

Du principe à la réalité opérationnelle et légale

C’est vers cette époque que le BYOD a commencé à être connu. BYOD pour « Bring Your Own Device », ou AVOP en français, Apportez Vos Outils Personnels. Je me souvenais des Parties aux Etats-Unis, où c’était BYOB, pour « Bring Your Own Beer ». Les Américains, toujours pragmatiques et portés sur l’humour, ont fondé cet acronyme BYOD par dérivation du festif BYOB. Car dans la Silicon Valley, il n’est pas pensable de faire bosser les développeurs avec des machines « corporate ». Et en France, si vous trouvez quelqu’un de 20 à 30 ans heureux de travailler avec un ordinateur « corporate » au lieu de son portable favori, je trouverai ça bizarre.

Donc nous avons mis en place une politique AVOP. Contre une indemnité mensuelle qui couvre les frais d’équipement du package minimal du consultant, le consultant s’équipe pour pouvoir faire son métier avec efficacité et efficience, et est propriétaire ET responsable de son matériel, panne, perte et vol compris.

Comme tous nos systèmes sont des standards de l’internet, on prend n’importe quelle machine standard achetée à DARTY ou dans un Apple store, on la déballe, ou ouvre un navigateur, on installe la suite bureautique, et ça marche !

Liberté de choix

Comme certains malgré tout pouvaient préférer avoir une machine de l’entreprise, nous avons fait du « ni-ni » : l’AVOP n’est ni obligatoire, ni interdit. Si quelqu’un ne veut pas endosser la responsabilité de son équipement, il peut avoir une machine « corporate ».

Pour fixer tout cela, nous avons fait signer des convention AVOP disant notamment que le matériel doit permettre d’exercer le métier de consultant avec efficacité et efficience, avec des prescriptions techniques. Celui qui vient avec un vieux coucou récupéré sur le bon coin à 100 € et qui du coup n’arrive pas à travailler avec aura des soucis avec son manager, s’il n’en a pas déjà tout seul sur sa mission !

C’est ce que nous avons expliqué à notre contrôleur de l’URSSAF quand il est venu chez nous et est tombé sur la ligne « AVOP » dans notre grand livre comptable.

Sa question a été : « Mais qu’est-ce qui me dit que ce n’est pas une rémunération déguisée ? ». Là dessus j’ai sorti la convention AVOP d’un dossier salarié, convention stipulant les obligations du salarié en échange de la subvention : principe d’efficacité et d’efficience pour le travail de consultant et spécifications techniques, cohérence du montant avec le coût du matériel et sa durée de vie et responsabilité de l’utilisateur.

Comme l’indemnité outillage dans le BTP !

Là dessus, la réflexion du contrôleur a été : « Ah, je comprends, en fait c’est comme l’indemnité outillage pour les salariés du BTP ». Tout à fait ! Je ne savais pas qu’une telle pratique existait, mais ça me semble cohérent et normal : il n’est pas pensable de faire travailler un artisan minutieux avec du matériel X s’il est totalement fan de matériel Y. Et ce dernier mettra un point d’honneur à avoir toujours un outillage en parfait état de marche.

Le contrôle a poursuivi son cours et s’est conclu par :

Capture d’écran 2016-01-07 à 11.31.36

C’est exigeant et cher, mais c’est possible

Nous avons donc pu constater qu’en étant intelligents, transparents, rigoureux et cohérents, on arrivait à faire coincider la loi et la pratique opérationnelle.

 

Voir également nos articles :
« Pourquoi mettre en place le BYOD ? »
« Le BYOD pour garder vos talents et aider vos problèmes de trésorerie !« 

Article du 7 jan. 2016 mis à jour le 25 sep. 2016 et le 12 fév. 2017

Stratégie de rupture|

|

The Myths of Innovation – Scott Berkun

Après avoir procrastiné pendant plusieurs mois, et donc avoir tout oublié ou presque de cet ouvrage, je le survole une seconde fois pour vous en faire un résumé, car il le mérite.

L’ouvrage (en anglais) de Scott Berkun « The Myths of Innovation » permet de poser un certain nombre de fondamentaux concernant l’innovation. Notons au préalable que le terme « Innovation » est probablement employé à tort et à travers de nos jours et ce dans tous les pays du monde. J’en comprends que c’est encore plus vrai aux États-Unis. Et c’est là où je me dois de prévenir le lecteur français : cet ouvrage a d’immenses mérites, mais son impact est à mon avis un peu moins important pour le lecteur français que pour le lecteur américain, saturé depuis longtemps par l’emploi permanent du mot innovation et des légendes colportées autour, ne serait-ce que pour des raisons de marketing n’ayant rien à voir avec l’innovation.

Le terme étant souvent galvaudé, quelle est la définition du terme « Innovation » principalement retenue par Scott Berkun ? Une innovation c’est tout simplement un changement significatif positif « Significant Positive Change ».

Deux conséquences importantes de cette définition simplissime :

  • les affirmations du type « nous innovons tous les jours » sont incompatibles avec cette définition. Et je comprends également qu’elle permet de distinguer amélioration continue et innovation, sur la base du raisonnement : « si on fait des changements tous les jours ils s’agit d’évolutions incrémentales et pas d’innovations ».
  • c’est le « client » (ou l’utilisateur) qui détermine s’il s’agit d’un changement significatif positif ou pas. Si l’idée à l’origine d’une innovation était dans l’air depuis longtemps mais que personne ne l’avait concrétisée ou ne lui avait fait rencontrer son marché, c’est bien une innovation, au moins pour certains clients ou segments de clients.

L’auteur démonte ensuite, minutieusement, point par point et avec force exemples (c’est là une des grandes qualités de l’ouvrage), 10 mythes et légendes sur l’innovation. Même le lecteur français, à qui l’Education Nationale a consciencieusement épargné toutes les bases de l’économie de marché, connait ces mythes car comme le rappelle l’auteur, ce sont des légendes commodes (qui flattent la paresse naturelle du cerveau) et agréables (qui nous font rêver).

 

Quelles sont ces légendes ?

 

Mythe n°1 : le mythe de l’épiphanie…

ou le mythe de la nuit mystique (comme l’appelait mon prof de Philo – tiens je ne pensais pas que je me rappellerais un jour quelque chose de mes cours de philo en terminale). En bref il démonte par exemple le mythe bien connu de Newton ayant trouvé la loi de gravitation après avoir reçu une pomme sur la tête en faisant la sieste ou le mythe d’Archimède s’exclamant « Eureka » en prenant son bain. Grâce notamment à Gotlib et Goscinny nous connaissons tous parfaitement ces légendes.

Le mythe de l'épiphanie consiste à ne présenter que la dernière étape de la résolution du puzzle, mais ce n'est pas magique, ce moment n'est possible que parce que toutes les autres pièces ont été assemblées avant.

de Scott Berkun – The Myths of Innovation – L’épiphanie n’est que le moment où la dernière pièce du puzzle se met en place. Néanmoins ce moment n’est pas ni plus ni moins remarquable que toutes les étapes précédentes qui ont progressivement amené la mise en place du puzzle.

Mythe n°2 : Nous connaissons parfaitement l’histoire des innovations passées : l’histoire qui nous est présentée / racontée est factuelle et la seule possible.

L’auteur montre comment sont présentés les innovations et les innovateurs :

  • en oubliant que bien souvent ces innovations n’ont pas été perçues comme telle à l’époque,
  • en présentant leur histoire de manière évidente et logique
  • comme une nécessité dans la marche du monde
  • en présentant uniquement les succès et pas les échecs (et là la responsabilité est partagée entre les historiens et leurs lecteurs) : c’est le phénomène du « Dominant Design » :

A ce titre je recommande également à ceux qui aiment lire, l’excellentissime roman de Iain Pears : Le cercle de la croix (An Instance of the Fingerpost – en anglais) qui illustre, de main de maître, comment des mêmes faits peuvent être présentés de manière radicalement différente.

de Scott Berkun - The Myths of Innovation - La frise chronologique ne montre qu'un des chemins ayant mené à une innovation

de Scott Berkun – The Myths of Innovation – La frise chronologique ne montre qu’un des chemins ayant mené à une innovation

Mythe n°3 : il y a une méthode pour innover

Malheureusement non, il n’y a pas de méthode toute faite pour innover. Il s’agit d’un mythe identique à celui auquel vous succombez lorsque vous achetez « des plats de grand chef 3 étoiles au Michelin à 0% de matière grasse » ou que vous récupérez des cartes de marabout-voyant-médium-guérisseur qui solutionnent tous vos problèmes y compris même le démarrage de votre moto russe. L’auteur cite John Cage (compositeur) «  It does not matter where you start, as long as you start » pour illustrer que l’important c’est de commencer et d’ajuster si besoin sa trajectoire en permanence au fil des actions et pas d’essayer de bâtir un plan d’action visant à supprimer ou contenir tous les risques. Innover implique avant tout d’accepter de prendre des risques.

Pour autant et même s’il n’y a pas de méthode sur étagère, l’auteur liste des éléments fondamentaux que l’on retrouve généralement dans tous les travaux d’innovation, puis les illustre par des exemples frappant tels que ceux de Flickr, 3M (avec les Post-It) et Craigslist.

Mythe n°4 : les gens aiment les idées nouvelles

et bien non ce n’est pas vrai. Nous aimons les idées nouvelles… mais qui ont déjà été testées par d’autres.

Et oui c’est décevant mais sachez que même les plus grands inventeurs lisent parfois les critiques de cinéma,  achètent des meubles Ikea ou regardent tripadvisor pour choisir un hôtel ou un restaurant… ou les trois à la fois.

De même soyez prêt et blindé face à toutes les réactions de rejet. Tous les porteurs d’innovation entendent un jour ou l’autre des commentaires du type « ça ne marchera jamais » ; « personne ne voudra de ça » ; « c’est un problème certes mais tout le monde s’en fiche » ; « Prenez la porte immédiatement » ; … Les exemples sont savoureux et parfois bien connus : du commentaire du fondateur de Digital Equipment Corporation sur les ordinateurs personnels, aux commentaires des critiques d’art sur la tour Eiffel, en passant par les 150 ans qu’il a fallu au 17e siècle à la marine anglaise, la plus puissante et moderne à l’époque, pour généraliser le remède contre le scorbut. La théorie de Clayton M. Christensen « The Innovator’s Dilemma » est décortiquée et abordée via un exemple historique célèbre : l’invention du téléphone par Graham Bell.

Mythe n°5 : le mythe de l’inventeur solitaire

où l’on apprend que c’est bien pratique et sympathique de faire croire à tout le monde qu’Edison a inventé les ampoules électriques. Mais la réalité est bien différente.

Par ailleurs l’auteur nous montre que c’est aussi une innovation moderne (depuis le 15e siècle) que de mettre un nom d’inventeur sur les innovations (vive le Marketing). Auparavant l’innovation était considérée comme une création divine avant tout.

Mythe n°6 : les bonnes idées sont difficiles à trouver

Faux : notre cerveau est fait pour créer et c’est même pour cela que l’espèce humaine a réussi à survivre et à surpasser toutes les autres espèces animales. Certes les systèmes éducatifs et professionnels, dans l’immense majorité des cas, favorisent la conformité et ne cultivent pas nos capacités, pourtant innées, de créativité.

Mythe n°7 : votre manager en connait plus que vous sur l’innovation… c’est d’ailleurs pour ça que c’est votre manager

Faux : l’auteur pointe l’incompatibilité entre management et innovation. Le management est guidé depuis toujours (c’est à dire depuis Taylor et la production industrielle de masse) par des objectifs de contrôle, d’optimisation et de maintien d’un environnement de travail prédictible (pour des résultats prédictibles). Rien à voir avec l’innovation. Partant de ce postulat, l’auteur décrit les cinq éléments ou challenges que tout innovateur doit relever et pour lesquels il peut utilement se faire aider par des managers.

Mythe n°8 : les meilleures idées gagnent toujours à la fin

Encore une fois l’auteur nous explique pourquoi c’est pratique pour les historiens de colporter ce mythe, mais les contre exemples sont légions : du tournevis Philips au clavier QWERTY en passant par le fusil M-16 des troupes américaines et le langage de développement Javascript. Dans la réalité le succès d’une innovation dépend de sa facilité d’utilisation ou d’adoption (vue utilisateurs) et de sa qualité ou richesse intrinsèque (vue d’expert). C’est un peu la même chose que pour un film ça marche très bien si, à la fois le bouche à oreille et les retours des critiques sont bons.

de Scott Berkun - The Myths of Innovation. Les innovations gagnantes sont celles qui combinent le mieux (et au bon moment) la facilité d'usage ou d'adoption et les qualités intrinsèques

de Scott Berkun – The Myths of Innovation. Les innovations gagnantes sont celles qui combinent le mieux (et au bon moment) la facilité d’usage ou d’adoption et les qualités intrinsèques

Mythe n°9 : L’innovation c’est trouver des solutions pas résoudre des problèmes

L’auteur rappelle cette citation bien connue d’Einstein « Si j’avais 20 jours pour résoudre un problème, je passerais 19 jours à bien le comprendre et le définir avant de le résoudre ». Son conseil : définir les problèmes, prototyper des solutions qui résolvent ces problèmes, et comme dans toute innovation être prêt à pivoter pour prendre en compte les résultats de ses prototypes ou de ses travaux en général, voire à partir sur tout à fait autre chose que les problèmes initiaux (l’auteur rappelle les exemples de sérendipité que sont l’invention du four micro-onde, du nylon, du Viagra, des rayons X, …)

Mythe n°10 : L’innovation c’est bien (toujours)

Malheureusement non, et toute innovation a des bons et de moins bons aspects. Tout est question de point de vue (l’innovation est-elle bonne pour l’innovateur ? pour une catégorie de population ? pour une industrie ? pour un pays ? pour le monde entier ? pour le court terme ? pour le long terme ?, …). L’auteur montre les effets, bons et mauvais de plusieurs innovations majeures : le DDT, l’automobile, l’ordinateur personnel, les téléphones mobiles et explique pourquoi ces effets sont largement voire absolument imprévisibles.

Après avoir mis en pièce simplement et pédagogiquement ces dix mythes, l’auteur nous donne quelques conseils pratiques pour innover (essayer de) :

Conseil n°1 : « le plan simple » :

  • sélectionnez une idée qui vous intéresse et démarrez quelque chose,
  • oubliez l’innovation : essayez avant tout de bien faire les choses,
  • si vous travaillez en équipe il vous faut un leader dans cette équipe et une nécessaire confiance entre les uns et les autres
  • si les choses ne vont pas bien dans votre équipe à réduisez la taille de l’équipe
  • soyez heureux de faire des erreurs (intéressantes).

Conseil n°2 : les trucs et astuces de l’innovation

  • Rappelez-vous sans cesse que les mythes de l’innovation ne sont que des mythes. Répète 5 fois par jour « une idée est la combinaison d’autres idées pré-existantes »
  • Pensez sans cesse à combiner ou modifier des combinaisons d’éléments existants
  • Combattez vos inhibitions : être innovant ce n’est pas être plus intelligent que les autres c’est surtout avoir moins peur que les autres
  • Prêtez attention à votre environnement de travail : il doit favoriser la créativité personnelle
  • Cultivez les caractéristiques suivantes : volonté de faire, persévérance et opiniâtreté : les idées c’est facile, beaucoup en ont, beaucoup moins de personnes ont la volonté et l’opiniâtreté pour les mettre en œuvre. Comme disait le philosophe Michel Colucci (1944 – 1986) : « il avait des idées sur tout…, enfin, il avait surtout des idées ».
  • Quelques trucs et astuces en vrac

Conseil n°3 : comment construire un pitch

Conseil n°4 : comment rester motivé

En synthèse un ouvrage pédagogique, simple, clair et qui fait souffler un vent d’optimisme bienvenu alors que la presse française nous distille à longueur de journée les mauvais indicateurs économiques et autres sondages sur le moral des français ou la côte de popularité de notre président.

On y croit, on a envie de relever les manches et de mettre les mains dans le cambouis… tout de suite.

Après avoir procrastiné pendant plusieurs mois, et donc avoir tout oublié ou presque de cet ouvrage, je le survole une seconde fois pour vous en faire un résumé, car il le mérite.

L’ouvrage (en anglais) de Scott Berkun « The Myths of Innovation » permet de poser un certain nombre de fondamentaux concernant l’innovation. Notons au préalable que le terme « Innovation » est probablement employé à tort et à travers de nos jours et ce dans tous les pays du monde. J’en comprends que c’est encore plus vrai aux États-Unis. Et c’est là où je me dois de prévenir le lecteur français : cet ouvrage a d’immenses mérites, mais son impact est à mon avis un peu moins important pour le lecteur français que pour le lecteur américain, saturé depuis longtemps par l’emploi permanent du mot innovation et des légendes colportées autour, ne serait-ce que pour des raisons de marketing n’ayant rien à voir avec l’innovation.

Le terme étant souvent galvaudé, quelle est la définition du terme « Innovation » principalement retenue par Scott Berkun ? Une innovation c’est tout simplement un changement significatif positif « Significant Positive Change ».

Deux conséquences importantes de cette définition simplissime :

  • les affirmations du type « nous innovons tous les jours » sont incompatibles avec cette définition. Et je comprends également qu’elle permet de distinguer amélioration continue et innovation, sur la base du raisonnement : « si on fait des changements tous les jours ils s’agit d’évolutions incrémentales et pas d’innovations ».
  • c’est le « client » (ou l’utilisateur) qui détermine s’il s’agit d’un changement significatif positif ou pas. Si l’idée à l’origine d’une innovation était dans l’air depuis longtemps mais que personne ne l’avait concrétisée ou ne lui avait fait rencontrer son marché, c’est bien une innovation, au moins pour certains clients ou segments de clients.

L’auteur démonte ensuite, minutieusement, point par point et avec force exemples (c’est là une des grandes qualités de l’ouvrage), 10 mythes et légendes sur l’innovation. Même le lecteur français, à qui l’Education Nationale a consciencieusement épargné toutes les bases de l’économie de marché, connait ces mythes car comme le rappelle l’auteur, ce sont des légendes commodes (qui flattent la paresse naturelle du cerveau) et agréables (qui nous font rêver).

 

Quelles sont ces légendes ?

 

Mythe n°1 : le mythe de l’épiphanie…

ou le mythe de la nuit mystique (comme l’appelait mon prof de Philo – tiens je ne pensais pas que je me rappellerais un jour quelque chose de mes cours de philo en terminale). En bref il démonte par exemple le mythe bien connu de Newton ayant trouvé la loi de gravitation après avoir reçu une pomme sur la tête en faisant la sieste ou le mythe d’Archimède s’exclamant « Eureka » en prenant son bain. Grâce notamment à Gotlib et Goscinny nous connaissons tous parfaitement ces légendes.

Le mythe de l'épiphanie consiste à ne présenter que la dernière étape de la résolution du puzzle, mais ce n'est pas magique, ce moment n'est possible que parce que toutes les autres pièces ont été assemblées avant.

de Scott Berkun – The Myths of Innovation – L’épiphanie n’est que le moment où la dernière pièce du puzzle se met en place. Néanmoins ce moment n’est pas ni plus ni moins remarquable que toutes les étapes précédentes qui ont progressivement amené la mise en place du puzzle.

Mythe n°2 : Nous connaissons parfaitement l’histoire des innovations passées : l’histoire qui nous est présentée / racontée est factuelle et la seule possible.

L’auteur montre comment sont présentés les innovations et les innovateurs :

  • en oubliant que bien souvent ces innovations n’ont pas été perçues comme telle à l’époque,
  • en présentant leur histoire de manière évidente et logique
  • comme une nécessité dans la marche du monde
  • en présentant uniquement les succès et pas les échecs (et là la responsabilité est partagée entre les historiens et leurs lecteurs) : c’est le phénomène du « Dominant Design » :

A ce titre je recommande également à ceux qui aiment lire, l’excellentissime roman de Iain Pears : Le cercle de la croix (An Instance of the Fingerpost – en anglais) qui illustre, de main de maître, comment des mêmes faits peuvent être présentés de manière radicalement différente.

de Scott Berkun - The Myths of Innovation - La frise chronologique ne montre qu'un des chemins ayant mené à une innovation

de Scott Berkun – The Myths of Innovation – La frise chronologique ne montre qu’un des chemins ayant mené à une innovation

Mythe n°3 : il y a une méthode pour innover

Malheureusement non, il n’y a pas de méthode toute faite pour innover. Il s’agit d’un mythe identique à celui auquel vous succombez lorsque vous achetez « des plats de grand chef 3 étoiles au Michelin à 0% de matière grasse » ou que vous récupérez des cartes de marabout-voyant-médium-guérisseur qui solutionnent tous vos problèmes y compris même le démarrage de votre moto russe. L’auteur cite John Cage (compositeur) «  It does not matter where you start, as long as you start » pour illustrer que l’important c’est de commencer et d’ajuster si besoin sa trajectoire en permanence au fil des actions et pas d’essayer de bâtir un plan d’action visant à supprimer ou contenir tous les risques. Innover implique avant tout d’accepter de prendre des risques.

Pour autant et même s’il n’y a pas de méthode sur étagère, l’auteur liste des éléments fondamentaux que l’on retrouve généralement dans tous les travaux d’innovation, puis les illustre par des exemples frappant tels que ceux de Flickr, 3M (avec les Post-It) et Craigslist.

Mythe n°4 : les gens aiment les idées nouvelles

et bien non ce n’est pas vrai. Nous aimons les idées nouvelles… mais qui ont déjà été testées par d’autres.

Et oui c’est décevant mais sachez que même les plus grands inventeurs lisent parfois les critiques de cinéma,  achètent des meubles Ikea ou regardent tripadvisor pour choisir un hôtel ou un restaurant… ou les trois à la fois.

De même soyez prêt et blindé face à toutes les réactions de rejet. Tous les porteurs d’innovation entendent un jour ou l’autre des commentaires du type « ça ne marchera jamais » ; « personne ne voudra de ça » ; « c’est un problème certes mais tout le monde s’en fiche » ; « Prenez la porte immédiatement » ; … Les exemples sont savoureux et parfois bien connus : du commentaire du fondateur de Digital Equipment Corporation sur les ordinateurs personnels, aux commentaires des critiques d’art sur la tour Eiffel, en passant par les 150 ans qu’il a fallu au 17e siècle à la marine anglaise, la plus puissante et moderne à l’époque, pour généraliser le remède contre le scorbut. La théorie de Clayton M. Christensen « The Innovator’s Dilemma » est décortiquée et abordée via un exemple historique célèbre : l’invention du téléphone par Graham Bell.

Mythe n°5 : le mythe de l’inventeur solitaire

où l’on apprend que c’est bien pratique et sympathique de faire croire à tout le monde qu’Edison a inventé les ampoules électriques. Mais la réalité est bien différente.

Par ailleurs l’auteur nous montre que c’est aussi une innovation moderne (depuis le 15e siècle) que de mettre un nom d’inventeur sur les innovations (vive le Marketing). Auparavant l’innovation était considérée comme une création divine avant tout.

Mythe n°6 : les bonnes idées sont difficiles à trouver

Faux : notre cerveau est fait pour créer et c’est même pour cela que l’espèce humaine a réussi à survivre et à surpasser toutes les autres espèces animales. Certes les systèmes éducatifs et professionnels, dans l’immense majorité des cas, favorisent la conformité et ne cultivent pas nos capacités, pourtant innées, de créativité.

Mythe n°7 : votre manager en connait plus que vous sur l’innovation… c’est d’ailleurs pour ça que c’est votre manager

Faux : l’auteur pointe l’incompatibilité entre management et innovation. Le management est guidé depuis toujours (c’est à dire depuis Taylor et la production industrielle de masse) par des objectifs de contrôle, d’optimisation et de maintien d’un environnement de travail prédictible (pour des résultats prédictibles). Rien à voir avec l’innovation. Partant de ce postulat, l’auteur décrit les cinq éléments ou challenges que tout innovateur doit relever et pour lesquels il peut utilement se faire aider par des managers.

Mythe n°8 : les meilleures idées gagnent toujours à la fin

Encore une fois l’auteur nous explique pourquoi c’est pratique pour les historiens de colporter ce mythe, mais les contre exemples sont légions : du tournevis Philips au clavier QWERTY en passant par le fusil M-16 des troupes américaines et le langage de développement Javascript. Dans la réalité le succès d’une innovation dépend de sa facilité d’utilisation ou d’adoption (vue utilisateurs) et de sa qualité ou richesse intrinsèque (vue d’expert). C’est un peu la même chose que pour un film ça marche très bien si, à la fois le bouche à oreille et les retours des critiques sont bons.

de Scott Berkun - The Myths of Innovation. Les innovations gagnantes sont celles qui combinent le mieux (et au bon moment) la facilité d'usage ou d'adoption et les qualités intrinsèques

de Scott Berkun – The Myths of Innovation. Les innovations gagnantes sont celles qui combinent le mieux (et au bon moment) la facilité d’usage ou d’adoption et les qualités intrinsèques

Mythe n°9 : L’innovation c’est trouver des solutions pas résoudre des problèmes

L’auteur rappelle cette citation bien connue d’Einstein « Si j’avais 20 jours pour résoudre un problème, je passerais 19 jours à bien le comprendre et le définir avant de le résoudre ». Son conseil : définir les problèmes, prototyper des solutions qui résolvent ces problèmes, et comme dans toute innovation être prêt à pivoter pour prendre en compte les résultats de ses prototypes ou de ses travaux en général, voire à partir sur tout à fait autre chose que les problèmes initiaux (l’auteur rappelle les exemples de sérendipité que sont l’invention du four micro-onde, du nylon, du Viagra, des rayons X, …)

Mythe n°10 : L’innovation c’est bien (toujours)

Malheureusement non, et toute innovation a des bons et de moins bons aspects. Tout est question de point de vue (l’innovation est-elle bonne pour l’innovateur ? pour une catégorie de population ? pour une industrie ? pour un pays ? pour le monde entier ? pour le court terme ? pour le long terme ?, …). L’auteur montre les effets, bons et mauvais de plusieurs innovations majeures : le DDT, l’automobile, l’ordinateur personnel, les téléphones mobiles et explique pourquoi ces effets sont largement voire absolument imprévisibles.

Après avoir mis en pièce simplement et pédagogiquement ces dix mythes, l’auteur nous donne quelques conseils pratiques pour innover (essayer de) :

Conseil n°1 : « le plan simple » :

  • sélectionnez une idée qui vous intéresse et démarrez quelque chose,
  • oubliez l’innovation : essayez avant tout de bien faire les choses,
  • si vous travaillez en équipe il vous faut un leader dans cette équipe et une nécessaire confiance entre les uns et les autres
  • si les choses ne vont pas bien dans votre équipe à réduisez la taille de l’équipe
  • soyez heureux de faire des erreurs (intéressantes).

Conseil n°2 : les trucs et astuces de l’innovation

  • Rappelez-vous sans cesse que les mythes de l’innovation ne sont que des mythes. Répète 5 fois par jour « une idée est la combinaison d’autres idées pré-existantes »
  • Pensez sans cesse à combiner ou modifier des combinaisons d’éléments existants
  • Combattez vos inhibitions : être innovant ce n’est pas être plus intelligent que les autres c’est surtout avoir moins peur que les autres
  • Prêtez attention à votre environnement de travail : il doit favoriser la créativité personnelle
  • Cultivez les caractéristiques suivantes : volonté de faire, persévérance et opiniâtreté : les idées c’est facile, beaucoup en ont, beaucoup moins de personnes ont la volonté et l’opiniâtreté pour les mettre en œuvre. Comme disait le philosophe Michel Colucci (1944 – 1986) : « il avait des idées sur tout…, enfin, il avait surtout des idées ».
  • Quelques trucs et astuces en vrac

Conseil n°3 : comment construire un pitch

Conseil n°4 : comment rester motivé

En synthèse un ouvrage pédagogique, simple, clair et qui fait souffler un vent d’optimisme bienvenu alors que la presse française nous distille à longueur de journée les mauvais indicateurs économiques et autres sondages sur le moral des français ou la côte de popularité de notre président.

On y croit, on a envie de relever les manches et de mettre les mains dans le cambouis… tout de suite.

    Pas d'image

    Organisation management|

    |

    Le management des 3%

    Florent Fouque décrypte, sur excellence opérationnelle TV, un phénomène selon lui assez répandu : certaines règles dans nos entreprises sont conçues pour prévenir des situations rares, voire uniques, et génèrent en parallèle un grand nombre d’effets négatifs.

    Première publication le 28 sep. 2013, mise à jour le 28 déc. 2016

    Le terme de « management des 3% » a été introduit par Gordon Forward, ancien directeur de Chaparal Steel.
Le management des 3% c’est le fait de définir des contraintes pour tout le monde alors même que le problème initial à résoudre ne concerne qu’une infime partie des employés.
 Vous connaissez certainement des anecdotes de ce genre ?

    • La mise en place d’une procédure stricte d’approvisionnement de fournitures de bureaux (mises sous clé) parce qu’une fois, une secrétaire en a profité pour remplir le cartable de rentrée de ses enfants.
    • L’obligation de passer par une agence de location de véhicules (…) ou le train (…) parce qu’une fois un rigolot s’est empoché 1 000€ de frais kilométriques en faisant Paris Marseille avec sa voiture.

    Le diable est dans les détails et l’enfer est pavé de bonnes intentions : on est au coeur des ces deux maximes. Croyant bien faire, on va à 180° de l’objectif et on conduit tout le monde en enfer !

    On ne compte plus les exemples de ce genre dans nos entreprises… (…) Au-delà du coût, ce genre de procédure génère une forte démotivation et déresponsabilisation des employés…

    A l’évocation de ces exemples on comprend assez aisément la stupidité de ces décisions.
 Mais ça ne serait pas très fair-play de s’en arrêter à ce constat sans chercher à comprendre ces déviances…

    Pour commencer, ce genre de décision leur évite d’avoir à affronter le cas particulier dont le comportement a dérivé. En effet, il est plus simple de lancer une nouvelle procédure que de chercher à comprendre les motivations d’une personne que l’on pense a priori mal intentionnée.
    Ensuite, ce genre de procédure permet d’ôter la responsabilité des erreurs aux managers. Bah, oui, si les employés ne respectent pas scrupuleusement les procédures, alors franchement, ils n’y sont pour rien !

    (…)

    Au-delà des points négatifs déjà énoncés, se concentrer sur les éléments perturbateurs montre à tous les employés qui veulent faire avancer l’entreprise, qu’il faut être un perturbateur pour générer une réaction du management.
    D’ailleurs, combien de projets sont embourbés car le chef de projet passe tout son temps à vouloir convaincre les réticents au lieu de prolonger la ferveur des plus enthousiastes ? 
(…)

    On a vu que le management des 3% pouvait coûter en gaspillage financier et humain… Essayons de voir ce que cela fait gagner en contrepartie… (…) Zéro ! Nada !
    Pourquoi ? Parce que ceux qui ont un esprit malsain trouveront toujours le moyen de contourner la procédure pour faire ce qui leur plaît !

    (…)

    Source : http://www.excellence-operationnelle.tv/faites-vous-lerreur-de-pratiquer-le-management-des-3.php

     

    Première publication le 28 sep. 2013, mise à jour le 28 déc. 2016

    Florent Fouque décrypte, sur excellence opérationnelle TV, un phénomène selon lui assez répandu : certaines règles dans nos entreprises sont conçues pour prévenir des situations rares, voire uniques, et génèrent en parallèle un grand nombre d’effets négatifs.

    Première publication le 28 sep. 2013, mise à jour le 28 déc. 2016

    Le terme de « management des 3% » a été introduit par Gordon Forward, ancien directeur de Chaparal Steel.
Le management des 3% c’est le fait de définir des contraintes pour tout le monde alors même que le problème initial à résoudre ne concerne qu’une infime partie des employés.
 Vous connaissez certainement des anecdotes de ce genre ?

    • La mise en place d’une procédure stricte d’approvisionnement de fournitures de bureaux (mises sous clé) parce qu’une fois, une secrétaire en a profité pour remplir le cartable de rentrée de ses enfants.
    • L’obligation de passer par une agence de location de véhicules (…) ou le train (…) parce qu’une fois un rigolot s’est empoché 1 000€ de frais kilométriques en faisant Paris Marseille avec sa voiture.

    Le diable est dans les détails et l’enfer est pavé de bonnes intentions : on est au coeur des ces deux maximes. Croyant bien faire, on va à 180° de l’objectif et on conduit tout le monde en enfer !

    On ne compte plus les exemples de ce genre dans nos entreprises… (…) Au-delà du coût, ce genre de procédure génère une forte démotivation et déresponsabilisation des employés…

    A l’évocation de ces exemples on comprend assez aisément la stupidité de ces décisions.
 Mais ça ne serait pas très fair-play de s’en arrêter à ce constat sans chercher à comprendre ces déviances…

    Pour commencer, ce genre de décision leur évite d’avoir à affronter le cas particulier dont le comportement a dérivé. En effet, il est plus simple de lancer une nouvelle procédure que de chercher à comprendre les motivations d’une personne que l’on pense a priori mal intentionnée.
    Ensuite, ce genre de procédure permet d’ôter la responsabilité des erreurs aux managers. Bah, oui, si les employés ne respectent pas scrupuleusement les procédures, alors franchement, ils n’y sont pour rien !

    (…)

    Au-delà des points négatifs déjà énoncés, se concentrer sur les éléments perturbateurs montre à tous les employés qui veulent faire avancer l’entreprise, qu’il faut être un perturbateur pour générer une réaction du management.
    D’ailleurs, combien de projets sont embourbés car le chef de projet passe tout son temps à vouloir convaincre les réticents au lieu de prolonger la ferveur des plus enthousiastes ? 
(…)

    On a vu que le management des 3% pouvait coûter en gaspillage financier et humain… Essayons de voir ce que cela fait gagner en contrepartie… (…) Zéro ! Nada !
    Pourquoi ? Parce que ceux qui ont un esprit malsain trouveront toujours le moyen de contourner la procédure pour faire ce qui leur plaît !

    (…)

    Source : http://www.excellence-operationnelle.tv/faites-vous-lerreur-de-pratiquer-le-management-des-3.php

     

    Première publication le 28 sep. 2013, mise à jour le 28 déc. 2016

    Transformation digitale|

    |

    Le scraping de pages web est-il légal ?

    Le terme scraping désigne l’action de récupérer du contenu à partir d’un ou plusieurs sites web de manière automatisée à l’aide d’un programme informatique.

    Pourquoi avoir recours au scraping ? 

    Le scraping est massivement utilisé aujourd’hui, notamment par les start-up, pour agréger en un temps court une grande quantité de contenu. Cette activité réduit le temps nécessaire pour passer d’une coquille vide de site internet à un outil qui peut être référencé par les moteurs de recherche et commencer à générer du trafic.

    En première approche cette pratique semble assez déloyale

    En remplaçant “site web” par “vaisseau de commerce” et “programme informatique” par “canons” dans la définition introductive, on obtient une bonne définition de la flibusterie dans les Caraïbes du XVIIe siècle.

    Il paraît en effet hautement déloyal qu’une entreprise ou un individu puisse récupérer, à titre gratuit et en quelques lignes de code, du contenu que d’autres ont sué sang et eau pour produire.

    L’auteur du contenu scrapé n’a par ailleurs aucun pouvoir sur le contexte dans lequel sera utilisé son contenu.

    Mais sur un plan juridique les choses ne sont pas aussi simples

    Le sujet est même éminemment complexe. Voici une mise en situation pour s’en convaincre : un internaute ou une entreprise produit et publie sur internet un ensemble d’articles. Les articles sont scrapés par un tiers et re-publiés sans modification.

    Dans ce cas précis le droit d’auteur entre en oeuvre en France et dans la grande majorité des pays du monde. Mais ce droit varie entre les pays. En France et en Europe, le droit sui generis stipule qu’un “investissement substantiel” doit être réalisé pour qu’une base de données (notamment de contenus) soit protégée par le droit d’auteur.

    De ce fait, le scraping et la restitution d’une base de donnée scrapée sont en violation du code de propriété intellectuelle (Article L342-1) sous réserve que la transformation réalisée sur les données ne soit pas suffisamment substantielle pour justifier que la nouvelle base soit elle-même sui generis c’est à dire « de son propre genre » .

    La jurisprudence européenne offre deux compléments intéressants :  

    1. Une compagnie aérienne (Ryanair) est scrapée par un comparateur de vols en ligne (Opodo) mais une partie seulement des informations de tarifs des billets est restituée aux clients finaux, rendant l’offre peu attrayante. Ryanair a attaqué Opodo en justice en 2010 à ce sujet dans plusieurs pays européen. En France, la compagnie aérienne a été  finalement déboutée en appel.
      Parmi les raisons qui ont conduit la cour d’appel à cette décision, la transformation réalisée sur les données a été jugée suffisante pour justifier d’un investissement substantiel de la part d’Opodo. Par ailleurs,  les conditions générales invoquées comme violées par Ryanair ne sont applicables que lors d’une transaction d’achat d’un billet d’avion. L’activité de scraping d’Opodo ne viole donc pas ces conditions et a été jugée légale par la cour. 

    2. Un métamoteur de recherche néerlandais spécialisé dans la vente automobile (GasPedaal) est attaqué en 2013 aux Pays-Bas par un site de recueil d’annonces de vente de voiture (AutoTrack). Le sujet est ensuite porté devant Cour de justice de l’Union Européenne (CJUE).
      La cour a estimé que l’utilisation d’un méta-moteur de recherche constituait une simple «mise à disposition» du contenu de la base de données du plaignant et que par conséquent cela entraînait la réutilisation d’une partie substantielle du contenu de la base de données sans aucune action de modifications. La cour a ainsi statué en faveur du plaignant AutoTrack. 

    Ces deux exemples montrent qu’une analyse plus profonde et contextuelle est nécessaire avant de statuer sur l’illégalité du scraping.

    Il convient néanmoins de noter que, dans les deux cas, c’est la publication des données scrapées qui pose problème. L’action de scraping n’est pas directement mise en cause.

    Le processus de scraping en lui-même n’est pas répréhensible

    En effet d’un point de vue pratique le scraping de données publiques consiste à se déplacer sur un site sans créer de compte et sans s’être enregistré et par conséquent sans avoir accepté les termes d’utilisation du site en question, notamment la non-reprise du contenu.

    La jurisprudence américaine considérant que les conditions d’utilisation doivent être expressément acceptées par l’utilisateur (à l’inverse des pratiques de browse wrap basées sur l’acceptation tacite des conditions par les utilisateurs), le scraper n’enfreint donc pas des conditions qu’il n’a jamais acceptées et ne viole par conséquent pas la loi.

    Par ailleurs le plus gros scraper du monde n’est autre que Google lui même :

    • Google Shopping qui propose des comparaisons de prix de vente entre différents site marchands tire également ses informations du scraping ;
    • Google actualités scrape le contenu des sites de News ;
    • Cette liste n’est pas exhaustive la plupart des services Google étant basés sur des actions de scraping (à l’exception du moteur de recherche lui-même basé sur le crawling, c’est à dire de l’aspiration de données sans structuration)

    L’activité de scraping n’a donc rien d’illégal, en revanche la réutilisation des données scrapées, telles quelles ou après transformation mineure, présente des risques plus importants et doit faire l’objet d’une étude juridique fine axée sur le niveau de transformation des données collectées.

    Le terme scraping désigne l’action de récupérer du contenu à partir d’un ou plusieurs sites web de manière automatisée à l’aide d’un programme informatique.

    Pourquoi avoir recours au scraping ? 

    Le scraping est massivement utilisé aujourd’hui, notamment par les start-up, pour agréger en un temps court une grande quantité de contenu. Cette activité réduit le temps nécessaire pour passer d’une coquille vide de site internet à un outil qui peut être référencé par les moteurs de recherche et commencer à générer du trafic.

    En première approche cette pratique semble assez déloyale

    En remplaçant “site web” par “vaisseau de commerce” et “programme informatique” par “canons” dans la définition introductive, on obtient une bonne définition de la flibusterie dans les Caraïbes du XVIIe siècle.

    Il paraît en effet hautement déloyal qu’une entreprise ou un individu puisse récupérer, à titre gratuit et en quelques lignes de code, du contenu que d’autres ont sué sang et eau pour produire.

    L’auteur du contenu scrapé n’a par ailleurs aucun pouvoir sur le contexte dans lequel sera utilisé son contenu.

    Mais sur un plan juridique les choses ne sont pas aussi simples

    Le sujet est même éminemment complexe. Voici une mise en situation pour s’en convaincre : un internaute ou une entreprise produit et publie sur internet un ensemble d’articles. Les articles sont scrapés par un tiers et re-publiés sans modification.

    Dans ce cas précis le droit d’auteur entre en oeuvre en France et dans la grande majorité des pays du monde. Mais ce droit varie entre les pays. En France et en Europe, le droit sui generis stipule qu’un “investissement substantiel” doit être réalisé pour qu’une base de données (notamment de contenus) soit protégée par le droit d’auteur.

    De ce fait, le scraping et la restitution d’une base de donnée scrapée sont en violation du code de propriété intellectuelle (Article L342-1) sous réserve que la transformation réalisée sur les données ne soit pas suffisamment substantielle pour justifier que la nouvelle base soit elle-même sui generis c’est à dire « de son propre genre » .

    La jurisprudence européenne offre deux compléments intéressants :  

    1. Une compagnie aérienne (Ryanair) est scrapée par un comparateur de vols en ligne (Opodo) mais une partie seulement des informations de tarifs des billets est restituée aux clients finaux, rendant l’offre peu attrayante. Ryanair a attaqué Opodo en justice en 2010 à ce sujet dans plusieurs pays européen. En France, la compagnie aérienne a été  finalement déboutée en appel.
      Parmi les raisons qui ont conduit la cour d’appel à cette décision, la transformation réalisée sur les données a été jugée suffisante pour justifier d’un investissement substantiel de la part d’Opodo. Par ailleurs,  les conditions générales invoquées comme violées par Ryanair ne sont applicables que lors d’une transaction d’achat d’un billet d’avion. L’activité de scraping d’Opodo ne viole donc pas ces conditions et a été jugée légale par la cour. 

    2. Un métamoteur de recherche néerlandais spécialisé dans la vente automobile (GasPedaal) est attaqué en 2013 aux Pays-Bas par un site de recueil d’annonces de vente de voiture (AutoTrack). Le sujet est ensuite porté devant Cour de justice de l’Union Européenne (CJUE).
      La cour a estimé que l’utilisation d’un méta-moteur de recherche constituait une simple «mise à disposition» du contenu de la base de données du plaignant et que par conséquent cela entraînait la réutilisation d’une partie substantielle du contenu de la base de données sans aucune action de modifications. La cour a ainsi statué en faveur du plaignant AutoTrack. 

    Ces deux exemples montrent qu’une analyse plus profonde et contextuelle est nécessaire avant de statuer sur l’illégalité du scraping.

    Il convient néanmoins de noter que, dans les deux cas, c’est la publication des données scrapées qui pose problème. L’action de scraping n’est pas directement mise en cause.

    Le processus de scraping en lui-même n’est pas répréhensible

    En effet d’un point de vue pratique le scraping de données publiques consiste à se déplacer sur un site sans créer de compte et sans s’être enregistré et par conséquent sans avoir accepté les termes d’utilisation du site en question, notamment la non-reprise du contenu.

    La jurisprudence américaine considérant que les conditions d’utilisation doivent être expressément acceptées par l’utilisateur (à l’inverse des pratiques de browse wrap basées sur l’acceptation tacite des conditions par les utilisateurs), le scraper n’enfreint donc pas des conditions qu’il n’a jamais acceptées et ne viole par conséquent pas la loi.

    Par ailleurs le plus gros scraper du monde n’est autre que Google lui même :

    • Google Shopping qui propose des comparaisons de prix de vente entre différents site marchands tire également ses informations du scraping ;
    • Google actualités scrape le contenu des sites de News ;
    • Cette liste n’est pas exhaustive la plupart des services Google étant basés sur des actions de scraping (à l’exception du moteur de recherche lui-même basé sur le crawling, c’est à dire de l’aspiration de données sans structuration)

    L’activité de scraping n’a donc rien d’illégal, en revanche la réutilisation des données scrapées, telles quelles ou après transformation mineure, présente des risques plus importants et doit faire l’objet d’une étude juridique fine axée sur le niveau de transformation des données collectées.

      Pas d'image

      Transformation digitale|

      |

      Quand les technologies rendent possible la complexité administrative

      Depuis plus de 7 ans, j’emploie à titre de « Particulier Employeur » une personne qui fait le ménage chez moi, deux à trois heures par semaine.

      J’ai utilisé le dispositif CESU (Chèque Emploi Service Universel) dès le début.

      Aujourd’hui, les enfants ont grandi, changent d’école : nous déménageons.

      Nous avons donc dû cesser le contrat de travail avec notre employé.

      Ayant réalisé par le passé des fiches de paie avec un tableur pour notre garde d’enfants, j’avais été séduit par le dispositif CESU de l’URSSAF pour payer mon employé. Chaque mois je saisis les heures, le salaire net, je vois le montant des charges résultant (+80% par rapport au net !), qui sont prélevées automatiquement ensuite.

      C’est simple et sans risque d’erreur pour moi : pas besoin tous les mois de vérifier que les taux, les lignes ou les assiettes ont été modifiés ou pas.

      Au passage, mon employé a perdu 4 de ses employeurs depuis 2012, du fait de la déforfaitisation des charges sociales. Jusqu’en 2012, on pouvait choisir de payer les charges sur l’assiette forfaitaire du SMIC net. Depuis 2012, on est obligé de payer sur l’assiette du salaire net réel. C’est ça la déforfaitisation.

      Comme mon employé travaille bien, la plupart de ses employeurs le payait significativement au-dessus du SMIC. En moyenne 50% au-dessus, et cette déforfaitisation a de fait augmenté la charge de 40% (+50% x 80% de charges).

      Ce qui a fait dire à mon employé : « à force de vouloir protéger les gens, on finit par tous les mettre au chômage ».

      Donc la paie grâce à l’URSSAF, c’est simple. J’imaginais naïvement que la fin de contrat de travail était dans le même esprit.

      Quelle erreur !

      Première difficulté : le formalisme et la procédure.

      En cherchant « licenciement particulier employeur », le site http://vosdroits.service-public.fr/particuliers/F1745.xhtml, qui apparaît en premier résultat, explique :

      Le particulier employeur doit respecter les étapes suivantes :

      – Convocation du salarié à un entretien préalable par lettre recommandée avec accusé de réception ou remise en main propre contre décharge.
      – Entretien avec le salarié au cours duquel l’employeur expose les motifs de la décision envisagée et recueille ses explications. À la différence des autres salariés, le salarié à domicile n’a pas la possibilité de se faire assister par un tiers. L’entretien doit avoir lieu au moins 5 jours ouvrables après la réception de la lettre recommandée ou sa remise en main propre.
      – Si l’employeur maintient sa décision, notification du licenciement par lettre recommandée avec accusé de réception. Cette lettre doit préciser les motifs de licenciement. Elle ne peut être expédiée moins 1 jour franc après l’entretien préalable. Toutefois, il est recommandé d’expédier la lettre au moins 2 jours ouvrables après cet entretien.

      Quelle proportion de particuliers employeurs respectent une procédure aussi précise ?

      Faut-il avoir été DRH ou avocat pour employer quelqu’un chez soi ?

      Ensuite, le préavis !

      Le même site explique :

      Sauf en cas de faute grave ou de faute lourde, le salarié a droit à un préavis dont la durée varie en fonction de son ancienneté.
      La date de première présentation de la lettre recommandée de licenciement fixe le point de départ du préavis.
      – Moins de 6 mois d’ancienneté : 1 semaine
      – De 6 mois à 2 ans : 1 mois
      – 2 ans et plus : 2 mois

      Puis vient le « Droit à des heures d’absence pendant le temps de préavis »

      Durant la période de préavis, le salarié à temps complet a droit, sans diminution de salaire, à des heures d’absence pour rechercher un nouvel emploi.
      Moins de 2 ans : 2 heures par jour pendant 6 jours ouvrables
      2 ans et plus : 2 heures par jour pendant 10 jours ouvrables

      À défaut d’accord entre les parties, ces 2 heures sont prises alternativement, un jour au choix de l’employeur, un jour au choix du salarié.

      Le salarié qui trouve un nouveau travail pendant le préavis peut quitter son emploi :
      sur présentation du justificatif de son nouvel emploi,
      et s’il a effectué au moins 2 semaines de préavis.

      Le salarié n’a pas droit au paiement de la période de préavis non effectuée et l’employeur n’a droit à aucune indemnité non plus.

      Viennent ensuite les « Indemnités de fin de contrat »

      En cas de licenciement, le salarié peut bénéficier sous conditions des indemnités suivantes :
      – 
      Indemnité de licenciement
      – 
      Indemnité de congés payés
      – 
      Indemnité de préavis

      Commençons par l’indemnité de licenciement.

      En cliquant sur le lien, nous découvrons (extrait) :

      L’indemnité de licenciement est calculée à partir de la rémunération brute perçue par le salarié avant la rupture de son contrat de travail.

      Là il y a un premier problème pour un utilisateur du service CESU de l’URSSAF. Cet utilisateur ne manipule que du salaire net ! Or là on lui demande un calcul sur le brut ! Il faut aller chercher dans les déclarations CESU, la reconstitution du salaire brut.

      Quelle proportion de particuliers employeurs est capable d’éviter ce piège ?

      Faut-il avoir été responsable de paie pour employer quelqu’un chez soi ?

       

      Ensuite : L’indemnité légale ne peut pas être inférieure à 1/5e de mois de salaire multiplié par le nombre d’années d’ancienneté. Au-delà de 10 ans d’ancienneté, il faut y ajouter 2/15e de mois de salaire par année supplémentaire.

      C’est compliqué mais compréhensible.

      Là où cela se corse à nouveau, c’est sur le calcul de ce fameux « mois de salaire ». Car il s’agit de prestations morcelées : 3h un mois, 15h un autre, ou zéro. Il faut donc faire un calcul de « salaire de référence » :

      Le salaire de référence est déterminé en prenant en compte, selon la formule la plus avantageuse :
      – soit le 1/12e de la rémunération brute des 12 derniers mois précédant le licenciement,
      – soit le 1/3 des 3 derniers mois (les primes et gratifications exceptionnelles ou annuelles sont prises en compte au prorata du temps de présence).

      Si durant ces périodes, le salarié a alterné travail à temps plein et à temps partiel, le salaire de référence sera moins élevé, mais la formule de calcul reste identique. L’ancienneté du salarié n’est pas réduite du fait du temps partiel.

      Si vous suivez encore, vous pouvez postuler dans un service de gestion des paies et des déclarations sociales.

      Vous apprenez au passage que cette indemnité « est exonérée de cotisations sociales, de CSG et CRDS , dans la limite de 2 fois le plafond annuel de la sécurité sociale en vigueur à la date du versement (76 080 € en 2015). Si l’indemnité de licenciement est plus élevée, la fraction qui dépasse ce plafond est soumise à cotisations, CSG et CRDS. »

      On ne vous dit pas combien c’est, ni comment il faut faire pour les « cotisations, CSG et CRDS », heureusement que peu de particuliers employeurs paient des indemnités de licenciement supérieures à 76 080 €.

      On apprend aussi que « L’indemnité de licenciement est exonérée d’impôt sur le revenu, sous conditions. » Merci pour mon employé.

      Si vous êtes curieux, vous pourrez découvrir quelles sont ces conditions. Pour ma part, il était 22h, cela faisait déjà 2h que je travaillais à ce dossier, la fatigue était plus forte que la curiosité.

      Vient ensuite « L’indemnité de congés payés » :

      La rémunération du salarié qui bénéficie de ses congés payés est calculée de 2 manières :

      – par la règle du 10ème, qui prévoit que l’indemnité est égale au dixième de la rémunération brute totale perçue par le salarié au cours de la période de référence,
      – et par la règle du maintien de salaire, qui prévoit que l’indemnité de congés payés est égale à la rémunération que le salarié aurait perçue s’il avait continué à travailler.

      L’indemnité compensatrice n’étant due que pour la fraction de congés dont le salarié n’a pas bénéficié, les indemnités de congés payés déjà perçues ne sont pas prises en compte dans le calcul.
      Le calcul doit prendre en compte la période de préavis, même si le salarié en est dispensé par l’employeur.
      C’est le mode de calcul le plus avantageux pour le salarié qui s’applique.
      L’indemnité se cumule avec les autres indemnités de rupture, s’il en remplit les droits (indemnité de licenciement, indemnité compensatrice de préavis, etc.).

      Régime fiscal et social
      L’indemnité compensatrice de congés payés est soumise à l’impôt sur le revenu et aux cotisations sociales dans les mêmes conditions que le salaire. Elle est saisissable et cessible dans les mêmes limites que le salaire.

      Si vous suivez encore, il y a « l’Indemnité compensatrice de préavis »

      Bénéficiaires, Salariés concernés
      Le salarié a droit de percevoir l’indemnité compensatrice de préavis si l’employeur prend lui-même l’initiative de dispenser le salarié d’effectuer son préavis.

      […]

      Montant : L’indemnité compensatrice de préavis est calculée sur la base de la rémunération que le salarié aurait perçue s’il avait travaillé pendant le préavis.

      Aucune diminution de salaire ou d’avantages ne doit avoir lieu. L’indemnité se cumule avec les autres indemnités de rupture, s’il en remplit les droits (indemnité de licenciement, indemnité compensatrice de congés payés, etc.).

      Régime fiscal et social
      L’indemnité compensatrice de préavis est soumise à l’impôt sur le revenu et aux cotisations sociales dans les mêmes conditions que le salaire. Elle est saisissable et cessible dans les mêmes limites que le salaire.

      Ensuite, viennent les « Documents de fin de contrat »

      L’employeur doit délivrer au salarié les documents suivants :
      1- Reçu pour solde de tout compte qui détaille les sommes versées lors de la rupture du contrat de travail
      2- Certificat de travail précisant les dates de début et de fin du contrat ainsi que la nature de l’emploi
      3- Attestation Pôle emploi (exemplaire papier à commander sur le site internet de Pôle emploi ou à remplir en ligne directement)

      Quelqu’un a dû avoir pitié :

      Des modèles de reçu pour solde de tout compte et de certificat de travail sont disponibles sur www.netparticulier.fr ainsi que dans la brochure sur le licenciement du salarié du particulier employeur.

      Les deux premiers documents sont assez compréhensibles, logiques et simples à produire, notamment grâce aux modèles fournis.

      Pour produire l’attestation employeur, un nouvel univers s’ouvre sous vos pieds (et vos yeux fatigués : il est 22h30 !).

      De lien en lien, vous aboutissez sur le site suivant : https://particulieremployeur.pole-emploi.fr/particulieremployeur/authentification/authentification

      Bien entendu, vous n’avez pas de compte. Il faut en créer un. Bonne surprise : ça fonctionne et ça va vite. 10 minutes plus tard, vous avez reçu plusieurs mails séparés avec un identifiant dans un des mails, et le mot de passe dans un autre, par soucis de sécurité j’imagine.

      Première étape : on clique sur « Saisir une attestation » dans un grand rectangle orange « Mes attestations employeur ».

      Une première page apparaît où il faut confirmer ses coordonnées et donner un numéro « PAJEMPLOI », « CESU » ou « URSSAF ». Je donne mon numéro URRSAF, car sur le site CESU de l’URSSAF, ce numéro est appelé numéro URSSAF. Ça ne marche pas. Je pense à mettre ce même numéro dans le champ « CESU » et là, ça marche.

      J’essuie la sueur de mon front.

      Je valide, une nouvelle page apparaît. Il faut saisir les « Coordonnées du salarié » et des « Informations sur l’emploi ». Une quinzaine de champs. J’ai une difficulté pour trouver la date de naissance de mon employé. Par le NIR (numéro INSEE) je connais l’année et le mois, mais pas le jour. Heureusement, en fouillant le site CESU de l’URSSAF, j’arrive à trouver la date de naissance complète.

      Ensuite, une page sur le « contrat de travail » :

      2015-08-06 à 11.08.48 ecran 2.1 ATT

      Il faut préciser les périodes de « Préavis effectué et payé », « non effectué et payé » et « non effectué non payé » !

      Dans le cas d’un employé 3h par semaines qui termine au bout des 2 mois de préavis, comment renseigne-t-on ces dates ?

      Attention, pour le dernier cadre, « Période d’emploi » à bien distinguer la date de dernier jour de contrat, c’est à dire celle jusqu’à la fin du préavis, de la date du dernier jour travaillé et payé !

      À ce stade je me pose à nouveau la question : Quelle proportion de particuliers employeurs renseignent ces champs avec des données exactes ?

      Faut-il avoir une maitrise en droit du travail pour employer quelqu’un chez soi ?

      Ensuite, « Etape 3 », « Salaire et primes ».

      À mon avis un chef d’oeuvre de complexité comme notre riche société a encore (?) les moyens de se payer.

      2015-08-06 ecran 3 ATT

      Il faut renseigner, pour chacun des douze derniers mois, le nombre d’heure travaillées, le « Nombre de jours non integralement payés (congés sans solde, arrêts maladie, etc…) », et le salaire net mensuel.

      Ici, le système a pitié, et ne demande pas de salaire brut.

      Il faut fournir une explication de la variation du salaire. « Parce que mon employé a décidé de travailler des jours en moins ce mois-ci », ou « parce qu’il y a presque cinq semaine dans ce mois et que mon employé est donc venu cinq fois ».

      Un avant dernier écran nous invite à récapituler diverses sommes versées. Six champs à renseigner, avec des messages d’erreur qui apparaissent si vous mettez le chiffre « 0 » dans une case, alors qu’il faut la laisser vide.

      2015-08-06 ecran 4 ATT

       

      Le dernier écran est celui de validation finale, où vous laissez vos coordonnées :

      2015-08-06 ecran final ATT

       

      Une fois ce parcours du combattant effectué, vous pouvez imprimer une attestation employeur en bonne et due forme, et il ne vous reste qu’à le donner avec les deux autres documents à votre employé.

      Il est 00h20.

      Engourdi par la fatigue et ahuri par l’incroyable parcours accompli, vous vous posez quelques questions :

      est-il pertinent d’utiliser la puissance de l’informatique, d’internet, des technologies en général, pour nous permettre de gérer une telle complexité ? Ne faut-il pas graduer la complexité aux enjeux ? In fine, mon employé a touché quelques centaines d’euros d’indemnités et touchera quelques dizaines d’euros d’allocations chômage par mois. Cela valait-il plus de 3h de travail, pour un résultat de fiabilité douteuse ?

      – Quelle proportion de particuliers employeurs est capable d’aller au bout de ce parcours sans faire d’erreur ? À quoi bon une telle complexité ? Ne peut-on imaginer des règles plus simples ?

      Ne peut-on pas imaginer faire le dossier de rupture à partir du dossier CESU de l’URSSAF où il y a tout l’historique ? La réponse est « non » car l’URSSAF, c’est la sphère sociale dépendant du ministère de la santé, et le traitement du chômage, c’est la sphère emploi dépendant du ministère de l’emploi, avec Pôle Emploi pour gérer les opérations, et l’Unédic pour définir les règles, organisme paritaire. Ces deux sphères n’ont pas l’habitude de travailler ensemble, et pour d’autres diverses raisons, s’ignorent voire s’affrontent. Qui aura le courage de faire fonctionner tout cela en cohérence pour redonner de la simplicité au « Client » ? Faut-il conserver des prés carrés « social » et « emploi »en recouvrement voire en guerre, et les emplois associés qui ne produisent que peu de valeur pour la société, juste par peur de sanction dans les urnes aux prochaines élections ?

      In fine, quel impact sur l’emploi ? Combien de particuliers employeurs vont renoncer à employer quelqu’un à cause d’une telle complexité, ou bien vont prendre le risque immense du travail non déclaré ?

      Est-ce une fatalité que d’utiliser notre richesse pour générer autant de complexité non productrice de valeur pour la société ?

      Cette complexité a déjà commencé à nous étouffer en s’insinuant partout, comme un cancer. Un témoin : la chute du PIB par habitant en France depuis 2008 (-6%).

      Depuis plus de 7 ans, j’emploie à titre de « Particulier Employeur » une personne qui fait le ménage chez moi, deux à trois heures par semaine.

      J’ai utilisé le dispositif CESU (Chèque Emploi Service Universel) dès le début.

      Aujourd’hui, les enfants ont grandi, changent d’école : nous déménageons.

      Nous avons donc dû cesser le contrat de travail avec notre employé.

      Ayant réalisé par le passé des fiches de paie avec un tableur pour notre garde d’enfants, j’avais été séduit par le dispositif CESU de l’URSSAF pour payer mon employé. Chaque mois je saisis les heures, le salaire net, je vois le montant des charges résultant (+80% par rapport au net !), qui sont prélevées automatiquement ensuite.

      C’est simple et sans risque d’erreur pour moi : pas besoin tous les mois de vérifier que les taux, les lignes ou les assiettes ont été modifiés ou pas.

      Au passage, mon employé a perdu 4 de ses employeurs depuis 2012, du fait de la déforfaitisation des charges sociales. Jusqu’en 2012, on pouvait choisir de payer les charges sur l’assiette forfaitaire du SMIC net. Depuis 2012, on est obligé de payer sur l’assiette du salaire net réel. C’est ça la déforfaitisation.

      Comme mon employé travaille bien, la plupart de ses employeurs le payait significativement au-dessus du SMIC. En moyenne 50% au-dessus, et cette déforfaitisation a de fait augmenté la charge de 40% (+50% x 80% de charges).

      Ce qui a fait dire à mon employé : « à force de vouloir protéger les gens, on finit par tous les mettre au chômage ».

      Donc la paie grâce à l’URSSAF, c’est simple. J’imaginais naïvement que la fin de contrat de travail était dans le même esprit.

      Quelle erreur !

      Première difficulté : le formalisme et la procédure.

      En cherchant « licenciement particulier employeur », le site http://vosdroits.service-public.fr/particuliers/F1745.xhtml, qui apparaît en premier résultat, explique :

      Le particulier employeur doit respecter les étapes suivantes :

      – Convocation du salarié à un entretien préalable par lettre recommandée avec accusé de réception ou remise en main propre contre décharge.
      – Entretien avec le salarié au cours duquel l’employeur expose les motifs de la décision envisagée et recueille ses explications. À la différence des autres salariés, le salarié à domicile n’a pas la possibilité de se faire assister par un tiers. L’entretien doit avoir lieu au moins 5 jours ouvrables après la réception de la lettre recommandée ou sa remise en main propre.
      – Si l’employeur maintient sa décision, notification du licenciement par lettre recommandée avec accusé de réception. Cette lettre doit préciser les motifs de licenciement. Elle ne peut être expédiée moins 1 jour franc après l’entretien préalable. Toutefois, il est recommandé d’expédier la lettre au moins 2 jours ouvrables après cet entretien.

      Quelle proportion de particuliers employeurs respectent une procédure aussi précise ?

      Faut-il avoir été DRH ou avocat pour employer quelqu’un chez soi ?

      Ensuite, le préavis !

      Le même site explique :

      Sauf en cas de faute grave ou de faute lourde, le salarié a droit à un préavis dont la durée varie en fonction de son ancienneté.
      La date de première présentation de la lettre recommandée de licenciement fixe le point de départ du préavis.
      – Moins de 6 mois d’ancienneté : 1 semaine
      – De 6 mois à 2 ans : 1 mois
      – 2 ans et plus : 2 mois

      Puis vient le « Droit à des heures d’absence pendant le temps de préavis »

      Durant la période de préavis, le salarié à temps complet a droit, sans diminution de salaire, à des heures d’absence pour rechercher un nouvel emploi.
      Moins de 2 ans : 2 heures par jour pendant 6 jours ouvrables
      2 ans et plus : 2 heures par jour pendant 10 jours ouvrables

      À défaut d’accord entre les parties, ces 2 heures sont prises alternativement, un jour au choix de l’employeur, un jour au choix du salarié.

      Le salarié qui trouve un nouveau travail pendant le préavis peut quitter son emploi :
      sur présentation du justificatif de son nouvel emploi,
      et s’il a effectué au moins 2 semaines de préavis.

      Le salarié n’a pas droit au paiement de la période de préavis non effectuée et l’employeur n’a droit à aucune indemnité non plus.

      Viennent ensuite les « Indemnités de fin de contrat »

      En cas de licenciement, le salarié peut bénéficier sous conditions des indemnités suivantes :
      – 
      Indemnité de licenciement
      – 
      Indemnité de congés payés
      – 
      Indemnité de préavis

      Commençons par l’indemnité de licenciement.

      En cliquant sur le lien, nous découvrons (extrait) :

      L’indemnité de licenciement est calculée à partir de la rémunération brute perçue par le salarié avant la rupture de son contrat de travail.

      Là il y a un premier problème pour un utilisateur du service CESU de l’URSSAF. Cet utilisateur ne manipule que du salaire net ! Or là on lui demande un calcul sur le brut ! Il faut aller chercher dans les déclarations CESU, la reconstitution du salaire brut.

      Quelle proportion de particuliers employeurs est capable d’éviter ce piège ?

      Faut-il avoir été responsable de paie pour employer quelqu’un chez soi ?

       

      Ensuite : L’indemnité légale ne peut pas être inférieure à 1/5e de mois de salaire multiplié par le nombre d’années d’ancienneté. Au-delà de 10 ans d’ancienneté, il faut y ajouter 2/15e de mois de salaire par année supplémentaire.

      C’est compliqué mais compréhensible.

      Là où cela se corse à nouveau, c’est sur le calcul de ce fameux « mois de salaire ». Car il s’agit de prestations morcelées : 3h un mois, 15h un autre, ou zéro. Il faut donc faire un calcul de « salaire de référence » :

      Le salaire de référence est déterminé en prenant en compte, selon la formule la plus avantageuse :
      – soit le 1/12e de la rémunération brute des 12 derniers mois précédant le licenciement,
      – soit le 1/3 des 3 derniers mois (les primes et gratifications exceptionnelles ou annuelles sont prises en compte au prorata du temps de présence).

      Si durant ces périodes, le salarié a alterné travail à temps plein et à temps partiel, le salaire de référence sera moins élevé, mais la formule de calcul reste identique. L’ancienneté du salarié n’est pas réduite du fait du temps partiel.

      Si vous suivez encore, vous pouvez postuler dans un service de gestion des paies et des déclarations sociales.

      Vous apprenez au passage que cette indemnité « est exonérée de cotisations sociales, de CSG et CRDS , dans la limite de 2 fois le plafond annuel de la sécurité sociale en vigueur à la date du versement (76 080 € en 2015). Si l’indemnité de licenciement est plus élevée, la fraction qui dépasse ce plafond est soumise à cotisations, CSG et CRDS. »

      On ne vous dit pas combien c’est, ni comment il faut faire pour les « cotisations, CSG et CRDS », heureusement que peu de particuliers employeurs paient des indemnités de licenciement supérieures à 76 080 €.

      On apprend aussi que « L’indemnité de licenciement est exonérée d’impôt sur le revenu, sous conditions. » Merci pour mon employé.

      Si vous êtes curieux, vous pourrez découvrir quelles sont ces conditions. Pour ma part, il était 22h, cela faisait déjà 2h que je travaillais à ce dossier, la fatigue était plus forte que la curiosité.

      Vient ensuite « L’indemnité de congés payés » :

      La rémunération du salarié qui bénéficie de ses congés payés est calculée de 2 manières :

      – par la règle du 10ème, qui prévoit que l’indemnité est égale au dixième de la rémunération brute totale perçue par le salarié au cours de la période de référence,
      – et par la règle du maintien de salaire, qui prévoit que l’indemnité de congés payés est égale à la rémunération que le salarié aurait perçue s’il avait continué à travailler.

      L’indemnité compensatrice n’étant due que pour la fraction de congés dont le salarié n’a pas bénéficié, les indemnités de congés payés déjà perçues ne sont pas prises en compte dans le calcul.
      Le calcul doit prendre en compte la période de préavis, même si le salarié en est dispensé par l’employeur.
      C’est le mode de calcul le plus avantageux pour le salarié qui s’applique.
      L’indemnité se cumule avec les autres indemnités de rupture, s’il en remplit les droits (indemnité de licenciement, indemnité compensatrice de préavis, etc.).

      Régime fiscal et social
      L’indemnité compensatrice de congés payés est soumise à l’impôt sur le revenu et aux cotisations sociales dans les mêmes conditions que le salaire. Elle est saisissable et cessible dans les mêmes limites que le salaire.

      Si vous suivez encore, il y a « l’Indemnité compensatrice de préavis »

      Bénéficiaires, Salariés concernés
      Le salarié a droit de percevoir l’indemnité compensatrice de préavis si l’employeur prend lui-même l’initiative de dispenser le salarié d’effectuer son préavis.

      […]

      Montant : L’indemnité compensatrice de préavis est calculée sur la base de la rémunération que le salarié aurait perçue s’il avait travaillé pendant le préavis.

      Aucune diminution de salaire ou d’avantages ne doit avoir lieu. L’indemnité se cumule avec les autres indemnités de rupture, s’il en remplit les droits (indemnité de licenciement, indemnité compensatrice de congés payés, etc.).

      Régime fiscal et social
      L’indemnité compensatrice de préavis est soumise à l’impôt sur le revenu et aux cotisations sociales dans les mêmes conditions que le salaire. Elle est saisissable et cessible dans les mêmes limites que le salaire.

      Ensuite, viennent les « Documents de fin de contrat »

      L’employeur doit délivrer au salarié les documents suivants :
      1- Reçu pour solde de tout compte qui détaille les sommes versées lors de la rupture du contrat de travail
      2- Certificat de travail précisant les dates de début et de fin du contrat ainsi que la nature de l’emploi
      3- Attestation Pôle emploi (exemplaire papier à commander sur le site internet de Pôle emploi ou à remplir en ligne directement)

      Quelqu’un a dû avoir pitié :

      Des modèles de reçu pour solde de tout compte et de certificat de travail sont disponibles sur www.netparticulier.fr ainsi que dans la brochure sur le licenciement du salarié du particulier employeur.

      Les deux premiers documents sont assez compréhensibles, logiques et simples à produire, notamment grâce aux modèles fournis.

      Pour produire l’attestation employeur, un nouvel univers s’ouvre sous vos pieds (et vos yeux fatigués : il est 22h30 !).

      De lien en lien, vous aboutissez sur le site suivant : https://particulieremployeur.pole-emploi.fr/particulieremployeur/authentification/authentification

      Bien entendu, vous n’avez pas de compte. Il faut en créer un. Bonne surprise : ça fonctionne et ça va vite. 10 minutes plus tard, vous avez reçu plusieurs mails séparés avec un identifiant dans un des mails, et le mot de passe dans un autre, par soucis de sécurité j’imagine.

      Première étape : on clique sur « Saisir une attestation » dans un grand rectangle orange « Mes attestations employeur ».

      Une première page apparaît où il faut confirmer ses coordonnées et donner un numéro « PAJEMPLOI », « CESU » ou « URSSAF ». Je donne mon numéro URRSAF, car sur le site CESU de l’URSSAF, ce numéro est appelé numéro URSSAF. Ça ne marche pas. Je pense à mettre ce même numéro dans le champ « CESU » et là, ça marche.

      J’essuie la sueur de mon front.

      Je valide, une nouvelle page apparaît. Il faut saisir les « Coordonnées du salarié » et des « Informations sur l’emploi ». Une quinzaine de champs. J’ai une difficulté pour trouver la date de naissance de mon employé. Par le NIR (numéro INSEE) je connais l’année et le mois, mais pas le jour. Heureusement, en fouillant le site CESU de l’URSSAF, j’arrive à trouver la date de naissance complète.

      Ensuite, une page sur le « contrat de travail » :

      2015-08-06 à 11.08.48 ecran 2.1 ATT

      Il faut préciser les périodes de « Préavis effectué et payé », « non effectué et payé » et « non effectué non payé » !

      Dans le cas d’un employé 3h par semaines qui termine au bout des 2 mois de préavis, comment renseigne-t-on ces dates ?

      Attention, pour le dernier cadre, « Période d’emploi » à bien distinguer la date de dernier jour de contrat, c’est à dire celle jusqu’à la fin du préavis, de la date du dernier jour travaillé et payé !

      À ce stade je me pose à nouveau la question : Quelle proportion de particuliers employeurs renseignent ces champs avec des données exactes ?

      Faut-il avoir une maitrise en droit du travail pour employer quelqu’un chez soi ?

      Ensuite, « Etape 3 », « Salaire et primes ».

      À mon avis un chef d’oeuvre de complexité comme notre riche société a encore (?) les moyens de se payer.

      2015-08-06 ecran 3 ATT

      Il faut renseigner, pour chacun des douze derniers mois, le nombre d’heure travaillées, le « Nombre de jours non integralement payés (congés sans solde, arrêts maladie, etc…) », et le salaire net mensuel.

      Ici, le système a pitié, et ne demande pas de salaire brut.

      Il faut fournir une explication de la variation du salaire. « Parce que mon employé a décidé de travailler des jours en moins ce mois-ci », ou « parce qu’il y a presque cinq semaine dans ce mois et que mon employé est donc venu cinq fois ».

      Un avant dernier écran nous invite à récapituler diverses sommes versées. Six champs à renseigner, avec des messages d’erreur qui apparaissent si vous mettez le chiffre « 0 » dans une case, alors qu’il faut la laisser vide.

      2015-08-06 ecran 4 ATT

       

      Le dernier écran est celui de validation finale, où vous laissez vos coordonnées :

      2015-08-06 ecran final ATT

       

      Une fois ce parcours du combattant effectué, vous pouvez imprimer une attestation employeur en bonne et due forme, et il ne vous reste qu’à le donner avec les deux autres documents à votre employé.

      Il est 00h20.

      Engourdi par la fatigue et ahuri par l’incroyable parcours accompli, vous vous posez quelques questions :

      est-il pertinent d’utiliser la puissance de l’informatique, d’internet, des technologies en général, pour nous permettre de gérer une telle complexité ? Ne faut-il pas graduer la complexité aux enjeux ? In fine, mon employé a touché quelques centaines d’euros d’indemnités et touchera quelques dizaines d’euros d’allocations chômage par mois. Cela valait-il plus de 3h de travail, pour un résultat de fiabilité douteuse ?

      – Quelle proportion de particuliers employeurs est capable d’aller au bout de ce parcours sans faire d’erreur ? À quoi bon une telle complexité ? Ne peut-on imaginer des règles plus simples ?

      Ne peut-on pas imaginer faire le dossier de rupture à partir du dossier CESU de l’URSSAF où il y a tout l’historique ? La réponse est « non » car l’URSSAF, c’est la sphère sociale dépendant du ministère de la santé, et le traitement du chômage, c’est la sphère emploi dépendant du ministère de l’emploi, avec Pôle Emploi pour gérer les opérations, et l’Unédic pour définir les règles, organisme paritaire. Ces deux sphères n’ont pas l’habitude de travailler ensemble, et pour d’autres diverses raisons, s’ignorent voire s’affrontent. Qui aura le courage de faire fonctionner tout cela en cohérence pour redonner de la simplicité au « Client » ? Faut-il conserver des prés carrés « social » et « emploi »en recouvrement voire en guerre, et les emplois associés qui ne produisent que peu de valeur pour la société, juste par peur de sanction dans les urnes aux prochaines élections ?

      In fine, quel impact sur l’emploi ? Combien de particuliers employeurs vont renoncer à employer quelqu’un à cause d’une telle complexité, ou bien vont prendre le risque immense du travail non déclaré ?

      Est-ce une fatalité que d’utiliser notre richesse pour générer autant de complexité non productrice de valeur pour la société ?

      Cette complexité a déjà commencé à nous étouffer en s’insinuant partout, comme un cancer. Un témoin : la chute du PIB par habitant en France depuis 2008 (-6%).

        Pas d'image

        Organisation DSI|

        |

        [Détente] : Bientôt une Barbie DSI ?

        Mattel organisait en ce début d’année un grand sondage sur Internet pour définir le prochain métier de barbie… et le grand gagnant de ce sondage 2010 est le métier d’Ingénieur Informatique !

        Voici l’info, reprise sur le site http://www.clubic.com/

        De quoi susciter des vocations chez les petites filles du monde entier ? La vénérable Barbie, qui compte déjà à son actif 124 carrières différentes, endossera bientôt son 125e costume : ingénieur informatique. Une profession quelque peu inattendue, pour celle que l’on connait mieux comme une hôtesse de l’air ou une infirmière, décidée par Mattel à l’issue d’un vote organisé en ligne.

        Barbie reste tout de même Barbie et chez Mattel, le geek se veut chic : l’informaticienne nouvelle portera une jolie paire de lunettes rose, une oreillette ainsi qu’un long tee-shirt décoré de 0 et de 1, et tapera ses lignes de code sur un petit netbook rose.

        « En tant qu’ingénieur informaticienne, Barbie montrera aux petites filles que les femmes peuvent concevoir des produits offrant un impact sensible et positif sur la vie de tous les jours, comme inventer une technologie de conservation de l’énergie domestique ou programmer un appareil de surveillance des nourrissons », rêve déjà Nora Lin, présidente de la « Society of Women Engineers ».

        Barbie Geekette sera accompagnée de Barbie Reporter, l’option qui a suscité le plus grand nombre de votes parmi la gent féminine, lors de son arrivée sur le marché, peu de temps avant les fêtes de fin d’année.

        De là à penser que ce sondage Internet a été massivement relayé dans la « communauté » des Ingénieurs en Informatique, pour faire gagner ce beau métier à majorité masculine, il n’y a qu’un pas…

        source : http://www.clubic.com/actualite-325208-insolite-barbie-ingenieur-informatique.html

        Mattel organisait en ce début d’année un grand sondage sur Internet pour définir le prochain métier de barbie… et le grand gagnant de ce sondage 2010 est le métier d’Ingénieur Informatique !

        Voici l’info, reprise sur le site http://www.clubic.com/

        De quoi susciter des vocations chez les petites filles du monde entier ? La vénérable Barbie, qui compte déjà à son actif 124 carrières différentes, endossera bientôt son 125e costume : ingénieur informatique. Une profession quelque peu inattendue, pour celle que l’on connait mieux comme une hôtesse de l’air ou une infirmière, décidée par Mattel à l’issue d’un vote organisé en ligne.

        Barbie reste tout de même Barbie et chez Mattel, le geek se veut chic : l’informaticienne nouvelle portera une jolie paire de lunettes rose, une oreillette ainsi qu’un long tee-shirt décoré de 0 et de 1, et tapera ses lignes de code sur un petit netbook rose.

        « En tant qu’ingénieur informaticienne, Barbie montrera aux petites filles que les femmes peuvent concevoir des produits offrant un impact sensible et positif sur la vie de tous les jours, comme inventer une technologie de conservation de l’énergie domestique ou programmer un appareil de surveillance des nourrissons », rêve déjà Nora Lin, présidente de la « Society of Women Engineers ».

        Barbie Geekette sera accompagnée de Barbie Reporter, l’option qui a suscité le plus grand nombre de votes parmi la gent féminine, lors de son arrivée sur le marché, peu de temps avant les fêtes de fin d’année.

        De là à penser que ce sondage Internet a été massivement relayé dans la « communauté » des Ingénieurs en Informatique, pour faire gagner ce beau métier à majorité masculine, il n’y a qu’un pas…

        source : http://www.clubic.com/actualite-325208-insolite-barbie-ingenieur-informatique.html

          Pas d'image

          Transformation digitale|

          |

          Des « coffres forts » numériques au service des institutionnels et non de leurs clients

          Didier Louvet, président d’Adminium, nous présente sur journaldunet.com le marché actuel des coffres forts numériques et ses différentes évolutions possibles.

          Alors que les offres de « bureaux numériques » (…) en ligne fleurissent à l’initiative des banques, assurances et opérateurs telco, l’intérêt principal des particuliers pour ces service est détourné au profit exclusif des institutionnels qui les proposent… (…)

          Imaginées initialement comme des outils de captation de la relation client, ces offres ignorent la coexistence et donc l’indispensable partage de cette relation entre les multiples institutionnels ou marchands dont le particulier est simultanément client. (…)

          Pourquoi cette soudaine agitation ?

          Peut-être ces institutionnels anticipent-ils à juste titre les 40 millions de clients particuliers « dématérialisés » à horizon 3 à 5 ans. Autant de clients à qui il faudra continuer de parler, alors même qu’ils n’ouvriront plus beaucoup leurs mails, ne recevront plus de courriers papier (…).
Le Bureau Numérique, comme partie intégrante de l’espace client, leur apparaît ainsi comme une solution efficace pour maintenir la relation client sous contrôle : tous les documents du client y sont conservés, il s’y connecte donc régulièrement … chaque connexion est un « contact client » particulièrement qualifié, une occasion de lui transmettre un message, une offre ou une proposition d’action … le tour semble joué !
Mais la solution du Bureau Numérique est-elle aussi évidente, aussi performante qu’elle le semble ?

          (…)

          La conception initiale de ces offres de Bureaux Numériques a été réalisée, avec pour principal objectif, d’apporter un bénéfice à l’institutionnel : garder le contrôle sur ses clients.
Les besoins réels des particuliers ne sont envisagés et considérés à ce stade uniquement dans la mesure où ils sont compatibles avec ce premier objectif.
(…)
          La bonne (et unique) démarche en la matière est de raisonner « consumer-centric » :

          (i) faire partir la réflexion du client et de ses besoins
          (ii) intégrer ensuite à cette réflexion les objectifs et les contraintes du vendeur (l’institutionnel)
          (iii) concevoir le service qui répond d’abord aux attentes clients en maximisant l’intérêt du vendeur

          (…)

          1 – Quelles sont les attentes et les besoins des clients ?

          La vie économique « dématérialisée » des particuliers est de plus en plus complexe à gérer : L’information de consommation est pléthorique, multi-sources (…), multi-formats (…) et multi-supports (…).
          Les particuliers attendent une solution simple et centralisée pour consulter et utiliser eux-mêmes leurs informations de consommation. Ils recherchent ainsi :

          (i) un service capable d’agréger automatiquement toutes les informations issues de toutes les sources hétérogènes (universalité),
          (ii) une impartialité / objectivité dans le traitement et l’exploitation de ces informations (neutralité),
          (iii) une palette de services capables de leur simplifier concrètement la vie quotidienne (utilité).

          Nous retiendrons ici l’attente principale des clients : l’universalité.

          (…)

          2 – Quelles sont les objectifs et les contraintes du « vendeur » (l’institutionnel) ?

          À l’ère du numérique, le client particulier est de plus en plus exigeant, versatile et informé (réseaux sociaux, comparateurs, forums…). Face à la croissance des coûts d’acquisition, la capacité de fidélisation est un enjeu majeur.
          Le vendeur cherche donc une solution pour

          (i) apporter un service pertinent à ses clients (valeur ajoutée) et
          (ii) développer un nouveau point de contact récurrent et privilégié avec eux (unicité).
Le Bureau Numérique doit ainsi s’intégrer parfaitement aux services « cœur-métier » proposés en ligne par le vendeur s’il entend maximiser l’efficacité relationnelle de chacune des connexions client.

          Nous retiendrons ici l’attente principale des vendeurs : l’unicité.

          La fréquence des visites clients, générée par l’intérêt du service, permet au vendeur d’augmenter le nombre et la récurrence des points de contacts utiles… En d’autres termes : le vendeur utilise l’intérêt du particulier pour des informations qui ne proviennent pas uniquement de lui pour générer une fréquence élevée de contacts qu’il va exploiter pour son propre compte.

          L’unicité se nourrit donc de l’universalité.

          3 – Comment concilier un service Universel pour le client et unique pour le vendeur ?

          L’universalité du contenu présuppose un « libre accès » aux informations du client que le Bureau Numérique entend agréger (quelle qu’en soit la source).
          Mais compte tenu de l’unicité des points de contact que génèrent ces informations au seul profit du vendeur… quel est alors l’intérêt pour un autre vendeur de laisser libre accès aux informations de ses clients à un Bureau Numérique tiers ? Aucune, sauf à accepter délibérément de perdre une occasion de contact avec ses propres clients !
En l’absence d’intérêt commun ou partagé, le Coffre-Fort Numérique proposé par chacun des institutionnels sera ainsi dans l’incapacité d’agréger les informations clients des autres vendeurs.
Nous sommes ici au cœur de la problématique … les attentes (i) d’universalité client et (ii) d’unicité vendeur sont incompatibles !

          Face à cette incompatibilité, deux choix sont possibles :

          Choix n°1 : Renoncer à l’universalité.

          C’est le choix qu’opèrent actuellement les institutionnels (…). Réduire le service proposé à un simple espace de stockage dont les sources d’agrégation sont extrêmement réduites et que l’utilisateur doit principalement alimenter lui-même.
L’attente principale du client n’est pas satisfaite. (…)
          Chronique d’un fiasco annoncé !

          Choix n°2 : Renoncer à l’unicité.

          C’est-à-dire permettre et encourager les autres Institutionnels/vendeurs à communiquer avec leurs propres clients au sein même du Bureau Numérique.
C’est un choix audacieux, novateur, voir révolutionnaire. (…)
          Compte tenu de la multiplicité des offres de bureaux numériques qui est proposée aux particuliers, il est mathématiquement impossible qu’un institutionnel capte 100% de ses propres clients au sein de son offre… Une partie non négligeable de la clientèle de cet institutionnel sera donc utilisatrice d’un bureau numérique proposée par un autre institutionnel dont elle est également cliente.
Si l’institutionnel concerné s’oppose à transmettre les informations de ses clients à ces Bureaux Numériques tiers, ces derniers s’opposeront eux aussi à transmettre leurs propres informations… retour à la case départ de l’universalité.

          (…)

          En conclusion

          Le « Bureau numérique », qu’il soit proposé par un institutionnel ou un indépendant, doit intégrer une
          dimension relationnelle entre l’utilisateur particulier et ses différents institutionnels/vendeurs.
          Chaque institutionnel proposant un Bureau Numérique doit ainsi se préparer

          (i) à développer des espaces relationnels dédiés aux autres institutionnels/vendeurs au sein de son espace
          (ii) à interagir avec ses propres clients au sein des « Bureaux Numériques» proposés par les autres institutionnels ou indépendants.

          (…)

          Source : http://www.journaldunet.com/ebusiness/expert/53089/coffre-fort-numerique—quel-est-l-interet-en-matiere-de-relations-clients.shtml

          Didier Louvet, président d’Adminium, nous présente sur journaldunet.com le marché actuel des coffres forts numériques et ses différentes évolutions possibles.

          Alors que les offres de « bureaux numériques » (…) en ligne fleurissent à l’initiative des banques, assurances et opérateurs telco, l’intérêt principal des particuliers pour ces service est détourné au profit exclusif des institutionnels qui les proposent… (…)

          Imaginées initialement comme des outils de captation de la relation client, ces offres ignorent la coexistence et donc l’indispensable partage de cette relation entre les multiples institutionnels ou marchands dont le particulier est simultanément client. (…)

          Pourquoi cette soudaine agitation ?

          Peut-être ces institutionnels anticipent-ils à juste titre les 40 millions de clients particuliers « dématérialisés » à horizon 3 à 5 ans. Autant de clients à qui il faudra continuer de parler, alors même qu’ils n’ouvriront plus beaucoup leurs mails, ne recevront plus de courriers papier (…).
Le Bureau Numérique, comme partie intégrante de l’espace client, leur apparaît ainsi comme une solution efficace pour maintenir la relation client sous contrôle : tous les documents du client y sont conservés, il s’y connecte donc régulièrement … chaque connexion est un « contact client » particulièrement qualifié, une occasion de lui transmettre un message, une offre ou une proposition d’action … le tour semble joué !
Mais la solution du Bureau Numérique est-elle aussi évidente, aussi performante qu’elle le semble ?

          (…)

          La conception initiale de ces offres de Bureaux Numériques a été réalisée, avec pour principal objectif, d’apporter un bénéfice à l’institutionnel : garder le contrôle sur ses clients.
Les besoins réels des particuliers ne sont envisagés et considérés à ce stade uniquement dans la mesure où ils sont compatibles avec ce premier objectif.
(…)
          La bonne (et unique) démarche en la matière est de raisonner « consumer-centric » :

          (i) faire partir la réflexion du client et de ses besoins
          (ii) intégrer ensuite à cette réflexion les objectifs et les contraintes du vendeur (l’institutionnel)
          (iii) concevoir le service qui répond d’abord aux attentes clients en maximisant l’intérêt du vendeur

          (…)

          1 – Quelles sont les attentes et les besoins des clients ?

          La vie économique « dématérialisée » des particuliers est de plus en plus complexe à gérer : L’information de consommation est pléthorique, multi-sources (…), multi-formats (…) et multi-supports (…).
          Les particuliers attendent une solution simple et centralisée pour consulter et utiliser eux-mêmes leurs informations de consommation. Ils recherchent ainsi :

          (i) un service capable d’agréger automatiquement toutes les informations issues de toutes les sources hétérogènes (universalité),
          (ii) une impartialité / objectivité dans le traitement et l’exploitation de ces informations (neutralité),
          (iii) une palette de services capables de leur simplifier concrètement la vie quotidienne (utilité).

          Nous retiendrons ici l’attente principale des clients : l’universalité.

          (…)

          2 – Quelles sont les objectifs et les contraintes du « vendeur » (l’institutionnel) ?

          À l’ère du numérique, le client particulier est de plus en plus exigeant, versatile et informé (réseaux sociaux, comparateurs, forums…). Face à la croissance des coûts d’acquisition, la capacité de fidélisation est un enjeu majeur.
          Le vendeur cherche donc une solution pour

          (i) apporter un service pertinent à ses clients (valeur ajoutée) et
          (ii) développer un nouveau point de contact récurrent et privilégié avec eux (unicité).
Le Bureau Numérique doit ainsi s’intégrer parfaitement aux services « cœur-métier » proposés en ligne par le vendeur s’il entend maximiser l’efficacité relationnelle de chacune des connexions client.

          Nous retiendrons ici l’attente principale des vendeurs : l’unicité.

          La fréquence des visites clients, générée par l’intérêt du service, permet au vendeur d’augmenter le nombre et la récurrence des points de contacts utiles… En d’autres termes : le vendeur utilise l’intérêt du particulier pour des informations qui ne proviennent pas uniquement de lui pour générer une fréquence élevée de contacts qu’il va exploiter pour son propre compte.

          L’unicité se nourrit donc de l’universalité.

          3 – Comment concilier un service Universel pour le client et unique pour le vendeur ?

          L’universalité du contenu présuppose un « libre accès » aux informations du client que le Bureau Numérique entend agréger (quelle qu’en soit la source).
          Mais compte tenu de l’unicité des points de contact que génèrent ces informations au seul profit du vendeur… quel est alors l’intérêt pour un autre vendeur de laisser libre accès aux informations de ses clients à un Bureau Numérique tiers ? Aucune, sauf à accepter délibérément de perdre une occasion de contact avec ses propres clients !
En l’absence d’intérêt commun ou partagé, le Coffre-Fort Numérique proposé par chacun des institutionnels sera ainsi dans l’incapacité d’agréger les informations clients des autres vendeurs.
Nous sommes ici au cœur de la problématique … les attentes (i) d’universalité client et (ii) d’unicité vendeur sont incompatibles !

          Face à cette incompatibilité, deux choix sont possibles :

          Choix n°1 : Renoncer à l’universalité.

          C’est le choix qu’opèrent actuellement les institutionnels (…). Réduire le service proposé à un simple espace de stockage dont les sources d’agrégation sont extrêmement réduites et que l’utilisateur doit principalement alimenter lui-même.
L’attente principale du client n’est pas satisfaite. (…)
          Chronique d’un fiasco annoncé !

          Choix n°2 : Renoncer à l’unicité.

          C’est-à-dire permettre et encourager les autres Institutionnels/vendeurs à communiquer avec leurs propres clients au sein même du Bureau Numérique.
C’est un choix audacieux, novateur, voir révolutionnaire. (…)
          Compte tenu de la multiplicité des offres de bureaux numériques qui est proposée aux particuliers, il est mathématiquement impossible qu’un institutionnel capte 100% de ses propres clients au sein de son offre… Une partie non négligeable de la clientèle de cet institutionnel sera donc utilisatrice d’un bureau numérique proposée par un autre institutionnel dont elle est également cliente.
Si l’institutionnel concerné s’oppose à transmettre les informations de ses clients à ces Bureaux Numériques tiers, ces derniers s’opposeront eux aussi à transmettre leurs propres informations… retour à la case départ de l’universalité.

          (…)

          En conclusion

          Le « Bureau numérique », qu’il soit proposé par un institutionnel ou un indépendant, doit intégrer une
          dimension relationnelle entre l’utilisateur particulier et ses différents institutionnels/vendeurs.
          Chaque institutionnel proposant un Bureau Numérique doit ainsi se préparer

          (i) à développer des espaces relationnels dédiés aux autres institutionnels/vendeurs au sein de son espace
          (ii) à interagir avec ses propres clients au sein des « Bureaux Numériques» proposés par les autres institutionnels ou indépendants.

          (…)

          Source : http://www.journaldunet.com/ebusiness/expert/53089/coffre-fort-numerique—quel-est-l-interet-en-matiere-de-relations-clients.shtml

            Pas d'image

            Stratégie de rupture|

            |

            Les non-stratégies : comment certaines stratégies n’en sont pas

            Fort de 25 ans d’expérience professionnelle dans plus de 15 pays, spécialiste de la stratégie d’entreprise, John S. Hamalian a écrit une série de trois articles sur la stratégie dont nous publions des extraits du premier. Dans cet article, il explique que de nombreuses organisations pensent avoir une stratégie alors qu’elles n’en ont pas réellement. Il développe différents exemples sur processexcellencenetwork.com

            (…)
            Without a well-structured plan an organisation runs the risk of meandering through the year, either with their heads stuck too high in the long-term clouds or mired in short-term firefighting on the ground. In either case they will likely not meet their intended outcomes, which need to be the result of a balanced combination of strategic, tactical and operational plans. Lack of a proper strategy will also make it very difficult to carry out process excellence initiatives, potentially resulting in ad hoc improvements that are not contributing to the overall organizational needs.

            The big issue here is that many of these organisations do not think they lack a plan. They often believe they have a solid strategy in place and are driving their actions with it. But in many cases there is a disconnect between reality and what many would consider to be evidence of sound planning techniques. These ‘non-strategies‘ usually fall into the following categories:

            Non Strategy #1: ‘The Wall Placard Strategy’

            Some organisations will go to great lengths to create wonderful Vision and Mission statements and proudly post them all over their walls. But then their planning stops there. While starting with a Vision and/or Mission statement is fine, those long-term high-level goals need to then be translated into more tangible objectives and action plans. (…)

            Non Strategy #2: ‘The Stratospheric Strategy’

            These strategies are too high-level. They start in the clouds and never come down, making them extremely difficult to make actionable. While going a bit beyond the Vision/Mission statement level, they still remain too generalized in nature. This type of strategy is marked by an intense focus on obscure long-term goals or vague bullet-point objectives, but not much else. (…)

            Non Strategy #3: ‘The KPI Strategy’

            When asked to show their strategies, some organisations excitedly whip out a beautiful powerpoint slide that states their goals in terms of a metric. Examples are ‘double revenue in three years’ or ‘achieve 20% margin by 2013’. This is not a strategy. This is merely a high-level metric that numerically states a business goal. While barely articulating the ‘what’, this practice completely misses the ‘how’ that is so critical to successful attainment of the goals. (…)

            Non Strategy #4: ‘The Govern-less Strategy’

            Some strategies are actually quite well constructed, but they miss one crucial element: a governance process. (…) A strategy is completely worthless unless it has a mechanism for sustainment during the whole year, with a clear process on who will lead the reviews, what specifically will be covered and what the frequency will be. A governance process allows the strategy to be more than just a one-time exercise, it literally is the life force that keeps the strategy alive and well during the whole year.

            Building a strategy may seem like a fairly easy endeavor, but as we can see above there are many scenarios where the effectiveness of the planning can be significantly compromised if not constructed and executed well. A solid plan does much more than just lay out objectives; it aligns the entire team, engages them in the organizational endeavors, provides them with a sense of purpose and gives clarity to expected outcomes. (…) A clear strategy with objectives and action plans can provide the fuel to ensure that improvement projects are aligned to the vision, adding value to key priority areas and are contributing to the bottom line.
            While both mouse and man may sometimes fail in their execution, having a solid plan is an effective way to define needs, outline expectations, align the organisation and help to cultivate a culture of long-term thinking.

            John will be discussing what elements make a great strategy in an upcoming article , to be published in the weeks ahead.

            Source : http://www.processexcellencenetwork.com/organizational-strategies-for-innovation-continuou/articles/the-non-strategy-how-some-strategies-are-not-strat/

            Fort de 25 ans d’expérience professionnelle dans plus de 15 pays, spécialiste de la stratégie d’entreprise, John S. Hamalian a écrit une série de trois articles sur la stratégie dont nous publions des extraits du premier. Dans cet article, il explique que de nombreuses organisations pensent avoir une stratégie alors qu’elles n’en ont pas réellement. Il développe différents exemples sur processexcellencenetwork.com

            (…)
            Without a well-structured plan an organisation runs the risk of meandering through the year, either with their heads stuck too high in the long-term clouds or mired in short-term firefighting on the ground. In either case they will likely not meet their intended outcomes, which need to be the result of a balanced combination of strategic, tactical and operational plans. Lack of a proper strategy will also make it very difficult to carry out process excellence initiatives, potentially resulting in ad hoc improvements that are not contributing to the overall organizational needs.

            The big issue here is that many of these organisations do not think they lack a plan. They often believe they have a solid strategy in place and are driving their actions with it. But in many cases there is a disconnect between reality and what many would consider to be evidence of sound planning techniques. These ‘non-strategies‘ usually fall into the following categories:

            Non Strategy #1: ‘The Wall Placard Strategy’

            Some organisations will go to great lengths to create wonderful Vision and Mission statements and proudly post them all over their walls. But then their planning stops there. While starting with a Vision and/or Mission statement is fine, those long-term high-level goals need to then be translated into more tangible objectives and action plans. (…)

            Non Strategy #2: ‘The Stratospheric Strategy’

            These strategies are too high-level. They start in the clouds and never come down, making them extremely difficult to make actionable. While going a bit beyond the Vision/Mission statement level, they still remain too generalized in nature. This type of strategy is marked by an intense focus on obscure long-term goals or vague bullet-point objectives, but not much else. (…)

            Non Strategy #3: ‘The KPI Strategy’

            When asked to show their strategies, some organisations excitedly whip out a beautiful powerpoint slide that states their goals in terms of a metric. Examples are ‘double revenue in three years’ or ‘achieve 20% margin by 2013’. This is not a strategy. This is merely a high-level metric that numerically states a business goal. While barely articulating the ‘what’, this practice completely misses the ‘how’ that is so critical to successful attainment of the goals. (…)

            Non Strategy #4: ‘The Govern-less Strategy’

            Some strategies are actually quite well constructed, but they miss one crucial element: a governance process. (…) A strategy is completely worthless unless it has a mechanism for sustainment during the whole year, with a clear process on who will lead the reviews, what specifically will be covered and what the frequency will be. A governance process allows the strategy to be more than just a one-time exercise, it literally is the life force that keeps the strategy alive and well during the whole year.

            Building a strategy may seem like a fairly easy endeavor, but as we can see above there are many scenarios where the effectiveness of the planning can be significantly compromised if not constructed and executed well. A solid plan does much more than just lay out objectives; it aligns the entire team, engages them in the organizational endeavors, provides them with a sense of purpose and gives clarity to expected outcomes. (…) A clear strategy with objectives and action plans can provide the fuel to ensure that improvement projects are aligned to the vision, adding value to key priority areas and are contributing to the bottom line.
            While both mouse and man may sometimes fail in their execution, having a solid plan is an effective way to define needs, outline expectations, align the organisation and help to cultivate a culture of long-term thinking.

            John will be discussing what elements make a great strategy in an upcoming article , to be published in the weeks ahead.

            Source : http://www.processexcellencenetwork.com/organizational-strategies-for-innovation-continuou/articles/the-non-strategy-how-some-strategies-are-not-strat/

            Organisation DSI|

            |

            Point de vue : Lean IT et Production Informatique

            Eric Villesalmon, associé fondateur d’ISlean consulting, nous livre son point de vue sur les apports du Lean Management dans l’univers particulier de la production informatique :

            Pour qui connaît le petit monde de la production informatique, il est aisé de constater que les principes du Lean Management sont à l’exact opposé des pratiques que l’on y rencontre au quotidien.

            Mais alors les dirigeants, managers et consultants de production font-ils fausse route ? Les productions informatiques n’arrivent-elles pas à être efficientes et orientées clients ? ITIL est à jeter aux orties ?

            Rien de tout ça en réalité. Il s’avère juste que les métiers de la production informatique ont atteint un palier de leur évolution et que passer à l’étape suivante va nécessiter de se focaliser sur des sujets peu défrichés jusqu’à présent et également de repartir dans des directions différentes voire opposées dans certains cas. Le Lean management est une démarche adaptée à la maturité actuelle des productions informatique et qui peut leur permettre d’atteindre un nouveau palier d’efficience et d’ajustement de la valeur délivrée à leurs clients.

            En effet, le monde de la production a profondément évolué ces 10 dernières années. Ses métiers se sont structurés, professionnalisés et ses pratiques se sont standardisées, sous l’impulsion notable d’ITIL mais également, ne l’oublions pas, par mimétisme des autres pratiques au sein de l’entreprise ou de la DSI (TQM, Balanced Scorecard, Orientation Client, l’automatisation …). On y voit même des consultants, c’est dire !

            Il n’empêche qu’il y a encore loin de la coupe aux lèvres :

            • Le succès d’ITIL est tel que l’on oublie parfois que l’on partait de très bas. En conséquence on ne compte plus le nombre d’implémentations ITIL où la principale, sinon l’unique, valeur ajoutée d’ITIL est d’avoir créé un langage compréhensible entre la « Prod. » et les Etudes ; voire parfois dans des secteurs tels que la banque un langage compréhensible entre la « Prod » et les métiers (ou la Maîtrise d’ouvrage). Certes ce n’est pas rien, c’est même très important, mais il reste encore du chemin à parcourir pour que la production puisse contenter des clients rendus plus exigeants dans un contexte économique difficile et peu prédictible.
            • Le succès d’ITIL est même pour tout dire gênant car il donne l’illusion à beaucoup que « ça y est… on a enfin trouvé le Graal ». Ce serait tellement plus simple si c’était vrai.

            Ne rêvons pas, tous ces outils n’ont que peu changé les mentalités au fond.

            De l’opérateur au directeur de la production, l’homo productis reste avant tout :

            • un spécialiste de la technique : certes on pourra m’objecter qu’en gravissant les échelons hiérarchiques il perd sa spécialisation technique. Oui bien sûr il la perd mais en élargissant son spectre d’intervention et puis au fond notre homo productis manager il sait bien, lui, que tout ça c’est pas nouveau, qu’il avait des compétences techniques sur plein de sujets bien avant « ces petits jeunes qui croient tout savoir sur VMware mais qui feraient bien de s’inspirer de ce qu’on faisait déjà à l’époque avec zVM. ». D’ailleurs comme il est devenu bien plus sage il n’en parle même plus car il sait bien qu’il ne sera pas écouté.
              Un soldat de commando : un spécialiste du coup de main en période de crise, avérée ou imminente. (mais plutôt avérée car c’est plus drôle – avec tous ces dirigeants qui s’inquiètent et qui pour une fois s’intéressent, pour quelques heures ou jours, à l’informatique).
              Un amoureux du travail bien fait : qui privilégie toujours le zéro impact sur la qualité de service à la mise en production d’un changement fusse t-il urgent. Alors forcément quand on lui demande de faire vite et bien, il fait avant tout bien et quant à aller vite « qu’y z’y vienne pour me dire comment je dois travailler, et puis de toute façon ils sont content maintenant, ça marche non ? ».

            Cette histoire et les hommes qui la composent font qu’aujourd’hui la production informatique reste de l’artisanat qu’on tente maladroitement de tayloriser alors que c’est inapproprié et que cela ne représentera jamais une avancée en terme d’efficience ou d’efficacité, notamment parce que c’est complètement contre culturel.

            Le lean management représente de mon point de vue une bonne chose pour la production informatique car malgré quelques outils contre-intuitif, il est beaucoup plus en phase avec les éléments structurants de l’état d’esprit des hommes de Prod. En effet le lean s’appuie de manière équilibrée sur le terrain et le management pour identifier et mettre en œuvre des améliorations. Il est basé sur des cycles essais / erreurs (PDCA) courts et dont on doit mesurer les résultats concrets avant de les valider, par opposition à des grands développements conceptuels et intellectuels qui auraient peu de pertinence lors de la mise en œuvre.

            Pour imposer une vision Lean, il faut lutter à contre-courant des habitudes sur les points suivants :

            • La surqualité car elle se traduit toujours par une perte de contrôle totale sur l’axe temps et force la spécialisation technique des ressources à tous les niveaux. Je milite pour une polyvalence accrue des compétences de niveau 2 en laissant seule l’expertise hyperspécialisée. C’est parfois contre-intuitif pour les personnels de production mais en revanche cela est en phase avec un état d’esprit généralement ouvert et intéressé par la découverte de nouvelles technologies. Les avantages en sont multiples : meilleure maîtrise et contrôle des délais (en réduisant drastiquement les temps d’attente), meilleure maîtrise des délais globaux en permettant de définir des lots de réalisation homogènes pour les activités de gestion des changements et donc de rentrer dans des logiques proches de celles de gestion du temps de cycle ou de temps takt que l’on trouve dans l’industrie manufacturière. Une condition toutefois : l’amélioration de la polyvalence ne se décrète pas c’est une cible et un chemin qui doit être construit avec tout le monde et qui se fait dans la durée.
            • La segmentation des activités de niveau 1, 2 et 3. Mais me direz vous, c’est ce que nous dit ITIL depuis toujours. Certes mais force est de constater que le message n’est pas toujours bien compris par le terrain, probablement pour des raisons de méthode. Ces choix d’organisation passent par de la contextualisation et nécessitent l’appropriation de ces mécanismes et indicateurs de performance par le terrain. Souvent les implémentation ITIL se font de manière très top-down, et doctrinales « ITIL a dit qu’il fallait faire comme ça » – c’est généralement faux d’ailleurs ITIL n’a jamais dit qu’il fallait faire de telle ou telle façon – mais malheureusement c’est le travers dans lequel beaucoup sont tombés.
            • Le sens du client et le sens de l’anticipation. C’est peut-être le plus dur. La prod ayant un sens de la réactivité hypertrophié et ne voyant le client que par ce prisme. « Postez moi une demande, un besoin, si possible avec des délais impossibles, et pendant que le service client explique que c’est pas possible, moi je fais ». Malheureusement plus ça va et moins ça marche même s’il faut bien le reconnaître : encore souvent la prod. fait des miracles. Le corollaire c’est qu’ayant usée toute son énergie à ramener la situation au nominal on a plus ni l’énergie ni l’intérêt de faire en sorte que cela ne se reproduise pas. Je pense que le Lean management par l’intermédiaire des ateliers Kaizen permet à la production de progresser à son rythme sur ces points et d’installer pas à pas un culture plus importante de la prévention et de l’anticipation. Inutile d’essayer de l’imposer en force c’est peine perdue.
            • – Dernier point et ce sera une question plus qu’une affirmation. N’a-t-on pas trop communiqué sur l’absolue nécessité de la continuité de service au risque de figer la production dans des positions extrêmement rigides sur les risques de discontinuité d’activité et ce de manière parfois déconnectée des réalités du métier. Le métier n’a-t-il pas autant besoin de continuité au quotidien que d’agilité dans le court et le moyen terme ?

            Eric Villesalmon

            Eric Villesalmon, associé fondateur d’ISlean consulting, nous livre son point de vue sur les apports du Lean Management dans l’univers particulier de la production informatique :

            Pour qui connaît le petit monde de la production informatique, il est aisé de constater que les principes du Lean Management sont à l’exact opposé des pratiques que l’on y rencontre au quotidien.

            Mais alors les dirigeants, managers et consultants de production font-ils fausse route ? Les productions informatiques n’arrivent-elles pas à être efficientes et orientées clients ? ITIL est à jeter aux orties ?

            Rien de tout ça en réalité. Il s’avère juste que les métiers de la production informatique ont atteint un palier de leur évolution et que passer à l’étape suivante va nécessiter de se focaliser sur des sujets peu défrichés jusqu’à présent et également de repartir dans des directions différentes voire opposées dans certains cas. Le Lean management est une démarche adaptée à la maturité actuelle des productions informatique et qui peut leur permettre d’atteindre un nouveau palier d’efficience et d’ajustement de la valeur délivrée à leurs clients.

            En effet, le monde de la production a profondément évolué ces 10 dernières années. Ses métiers se sont structurés, professionnalisés et ses pratiques se sont standardisées, sous l’impulsion notable d’ITIL mais également, ne l’oublions pas, par mimétisme des autres pratiques au sein de l’entreprise ou de la DSI (TQM, Balanced Scorecard, Orientation Client, l’automatisation …). On y voit même des consultants, c’est dire !

            Il n’empêche qu’il y a encore loin de la coupe aux lèvres :

            • Le succès d’ITIL est tel que l’on oublie parfois que l’on partait de très bas. En conséquence on ne compte plus le nombre d’implémentations ITIL où la principale, sinon l’unique, valeur ajoutée d’ITIL est d’avoir créé un langage compréhensible entre la « Prod. » et les Etudes ; voire parfois dans des secteurs tels que la banque un langage compréhensible entre la « Prod » et les métiers (ou la Maîtrise d’ouvrage). Certes ce n’est pas rien, c’est même très important, mais il reste encore du chemin à parcourir pour que la production puisse contenter des clients rendus plus exigeants dans un contexte économique difficile et peu prédictible.
            • Le succès d’ITIL est même pour tout dire gênant car il donne l’illusion à beaucoup que « ça y est… on a enfin trouvé le Graal ». Ce serait tellement plus simple si c’était vrai.

            Ne rêvons pas, tous ces outils n’ont que peu changé les mentalités au fond.

            De l’opérateur au directeur de la production, l’homo productis reste avant tout :

            • un spécialiste de la technique : certes on pourra m’objecter qu’en gravissant les échelons hiérarchiques il perd sa spécialisation technique. Oui bien sûr il la perd mais en élargissant son spectre d’intervention et puis au fond notre homo productis manager il sait bien, lui, que tout ça c’est pas nouveau, qu’il avait des compétences techniques sur plein de sujets bien avant « ces petits jeunes qui croient tout savoir sur VMware mais qui feraient bien de s’inspirer de ce qu’on faisait déjà à l’époque avec zVM. ». D’ailleurs comme il est devenu bien plus sage il n’en parle même plus car il sait bien qu’il ne sera pas écouté.
              Un soldat de commando : un spécialiste du coup de main en période de crise, avérée ou imminente. (mais plutôt avérée car c’est plus drôle – avec tous ces dirigeants qui s’inquiètent et qui pour une fois s’intéressent, pour quelques heures ou jours, à l’informatique).
              Un amoureux du travail bien fait : qui privilégie toujours le zéro impact sur la qualité de service à la mise en production d’un changement fusse t-il urgent. Alors forcément quand on lui demande de faire vite et bien, il fait avant tout bien et quant à aller vite « qu’y z’y vienne pour me dire comment je dois travailler, et puis de toute façon ils sont content maintenant, ça marche non ? ».

            Cette histoire et les hommes qui la composent font qu’aujourd’hui la production informatique reste de l’artisanat qu’on tente maladroitement de tayloriser alors que c’est inapproprié et que cela ne représentera jamais une avancée en terme d’efficience ou d’efficacité, notamment parce que c’est complètement contre culturel.

            Le lean management représente de mon point de vue une bonne chose pour la production informatique car malgré quelques outils contre-intuitif, il est beaucoup plus en phase avec les éléments structurants de l’état d’esprit des hommes de Prod. En effet le lean s’appuie de manière équilibrée sur le terrain et le management pour identifier et mettre en œuvre des améliorations. Il est basé sur des cycles essais / erreurs (PDCA) courts et dont on doit mesurer les résultats concrets avant de les valider, par opposition à des grands développements conceptuels et intellectuels qui auraient peu de pertinence lors de la mise en œuvre.

            Pour imposer une vision Lean, il faut lutter à contre-courant des habitudes sur les points suivants :

            • La surqualité car elle se traduit toujours par une perte de contrôle totale sur l’axe temps et force la spécialisation technique des ressources à tous les niveaux. Je milite pour une polyvalence accrue des compétences de niveau 2 en laissant seule l’expertise hyperspécialisée. C’est parfois contre-intuitif pour les personnels de production mais en revanche cela est en phase avec un état d’esprit généralement ouvert et intéressé par la découverte de nouvelles technologies. Les avantages en sont multiples : meilleure maîtrise et contrôle des délais (en réduisant drastiquement les temps d’attente), meilleure maîtrise des délais globaux en permettant de définir des lots de réalisation homogènes pour les activités de gestion des changements et donc de rentrer dans des logiques proches de celles de gestion du temps de cycle ou de temps takt que l’on trouve dans l’industrie manufacturière. Une condition toutefois : l’amélioration de la polyvalence ne se décrète pas c’est une cible et un chemin qui doit être construit avec tout le monde et qui se fait dans la durée.
            • La segmentation des activités de niveau 1, 2 et 3. Mais me direz vous, c’est ce que nous dit ITIL depuis toujours. Certes mais force est de constater que le message n’est pas toujours bien compris par le terrain, probablement pour des raisons de méthode. Ces choix d’organisation passent par de la contextualisation et nécessitent l’appropriation de ces mécanismes et indicateurs de performance par le terrain. Souvent les implémentation ITIL se font de manière très top-down, et doctrinales « ITIL a dit qu’il fallait faire comme ça » – c’est généralement faux d’ailleurs ITIL n’a jamais dit qu’il fallait faire de telle ou telle façon – mais malheureusement c’est le travers dans lequel beaucoup sont tombés.
            • Le sens du client et le sens de l’anticipation. C’est peut-être le plus dur. La prod ayant un sens de la réactivité hypertrophié et ne voyant le client que par ce prisme. « Postez moi une demande, un besoin, si possible avec des délais impossibles, et pendant que le service client explique que c’est pas possible, moi je fais ». Malheureusement plus ça va et moins ça marche même s’il faut bien le reconnaître : encore souvent la prod. fait des miracles. Le corollaire c’est qu’ayant usée toute son énergie à ramener la situation au nominal on a plus ni l’énergie ni l’intérêt de faire en sorte que cela ne se reproduise pas. Je pense que le Lean management par l’intermédiaire des ateliers Kaizen permet à la production de progresser à son rythme sur ces points et d’installer pas à pas un culture plus importante de la prévention et de l’anticipation. Inutile d’essayer de l’imposer en force c’est peine perdue.
            • – Dernier point et ce sera une question plus qu’une affirmation. N’a-t-on pas trop communiqué sur l’absolue nécessité de la continuité de service au risque de figer la production dans des positions extrêmement rigides sur les risques de discontinuité d’activité et ce de manière parfois déconnectée des réalités du métier. Le métier n’a-t-il pas autant besoin de continuité au quotidien que d’agilité dans le court et le moyen terme ?

            Eric Villesalmon

              Pas d'image

              Stratégie SI|

              |

              "Nuage", l’autre Cloud français

              Les remous autour du grand projet de Cloud français Andromède et la volonté d’Atos de rejoindre le consortium ont eu tendance à éclipser un autre projet de Cloud français : « Nuage » fortement orienté Open Source et disposant d’une enveloppe budgétaire de 10M€.

              Voici un article du site Le Monde Informatique présentant les acteurs de ce projet :

              Dans l’appel d’offres relatif au cloud computing au sein du Grand Emprunt, le projet Nuage décide de sortir de l’ombre et de communiquer. Il est composé de 7 PME : Celeste, FAI et concepteur de datacenter ; Non Stop Systems, SSII spécialisée en solutions d’infrastructures sécurisées ; Oodrive éditeur de solution professionnelles de sauvegarde et de partage de fichiers en ligne ; DotRiver qui propose des solutions de virtualisation et de centralisation de poste de travail ; Network Consulting, hébergeur ; New Generation SR, conseil en responsabilité sociale des entreprises.Deux équipes des projets REGAL (répartition et gestion des applications à large échelle) et PHARE (sur les futurs générations des réseaux télécoms) du laboratoire LIP6 de l’université Pierre et Marie Curie.

              Selon Nicolas Aubé, PDG de Celeste, « l’idée est de créer le cloud computing de demain : ouvert à des composantes matérielles et logicielles externes, réparti sur un maillage régional français, et hébergé dans des datacenters écologiques, faiblement consommateurs d’énergie ». Le groupe souligne aussi l’importance de la localisation des données sur le territoire français.

              Open Source et datacenter pilote

              Concrétement, il s’agit d’un projet de R&D qui doit durer deux ans avec une forte connotation Open Source, pour trouver des solutions alternatives à celles existantes. Pendant cette durée, un datacenter pilote va être créé pour proposer des offres clouds. Nicolas Aubé indique « nous souhaitons travailler sur des datacenters évolutifs avec des modules verticaux optimisant mieux la consommation d’énergie. Les entreprises pourront s’interconnecter pour chercher des ressources ou des services ». Sur la partie du matériel utilisé, le dirigeant que rien n’a été encore choisi, mais il souhaite que les solutions proposées par Nuage soit compatible avec le plus grand nombre de constructeurs.

              source : http://www.lemondeinformatique.fr/actualites/lire-nuage-une-alternative-cloud-au-projet-andromede-47292.html

              Les remous autour du grand projet de Cloud français Andromède et la volonté d’Atos de rejoindre le consortium ont eu tendance à éclipser un autre projet de Cloud français : « Nuage » fortement orienté Open Source et disposant d’une enveloppe budgétaire de 10M€.

              Voici un article du site Le Monde Informatique présentant les acteurs de ce projet :

              Dans l’appel d’offres relatif au cloud computing au sein du Grand Emprunt, le projet Nuage décide de sortir de l’ombre et de communiquer. Il est composé de 7 PME : Celeste, FAI et concepteur de datacenter ; Non Stop Systems, SSII spécialisée en solutions d’infrastructures sécurisées ; Oodrive éditeur de solution professionnelles de sauvegarde et de partage de fichiers en ligne ; DotRiver qui propose des solutions de virtualisation et de centralisation de poste de travail ; Network Consulting, hébergeur ; New Generation SR, conseil en responsabilité sociale des entreprises.Deux équipes des projets REGAL (répartition et gestion des applications à large échelle) et PHARE (sur les futurs générations des réseaux télécoms) du laboratoire LIP6 de l’université Pierre et Marie Curie.

              Selon Nicolas Aubé, PDG de Celeste, « l’idée est de créer le cloud computing de demain : ouvert à des composantes matérielles et logicielles externes, réparti sur un maillage régional français, et hébergé dans des datacenters écologiques, faiblement consommateurs d’énergie ». Le groupe souligne aussi l’importance de la localisation des données sur le territoire français.

              Open Source et datacenter pilote

              Concrétement, il s’agit d’un projet de R&D qui doit durer deux ans avec une forte connotation Open Source, pour trouver des solutions alternatives à celles existantes. Pendant cette durée, un datacenter pilote va être créé pour proposer des offres clouds. Nicolas Aubé indique « nous souhaitons travailler sur des datacenters évolutifs avec des modules verticaux optimisant mieux la consommation d’énergie. Les entreprises pourront s’interconnecter pour chercher des ressources ou des services ». Sur la partie du matériel utilisé, le dirigeant que rien n’a été encore choisi, mais il souhaite que les solutions proposées par Nuage soit compatible avec le plus grand nombre de constructeurs.

              source : http://www.lemondeinformatique.fr/actualites/lire-nuage-une-alternative-cloud-au-projet-andromede-47292.html