Stratégie SI|

|

Très Haut Débit : les entreprises doivent payer le prix fort

Dans les faits, les entreprises sont les oubliées d’un plan Très Haut Débit pourtant censé « renforcer la compétitivité de l’économie française » en donnant accès aux entreprises au Très Haut Débit à des tarifs accessibles.
Malgré le constat d’inefficacité de ce plan sur sur deux exemples vécus, comment faire pour pour renforcer l’accès des entreprises françaises au Très Haut Débit ?

Le plan « Très haut débit »

Le plan Très Haut Débit a été lancé en France au printemps 2013 avec l’objectif de couvrir l’intégralité du territoire d’ici 2022. L’atteinte de cette ambition s’appuie essentiellement sur le déploiement de la fibre optique.

Le plan est doté d’un budget de 20 Milliards d’euros partagé entre l’Etat, les collectivités locales, et les opérateurs privés.

L’ambition est simple : « renforcer la compétitivité de l’économie française et la qualité des services publics. » Effectivement, l’impact du débit d’une connexion sur la quantité et la qualité des services numériques consommés par une entreprise peut être énorme.  Aujourd’hui, à l’heure du Software as a Service (messageries, échange de fichiers, collaboration, videoconference…), la consommation de débit augmente pour toutes les entreprises.

Le plan divise la France en deux zones : la zone conventionnée (milieu urbain) où les opérateurs privés investissent en propre en se répartissant le gâteau, et la zone non conventionnée (milieu rural) où l’Etat et les collectivités locales subventionnent les opérateurs privés pour installer de la fibre.

Plan_THD

Source : http://www.francethd.fr/comprendre-le-plan-france-tres-haut-debit/

Dans la page de présentation du programme « Comprendre le Plan France Très Haut Débit« , le mot entreprise n’apparaît qu’une fois. Un premier paragraphe fait état de technologies, et un deuxième explique les aspects financiers, notamment en matière de subventions.

On comprend pourquoi en s’intéressant au cahier des charges du plan France Très Haut Débit où l’on découvre un second découpage qui traverse le premier (zones conventionnées et non conventionnées) : les zones résidentielles et les zones d’activités.

Un type de fibre est destiné à chaque zone :

  • La fibre FTTH (Fiber To The Home) [1], pour les zones résidentielles,
  • la fibre FTTO (Fiber To The Office) [2], pour les zones d’activité.

En faisant l’examen approfondi des offres sur le web en date de juin 2015, nous constatons la choses suivante :

Des prix élevés pour des PME

Il est très difficile de trouver une offre ferme pour les entreprises en surfant sur le web. Soit il n’y a rien, et il faut joindre un commercial (cas d’OBS, qui est leader du marché), soit on trouve des prix, avec la mention « à partir de ».  Quand on creuse, les 1 400 €/mois se transforment sauf exception en 2 000 €/mois.

Par exemple, pour deux zones d’activité autour de Paris (Paris Nord II à quelques centaines de mètres de l’aéroport Charles de Gaulle ou la zone de Courtaboeuf à quelques kilomètres du pôle technologique de Saclay par exemple) ne sont pas couvertes par l’offre FTTH. En revanche, une offre FTTO est proposée aux entreprises.

Même en milieu urbain résidentiel, il est parfois impossible de bénéficier de l’offre FTTH. A Malakoff, à quelques centaines de mètres de Paris, la fibre passe dans la rue devant notre cabinet, mais nous ne pouvons pas être raccordés, car notre immeuble fait partie d’une copropriété de moins de douze lots, ce qui n’est pas assez important pour justifier un raccordement pour Orange.

La seule possibilité est de prendre un abonnement FTTO à 2 000 €/mois, en choisissant soigneusement son opérateur, sinon le coût peut doubler. La meilleure offre pro FTTO est donc 50 fois plus chère que l’offre particulier FTTH !

Plus cher mais pas mieux, loin de là !

Pour expliquer ou justifier la différence, les opérateurs télécoms, historique ou non, mettent en avant plusieurs services dans la FTTO absents de la FTTH :

1. Un débit minimum garanti,
2. Une connexion symétrique [4],
3. Une intervention en moins de 4h en cas de perte de connexion,
4. Une « surveillance du réseau »,
5. Un raccordement gratuit au réseau.

Ces services « premium » sont apparemment attractifs pour des professionnels en quête de garanties de qualité de fonctionnement.

En fait, leur réalité et leur valeur sont discutables :

1. Débit minimum garanti : Les connexions FTTH dépassent les 100 Mbps en débit descendant (par exemple chez moi : 300 Mbps) ; à ce jour, il n’existe aucune statistique de disponibilités (= nombre d’heures d’arrêt / nombre d’heures par an) ; chacun, sur la base de son vécu, peut juger de la disponibilité de l’accès à internet ; au pire, en prenant une deuxième ligne à 40 €/ mois chez un autre opérateur, ou un accès 4G permettent de se couvrir en cas de panne,

2. Connexion symétrique : quand internet sert à des utilisateurs, les données envoyées (frappes de clavier, documents) sont en quantité très faible au regard des données reçues (pages web, videos, sons, images…). C’est ce qui rend les connexions ADSL (A pour Asymétrique) pertinentes. Les offres SDSL (S pour Symétrique) sont  pertinentes pour des entreprises multi-sites hébergeant elles mêmes leurs serveurs de données ou gérant un centre d’appel de grande taille (1 000 appels simultanés à traiter [5]),

3. Une intervention en moins de 4h en cas de perte de connexion : comme évoqué au point 1, les accès FTTH sont stables, jusqu’à preuve du contraire, et lorsqu’un problème survient, un simple redémarrage de la box suffit généralement. Si la panne est plus grave, comme aussi évoqué au point 1, soit vous pouvez utiliser un accès redondant FTTH d’un autre opérateur ou 4G. Une autre option est d’utiliser son smartphone maintenant largement répandu avec abonnement aux données en 4G [6] avec des forfaits très largement suffisants (20 Go/mois chez Free pour 20 €/mois). Un téléphone en 4G suffit à connecter 10 personnes à internet. Si vous n’êtes toujours pas convaincus, souscrivez en plus à un abonnement type « routeur 4G » à 20 € par mois. Vous restez largement bénéficiaires,

4. La « surveillance du réseau » est un service qu’aucun opérateur n’a su m’expliquer, en tous cas je n’ai pas réussi à comprendre ce que c’était malgré toute ma bonne volonté. La mise en place de solutions répandues de sécurité (NAT, firewalls logiques) et maitrisées par la plupart des techniciens réseaux, suffit amplement à garantir la sécurité de votre entreprise. Ces solutions sont d’ailleurs fortement recommandées dans tous les cas, la surveillance du réseau ne permettant pas de s’en affranchir,

5. Quand au raccordement « gratuit » au réseau, étant donné le montant de l’abonnement mensuel, nul doute que le coût est amorti dans l’abonnement, assorti d’une durée d’engagement minimale de 24 mois…

Donc, les entreprises, pour un service objectivement quasi identique, doivent payer plus de 50 fois plus cher que les particuliers. La question que nous nous posons est la suivante : où se situe la réalité des coûts ? Les coût sont-ils couverts à 40 €/mois pour 100 Mbps asymétrique, et si oui, à partir de quelle densité d’abonnés ?

Une TPE de 10 salariés a-t-elle les moyens du Très Haut Débit à 2 000 €/mois ? Est-il pertinent, pour la compétitivité du pays, qu’elle soit exclue des offres FTTH à 40 €/mois pour 100 Mbps asymétrique, qui lui conviendrait parfaitement ?

Pourquoi ne pas assumer que, comme pour les services bancaires, les entreprises paient pour les particuliers ?

En effet, les particuliers sont les grands gagnants de cette situation. Si ces offres sont supportables par de très grandes entreprises, elles sont inaccessibles pour les entreprises petites ou moyennes.

Quel est l’intérêt d’une connexion fibre à plus de 100 Mbps pour un usage privé ? Essentiellement visionner des vidéos ou des programmes télévisés en Haute Définition via internet. L’impact sur la compétitivité du pays à l’échelle internationale est très indirect, une connexion ADSL délivrant un débit descendant de quelques Mbps étant amplement suffisante pour permettre le travail à domicile.

En revanche, pour les entreprises l’enjeu est bien plus important. Une connexion THD permet à une entreprise d’avoir tout ou partie de son informatique dans le Cloud : les applications et leurs données, les données utilisateurs et les mails, notamment.

En plus des économies substantielles que cette migration engendre, le passage dans le Cloud offre à l’ensemble des entreprises des technologies de pointe, notamment pour le travail collaboratif et la mobilité [7].

Dans un contexte de forte concurrence internationale, la compétitivité des entreprises françaises passe par la généralisation des technologies internet grand public.

Nous ne contestons pas l’intérêt d’apporter l’internet à Très Haut Débit dans tous les foyers de France, même s’il est lointain et indirect. Si madame Michu a 100 Mbps asymétrique à la maison, elle pourra acheter des films, visualiser ses radiographies HD et ses scanners.

Ce qui nous semble très regrettable, c’est que les entreprises, surtout les petites et les moyennes, doivent payer le prix fort pour le THD, sans dans l’immédiat bénéficier de ce plan de 20 Mds€ qui clame pourtant améliorer la compétitivité de notre pays.

Ceci est-il une fatalité ? Faut-il se résigner pour encore de longues années au bas débit à bas coûts, ou au THD à coût très élevé ?

Bénéficier du THD quand on est une petite ou moyenne entreprise peut relever du parcours du combattant, mais c’est possible !

Vous l’aurez compris, si votre entreprise est dans une zone et un bâtiment éligibles au raccordement à l’offre FTTH, la meilleure solution pour bénéficier du THD est de souscrire à cette offre.

Si, comme la plupart des entreprises, vous n’avez pas cette possibilité, la solution qui reste consiste à souscrire une, deux, voire trois, en fonction de votre besoin de débit, connexions grand public en technologie cuivre à 40 € (Free, Orange, SFR, etc.) en étudiant les performances de chaque opérateur (type de connexion, débits descendant et montant). Vous bénéficierez ainsi à moindre coût du Très Haut Débit que le plan THD ne vous propose pas.

Ne prêtez pas attention aux mises en garde des fournisseurs d’offres pour entreprises FTTO, qui vous dira que ces offres ne sont pas adaptées, que vous mettez votre entreprise en danger. Les fournisseurs d’accès à internet pour entreprises se retrouvent dans la situation inconfortable d’avoir comme seul produit au catalogue une offre sans valeur ajoutée perçue par les PME et ETI, à un coût qui la leur rend inaccessible.

Pire : nous avons rencontré des cas où des accords de non concurrence ont été passés entre la division Entreprises qui vend du FTTO et la division Grand public qui vend du FTTH : si vous êtes une entreprise cliente d’une offre Entreprises, et que vous sollicitez une offre FTTH pour réduire vos coûts, la division Grand Public vous opposera une fin de non recevoir au motif que vous êtes une entreprise déjà en compte avec la division Entreprises.

Si vous êtes dans ce cas, adressez vous à un autre fournisseur d’accès. Il n’y a, à notre connaissance, aucune loi qui interdit à une entreprise de bénéficier d’une offre FTTH, quelle que soit sa taille.

La mise en place d’une connexion à Très Haut Débit est un premier pas vers un système d’information moderne qui tire partie de la révolution de l’internet, pour créer de la valeur pour les entreprises.

Il nous paraît dommage qu’en l’état actuel des politiques publiques, les actions en faveur du THD bénéficient essentiellement aux particuliers, et pas aux petites et moyennes entreprises qui créent pourtant l’essentiel de la richesse produite dans le pays. 

[1] La Fibre FTTH (Fiber To The Home) désigne les connexions fibre grand public (Environ 100 Mbps de débit descendant pour 40 €/mois)

[2] La Fibre FTTO (Fiber To The Office) désigne les connexions fibres dédiées aux entreprises (100 Mbps symétriques pour 2 000 €/mois minimum et jusqu’à 1 Gbps pour beaucoup plus)

[3] Mbps : Mégabits par seconde

[4] Une connexion symétrique offre un débit montant égal au débit descendant

[5] Un appel consomme environ 50Kbps de bande passante soit 50Mbps pour 1000 appels simultanés (http://www.cisco.com/cisco/web/support/CA/fr/109/1091/1091657_bwidth_consume.html)

[6] Plus de 60% de la population active, en forte augmentation (http://www.arcep.fr/uploads/tx_gspublication/etude-CREDOC-diffusion-TIC-2014.pdf)

[7] Salesforce résume les principaux atouts du Cloud : http://www.salesforce.com/fr/socialsuccess/cloud-computing/Les-10-avantages-du-cloud-computing.jsp

Dans les faits, les entreprises sont les oubliées d’un plan Très Haut Débit pourtant censé « renforcer la compétitivité de l’économie française » en donnant accès aux entreprises au Très Haut Débit à des tarifs accessibles.
Malgré le constat d’inefficacité de ce plan sur sur deux exemples vécus, comment faire pour pour renforcer l’accès des entreprises françaises au Très Haut Débit ?

Le plan « Très haut débit »

Le plan Très Haut Débit a été lancé en France au printemps 2013 avec l’objectif de couvrir l’intégralité du territoire d’ici 2022. L’atteinte de cette ambition s’appuie essentiellement sur le déploiement de la fibre optique.

Le plan est doté d’un budget de 20 Milliards d’euros partagé entre l’Etat, les collectivités locales, et les opérateurs privés.

L’ambition est simple : « renforcer la compétitivité de l’économie française et la qualité des services publics. » Effectivement, l’impact du débit d’une connexion sur la quantité et la qualité des services numériques consommés par une entreprise peut être énorme.  Aujourd’hui, à l’heure du Software as a Service (messageries, échange de fichiers, collaboration, videoconference…), la consommation de débit augmente pour toutes les entreprises.

Le plan divise la France en deux zones : la zone conventionnée (milieu urbain) où les opérateurs privés investissent en propre en se répartissant le gâteau, et la zone non conventionnée (milieu rural) où l’Etat et les collectivités locales subventionnent les opérateurs privés pour installer de la fibre.

Plan_THD

Source : http://www.francethd.fr/comprendre-le-plan-france-tres-haut-debit/

Dans la page de présentation du programme « Comprendre le Plan France Très Haut Débit« , le mot entreprise n’apparaît qu’une fois. Un premier paragraphe fait état de technologies, et un deuxième explique les aspects financiers, notamment en matière de subventions.

On comprend pourquoi en s’intéressant au cahier des charges du plan France Très Haut Débit où l’on découvre un second découpage qui traverse le premier (zones conventionnées et non conventionnées) : les zones résidentielles et les zones d’activités.

Un type de fibre est destiné à chaque zone :

  • La fibre FTTH (Fiber To The Home) [1], pour les zones résidentielles,
  • la fibre FTTO (Fiber To The Office) [2], pour les zones d’activité.

En faisant l’examen approfondi des offres sur le web en date de juin 2015, nous constatons la choses suivante :

Des prix élevés pour des PME

Il est très difficile de trouver une offre ferme pour les entreprises en surfant sur le web. Soit il n’y a rien, et il faut joindre un commercial (cas d’OBS, qui est leader du marché), soit on trouve des prix, avec la mention « à partir de ».  Quand on creuse, les 1 400 €/mois se transforment sauf exception en 2 000 €/mois.

Par exemple, pour deux zones d’activité autour de Paris (Paris Nord II à quelques centaines de mètres de l’aéroport Charles de Gaulle ou la zone de Courtaboeuf à quelques kilomètres du pôle technologique de Saclay par exemple) ne sont pas couvertes par l’offre FTTH. En revanche, une offre FTTO est proposée aux entreprises.

Même en milieu urbain résidentiel, il est parfois impossible de bénéficier de l’offre FTTH. A Malakoff, à quelques centaines de mètres de Paris, la fibre passe dans la rue devant notre cabinet, mais nous ne pouvons pas être raccordés, car notre immeuble fait partie d’une copropriété de moins de douze lots, ce qui n’est pas assez important pour justifier un raccordement pour Orange.

La seule possibilité est de prendre un abonnement FTTO à 2 000 €/mois, en choisissant soigneusement son opérateur, sinon le coût peut doubler. La meilleure offre pro FTTO est donc 50 fois plus chère que l’offre particulier FTTH !

Plus cher mais pas mieux, loin de là !

Pour expliquer ou justifier la différence, les opérateurs télécoms, historique ou non, mettent en avant plusieurs services dans la FTTO absents de la FTTH :

1. Un débit minimum garanti,
2. Une connexion symétrique [4],
3. Une intervention en moins de 4h en cas de perte de connexion,
4. Une « surveillance du réseau »,
5. Un raccordement gratuit au réseau.

Ces services « premium » sont apparemment attractifs pour des professionnels en quête de garanties de qualité de fonctionnement.

En fait, leur réalité et leur valeur sont discutables :

1. Débit minimum garanti : Les connexions FTTH dépassent les 100 Mbps en débit descendant (par exemple chez moi : 300 Mbps) ; à ce jour, il n’existe aucune statistique de disponibilités (= nombre d’heures d’arrêt / nombre d’heures par an) ; chacun, sur la base de son vécu, peut juger de la disponibilité de l’accès à internet ; au pire, en prenant une deuxième ligne à 40 €/ mois chez un autre opérateur, ou un accès 4G permettent de se couvrir en cas de panne,

2. Connexion symétrique : quand internet sert à des utilisateurs, les données envoyées (frappes de clavier, documents) sont en quantité très faible au regard des données reçues (pages web, videos, sons, images…). C’est ce qui rend les connexions ADSL (A pour Asymétrique) pertinentes. Les offres SDSL (S pour Symétrique) sont  pertinentes pour des entreprises multi-sites hébergeant elles mêmes leurs serveurs de données ou gérant un centre d’appel de grande taille (1 000 appels simultanés à traiter [5]),

3. Une intervention en moins de 4h en cas de perte de connexion : comme évoqué au point 1, les accès FTTH sont stables, jusqu’à preuve du contraire, et lorsqu’un problème survient, un simple redémarrage de la box suffit généralement. Si la panne est plus grave, comme aussi évoqué au point 1, soit vous pouvez utiliser un accès redondant FTTH d’un autre opérateur ou 4G. Une autre option est d’utiliser son smartphone maintenant largement répandu avec abonnement aux données en 4G [6] avec des forfaits très largement suffisants (20 Go/mois chez Free pour 20 €/mois). Un téléphone en 4G suffit à connecter 10 personnes à internet. Si vous n’êtes toujours pas convaincus, souscrivez en plus à un abonnement type « routeur 4G » à 20 € par mois. Vous restez largement bénéficiaires,

4. La « surveillance du réseau » est un service qu’aucun opérateur n’a su m’expliquer, en tous cas je n’ai pas réussi à comprendre ce que c’était malgré toute ma bonne volonté. La mise en place de solutions répandues de sécurité (NAT, firewalls logiques) et maitrisées par la plupart des techniciens réseaux, suffit amplement à garantir la sécurité de votre entreprise. Ces solutions sont d’ailleurs fortement recommandées dans tous les cas, la surveillance du réseau ne permettant pas de s’en affranchir,

5. Quand au raccordement « gratuit » au réseau, étant donné le montant de l’abonnement mensuel, nul doute que le coût est amorti dans l’abonnement, assorti d’une durée d’engagement minimale de 24 mois…

Donc, les entreprises, pour un service objectivement quasi identique, doivent payer plus de 50 fois plus cher que les particuliers. La question que nous nous posons est la suivante : où se situe la réalité des coûts ? Les coût sont-ils couverts à 40 €/mois pour 100 Mbps asymétrique, et si oui, à partir de quelle densité d’abonnés ?

Une TPE de 10 salariés a-t-elle les moyens du Très Haut Débit à 2 000 €/mois ? Est-il pertinent, pour la compétitivité du pays, qu’elle soit exclue des offres FTTH à 40 €/mois pour 100 Mbps asymétrique, qui lui conviendrait parfaitement ?

Pourquoi ne pas assumer que, comme pour les services bancaires, les entreprises paient pour les particuliers ?

En effet, les particuliers sont les grands gagnants de cette situation. Si ces offres sont supportables par de très grandes entreprises, elles sont inaccessibles pour les entreprises petites ou moyennes.

Quel est l’intérêt d’une connexion fibre à plus de 100 Mbps pour un usage privé ? Essentiellement visionner des vidéos ou des programmes télévisés en Haute Définition via internet. L’impact sur la compétitivité du pays à l’échelle internationale est très indirect, une connexion ADSL délivrant un débit descendant de quelques Mbps étant amplement suffisante pour permettre le travail à domicile.

En revanche, pour les entreprises l’enjeu est bien plus important. Une connexion THD permet à une entreprise d’avoir tout ou partie de son informatique dans le Cloud : les applications et leurs données, les données utilisateurs et les mails, notamment.

En plus des économies substantielles que cette migration engendre, le passage dans le Cloud offre à l’ensemble des entreprises des technologies de pointe, notamment pour le travail collaboratif et la mobilité [7].

Dans un contexte de forte concurrence internationale, la compétitivité des entreprises françaises passe par la généralisation des technologies internet grand public.

Nous ne contestons pas l’intérêt d’apporter l’internet à Très Haut Débit dans tous les foyers de France, même s’il est lointain et indirect. Si madame Michu a 100 Mbps asymétrique à la maison, elle pourra acheter des films, visualiser ses radiographies HD et ses scanners.

Ce qui nous semble très regrettable, c’est que les entreprises, surtout les petites et les moyennes, doivent payer le prix fort pour le THD, sans dans l’immédiat bénéficier de ce plan de 20 Mds€ qui clame pourtant améliorer la compétitivité de notre pays.

Ceci est-il une fatalité ? Faut-il se résigner pour encore de longues années au bas débit à bas coûts, ou au THD à coût très élevé ?

Bénéficier du THD quand on est une petite ou moyenne entreprise peut relever du parcours du combattant, mais c’est possible !

Vous l’aurez compris, si votre entreprise est dans une zone et un bâtiment éligibles au raccordement à l’offre FTTH, la meilleure solution pour bénéficier du THD est de souscrire à cette offre.

Si, comme la plupart des entreprises, vous n’avez pas cette possibilité, la solution qui reste consiste à souscrire une, deux, voire trois, en fonction de votre besoin de débit, connexions grand public en technologie cuivre à 40 € (Free, Orange, SFR, etc.) en étudiant les performances de chaque opérateur (type de connexion, débits descendant et montant). Vous bénéficierez ainsi à moindre coût du Très Haut Débit que le plan THD ne vous propose pas.

Ne prêtez pas attention aux mises en garde des fournisseurs d’offres pour entreprises FTTO, qui vous dira que ces offres ne sont pas adaptées, que vous mettez votre entreprise en danger. Les fournisseurs d’accès à internet pour entreprises se retrouvent dans la situation inconfortable d’avoir comme seul produit au catalogue une offre sans valeur ajoutée perçue par les PME et ETI, à un coût qui la leur rend inaccessible.

Pire : nous avons rencontré des cas où des accords de non concurrence ont été passés entre la division Entreprises qui vend du FTTO et la division Grand public qui vend du FTTH : si vous êtes une entreprise cliente d’une offre Entreprises, et que vous sollicitez une offre FTTH pour réduire vos coûts, la division Grand Public vous opposera une fin de non recevoir au motif que vous êtes une entreprise déjà en compte avec la division Entreprises.

Si vous êtes dans ce cas, adressez vous à un autre fournisseur d’accès. Il n’y a, à notre connaissance, aucune loi qui interdit à une entreprise de bénéficier d’une offre FTTH, quelle que soit sa taille.

La mise en place d’une connexion à Très Haut Débit est un premier pas vers un système d’information moderne qui tire partie de la révolution de l’internet, pour créer de la valeur pour les entreprises.

Il nous paraît dommage qu’en l’état actuel des politiques publiques, les actions en faveur du THD bénéficient essentiellement aux particuliers, et pas aux petites et moyennes entreprises qui créent pourtant l’essentiel de la richesse produite dans le pays. 

[1] La Fibre FTTH (Fiber To The Home) désigne les connexions fibre grand public (Environ 100 Mbps de débit descendant pour 40 €/mois)

[2] La Fibre FTTO (Fiber To The Office) désigne les connexions fibres dédiées aux entreprises (100 Mbps symétriques pour 2 000 €/mois minimum et jusqu’à 1 Gbps pour beaucoup plus)

[3] Mbps : Mégabits par seconde

[4] Une connexion symétrique offre un débit montant égal au débit descendant

[5] Un appel consomme environ 50Kbps de bande passante soit 50Mbps pour 1000 appels simultanés (http://www.cisco.com/cisco/web/support/CA/fr/109/1091/1091657_bwidth_consume.html)

[6] Plus de 60% de la population active, en forte augmentation (http://www.arcep.fr/uploads/tx_gspublication/etude-CREDOC-diffusion-TIC-2014.pdf)

[7] Salesforce résume les principaux atouts du Cloud : http://www.salesforce.com/fr/socialsuccess/cloud-computing/Les-10-avantages-du-cloud-computing.jsp

Organisation DSI|

|

Point de vue : Les SSII viennent de Mars, les DSI viennent de Vénus

Philippe Kalousdian, associé fondateur d’ISlean consulting nous livre son point de vue sur les relations entre DSI et SSII :

Ayant récemment démarré la lecture du livre de John Gray que vous aurez reconnu « les hommes viennent de Mars, les femmes viennent de Vénus », en même temps que j’interviens en audit et redressement de contrats d’outsourcing informatique, je me suis dit que de nombreux parallèles pouvaient être tracés.

Comme entre les hommes et les femmes, un abime d’incompréhension sépare les SSII et les DSI.

Cet abime est à mon avis principalement fait de différences d’objectifs, de différences d’horizons de temps et de différences de culture.

Les différences d’objectifs :

  • – Une DSI doit réaliser le grand écart entre la fourniture d’une énergie informatique (faire fonctionner les applications métiers de l’entreprise, et leurs interfaces homme-machine, que ce soit un PC, un laptop, un PDA, un Smartphone) et l’alignement des systèmes d’information aux métiers de l’entreprise (projets d’évolution ou de construction d’applications métiers).
  • – Une SSII doit d’abord faire du chiffre d’affaires rentable, puis durable.

Réussir à faire converger ces objectifs durablement, nécessite de la part des DSI de mener des appels d’offres auxquels le marché est capable de répondre avec maturité, en soignant la définition du périmètre, le choix des sociétés consultées, et en faisant une estimation ex ante rigoureuse du budget qui permettra d’avoir des offres de qualité adéquate.

Les différences d’horizon de temps :

  • – Les DSI s’inscrivent dans des horizons de temps de l’ordre de leur survie en poste, soit 3 à 5 ans, en moyenne. Horizon en général compatible avec le lancement, voire l’aboutissement partiel d’un programme de transformation des SI de l’entreprise.
  • – Les SSII s’inscrivent d’abord dans un horizon boursier de l’année fiscale, voire le trimestre. Certaines, et en général, pas les plus grandes, ont un soucis de la qualité dans la durée, mais qui n’est pas reconnu dans les modes de promotion des managers, dont l’horizon de promotion ou de mise au placard est de l’ordre de 1 à 3 ans.

Nous constatons donc là encore deux mondes qui structurellement ne peuvent pas construire dans la durée, à moins de bâtir des relations interpersonnelles de dirigeant à dirigeant, loin au-dessus des DSI et autres Client Engagement Executives.

La différence culturelle :

  • – Une DSI bien constituée a d’abord une culture métier et fonctionnelle : quel système pour automatiser tel ou tel processus métier, pour quel gain d’efficacité ou de productivité ?
  • – Une SSII a surtout une culture technique (certaines DSI aussi parfois, malheureusement au détriment des enjeux métiers). Les ingénieurs sont d’abord là pour développer des expertises sur des technologies ou des savoir-faire de management de projet

Là encore, comment réussir à faire se comprendre le voyageur qui veut découvrir du pays et le mécanicien qui veut fabriquer des beaux moteurs ? Comment parvenir à une synergie alors que leurs inclinations culturelles tendent à stériliser par nature même toute relation ?
Une DSI a d’abord besoin de solutions à plus ou moins forte valeur ajoutée, une SSII a besoin d’affecter le plus de ressources possible.

Les relations entre SSII et DSI m’ont souvent fait penser à ce jeu d’enfants de premier âge, où il faut faire pénétrer des formes dans les trous correspondant : carrés, disques, étoiles, triangles… Et où on est témoin de l’acharnement de certains à essayer de faire entrer à toute force un carré dans un rond !

D’autres paramètres, en général de second ordre par rapport aux précédents, peuvent ça et là avoir tout de même un rôle significatif :

  • L’état du marché, entre l’euphorie et la dépression, peut significativement changer la capacité de mobilisation d’une SSII
  • La taille des acteurs. De nouveaux acteurs émergents vont avoir une capacité à se mobiliser pour un client nettement plus forte qu’une SSII historique qui a pignon sur rue. Capacité de mobilisation parfois inversement proportionnelle à leur capacité à tenir les promesses.
  • L’état interne de la SSII : fusions, changement d’actionnaire, départ de dirigeant fondateur ou charismatique, entrainant à plus ou moins brève échéance une fuite des talents, il est majeur de se tenir informé de l’état du marché. Et ce pour éviter de miser sur ce qu’on croit être un point fort pérenne, alors que c’est un point en pleine déliquescence.

Comment avec tout cela encore espérer pouvoir s’en sortir ?

Je ne prétends pas détenir la vérité, et les expériences passées me forcent à l’humilité.
Cependant, quelques facteurs clés de réussite émergent :

  • – Bien se connaître et bien connaître les SSII. Ne pas croire que le marché sait faire des miracles, et pourra répondre à tous vos problèmes, et à fortiori aux problèmes que vous n’êtes même pas capables d’exprimer
  • – Se professionnaliser en matière de gestion de contrat ; faire preuve de rigueur ; ne pas exiger plus des autres que de soi-même. Etre exigeant mais juste.
  • Faire preuve de souplesse. Ne pas s’abriter derrière un contrat perdant pour une des parties, qui finira soit par jeter l’éponge, soit par se refaire par ailleurs. Co-construire en avançant, contractualiser léger au démarrage, quitte à enrichir le contrat ex post, avec des éléments éprouvés par la pratique. Faire le constat de manière adulte, qu’on a parfois pu faire fausse route et qu’il faut réajuster le tir.
  • – Favoriser la présence dans les DSI d’anciens bid managers de SSII, et dans les SSII d’anciens acheteurs de DSI. Tout ce qui permet de rapprocher les bords du gouffre est bon à prendre.

Quelques deals peuvent ainsi vivre un état de grâce pendant un temps plus ou moins long.

Par analogie avec ce que disait A. Lincoln « You can fool some of the people all of the time, and all of the people some of the time, but you can not fool all of the people all of the time. », il est très difficile, sinon impossible, de réussir à bâtir une relation idyllique entre une DSI et une SSII sur une longue durée, de par le caractère éphémère même des facteurs de réussite.

Cela ne doit pas nous rendre pessimiste. Cela doit nous rendre exigeants et rigoureux, pour réussir à réunir durablement les facteurs de réussite.

Philippe Kalousdian

Sur le même thème, consultez notre article « Manager un engagement de résultat ou un engagement de moyen ? ».

Philippe Kalousdian, associé fondateur d’ISlean consulting nous livre son point de vue sur les relations entre DSI et SSII :

Ayant récemment démarré la lecture du livre de John Gray que vous aurez reconnu « les hommes viennent de Mars, les femmes viennent de Vénus », en même temps que j’interviens en audit et redressement de contrats d’outsourcing informatique, je me suis dit que de nombreux parallèles pouvaient être tracés.

Comme entre les hommes et les femmes, un abime d’incompréhension sépare les SSII et les DSI.

Cet abime est à mon avis principalement fait de différences d’objectifs, de différences d’horizons de temps et de différences de culture.

Les différences d’objectifs :

  • – Une DSI doit réaliser le grand écart entre la fourniture d’une énergie informatique (faire fonctionner les applications métiers de l’entreprise, et leurs interfaces homme-machine, que ce soit un PC, un laptop, un PDA, un Smartphone) et l’alignement des systèmes d’information aux métiers de l’entreprise (projets d’évolution ou de construction d’applications métiers).
  • – Une SSII doit d’abord faire du chiffre d’affaires rentable, puis durable.

Réussir à faire converger ces objectifs durablement, nécessite de la part des DSI de mener des appels d’offres auxquels le marché est capable de répondre avec maturité, en soignant la définition du périmètre, le choix des sociétés consultées, et en faisant une estimation ex ante rigoureuse du budget qui permettra d’avoir des offres de qualité adéquate.

Les différences d’horizon de temps :

  • – Les DSI s’inscrivent dans des horizons de temps de l’ordre de leur survie en poste, soit 3 à 5 ans, en moyenne. Horizon en général compatible avec le lancement, voire l’aboutissement partiel d’un programme de transformation des SI de l’entreprise.
  • – Les SSII s’inscrivent d’abord dans un horizon boursier de l’année fiscale, voire le trimestre. Certaines, et en général, pas les plus grandes, ont un soucis de la qualité dans la durée, mais qui n’est pas reconnu dans les modes de promotion des managers, dont l’horizon de promotion ou de mise au placard est de l’ordre de 1 à 3 ans.

Nous constatons donc là encore deux mondes qui structurellement ne peuvent pas construire dans la durée, à moins de bâtir des relations interpersonnelles de dirigeant à dirigeant, loin au-dessus des DSI et autres Client Engagement Executives.

La différence culturelle :

  • – Une DSI bien constituée a d’abord une culture métier et fonctionnelle : quel système pour automatiser tel ou tel processus métier, pour quel gain d’efficacité ou de productivité ?
  • – Une SSII a surtout une culture technique (certaines DSI aussi parfois, malheureusement au détriment des enjeux métiers). Les ingénieurs sont d’abord là pour développer des expertises sur des technologies ou des savoir-faire de management de projet

Là encore, comment réussir à faire se comprendre le voyageur qui veut découvrir du pays et le mécanicien qui veut fabriquer des beaux moteurs ? Comment parvenir à une synergie alors que leurs inclinations culturelles tendent à stériliser par nature même toute relation ?
Une DSI a d’abord besoin de solutions à plus ou moins forte valeur ajoutée, une SSII a besoin d’affecter le plus de ressources possible.

Les relations entre SSII et DSI m’ont souvent fait penser à ce jeu d’enfants de premier âge, où il faut faire pénétrer des formes dans les trous correspondant : carrés, disques, étoiles, triangles… Et où on est témoin de l’acharnement de certains à essayer de faire entrer à toute force un carré dans un rond !

D’autres paramètres, en général de second ordre par rapport aux précédents, peuvent ça et là avoir tout de même un rôle significatif :

  • L’état du marché, entre l’euphorie et la dépression, peut significativement changer la capacité de mobilisation d’une SSII
  • La taille des acteurs. De nouveaux acteurs émergents vont avoir une capacité à se mobiliser pour un client nettement plus forte qu’une SSII historique qui a pignon sur rue. Capacité de mobilisation parfois inversement proportionnelle à leur capacité à tenir les promesses.
  • L’état interne de la SSII : fusions, changement d’actionnaire, départ de dirigeant fondateur ou charismatique, entrainant à plus ou moins brève échéance une fuite des talents, il est majeur de se tenir informé de l’état du marché. Et ce pour éviter de miser sur ce qu’on croit être un point fort pérenne, alors que c’est un point en pleine déliquescence.

Comment avec tout cela encore espérer pouvoir s’en sortir ?

Je ne prétends pas détenir la vérité, et les expériences passées me forcent à l’humilité.
Cependant, quelques facteurs clés de réussite émergent :

  • – Bien se connaître et bien connaître les SSII. Ne pas croire que le marché sait faire des miracles, et pourra répondre à tous vos problèmes, et à fortiori aux problèmes que vous n’êtes même pas capables d’exprimer
  • – Se professionnaliser en matière de gestion de contrat ; faire preuve de rigueur ; ne pas exiger plus des autres que de soi-même. Etre exigeant mais juste.
  • Faire preuve de souplesse. Ne pas s’abriter derrière un contrat perdant pour une des parties, qui finira soit par jeter l’éponge, soit par se refaire par ailleurs. Co-construire en avançant, contractualiser léger au démarrage, quitte à enrichir le contrat ex post, avec des éléments éprouvés par la pratique. Faire le constat de manière adulte, qu’on a parfois pu faire fausse route et qu’il faut réajuster le tir.
  • – Favoriser la présence dans les DSI d’anciens bid managers de SSII, et dans les SSII d’anciens acheteurs de DSI. Tout ce qui permet de rapprocher les bords du gouffre est bon à prendre.

Quelques deals peuvent ainsi vivre un état de grâce pendant un temps plus ou moins long.

Par analogie avec ce que disait A. Lincoln « You can fool some of the people all of the time, and all of the people some of the time, but you can not fool all of the people all of the time. », il est très difficile, sinon impossible, de réussir à bâtir une relation idyllique entre une DSI et une SSII sur une longue durée, de par le caractère éphémère même des facteurs de réussite.

Cela ne doit pas nous rendre pessimiste. Cela doit nous rendre exigeants et rigoureux, pour réussir à réunir durablement les facteurs de réussite.

Philippe Kalousdian

Sur le même thème, consultez notre article « Manager un engagement de résultat ou un engagement de moyen ? ».

Stratégie SI|

|

BYOD et URSSAF

Nous avons reçu la visite d’un contrôleur de l’URSSAF. Voici comment il a considéré notre politique de BYOD (Bring Your Own Device ou Apportez Vos Outils Personnels)

 Un contrôle des URSSAF !

L’été dernier, nous avons reçu ce courrier dans la boîte aux lettres :

2015_08_25 Courrier annonce controle URSSAF - extrait floute

S’ensuivait sur une deuxième page dix-huit autres bullets pour d’autres documents pour les trois dernières années.

Nous avons un responsable administratif et un cabinet d’expertise comptable travailleurs, rigoureux, et très expérimentés, donc au fait de la loi, en théorie et en pratique. Cela nous coûte 2% du chiffre d’affaires en achats, sans compter le temps que nous y passons. Donc tout est très bien tenu, dans des pochettes (électroniques et physiques) par année : comptabilité, fiscalité, paies, social, achats, ventes…

Une gestion au cordeau qui revient cher

Depuis que nous avons créé notre cabinet, nous avons naturellement choisi d’avoir des outils aux petits oignons, notamment informatiques. Nous faisons un métier où les coups de feu sont courants, donc il faut pouvoir travailler vite, bien, sans risque de perte de données, tout le temps et depuis quasi n’importe où. C’est pour ça que nous avons choisi des standards de l’internet et des machines et systèmes standards, avec smartphone et abonnement permettant de se connecter à internet en mobilité.

Mais, dans les standards, il reste l’éternel choix « PC ou Mac » et toute une gamme de produits dans chaque monde, chaque produit étant plus ou moins bon sur un des critères suivants : poids, taille (beaucoup d’entre nous ont des deux-roues), puissance, stockage, robustesse, ergonomie, design, autonomie, richesse d’offre logicielle…

Donc, comme les artisans qui choisissent leur boîte à outil, chaque consultant doit pouvoir choisir son package ordinateur portable, smartphone et abonnement téléphonique qui lui convient le mieux pour sa pratique du métier. Qu’il soit associé ou salarié.

Peu après la création en 2008 du cabinet, nous avons discuté avec notre expert comptable, qui nous a mis en garde sur le thème « je n’ai jamais vu faire », « ça peut être vu comme un avantage en nature donc soumis à charges sociales et fiscales », pour finir par « et pourquoi n’achetez-vous pas comme tout le monde les habituels HP, Dell, Asus, et Lenovo au nom de la société et on n’en parle plus ? ».

Nous ne nous sommes pas satisfaits de ces réponses,  et comme nous sommes obstinés, nous avons cherché.

Du principe à la réalité opérationnelle et légale

C’est vers cette époque que le BYOD a commencé à être connu. BYOD pour « Bring Your Own Device », ou AVOP en français, Apportez Vos Outils Personnels. Je me souvenais des Parties aux Etats-Unis, où c’était BYOB, pour « Bring Your Own Beer ». Les Américains, toujours pragmatiques et portés sur l’humour, ont fondé cet acronyme BYOD par dérivation du festif BYOB. Car dans la Silicon Valley, il n’est pas pensable de faire bosser les développeurs avec des machines « corporate ». Et en France, si vous trouvez quelqu’un de 20 à 30 ans heureux de travailler avec un ordinateur « corporate » au lieu de son portable favori, je trouverai ça bizarre.

Donc nous avons mis en place une politique AVOP. Contre une indemnité mensuelle qui couvre les frais d’équipement du package minimal du consultant, le consultant s’équipe pour pouvoir faire son métier avec efficacité et efficience, et est propriétaire ET responsable de son matériel, panne, perte et vol compris.

Comme tous nos systèmes sont des standards de l’internet, on prend n’importe quelle machine standard achetée à DARTY ou dans un Apple store, on la déballe, ou ouvre un navigateur, on installe la suite bureautique, et ça marche !

Liberté de choix

Comme certains malgré tout pouvaient préférer avoir une machine de l’entreprise, nous avons fait du « ni-ni » : l’AVOP n’est ni obligatoire, ni interdit. Si quelqu’un ne veut pas endosser la responsabilité de son équipement, il peut avoir une machine « corporate ».

Pour fixer tout cela, nous avons fait signer des convention AVOP disant notamment que le matériel doit permettre d’exercer le métier de consultant avec efficacité et efficience, avec des prescriptions techniques. Celui qui vient avec un vieux coucou récupéré sur le bon coin à 100 € et qui du coup n’arrive pas à travailler avec aura des soucis avec son manager, s’il n’en a pas déjà tout seul sur sa mission !

C’est ce que nous avons expliqué à notre contrôleur de l’URSSAF quand il est venu chez nous et est tombé sur la ligne « AVOP » dans notre grand livre comptable.

Sa question a été : « Mais qu’est-ce qui me dit que ce n’est pas une rémunération déguisée ? ». Là dessus j’ai sorti la convention AVOP d’un dossier salarié, convention stipulant les obligations du salarié en échange de la subvention : principe d’efficacité et d’efficience pour le travail de consultant et spécifications techniques, cohérence du montant avec le coût du matériel et sa durée de vie et responsabilité de l’utilisateur.

Comme l’indemnité outillage dans le BTP !

Là dessus, la réflexion du contrôleur a été : « Ah, je comprends, en fait c’est comme l’indemnité outillage pour les salariés du BTP ». Tout à fait ! Je ne savais pas qu’une telle pratique existait, mais ça me semble cohérent et normal : il n’est pas pensable de faire travailler un artisan minutieux avec du matériel X s’il est totalement fan de matériel Y. Et ce dernier mettra un point d’honneur à avoir toujours un outillage en parfait état de marche.

Le contrôle a poursuivi son cours et s’est conclu par :

Capture d’écran 2016-01-07 à 11.31.36

C’est exigeant et cher, mais c’est possible

Nous avons donc pu constater qu’en étant intelligents, transparents, rigoureux et cohérents, on arrivait à faire coincider la loi et la pratique opérationnelle.

 

Voir également nos articles :
« Pourquoi mettre en place le BYOD ? »
« Le BYOD pour garder vos talents et aider vos problèmes de trésorerie !« 

Article du 7 jan. 2016 mis à jour le 25 sep. 2016 et le 12 fév. 2017

Nous avons reçu la visite d’un contrôleur de l’URSSAF. Voici comment il a considéré notre politique de BYOD (Bring Your Own Device ou Apportez Vos Outils Personnels)

 Un contrôle des URSSAF !

L’été dernier, nous avons reçu ce courrier dans la boîte aux lettres :

2015_08_25 Courrier annonce controle URSSAF - extrait floute

S’ensuivait sur une deuxième page dix-huit autres bullets pour d’autres documents pour les trois dernières années.

Nous avons un responsable administratif et un cabinet d’expertise comptable travailleurs, rigoureux, et très expérimentés, donc au fait de la loi, en théorie et en pratique. Cela nous coûte 2% du chiffre d’affaires en achats, sans compter le temps que nous y passons. Donc tout est très bien tenu, dans des pochettes (électroniques et physiques) par année : comptabilité, fiscalité, paies, social, achats, ventes…

Une gestion au cordeau qui revient cher

Depuis que nous avons créé notre cabinet, nous avons naturellement choisi d’avoir des outils aux petits oignons, notamment informatiques. Nous faisons un métier où les coups de feu sont courants, donc il faut pouvoir travailler vite, bien, sans risque de perte de données, tout le temps et depuis quasi n’importe où. C’est pour ça que nous avons choisi des standards de l’internet et des machines et systèmes standards, avec smartphone et abonnement permettant de se connecter à internet en mobilité.

Mais, dans les standards, il reste l’éternel choix « PC ou Mac » et toute une gamme de produits dans chaque monde, chaque produit étant plus ou moins bon sur un des critères suivants : poids, taille (beaucoup d’entre nous ont des deux-roues), puissance, stockage, robustesse, ergonomie, design, autonomie, richesse d’offre logicielle…

Donc, comme les artisans qui choisissent leur boîte à outil, chaque consultant doit pouvoir choisir son package ordinateur portable, smartphone et abonnement téléphonique qui lui convient le mieux pour sa pratique du métier. Qu’il soit associé ou salarié.

Peu après la création en 2008 du cabinet, nous avons discuté avec notre expert comptable, qui nous a mis en garde sur le thème « je n’ai jamais vu faire », « ça peut être vu comme un avantage en nature donc soumis à charges sociales et fiscales », pour finir par « et pourquoi n’achetez-vous pas comme tout le monde les habituels HP, Dell, Asus, et Lenovo au nom de la société et on n’en parle plus ? ».

Nous ne nous sommes pas satisfaits de ces réponses,  et comme nous sommes obstinés, nous avons cherché.

Du principe à la réalité opérationnelle et légale

C’est vers cette époque que le BYOD a commencé à être connu. BYOD pour « Bring Your Own Device », ou AVOP en français, Apportez Vos Outils Personnels. Je me souvenais des Parties aux Etats-Unis, où c’était BYOB, pour « Bring Your Own Beer ». Les Américains, toujours pragmatiques et portés sur l’humour, ont fondé cet acronyme BYOD par dérivation du festif BYOB. Car dans la Silicon Valley, il n’est pas pensable de faire bosser les développeurs avec des machines « corporate ». Et en France, si vous trouvez quelqu’un de 20 à 30 ans heureux de travailler avec un ordinateur « corporate » au lieu de son portable favori, je trouverai ça bizarre.

Donc nous avons mis en place une politique AVOP. Contre une indemnité mensuelle qui couvre les frais d’équipement du package minimal du consultant, le consultant s’équipe pour pouvoir faire son métier avec efficacité et efficience, et est propriétaire ET responsable de son matériel, panne, perte et vol compris.

Comme tous nos systèmes sont des standards de l’internet, on prend n’importe quelle machine standard achetée à DARTY ou dans un Apple store, on la déballe, ou ouvre un navigateur, on installe la suite bureautique, et ça marche !

Liberté de choix

Comme certains malgré tout pouvaient préférer avoir une machine de l’entreprise, nous avons fait du « ni-ni » : l’AVOP n’est ni obligatoire, ni interdit. Si quelqu’un ne veut pas endosser la responsabilité de son équipement, il peut avoir une machine « corporate ».

Pour fixer tout cela, nous avons fait signer des convention AVOP disant notamment que le matériel doit permettre d’exercer le métier de consultant avec efficacité et efficience, avec des prescriptions techniques. Celui qui vient avec un vieux coucou récupéré sur le bon coin à 100 € et qui du coup n’arrive pas à travailler avec aura des soucis avec son manager, s’il n’en a pas déjà tout seul sur sa mission !

C’est ce que nous avons expliqué à notre contrôleur de l’URSSAF quand il est venu chez nous et est tombé sur la ligne « AVOP » dans notre grand livre comptable.

Sa question a été : « Mais qu’est-ce qui me dit que ce n’est pas une rémunération déguisée ? ». Là dessus j’ai sorti la convention AVOP d’un dossier salarié, convention stipulant les obligations du salarié en échange de la subvention : principe d’efficacité et d’efficience pour le travail de consultant et spécifications techniques, cohérence du montant avec le coût du matériel et sa durée de vie et responsabilité de l’utilisateur.

Comme l’indemnité outillage dans le BTP !

Là dessus, la réflexion du contrôleur a été : « Ah, je comprends, en fait c’est comme l’indemnité outillage pour les salariés du BTP ». Tout à fait ! Je ne savais pas qu’une telle pratique existait, mais ça me semble cohérent et normal : il n’est pas pensable de faire travailler un artisan minutieux avec du matériel X s’il est totalement fan de matériel Y. Et ce dernier mettra un point d’honneur à avoir toujours un outillage en parfait état de marche.

Le contrôle a poursuivi son cours et s’est conclu par :

Capture d’écran 2016-01-07 à 11.31.36

C’est exigeant et cher, mais c’est possible

Nous avons donc pu constater qu’en étant intelligents, transparents, rigoureux et cohérents, on arrivait à faire coincider la loi et la pratique opérationnelle.

 

Voir également nos articles :
« Pourquoi mettre en place le BYOD ? »
« Le BYOD pour garder vos talents et aider vos problèmes de trésorerie !« 

Article du 7 jan. 2016 mis à jour le 25 sep. 2016 et le 12 fév. 2017

Stratégie de rupture|

|

The Myths of Innovation – Scott Berkun

Après avoir procrastiné pendant plusieurs mois, et donc avoir tout oublié ou presque de cet ouvrage, je le survole une seconde fois pour vous en faire un résumé, car il le mérite.

L’ouvrage (en anglais) de Scott Berkun « The Myths of Innovation » permet de poser un certain nombre de fondamentaux concernant l’innovation. Notons au préalable que le terme « Innovation » est probablement employé à tort et à travers de nos jours et ce dans tous les pays du monde. J’en comprends que c’est encore plus vrai aux États-Unis. Et c’est là où je me dois de prévenir le lecteur français : cet ouvrage a d’immenses mérites, mais son impact est à mon avis un peu moins important pour le lecteur français que pour le lecteur américain, saturé depuis longtemps par l’emploi permanent du mot innovation et des légendes colportées autour, ne serait-ce que pour des raisons de marketing n’ayant rien à voir avec l’innovation.

Le terme étant souvent galvaudé, quelle est la définition du terme « Innovation » principalement retenue par Scott Berkun ? Une innovation c’est tout simplement un changement significatif positif « Significant Positive Change ».

Deux conséquences importantes de cette définition simplissime :

  • les affirmations du type « nous innovons tous les jours » sont incompatibles avec cette définition. Et je comprends également qu’elle permet de distinguer amélioration continue et innovation, sur la base du raisonnement : « si on fait des changements tous les jours ils s’agit d’évolutions incrémentales et pas d’innovations ».
  • c’est le « client » (ou l’utilisateur) qui détermine s’il s’agit d’un changement significatif positif ou pas. Si l’idée à l’origine d’une innovation était dans l’air depuis longtemps mais que personne ne l’avait concrétisée ou ne lui avait fait rencontrer son marché, c’est bien une innovation, au moins pour certains clients ou segments de clients.

L’auteur démonte ensuite, minutieusement, point par point et avec force exemples (c’est là une des grandes qualités de l’ouvrage), 10 mythes et légendes sur l’innovation. Même le lecteur français, à qui l’Education Nationale a consciencieusement épargné toutes les bases de l’économie de marché, connait ces mythes car comme le rappelle l’auteur, ce sont des légendes commodes (qui flattent la paresse naturelle du cerveau) et agréables (qui nous font rêver).

 

Quelles sont ces légendes ?

 

Mythe n°1 : le mythe de l’épiphanie…

ou le mythe de la nuit mystique (comme l’appelait mon prof de Philo – tiens je ne pensais pas que je me rappellerais un jour quelque chose de mes cours de philo en terminale). En bref il démonte par exemple le mythe bien connu de Newton ayant trouvé la loi de gravitation après avoir reçu une pomme sur la tête en faisant la sieste ou le mythe d’Archimède s’exclamant « Eureka » en prenant son bain. Grâce notamment à Gotlib et Goscinny nous connaissons tous parfaitement ces légendes.

Le mythe de l'épiphanie consiste à ne présenter que la dernière étape de la résolution du puzzle, mais ce n'est pas magique, ce moment n'est possible que parce que toutes les autres pièces ont été assemblées avant.

de Scott Berkun – The Myths of Innovation – L’épiphanie n’est que le moment où la dernière pièce du puzzle se met en place. Néanmoins ce moment n’est pas ni plus ni moins remarquable que toutes les étapes précédentes qui ont progressivement amené la mise en place du puzzle.

Mythe n°2 : Nous connaissons parfaitement l’histoire des innovations passées : l’histoire qui nous est présentée / racontée est factuelle et la seule possible.

L’auteur montre comment sont présentés les innovations et les innovateurs :

  • en oubliant que bien souvent ces innovations n’ont pas été perçues comme telle à l’époque,
  • en présentant leur histoire de manière évidente et logique
  • comme une nécessité dans la marche du monde
  • en présentant uniquement les succès et pas les échecs (et là la responsabilité est partagée entre les historiens et leurs lecteurs) : c’est le phénomène du « Dominant Design » :

A ce titre je recommande également à ceux qui aiment lire, l’excellentissime roman de Iain Pears : Le cercle de la croix (An Instance of the Fingerpost – en anglais) qui illustre, de main de maître, comment des mêmes faits peuvent être présentés de manière radicalement différente.

de Scott Berkun - The Myths of Innovation - La frise chronologique ne montre qu'un des chemins ayant mené à une innovation

de Scott Berkun – The Myths of Innovation – La frise chronologique ne montre qu’un des chemins ayant mené à une innovation

Mythe n°3 : il y a une méthode pour innover

Malheureusement non, il n’y a pas de méthode toute faite pour innover. Il s’agit d’un mythe identique à celui auquel vous succombez lorsque vous achetez « des plats de grand chef 3 étoiles au Michelin à 0% de matière grasse » ou que vous récupérez des cartes de marabout-voyant-médium-guérisseur qui solutionnent tous vos problèmes y compris même le démarrage de votre moto russe. L’auteur cite John Cage (compositeur) «  It does not matter where you start, as long as you start » pour illustrer que l’important c’est de commencer et d’ajuster si besoin sa trajectoire en permanence au fil des actions et pas d’essayer de bâtir un plan d’action visant à supprimer ou contenir tous les risques. Innover implique avant tout d’accepter de prendre des risques.

Pour autant et même s’il n’y a pas de méthode sur étagère, l’auteur liste des éléments fondamentaux que l’on retrouve généralement dans tous les travaux d’innovation, puis les illustre par des exemples frappant tels que ceux de Flickr, 3M (avec les Post-It) et Craigslist.

Mythe n°4 : les gens aiment les idées nouvelles

et bien non ce n’est pas vrai. Nous aimons les idées nouvelles… mais qui ont déjà été testées par d’autres.

Et oui c’est décevant mais sachez que même les plus grands inventeurs lisent parfois les critiques de cinéma,  achètent des meubles Ikea ou regardent tripadvisor pour choisir un hôtel ou un restaurant… ou les trois à la fois.

De même soyez prêt et blindé face à toutes les réactions de rejet. Tous les porteurs d’innovation entendent un jour ou l’autre des commentaires du type « ça ne marchera jamais » ; « personne ne voudra de ça » ; « c’est un problème certes mais tout le monde s’en fiche » ; « Prenez la porte immédiatement » ; … Les exemples sont savoureux et parfois bien connus : du commentaire du fondateur de Digital Equipment Corporation sur les ordinateurs personnels, aux commentaires des critiques d’art sur la tour Eiffel, en passant par les 150 ans qu’il a fallu au 17e siècle à la marine anglaise, la plus puissante et moderne à l’époque, pour généraliser le remède contre le scorbut. La théorie de Clayton M. Christensen « The Innovator’s Dilemma » est décortiquée et abordée via un exemple historique célèbre : l’invention du téléphone par Graham Bell.

Mythe n°5 : le mythe de l’inventeur solitaire

où l’on apprend que c’est bien pratique et sympathique de faire croire à tout le monde qu’Edison a inventé les ampoules électriques. Mais la réalité est bien différente.

Par ailleurs l’auteur nous montre que c’est aussi une innovation moderne (depuis le 15e siècle) que de mettre un nom d’inventeur sur les innovations (vive le Marketing). Auparavant l’innovation était considérée comme une création divine avant tout.

Mythe n°6 : les bonnes idées sont difficiles à trouver

Faux : notre cerveau est fait pour créer et c’est même pour cela que l’espèce humaine a réussi à survivre et à surpasser toutes les autres espèces animales. Certes les systèmes éducatifs et professionnels, dans l’immense majorité des cas, favorisent la conformité et ne cultivent pas nos capacités, pourtant innées, de créativité.

Mythe n°7 : votre manager en connait plus que vous sur l’innovation… c’est d’ailleurs pour ça que c’est votre manager

Faux : l’auteur pointe l’incompatibilité entre management et innovation. Le management est guidé depuis toujours (c’est à dire depuis Taylor et la production industrielle de masse) par des objectifs de contrôle, d’optimisation et de maintien d’un environnement de travail prédictible (pour des résultats prédictibles). Rien à voir avec l’innovation. Partant de ce postulat, l’auteur décrit les cinq éléments ou challenges que tout innovateur doit relever et pour lesquels il peut utilement se faire aider par des managers.

Mythe n°8 : les meilleures idées gagnent toujours à la fin

Encore une fois l’auteur nous explique pourquoi c’est pratique pour les historiens de colporter ce mythe, mais les contre exemples sont légions : du tournevis Philips au clavier QWERTY en passant par le fusil M-16 des troupes américaines et le langage de développement Javascript. Dans la réalité le succès d’une innovation dépend de sa facilité d’utilisation ou d’adoption (vue utilisateurs) et de sa qualité ou richesse intrinsèque (vue d’expert). C’est un peu la même chose que pour un film ça marche très bien si, à la fois le bouche à oreille et les retours des critiques sont bons.

de Scott Berkun - The Myths of Innovation. Les innovations gagnantes sont celles qui combinent le mieux (et au bon moment) la facilité d'usage ou d'adoption et les qualités intrinsèques

de Scott Berkun – The Myths of Innovation. Les innovations gagnantes sont celles qui combinent le mieux (et au bon moment) la facilité d’usage ou d’adoption et les qualités intrinsèques

Mythe n°9 : L’innovation c’est trouver des solutions pas résoudre des problèmes

L’auteur rappelle cette citation bien connue d’Einstein « Si j’avais 20 jours pour résoudre un problème, je passerais 19 jours à bien le comprendre et le définir avant de le résoudre ». Son conseil : définir les problèmes, prototyper des solutions qui résolvent ces problèmes, et comme dans toute innovation être prêt à pivoter pour prendre en compte les résultats de ses prototypes ou de ses travaux en général, voire à partir sur tout à fait autre chose que les problèmes initiaux (l’auteur rappelle les exemples de sérendipité que sont l’invention du four micro-onde, du nylon, du Viagra, des rayons X, …)

Mythe n°10 : L’innovation c’est bien (toujours)

Malheureusement non, et toute innovation a des bons et de moins bons aspects. Tout est question de point de vue (l’innovation est-elle bonne pour l’innovateur ? pour une catégorie de population ? pour une industrie ? pour un pays ? pour le monde entier ? pour le court terme ? pour le long terme ?, …). L’auteur montre les effets, bons et mauvais de plusieurs innovations majeures : le DDT, l’automobile, l’ordinateur personnel, les téléphones mobiles et explique pourquoi ces effets sont largement voire absolument imprévisibles.

Après avoir mis en pièce simplement et pédagogiquement ces dix mythes, l’auteur nous donne quelques conseils pratiques pour innover (essayer de) :

Conseil n°1 : « le plan simple » :

  • sélectionnez une idée qui vous intéresse et démarrez quelque chose,
  • oubliez l’innovation : essayez avant tout de bien faire les choses,
  • si vous travaillez en équipe il vous faut un leader dans cette équipe et une nécessaire confiance entre les uns et les autres
  • si les choses ne vont pas bien dans votre équipe à réduisez la taille de l’équipe
  • soyez heureux de faire des erreurs (intéressantes).

Conseil n°2 : les trucs et astuces de l’innovation

  • Rappelez-vous sans cesse que les mythes de l’innovation ne sont que des mythes. Répète 5 fois par jour « une idée est la combinaison d’autres idées pré-existantes »
  • Pensez sans cesse à combiner ou modifier des combinaisons d’éléments existants
  • Combattez vos inhibitions : être innovant ce n’est pas être plus intelligent que les autres c’est surtout avoir moins peur que les autres
  • Prêtez attention à votre environnement de travail : il doit favoriser la créativité personnelle
  • Cultivez les caractéristiques suivantes : volonté de faire, persévérance et opiniâtreté : les idées c’est facile, beaucoup en ont, beaucoup moins de personnes ont la volonté et l’opiniâtreté pour les mettre en œuvre. Comme disait le philosophe Michel Colucci (1944 – 1986) : « il avait des idées sur tout…, enfin, il avait surtout des idées ».
  • Quelques trucs et astuces en vrac

Conseil n°3 : comment construire un pitch

Conseil n°4 : comment rester motivé

En synthèse un ouvrage pédagogique, simple, clair et qui fait souffler un vent d’optimisme bienvenu alors que la presse française nous distille à longueur de journée les mauvais indicateurs économiques et autres sondages sur le moral des français ou la côte de popularité de notre président.

On y croit, on a envie de relever les manches et de mettre les mains dans le cambouis… tout de suite.

Après avoir procrastiné pendant plusieurs mois, et donc avoir tout oublié ou presque de cet ouvrage, je le survole une seconde fois pour vous en faire un résumé, car il le mérite.

L’ouvrage (en anglais) de Scott Berkun « The Myths of Innovation » permet de poser un certain nombre de fondamentaux concernant l’innovation. Notons au préalable que le terme « Innovation » est probablement employé à tort et à travers de nos jours et ce dans tous les pays du monde. J’en comprends que c’est encore plus vrai aux États-Unis. Et c’est là où je me dois de prévenir le lecteur français : cet ouvrage a d’immenses mérites, mais son impact est à mon avis un peu moins important pour le lecteur français que pour le lecteur américain, saturé depuis longtemps par l’emploi permanent du mot innovation et des légendes colportées autour, ne serait-ce que pour des raisons de marketing n’ayant rien à voir avec l’innovation.

Le terme étant souvent galvaudé, quelle est la définition du terme « Innovation » principalement retenue par Scott Berkun ? Une innovation c’est tout simplement un changement significatif positif « Significant Positive Change ».

Deux conséquences importantes de cette définition simplissime :

  • les affirmations du type « nous innovons tous les jours » sont incompatibles avec cette définition. Et je comprends également qu’elle permet de distinguer amélioration continue et innovation, sur la base du raisonnement : « si on fait des changements tous les jours ils s’agit d’évolutions incrémentales et pas d’innovations ».
  • c’est le « client » (ou l’utilisateur) qui détermine s’il s’agit d’un changement significatif positif ou pas. Si l’idée à l’origine d’une innovation était dans l’air depuis longtemps mais que personne ne l’avait concrétisée ou ne lui avait fait rencontrer son marché, c’est bien une innovation, au moins pour certains clients ou segments de clients.

L’auteur démonte ensuite, minutieusement, point par point et avec force exemples (c’est là une des grandes qualités de l’ouvrage), 10 mythes et légendes sur l’innovation. Même le lecteur français, à qui l’Education Nationale a consciencieusement épargné toutes les bases de l’économie de marché, connait ces mythes car comme le rappelle l’auteur, ce sont des légendes commodes (qui flattent la paresse naturelle du cerveau) et agréables (qui nous font rêver).

 

Quelles sont ces légendes ?

 

Mythe n°1 : le mythe de l’épiphanie…

ou le mythe de la nuit mystique (comme l’appelait mon prof de Philo – tiens je ne pensais pas que je me rappellerais un jour quelque chose de mes cours de philo en terminale). En bref il démonte par exemple le mythe bien connu de Newton ayant trouvé la loi de gravitation après avoir reçu une pomme sur la tête en faisant la sieste ou le mythe d’Archimède s’exclamant « Eureka » en prenant son bain. Grâce notamment à Gotlib et Goscinny nous connaissons tous parfaitement ces légendes.

Le mythe de l'épiphanie consiste à ne présenter que la dernière étape de la résolution du puzzle, mais ce n'est pas magique, ce moment n'est possible que parce que toutes les autres pièces ont été assemblées avant.

de Scott Berkun – The Myths of Innovation – L’épiphanie n’est que le moment où la dernière pièce du puzzle se met en place. Néanmoins ce moment n’est pas ni plus ni moins remarquable que toutes les étapes précédentes qui ont progressivement amené la mise en place du puzzle.

Mythe n°2 : Nous connaissons parfaitement l’histoire des innovations passées : l’histoire qui nous est présentée / racontée est factuelle et la seule possible.

L’auteur montre comment sont présentés les innovations et les innovateurs :

  • en oubliant que bien souvent ces innovations n’ont pas été perçues comme telle à l’époque,
  • en présentant leur histoire de manière évidente et logique
  • comme une nécessité dans la marche du monde
  • en présentant uniquement les succès et pas les échecs (et là la responsabilité est partagée entre les historiens et leurs lecteurs) : c’est le phénomène du « Dominant Design » :

A ce titre je recommande également à ceux qui aiment lire, l’excellentissime roman de Iain Pears : Le cercle de la croix (An Instance of the Fingerpost – en anglais) qui illustre, de main de maître, comment des mêmes faits peuvent être présentés de manière radicalement différente.

de Scott Berkun - The Myths of Innovation - La frise chronologique ne montre qu'un des chemins ayant mené à une innovation

de Scott Berkun – The Myths of Innovation – La frise chronologique ne montre qu’un des chemins ayant mené à une innovation

Mythe n°3 : il y a une méthode pour innover

Malheureusement non, il n’y a pas de méthode toute faite pour innover. Il s’agit d’un mythe identique à celui auquel vous succombez lorsque vous achetez « des plats de grand chef 3 étoiles au Michelin à 0% de matière grasse » ou que vous récupérez des cartes de marabout-voyant-médium-guérisseur qui solutionnent tous vos problèmes y compris même le démarrage de votre moto russe. L’auteur cite John Cage (compositeur) «  It does not matter where you start, as long as you start » pour illustrer que l’important c’est de commencer et d’ajuster si besoin sa trajectoire en permanence au fil des actions et pas d’essayer de bâtir un plan d’action visant à supprimer ou contenir tous les risques. Innover implique avant tout d’accepter de prendre des risques.

Pour autant et même s’il n’y a pas de méthode sur étagère, l’auteur liste des éléments fondamentaux que l’on retrouve généralement dans tous les travaux d’innovation, puis les illustre par des exemples frappant tels que ceux de Flickr, 3M (avec les Post-It) et Craigslist.

Mythe n°4 : les gens aiment les idées nouvelles

et bien non ce n’est pas vrai. Nous aimons les idées nouvelles… mais qui ont déjà été testées par d’autres.

Et oui c’est décevant mais sachez que même les plus grands inventeurs lisent parfois les critiques de cinéma,  achètent des meubles Ikea ou regardent tripadvisor pour choisir un hôtel ou un restaurant… ou les trois à la fois.

De même soyez prêt et blindé face à toutes les réactions de rejet. Tous les porteurs d’innovation entendent un jour ou l’autre des commentaires du type « ça ne marchera jamais » ; « personne ne voudra de ça » ; « c’est un problème certes mais tout le monde s’en fiche » ; « Prenez la porte immédiatement » ; … Les exemples sont savoureux et parfois bien connus : du commentaire du fondateur de Digital Equipment Corporation sur les ordinateurs personnels, aux commentaires des critiques d’art sur la tour Eiffel, en passant par les 150 ans qu’il a fallu au 17e siècle à la marine anglaise, la plus puissante et moderne à l’époque, pour généraliser le remède contre le scorbut. La théorie de Clayton M. Christensen « The Innovator’s Dilemma » est décortiquée et abordée via un exemple historique célèbre : l’invention du téléphone par Graham Bell.

Mythe n°5 : le mythe de l’inventeur solitaire

où l’on apprend que c’est bien pratique et sympathique de faire croire à tout le monde qu’Edison a inventé les ampoules électriques. Mais la réalité est bien différente.

Par ailleurs l’auteur nous montre que c’est aussi une innovation moderne (depuis le 15e siècle) que de mettre un nom d’inventeur sur les innovations (vive le Marketing). Auparavant l’innovation était considérée comme une création divine avant tout.

Mythe n°6 : les bonnes idées sont difficiles à trouver

Faux : notre cerveau est fait pour créer et c’est même pour cela que l’espèce humaine a réussi à survivre et à surpasser toutes les autres espèces animales. Certes les systèmes éducatifs et professionnels, dans l’immense majorité des cas, favorisent la conformité et ne cultivent pas nos capacités, pourtant innées, de créativité.

Mythe n°7 : votre manager en connait plus que vous sur l’innovation… c’est d’ailleurs pour ça que c’est votre manager

Faux : l’auteur pointe l’incompatibilité entre management et innovation. Le management est guidé depuis toujours (c’est à dire depuis Taylor et la production industrielle de masse) par des objectifs de contrôle, d’optimisation et de maintien d’un environnement de travail prédictible (pour des résultats prédictibles). Rien à voir avec l’innovation. Partant de ce postulat, l’auteur décrit les cinq éléments ou challenges que tout innovateur doit relever et pour lesquels il peut utilement se faire aider par des managers.

Mythe n°8 : les meilleures idées gagnent toujours à la fin

Encore une fois l’auteur nous explique pourquoi c’est pratique pour les historiens de colporter ce mythe, mais les contre exemples sont légions : du tournevis Philips au clavier QWERTY en passant par le fusil M-16 des troupes américaines et le langage de développement Javascript. Dans la réalité le succès d’une innovation dépend de sa facilité d’utilisation ou d’adoption (vue utilisateurs) et de sa qualité ou richesse intrinsèque (vue d’expert). C’est un peu la même chose que pour un film ça marche très bien si, à la fois le bouche à oreille et les retours des critiques sont bons.

de Scott Berkun - The Myths of Innovation. Les innovations gagnantes sont celles qui combinent le mieux (et au bon moment) la facilité d'usage ou d'adoption et les qualités intrinsèques

de Scott Berkun – The Myths of Innovation. Les innovations gagnantes sont celles qui combinent le mieux (et au bon moment) la facilité d’usage ou d’adoption et les qualités intrinsèques

Mythe n°9 : L’innovation c’est trouver des solutions pas résoudre des problèmes

L’auteur rappelle cette citation bien connue d’Einstein « Si j’avais 20 jours pour résoudre un problème, je passerais 19 jours à bien le comprendre et le définir avant de le résoudre ». Son conseil : définir les problèmes, prototyper des solutions qui résolvent ces problèmes, et comme dans toute innovation être prêt à pivoter pour prendre en compte les résultats de ses prototypes ou de ses travaux en général, voire à partir sur tout à fait autre chose que les problèmes initiaux (l’auteur rappelle les exemples de sérendipité que sont l’invention du four micro-onde, du nylon, du Viagra, des rayons X, …)

Mythe n°10 : L’innovation c’est bien (toujours)

Malheureusement non, et toute innovation a des bons et de moins bons aspects. Tout est question de point de vue (l’innovation est-elle bonne pour l’innovateur ? pour une catégorie de population ? pour une industrie ? pour un pays ? pour le monde entier ? pour le court terme ? pour le long terme ?, …). L’auteur montre les effets, bons et mauvais de plusieurs innovations majeures : le DDT, l’automobile, l’ordinateur personnel, les téléphones mobiles et explique pourquoi ces effets sont largement voire absolument imprévisibles.

Après avoir mis en pièce simplement et pédagogiquement ces dix mythes, l’auteur nous donne quelques conseils pratiques pour innover (essayer de) :

Conseil n°1 : « le plan simple » :

  • sélectionnez une idée qui vous intéresse et démarrez quelque chose,
  • oubliez l’innovation : essayez avant tout de bien faire les choses,
  • si vous travaillez en équipe il vous faut un leader dans cette équipe et une nécessaire confiance entre les uns et les autres
  • si les choses ne vont pas bien dans votre équipe à réduisez la taille de l’équipe
  • soyez heureux de faire des erreurs (intéressantes).

Conseil n°2 : les trucs et astuces de l’innovation

  • Rappelez-vous sans cesse que les mythes de l’innovation ne sont que des mythes. Répète 5 fois par jour « une idée est la combinaison d’autres idées pré-existantes »
  • Pensez sans cesse à combiner ou modifier des combinaisons d’éléments existants
  • Combattez vos inhibitions : être innovant ce n’est pas être plus intelligent que les autres c’est surtout avoir moins peur que les autres
  • Prêtez attention à votre environnement de travail : il doit favoriser la créativité personnelle
  • Cultivez les caractéristiques suivantes : volonté de faire, persévérance et opiniâtreté : les idées c’est facile, beaucoup en ont, beaucoup moins de personnes ont la volonté et l’opiniâtreté pour les mettre en œuvre. Comme disait le philosophe Michel Colucci (1944 – 1986) : « il avait des idées sur tout…, enfin, il avait surtout des idées ».
  • Quelques trucs et astuces en vrac

Conseil n°3 : comment construire un pitch

Conseil n°4 : comment rester motivé

En synthèse un ouvrage pédagogique, simple, clair et qui fait souffler un vent d’optimisme bienvenu alors que la presse française nous distille à longueur de journée les mauvais indicateurs économiques et autres sondages sur le moral des français ou la côte de popularité de notre président.

On y croit, on a envie de relever les manches et de mettre les mains dans le cambouis… tout de suite.

    Pas d'image

    Transformation digitale|

    |

    Quand les technologies rendent possible la complexité administrative

    Depuis plus de 7 ans, j’emploie à titre de « Particulier Employeur » une personne qui fait le ménage chez moi, deux à trois heures par semaine.

    J’ai utilisé le dispositif CESU (Chèque Emploi Service Universel) dès le début.

    Aujourd’hui, les enfants ont grandi, changent d’école : nous déménageons.

    Nous avons donc dû cesser le contrat de travail avec notre employé.

    Ayant réalisé par le passé des fiches de paie avec un tableur pour notre garde d’enfants, j’avais été séduit par le dispositif CESU de l’URSSAF pour payer mon employé. Chaque mois je saisis les heures, le salaire net, je vois le montant des charges résultant (+80% par rapport au net !), qui sont prélevées automatiquement ensuite.

    C’est simple et sans risque d’erreur pour moi : pas besoin tous les mois de vérifier que les taux, les lignes ou les assiettes ont été modifiés ou pas.

    Au passage, mon employé a perdu 4 de ses employeurs depuis 2012, du fait de la déforfaitisation des charges sociales. Jusqu’en 2012, on pouvait choisir de payer les charges sur l’assiette forfaitaire du SMIC net. Depuis 2012, on est obligé de payer sur l’assiette du salaire net réel. C’est ça la déforfaitisation.

    Comme mon employé travaille bien, la plupart de ses employeurs le payait significativement au-dessus du SMIC. En moyenne 50% au-dessus, et cette déforfaitisation a de fait augmenté la charge de 40% (+50% x 80% de charges).

    Ce qui a fait dire à mon employé : « à force de vouloir protéger les gens, on finit par tous les mettre au chômage ».

    Donc la paie grâce à l’URSSAF, c’est simple. J’imaginais naïvement que la fin de contrat de travail était dans le même esprit.

    Quelle erreur !

    Première difficulté : le formalisme et la procédure.

    En cherchant « licenciement particulier employeur », le site http://vosdroits.service-public.fr/particuliers/F1745.xhtml, qui apparaît en premier résultat, explique :

    Le particulier employeur doit respecter les étapes suivantes :

    – Convocation du salarié à un entretien préalable par lettre recommandée avec accusé de réception ou remise en main propre contre décharge.
    – Entretien avec le salarié au cours duquel l’employeur expose les motifs de la décision envisagée et recueille ses explications. À la différence des autres salariés, le salarié à domicile n’a pas la possibilité de se faire assister par un tiers. L’entretien doit avoir lieu au moins 5 jours ouvrables après la réception de la lettre recommandée ou sa remise en main propre.
    – Si l’employeur maintient sa décision, notification du licenciement par lettre recommandée avec accusé de réception. Cette lettre doit préciser les motifs de licenciement. Elle ne peut être expédiée moins 1 jour franc après l’entretien préalable. Toutefois, il est recommandé d’expédier la lettre au moins 2 jours ouvrables après cet entretien.

    Quelle proportion de particuliers employeurs respectent une procédure aussi précise ?

    Faut-il avoir été DRH ou avocat pour employer quelqu’un chez soi ?

    Ensuite, le préavis !

    Le même site explique :

    Sauf en cas de faute grave ou de faute lourde, le salarié a droit à un préavis dont la durée varie en fonction de son ancienneté.
    La date de première présentation de la lettre recommandée de licenciement fixe le point de départ du préavis.
    – Moins de 6 mois d’ancienneté : 1 semaine
    – De 6 mois à 2 ans : 1 mois
    – 2 ans et plus : 2 mois

    Puis vient le « Droit à des heures d’absence pendant le temps de préavis »

    Durant la période de préavis, le salarié à temps complet a droit, sans diminution de salaire, à des heures d’absence pour rechercher un nouvel emploi.
    Moins de 2 ans : 2 heures par jour pendant 6 jours ouvrables
    2 ans et plus : 2 heures par jour pendant 10 jours ouvrables

    À défaut d’accord entre les parties, ces 2 heures sont prises alternativement, un jour au choix de l’employeur, un jour au choix du salarié.

    Le salarié qui trouve un nouveau travail pendant le préavis peut quitter son emploi :
    sur présentation du justificatif de son nouvel emploi,
    et s’il a effectué au moins 2 semaines de préavis.

    Le salarié n’a pas droit au paiement de la période de préavis non effectuée et l’employeur n’a droit à aucune indemnité non plus.

    Viennent ensuite les « Indemnités de fin de contrat »

    En cas de licenciement, le salarié peut bénéficier sous conditions des indemnités suivantes :
    – 
    Indemnité de licenciement
    – 
    Indemnité de congés payés
    – 
    Indemnité de préavis

    Commençons par l’indemnité de licenciement.

    En cliquant sur le lien, nous découvrons (extrait) :

    L’indemnité de licenciement est calculée à partir de la rémunération brute perçue par le salarié avant la rupture de son contrat de travail.

    Là il y a un premier problème pour un utilisateur du service CESU de l’URSSAF. Cet utilisateur ne manipule que du salaire net ! Or là on lui demande un calcul sur le brut ! Il faut aller chercher dans les déclarations CESU, la reconstitution du salaire brut.

    Quelle proportion de particuliers employeurs est capable d’éviter ce piège ?

    Faut-il avoir été responsable de paie pour employer quelqu’un chez soi ?

     

    Ensuite : L’indemnité légale ne peut pas être inférieure à 1/5e de mois de salaire multiplié par le nombre d’années d’ancienneté. Au-delà de 10 ans d’ancienneté, il faut y ajouter 2/15e de mois de salaire par année supplémentaire.

    C’est compliqué mais compréhensible.

    Là où cela se corse à nouveau, c’est sur le calcul de ce fameux « mois de salaire ». Car il s’agit de prestations morcelées : 3h un mois, 15h un autre, ou zéro. Il faut donc faire un calcul de « salaire de référence » :

    Le salaire de référence est déterminé en prenant en compte, selon la formule la plus avantageuse :
    – soit le 1/12e de la rémunération brute des 12 derniers mois précédant le licenciement,
    – soit le 1/3 des 3 derniers mois (les primes et gratifications exceptionnelles ou annuelles sont prises en compte au prorata du temps de présence).

    Si durant ces périodes, le salarié a alterné travail à temps plein et à temps partiel, le salaire de référence sera moins élevé, mais la formule de calcul reste identique. L’ancienneté du salarié n’est pas réduite du fait du temps partiel.

    Si vous suivez encore, vous pouvez postuler dans un service de gestion des paies et des déclarations sociales.

    Vous apprenez au passage que cette indemnité « est exonérée de cotisations sociales, de CSG et CRDS , dans la limite de 2 fois le plafond annuel de la sécurité sociale en vigueur à la date du versement (76 080 € en 2015). Si l’indemnité de licenciement est plus élevée, la fraction qui dépasse ce plafond est soumise à cotisations, CSG et CRDS. »

    On ne vous dit pas combien c’est, ni comment il faut faire pour les « cotisations, CSG et CRDS », heureusement que peu de particuliers employeurs paient des indemnités de licenciement supérieures à 76 080 €.

    On apprend aussi que « L’indemnité de licenciement est exonérée d’impôt sur le revenu, sous conditions. » Merci pour mon employé.

    Si vous êtes curieux, vous pourrez découvrir quelles sont ces conditions. Pour ma part, il était 22h, cela faisait déjà 2h que je travaillais à ce dossier, la fatigue était plus forte que la curiosité.

    Vient ensuite « L’indemnité de congés payés » :

    La rémunération du salarié qui bénéficie de ses congés payés est calculée de 2 manières :

    – par la règle du 10ème, qui prévoit que l’indemnité est égale au dixième de la rémunération brute totale perçue par le salarié au cours de la période de référence,
    – et par la règle du maintien de salaire, qui prévoit que l’indemnité de congés payés est égale à la rémunération que le salarié aurait perçue s’il avait continué à travailler.

    L’indemnité compensatrice n’étant due que pour la fraction de congés dont le salarié n’a pas bénéficié, les indemnités de congés payés déjà perçues ne sont pas prises en compte dans le calcul.
    Le calcul doit prendre en compte la période de préavis, même si le salarié en est dispensé par l’employeur.
    C’est le mode de calcul le plus avantageux pour le salarié qui s’applique.
    L’indemnité se cumule avec les autres indemnités de rupture, s’il en remplit les droits (indemnité de licenciement, indemnité compensatrice de préavis, etc.).

    Régime fiscal et social
    L’indemnité compensatrice de congés payés est soumise à l’impôt sur le revenu et aux cotisations sociales dans les mêmes conditions que le salaire. Elle est saisissable et cessible dans les mêmes limites que le salaire.

    Si vous suivez encore, il y a « l’Indemnité compensatrice de préavis »

    Bénéficiaires, Salariés concernés
    Le salarié a droit de percevoir l’indemnité compensatrice de préavis si l’employeur prend lui-même l’initiative de dispenser le salarié d’effectuer son préavis.

    […]

    Montant : L’indemnité compensatrice de préavis est calculée sur la base de la rémunération que le salarié aurait perçue s’il avait travaillé pendant le préavis.

    Aucune diminution de salaire ou d’avantages ne doit avoir lieu. L’indemnité se cumule avec les autres indemnités de rupture, s’il en remplit les droits (indemnité de licenciement, indemnité compensatrice de congés payés, etc.).

    Régime fiscal et social
    L’indemnité compensatrice de préavis est soumise à l’impôt sur le revenu et aux cotisations sociales dans les mêmes conditions que le salaire. Elle est saisissable et cessible dans les mêmes limites que le salaire.

    Ensuite, viennent les « Documents de fin de contrat »

    L’employeur doit délivrer au salarié les documents suivants :
    1- Reçu pour solde de tout compte qui détaille les sommes versées lors de la rupture du contrat de travail
    2- Certificat de travail précisant les dates de début et de fin du contrat ainsi que la nature de l’emploi
    3- Attestation Pôle emploi (exemplaire papier à commander sur le site internet de Pôle emploi ou à remplir en ligne directement)

    Quelqu’un a dû avoir pitié :

    Des modèles de reçu pour solde de tout compte et de certificat de travail sont disponibles sur www.netparticulier.fr ainsi que dans la brochure sur le licenciement du salarié du particulier employeur.

    Les deux premiers documents sont assez compréhensibles, logiques et simples à produire, notamment grâce aux modèles fournis.

    Pour produire l’attestation employeur, un nouvel univers s’ouvre sous vos pieds (et vos yeux fatigués : il est 22h30 !).

    De lien en lien, vous aboutissez sur le site suivant : https://particulieremployeur.pole-emploi.fr/particulieremployeur/authentification/authentification

    Bien entendu, vous n’avez pas de compte. Il faut en créer un. Bonne surprise : ça fonctionne et ça va vite. 10 minutes plus tard, vous avez reçu plusieurs mails séparés avec un identifiant dans un des mails, et le mot de passe dans un autre, par soucis de sécurité j’imagine.

    Première étape : on clique sur « Saisir une attestation » dans un grand rectangle orange « Mes attestations employeur ».

    Une première page apparaît où il faut confirmer ses coordonnées et donner un numéro « PAJEMPLOI », « CESU » ou « URSSAF ». Je donne mon numéro URRSAF, car sur le site CESU de l’URSSAF, ce numéro est appelé numéro URSSAF. Ça ne marche pas. Je pense à mettre ce même numéro dans le champ « CESU » et là, ça marche.

    J’essuie la sueur de mon front.

    Je valide, une nouvelle page apparaît. Il faut saisir les « Coordonnées du salarié » et des « Informations sur l’emploi ». Une quinzaine de champs. J’ai une difficulté pour trouver la date de naissance de mon employé. Par le NIR (numéro INSEE) je connais l’année et le mois, mais pas le jour. Heureusement, en fouillant le site CESU de l’URSSAF, j’arrive à trouver la date de naissance complète.

    Ensuite, une page sur le « contrat de travail » :

    2015-08-06 à 11.08.48 ecran 2.1 ATT

    Il faut préciser les périodes de « Préavis effectué et payé », « non effectué et payé » et « non effectué non payé » !

    Dans le cas d’un employé 3h par semaines qui termine au bout des 2 mois de préavis, comment renseigne-t-on ces dates ?

    Attention, pour le dernier cadre, « Période d’emploi » à bien distinguer la date de dernier jour de contrat, c’est à dire celle jusqu’à la fin du préavis, de la date du dernier jour travaillé et payé !

    À ce stade je me pose à nouveau la question : Quelle proportion de particuliers employeurs renseignent ces champs avec des données exactes ?

    Faut-il avoir une maitrise en droit du travail pour employer quelqu’un chez soi ?

    Ensuite, « Etape 3 », « Salaire et primes ».

    À mon avis un chef d’oeuvre de complexité comme notre riche société a encore (?) les moyens de se payer.

    2015-08-06 ecran 3 ATT

    Il faut renseigner, pour chacun des douze derniers mois, le nombre d’heure travaillées, le « Nombre de jours non integralement payés (congés sans solde, arrêts maladie, etc…) », et le salaire net mensuel.

    Ici, le système a pitié, et ne demande pas de salaire brut.

    Il faut fournir une explication de la variation du salaire. « Parce que mon employé a décidé de travailler des jours en moins ce mois-ci », ou « parce qu’il y a presque cinq semaine dans ce mois et que mon employé est donc venu cinq fois ».

    Un avant dernier écran nous invite à récapituler diverses sommes versées. Six champs à renseigner, avec des messages d’erreur qui apparaissent si vous mettez le chiffre « 0 » dans une case, alors qu’il faut la laisser vide.

    2015-08-06 ecran 4 ATT

     

    Le dernier écran est celui de validation finale, où vous laissez vos coordonnées :

    2015-08-06 ecran final ATT

     

    Une fois ce parcours du combattant effectué, vous pouvez imprimer une attestation employeur en bonne et due forme, et il ne vous reste qu’à le donner avec les deux autres documents à votre employé.

    Il est 00h20.

    Engourdi par la fatigue et ahuri par l’incroyable parcours accompli, vous vous posez quelques questions :

    est-il pertinent d’utiliser la puissance de l’informatique, d’internet, des technologies en général, pour nous permettre de gérer une telle complexité ? Ne faut-il pas graduer la complexité aux enjeux ? In fine, mon employé a touché quelques centaines d’euros d’indemnités et touchera quelques dizaines d’euros d’allocations chômage par mois. Cela valait-il plus de 3h de travail, pour un résultat de fiabilité douteuse ?

    – Quelle proportion de particuliers employeurs est capable d’aller au bout de ce parcours sans faire d’erreur ? À quoi bon une telle complexité ? Ne peut-on imaginer des règles plus simples ?

    Ne peut-on pas imaginer faire le dossier de rupture à partir du dossier CESU de l’URSSAF où il y a tout l’historique ? La réponse est « non » car l’URSSAF, c’est la sphère sociale dépendant du ministère de la santé, et le traitement du chômage, c’est la sphère emploi dépendant du ministère de l’emploi, avec Pôle Emploi pour gérer les opérations, et l’Unédic pour définir les règles, organisme paritaire. Ces deux sphères n’ont pas l’habitude de travailler ensemble, et pour d’autres diverses raisons, s’ignorent voire s’affrontent. Qui aura le courage de faire fonctionner tout cela en cohérence pour redonner de la simplicité au « Client » ? Faut-il conserver des prés carrés « social » et « emploi »en recouvrement voire en guerre, et les emplois associés qui ne produisent que peu de valeur pour la société, juste par peur de sanction dans les urnes aux prochaines élections ?

    In fine, quel impact sur l’emploi ? Combien de particuliers employeurs vont renoncer à employer quelqu’un à cause d’une telle complexité, ou bien vont prendre le risque immense du travail non déclaré ?

    Est-ce une fatalité que d’utiliser notre richesse pour générer autant de complexité non productrice de valeur pour la société ?

    Cette complexité a déjà commencé à nous étouffer en s’insinuant partout, comme un cancer. Un témoin : la chute du PIB par habitant en France depuis 2008 (-6%).

    Depuis plus de 7 ans, j’emploie à titre de « Particulier Employeur » une personne qui fait le ménage chez moi, deux à trois heures par semaine.

    J’ai utilisé le dispositif CESU (Chèque Emploi Service Universel) dès le début.

    Aujourd’hui, les enfants ont grandi, changent d’école : nous déménageons.

    Nous avons donc dû cesser le contrat de travail avec notre employé.

    Ayant réalisé par le passé des fiches de paie avec un tableur pour notre garde d’enfants, j’avais été séduit par le dispositif CESU de l’URSSAF pour payer mon employé. Chaque mois je saisis les heures, le salaire net, je vois le montant des charges résultant (+80% par rapport au net !), qui sont prélevées automatiquement ensuite.

    C’est simple et sans risque d’erreur pour moi : pas besoin tous les mois de vérifier que les taux, les lignes ou les assiettes ont été modifiés ou pas.

    Au passage, mon employé a perdu 4 de ses employeurs depuis 2012, du fait de la déforfaitisation des charges sociales. Jusqu’en 2012, on pouvait choisir de payer les charges sur l’assiette forfaitaire du SMIC net. Depuis 2012, on est obligé de payer sur l’assiette du salaire net réel. C’est ça la déforfaitisation.

    Comme mon employé travaille bien, la plupart de ses employeurs le payait significativement au-dessus du SMIC. En moyenne 50% au-dessus, et cette déforfaitisation a de fait augmenté la charge de 40% (+50% x 80% de charges).

    Ce qui a fait dire à mon employé : « à force de vouloir protéger les gens, on finit par tous les mettre au chômage ».

    Donc la paie grâce à l’URSSAF, c’est simple. J’imaginais naïvement que la fin de contrat de travail était dans le même esprit.

    Quelle erreur !

    Première difficulté : le formalisme et la procédure.

    En cherchant « licenciement particulier employeur », le site http://vosdroits.service-public.fr/particuliers/F1745.xhtml, qui apparaît en premier résultat, explique :

    Le particulier employeur doit respecter les étapes suivantes :

    – Convocation du salarié à un entretien préalable par lettre recommandée avec accusé de réception ou remise en main propre contre décharge.
    – Entretien avec le salarié au cours duquel l’employeur expose les motifs de la décision envisagée et recueille ses explications. À la différence des autres salariés, le salarié à domicile n’a pas la possibilité de se faire assister par un tiers. L’entretien doit avoir lieu au moins 5 jours ouvrables après la réception de la lettre recommandée ou sa remise en main propre.
    – Si l’employeur maintient sa décision, notification du licenciement par lettre recommandée avec accusé de réception. Cette lettre doit préciser les motifs de licenciement. Elle ne peut être expédiée moins 1 jour franc après l’entretien préalable. Toutefois, il est recommandé d’expédier la lettre au moins 2 jours ouvrables après cet entretien.

    Quelle proportion de particuliers employeurs respectent une procédure aussi précise ?

    Faut-il avoir été DRH ou avocat pour employer quelqu’un chez soi ?

    Ensuite, le préavis !

    Le même site explique :

    Sauf en cas de faute grave ou de faute lourde, le salarié a droit à un préavis dont la durée varie en fonction de son ancienneté.
    La date de première présentation de la lettre recommandée de licenciement fixe le point de départ du préavis.
    – Moins de 6 mois d’ancienneté : 1 semaine
    – De 6 mois à 2 ans : 1 mois
    – 2 ans et plus : 2 mois

    Puis vient le « Droit à des heures d’absence pendant le temps de préavis »

    Durant la période de préavis, le salarié à temps complet a droit, sans diminution de salaire, à des heures d’absence pour rechercher un nouvel emploi.
    Moins de 2 ans : 2 heures par jour pendant 6 jours ouvrables
    2 ans et plus : 2 heures par jour pendant 10 jours ouvrables

    À défaut d’accord entre les parties, ces 2 heures sont prises alternativement, un jour au choix de l’employeur, un jour au choix du salarié.

    Le salarié qui trouve un nouveau travail pendant le préavis peut quitter son emploi :
    sur présentation du justificatif de son nouvel emploi,
    et s’il a effectué au moins 2 semaines de préavis.

    Le salarié n’a pas droit au paiement de la période de préavis non effectuée et l’employeur n’a droit à aucune indemnité non plus.

    Viennent ensuite les « Indemnités de fin de contrat »

    En cas de licenciement, le salarié peut bénéficier sous conditions des indemnités suivantes :
    – 
    Indemnité de licenciement
    – 
    Indemnité de congés payés
    – 
    Indemnité de préavis

    Commençons par l’indemnité de licenciement.

    En cliquant sur le lien, nous découvrons (extrait) :

    L’indemnité de licenciement est calculée à partir de la rémunération brute perçue par le salarié avant la rupture de son contrat de travail.

    Là il y a un premier problème pour un utilisateur du service CESU de l’URSSAF. Cet utilisateur ne manipule que du salaire net ! Or là on lui demande un calcul sur le brut ! Il faut aller chercher dans les déclarations CESU, la reconstitution du salaire brut.

    Quelle proportion de particuliers employeurs est capable d’éviter ce piège ?

    Faut-il avoir été responsable de paie pour employer quelqu’un chez soi ?

     

    Ensuite : L’indemnité légale ne peut pas être inférieure à 1/5e de mois de salaire multiplié par le nombre d’années d’ancienneté. Au-delà de 10 ans d’ancienneté, il faut y ajouter 2/15e de mois de salaire par année supplémentaire.

    C’est compliqué mais compréhensible.

    Là où cela se corse à nouveau, c’est sur le calcul de ce fameux « mois de salaire ». Car il s’agit de prestations morcelées : 3h un mois, 15h un autre, ou zéro. Il faut donc faire un calcul de « salaire de référence » :

    Le salaire de référence est déterminé en prenant en compte, selon la formule la plus avantageuse :
    – soit le 1/12e de la rémunération brute des 12 derniers mois précédant le licenciement,
    – soit le 1/3 des 3 derniers mois (les primes et gratifications exceptionnelles ou annuelles sont prises en compte au prorata du temps de présence).

    Si durant ces périodes, le salarié a alterné travail à temps plein et à temps partiel, le salaire de référence sera moins élevé, mais la formule de calcul reste identique. L’ancienneté du salarié n’est pas réduite du fait du temps partiel.

    Si vous suivez encore, vous pouvez postuler dans un service de gestion des paies et des déclarations sociales.

    Vous apprenez au passage que cette indemnité « est exonérée de cotisations sociales, de CSG et CRDS , dans la limite de 2 fois le plafond annuel de la sécurité sociale en vigueur à la date du versement (76 080 € en 2015). Si l’indemnité de licenciement est plus élevée, la fraction qui dépasse ce plafond est soumise à cotisations, CSG et CRDS. »

    On ne vous dit pas combien c’est, ni comment il faut faire pour les « cotisations, CSG et CRDS », heureusement que peu de particuliers employeurs paient des indemnités de licenciement supérieures à 76 080 €.

    On apprend aussi que « L’indemnité de licenciement est exonérée d’impôt sur le revenu, sous conditions. » Merci pour mon employé.

    Si vous êtes curieux, vous pourrez découvrir quelles sont ces conditions. Pour ma part, il était 22h, cela faisait déjà 2h que je travaillais à ce dossier, la fatigue était plus forte que la curiosité.

    Vient ensuite « L’indemnité de congés payés » :

    La rémunération du salarié qui bénéficie de ses congés payés est calculée de 2 manières :

    – par la règle du 10ème, qui prévoit que l’indemnité est égale au dixième de la rémunération brute totale perçue par le salarié au cours de la période de référence,
    – et par la règle du maintien de salaire, qui prévoit que l’indemnité de congés payés est égale à la rémunération que le salarié aurait perçue s’il avait continué à travailler.

    L’indemnité compensatrice n’étant due que pour la fraction de congés dont le salarié n’a pas bénéficié, les indemnités de congés payés déjà perçues ne sont pas prises en compte dans le calcul.
    Le calcul doit prendre en compte la période de préavis, même si le salarié en est dispensé par l’employeur.
    C’est le mode de calcul le plus avantageux pour le salarié qui s’applique.
    L’indemnité se cumule avec les autres indemnités de rupture, s’il en remplit les droits (indemnité de licenciement, indemnité compensatrice de préavis, etc.).

    Régime fiscal et social
    L’indemnité compensatrice de congés payés est soumise à l’impôt sur le revenu et aux cotisations sociales dans les mêmes conditions que le salaire. Elle est saisissable et cessible dans les mêmes limites que le salaire.

    Si vous suivez encore, il y a « l’Indemnité compensatrice de préavis »

    Bénéficiaires, Salariés concernés
    Le salarié a droit de percevoir l’indemnité compensatrice de préavis si l’employeur prend lui-même l’initiative de dispenser le salarié d’effectuer son préavis.

    […]

    Montant : L’indemnité compensatrice de préavis est calculée sur la base de la rémunération que le salarié aurait perçue s’il avait travaillé pendant le préavis.

    Aucune diminution de salaire ou d’avantages ne doit avoir lieu. L’indemnité se cumule avec les autres indemnités de rupture, s’il en remplit les droits (indemnité de licenciement, indemnité compensatrice de congés payés, etc.).

    Régime fiscal et social
    L’indemnité compensatrice de préavis est soumise à l’impôt sur le revenu et aux cotisations sociales dans les mêmes conditions que le salaire. Elle est saisissable et cessible dans les mêmes limites que le salaire.

    Ensuite, viennent les « Documents de fin de contrat »

    L’employeur doit délivrer au salarié les documents suivants :
    1- Reçu pour solde de tout compte qui détaille les sommes versées lors de la rupture du contrat de travail
    2- Certificat de travail précisant les dates de début et de fin du contrat ainsi que la nature de l’emploi
    3- Attestation Pôle emploi (exemplaire papier à commander sur le site internet de Pôle emploi ou à remplir en ligne directement)

    Quelqu’un a dû avoir pitié :

    Des modèles de reçu pour solde de tout compte et de certificat de travail sont disponibles sur www.netparticulier.fr ainsi que dans la brochure sur le licenciement du salarié du particulier employeur.

    Les deux premiers documents sont assez compréhensibles, logiques et simples à produire, notamment grâce aux modèles fournis.

    Pour produire l’attestation employeur, un nouvel univers s’ouvre sous vos pieds (et vos yeux fatigués : il est 22h30 !).

    De lien en lien, vous aboutissez sur le site suivant : https://particulieremployeur.pole-emploi.fr/particulieremployeur/authentification/authentification

    Bien entendu, vous n’avez pas de compte. Il faut en créer un. Bonne surprise : ça fonctionne et ça va vite. 10 minutes plus tard, vous avez reçu plusieurs mails séparés avec un identifiant dans un des mails, et le mot de passe dans un autre, par soucis de sécurité j’imagine.

    Première étape : on clique sur « Saisir une attestation » dans un grand rectangle orange « Mes attestations employeur ».

    Une première page apparaît où il faut confirmer ses coordonnées et donner un numéro « PAJEMPLOI », « CESU » ou « URSSAF ». Je donne mon numéro URRSAF, car sur le site CESU de l’URSSAF, ce numéro est appelé numéro URSSAF. Ça ne marche pas. Je pense à mettre ce même numéro dans le champ « CESU » et là, ça marche.

    J’essuie la sueur de mon front.

    Je valide, une nouvelle page apparaît. Il faut saisir les « Coordonnées du salarié » et des « Informations sur l’emploi ». Une quinzaine de champs. J’ai une difficulté pour trouver la date de naissance de mon employé. Par le NIR (numéro INSEE) je connais l’année et le mois, mais pas le jour. Heureusement, en fouillant le site CESU de l’URSSAF, j’arrive à trouver la date de naissance complète.

    Ensuite, une page sur le « contrat de travail » :

    2015-08-06 à 11.08.48 ecran 2.1 ATT

    Il faut préciser les périodes de « Préavis effectué et payé », « non effectué et payé » et « non effectué non payé » !

    Dans le cas d’un employé 3h par semaines qui termine au bout des 2 mois de préavis, comment renseigne-t-on ces dates ?

    Attention, pour le dernier cadre, « Période d’emploi » à bien distinguer la date de dernier jour de contrat, c’est à dire celle jusqu’à la fin du préavis, de la date du dernier jour travaillé et payé !

    À ce stade je me pose à nouveau la question : Quelle proportion de particuliers employeurs renseignent ces champs avec des données exactes ?

    Faut-il avoir une maitrise en droit du travail pour employer quelqu’un chez soi ?

    Ensuite, « Etape 3 », « Salaire et primes ».

    À mon avis un chef d’oeuvre de complexité comme notre riche société a encore (?) les moyens de se payer.

    2015-08-06 ecran 3 ATT

    Il faut renseigner, pour chacun des douze derniers mois, le nombre d’heure travaillées, le « Nombre de jours non integralement payés (congés sans solde, arrêts maladie, etc…) », et le salaire net mensuel.

    Ici, le système a pitié, et ne demande pas de salaire brut.

    Il faut fournir une explication de la variation du salaire. « Parce que mon employé a décidé de travailler des jours en moins ce mois-ci », ou « parce qu’il y a presque cinq semaine dans ce mois et que mon employé est donc venu cinq fois ».

    Un avant dernier écran nous invite à récapituler diverses sommes versées. Six champs à renseigner, avec des messages d’erreur qui apparaissent si vous mettez le chiffre « 0 » dans une case, alors qu’il faut la laisser vide.

    2015-08-06 ecran 4 ATT

     

    Le dernier écran est celui de validation finale, où vous laissez vos coordonnées :

    2015-08-06 ecran final ATT

     

    Une fois ce parcours du combattant effectué, vous pouvez imprimer une attestation employeur en bonne et due forme, et il ne vous reste qu’à le donner avec les deux autres documents à votre employé.

    Il est 00h20.

    Engourdi par la fatigue et ahuri par l’incroyable parcours accompli, vous vous posez quelques questions :

    est-il pertinent d’utiliser la puissance de l’informatique, d’internet, des technologies en général, pour nous permettre de gérer une telle complexité ? Ne faut-il pas graduer la complexité aux enjeux ? In fine, mon employé a touché quelques centaines d’euros d’indemnités et touchera quelques dizaines d’euros d’allocations chômage par mois. Cela valait-il plus de 3h de travail, pour un résultat de fiabilité douteuse ?

    – Quelle proportion de particuliers employeurs est capable d’aller au bout de ce parcours sans faire d’erreur ? À quoi bon une telle complexité ? Ne peut-on imaginer des règles plus simples ?

    Ne peut-on pas imaginer faire le dossier de rupture à partir du dossier CESU de l’URSSAF où il y a tout l’historique ? La réponse est « non » car l’URSSAF, c’est la sphère sociale dépendant du ministère de la santé, et le traitement du chômage, c’est la sphère emploi dépendant du ministère de l’emploi, avec Pôle Emploi pour gérer les opérations, et l’Unédic pour définir les règles, organisme paritaire. Ces deux sphères n’ont pas l’habitude de travailler ensemble, et pour d’autres diverses raisons, s’ignorent voire s’affrontent. Qui aura le courage de faire fonctionner tout cela en cohérence pour redonner de la simplicité au « Client » ? Faut-il conserver des prés carrés « social » et « emploi »en recouvrement voire en guerre, et les emplois associés qui ne produisent que peu de valeur pour la société, juste par peur de sanction dans les urnes aux prochaines élections ?

    In fine, quel impact sur l’emploi ? Combien de particuliers employeurs vont renoncer à employer quelqu’un à cause d’une telle complexité, ou bien vont prendre le risque immense du travail non déclaré ?

    Est-ce une fatalité que d’utiliser notre richesse pour générer autant de complexité non productrice de valeur pour la société ?

    Cette complexité a déjà commencé à nous étouffer en s’insinuant partout, comme un cancer. Un témoin : la chute du PIB par habitant en France depuis 2008 (-6%).

    Organisation DSI|

    |

    Méthodes Agiles – Qu’est ce qu’un PO Proxy ?

    Le sujet du « PO Proxy » revient assez souvent dans les discussions autour des méthodes Agiles et SCRUM en particulier. Certains considèrent que ce rôle, n’existant pas dans la méthodologie SCRUM, n’a aucune raison d’être. D’autres disent que ce rôle peut se justifier au cas par cas. D’autres iront même jusqu’à considérer que sa présence est indispensable dans les organisations qui ne sont pas Agiles « du sol au plafond ».

    Cependant, bien que le sujet revienne régulièrement sur la table, la littérature disponible sur le sujet est assez limitée, et il n’existe pas de définition exacte de ce qu’est un PO Proxy.

    Cet article se propose donc, en se basant sur des observations de terrain, d’essayer de définir ce que peut être un PO Proxy en jugeant sa pertinence en fonction des contextes.

    Préambule rapide : Agile ? PO ?

    « Agile » désigne un courant de méthodes (SCRUM, Lean Software Development, eXtreme Programming…) qui visent à produire une solution souhaitée par un client sur un mode itératif court (3 à 4 semaines par itération), en intégrant et responsabilisant le client au coeur de l’équipe de réalisation durant tout le projet.
    Ces méthodes s’opposent au « cycle en V » qui suit un enchaînement long d’étapes (Définition du besoin, Spécification du besoin, Spécification technique, Réalisation, Tests techniques, Tests utilisateurs, Mise en production) offrant peu de visibilité au client (en dehors du début et de la fin du projet) et induisant souvent un décalage entre la solution livrée et le besoin réel.
    Pour en savoir plus, je vous renvoie à cet article qui permet de mieux cerner les différences entre méthodes Agiles et cycle en V traditionnel.

    Ces méthodes induisent une transformation des rôles au sein des projets, illustrée par le tableau suivant :

    Agile et cycle en V comparaison

    Pour compléter, le rôle du Product Owner (PO) qui est central dans la méthode est très bien décrit dans la vidéo suivante :

    Pourquoi un PO Proxy ? Quel est son rôle ?

    Au vu des responsabilités qui incombent au Product owner, le candidat idéal pour remplir ce rôle est généralement un Manager côté Métier, qui possède à la fois une maîtrise parfaite du contexte et des enjeux du projet, tout en ayant la légitimité suffisante pour porter la vision et procéder aux inévitables arbitrages lors du projet.

    Or les Managers ont rarement la disponibilité requise (à minima 30% d’un temps plein, avec idéalement une présence physique quotidienne auprès des développeurs) pour mener à bien un projet Agile. D’où l’émergence assez répandue d’un rôle supplémentaire, absent de la théorie Agile ; celui de PO Proxy, dont la définition peut se résumer à « combler le manque de disponibilité du PO en formant un binôme avec ce dernier ».

    Voyons donc les différentes configurations de binômes rencontrées sur le terrain :

    1ère configuration : Y a-t-il un PO dans l’avion ?

    La 1ère configuration est celle où le PO nommé maîtrise parfaitement le contexte et les enjeux du projet, a la légitimité pour prendre des orientations et procéder à des arbitrages pendant le projet… MAIS n’a absolument pas la disponibilité pour assumer son rôle. Un PO Proxy est alors nommé pour être l’interlocuteur quotidien de l’équipe de développement à la place du PO. Le terme « PO Proxy » vient du fait que ce dernier devient l’intermédiaire entre l’équipe de développement et le PO (comme le Proxy informatique entre le réseau interne de l’entreprise et Internet), ces derniers n’ayant plus d’échanges directs (à l’exception des Sprint Planning / Sprint Reviews éventuellement).

    C’est une configuration souvent rencontrée dans les organisations qui se lancent dans l’Agile sans avoir complètement intégré la philosophie sous-jacente. Ces organisations se tournent vers l’Agile en pensant que cette façon de faire va répondre à leurs problématiques de réactivité et d’adéquation aux besoins utilisateurs, mais elles oublient le principe fondamental de la réussite des projets SI, à savoir une forte implication Métier.

    Compte tenu de la disponibilité quasi nulle du PO nommé, cette configuration revient à avoir un « vrai PO » (au sens de la méthode) qui est le PO Proxy. Le PO nommé initialement ne sera en définitive qu’une partie prenante du projet, qui s’exprimera principalement lors des revues de sprint (s’il est présent).

    Dès lors, la réussite du projet va dépendre de la capacité du PO Proxy à endosser le rôle du PO

    • Si ses choix ne correspondent pas aux attentes des parties prenantes (et en particulier celles du « PO »), le projet court à l’échec car ses décisions seront constamment remises en cause à la fin des Sprints.
    • Si ses choix sont les bons, et surtout s’ils sont bien communiqués et compris, le projet sera une réussite… que le PO saura valoriser auprès des autres équipes. Dans ce cas de figure il est important d’être conscient que le vrai PO a finalement été le PO Proxy ; car lancer un nouveau projet avec le PO absent pourra facilement se transformer en échec si le casting du PO Proxy n’est pas aussi bon…

    Cette configuration amène naturellement à dire que le rôle de PO Proxy n’existe pas, puisque du point de vue de l’équipe de développement, il n’y avait bien qu’un PO (la question de sa compétence dans le rôle étant un autre sujet).

    Voyons donc si d’autres configurations existent.

    2ème configuration : Le binôme équilibré (« PO Stratégique » et « PO opérationnel »)

    Cette configuration consiste en un binôme équilibré en terme de disponibilité et permet de s’approcher de l’idéal de disponibilité du PO sur un projet, c’est à dire 1 ETP. On rencontrera souvent une répartition du type 20-30% de disponibilité pour le PO et 70-80% pour le PO Proxy, mais une répartition 50-50 peut aussi arriver.

    Dans cette configuration le PO (« PO Stratégique ») porte la vision du produit et prend les décisions les plus importantes. Il est également présent quelques demi-journées par semaine sur le plateau projet, au contact de l’équipe, pour répondre aux questions des développeurs. Il procède également aux recettes des stories pendant le Sprint (à minima, les plus importantes), au fil de l’eau des livraisons de l’équipe. Il est bien entendu présent aux Sprints plannings et Sprints reviews.

    Le PO Proxy (« PO Opérationnel ») quant à lui, est davantage présent sur le plateau projet. Il répond à la majorité des questions des développeurs, procède à l’ensemble des recettes, et maintient à jour le Backlog Produit (rédaction des user-stories, des axes d’acceptance, des personas, etc.) ainsi que la documentation nécessaire à l’équipe (description des règles métiers, éventuellement maquettes des IHM attendues, etc.)

    Ce binôme, équilibré sur le papier, peut aussi bien être une réussite qu’un échec. Pour que ce type de binôme fonctionne, il est impératif que le PO et le PO Proxy partagent parfaitement la vision du produit attendu, et que les décisions de l’un ne soient pas remises en cause par l’autre le jour suivant. Il est en outre primordial que les 2 acteurs répartissent de manière intelligente leurs plages de disponibilité pour que l’équipe ait quotidiennement un référent (il est en effet peu productif d’avoir le PO et son Proxy disponibles tous les deux le lundi et le vendredi toute la journée, et un trou de disponibilité pour l’équipe du mardi au jeudi)

    3ème configuration : Le PO Proxy « double action »

    Il existe une dernière configuration rencontrée sur le terrain, qui met le PO Proxy dans un rôle hybride de complément aux rôles du PO et du Scrum master.

    Pour rappel, le Scrum master est responsable à la fois :

    • de la bonne application de la méthode SCRUM par l’équipe
    • du maintien de bonnes conditions de travail pour l’équipe (éviter les perturbations externes, lever les obstacles au bon déroulement du projet)

    Or, dans certaines organisations, le Scrum Master peut ne pas avoir les leviers pour lever les obstacles, notamment lorsque ces derniers sont organisationnels et que leur levée nécessite une connaissance fine de l’organisation et une disponibilité élevée (un Scrum master peut être impliqué sur plusieurs projets à la fois).

    Je pense notamment à la situation où l’équipe Agile est en interactions avec plusieurs équipes « non Agiles » de la DSI (l’équipe d’exploitation, la sécurité, les architectes, ou d’autres équipes de développement calées sur le modèle « cycle en V »). Mobiliser et coordonner l’ensemble de ces acteurs peut nécessiter une connaissance approfondie de la DSI et de ses procédures ainsi qu’une charge importante de travail.

    Un PO Proxy qui connaît bien les rouages organisationnels de la DSI et de l’entreprise et qui forme un binôme équilibré avec un PO disponible et bien dans son rôle, peut alors avoir la disponibilité pour agir sur les problèmes bloquants du projet (organiser des réunions de travail avec les bons acteurs, escalader si besoin auprès des bonnes personnes, anticiper les demandes techniques, etc.) en soutien à l’équipe et au Scrum master.

    Le PO Proxy forme alors un trio avec le PO et le Scrum Master, et joue un rôle de fluidification du projet sur les 2 tableaux : Métier et SI.

    Conclusion :

    La théorie Agile veut qu’il n’y ait qu’un seul maître à bord : le Product owner. Ceci dans un souci de simplicité et d’efficacité des échanges au sein de l’équipe. Cependant la philosophie Agile prône une application pragmatique de la méthode.

    L’application « by the book » n’a aucun intérêt : il faut faire ce qui fonctionne et cela peut être différent au sein de chaque organisation.

    Le rôle de PO Proxy, même s’il n’existe pas dans la méthode, est donc acceptable. Il reste cependant absent de la théorie, car c’est un rôle à géométrie variable nécessitant des compétences différentes selon le contexte, allant d’une pure connaissance Métier (lorsque le PO Proxy joue le rôle de complément du PO) à un mix Métier / SI (lorsque le PO Proxy complémente à la fois le PO et le Scrum master)

    Ce qui nous ramène à l’un des facteurs clés de succès de tout projet Agile : la réussite du casting sur chacun des rôles !

    Le PO Proxy ne doit pas être propulsé dans une équipe déficiente en espérant qu’il redressera à lui seul la barre… L’équipe doit être pensée dans sa globalité pour être efficace et chacun doit avoir la disponibilité nécessaire pour assurer son rôle.

    Nicolas Montens

    Nos autres articles sur les méthodes agiles :

    Méthodes Agiles – quelles leçons tirer de leur utilisation ?

    Les développements agiles sont-ils plus rapides ?

    Le sujet du « PO Proxy » revient assez souvent dans les discussions autour des méthodes Agiles et SCRUM en particulier. Certains considèrent que ce rôle, n’existant pas dans la méthodologie SCRUM, n’a aucune raison d’être. D’autres disent que ce rôle peut se justifier au cas par cas. D’autres iront même jusqu’à considérer que sa présence est indispensable dans les organisations qui ne sont pas Agiles « du sol au plafond ».

    Cependant, bien que le sujet revienne régulièrement sur la table, la littérature disponible sur le sujet est assez limitée, et il n’existe pas de définition exacte de ce qu’est un PO Proxy.

    Cet article se propose donc, en se basant sur des observations de terrain, d’essayer de définir ce que peut être un PO Proxy en jugeant sa pertinence en fonction des contextes.

    Préambule rapide : Agile ? PO ?

    « Agile » désigne un courant de méthodes (SCRUM, Lean Software Development, eXtreme Programming…) qui visent à produire une solution souhaitée par un client sur un mode itératif court (3 à 4 semaines par itération), en intégrant et responsabilisant le client au coeur de l’équipe de réalisation durant tout le projet.
    Ces méthodes s’opposent au « cycle en V » qui suit un enchaînement long d’étapes (Définition du besoin, Spécification du besoin, Spécification technique, Réalisation, Tests techniques, Tests utilisateurs, Mise en production) offrant peu de visibilité au client (en dehors du début et de la fin du projet) et induisant souvent un décalage entre la solution livrée et le besoin réel.
    Pour en savoir plus, je vous renvoie à cet article qui permet de mieux cerner les différences entre méthodes Agiles et cycle en V traditionnel.

    Ces méthodes induisent une transformation des rôles au sein des projets, illustrée par le tableau suivant :

    Agile et cycle en V comparaison

    Pour compléter, le rôle du Product Owner (PO) qui est central dans la méthode est très bien décrit dans la vidéo suivante :

    Pourquoi un PO Proxy ? Quel est son rôle ?

    Au vu des responsabilités qui incombent au Product owner, le candidat idéal pour remplir ce rôle est généralement un Manager côté Métier, qui possède à la fois une maîtrise parfaite du contexte et des enjeux du projet, tout en ayant la légitimité suffisante pour porter la vision et procéder aux inévitables arbitrages lors du projet.

    Or les Managers ont rarement la disponibilité requise (à minima 30% d’un temps plein, avec idéalement une présence physique quotidienne auprès des développeurs) pour mener à bien un projet Agile. D’où l’émergence assez répandue d’un rôle supplémentaire, absent de la théorie Agile ; celui de PO Proxy, dont la définition peut se résumer à « combler le manque de disponibilité du PO en formant un binôme avec ce dernier ».

    Voyons donc les différentes configurations de binômes rencontrées sur le terrain :

    1ère configuration : Y a-t-il un PO dans l’avion ?

    La 1ère configuration est celle où le PO nommé maîtrise parfaitement le contexte et les enjeux du projet, a la légitimité pour prendre des orientations et procéder à des arbitrages pendant le projet… MAIS n’a absolument pas la disponibilité pour assumer son rôle. Un PO Proxy est alors nommé pour être l’interlocuteur quotidien de l’équipe de développement à la place du PO. Le terme « PO Proxy » vient du fait que ce dernier devient l’intermédiaire entre l’équipe de développement et le PO (comme le Proxy informatique entre le réseau interne de l’entreprise et Internet), ces derniers n’ayant plus d’échanges directs (à l’exception des Sprint Planning / Sprint Reviews éventuellement).

    C’est une configuration souvent rencontrée dans les organisations qui se lancent dans l’Agile sans avoir complètement intégré la philosophie sous-jacente. Ces organisations se tournent vers l’Agile en pensant que cette façon de faire va répondre à leurs problématiques de réactivité et d’adéquation aux besoins utilisateurs, mais elles oublient le principe fondamental de la réussite des projets SI, à savoir une forte implication Métier.

    Compte tenu de la disponibilité quasi nulle du PO nommé, cette configuration revient à avoir un « vrai PO » (au sens de la méthode) qui est le PO Proxy. Le PO nommé initialement ne sera en définitive qu’une partie prenante du projet, qui s’exprimera principalement lors des revues de sprint (s’il est présent).

    Dès lors, la réussite du projet va dépendre de la capacité du PO Proxy à endosser le rôle du PO

    • Si ses choix ne correspondent pas aux attentes des parties prenantes (et en particulier celles du « PO »), le projet court à l’échec car ses décisions seront constamment remises en cause à la fin des Sprints.
    • Si ses choix sont les bons, et surtout s’ils sont bien communiqués et compris, le projet sera une réussite… que le PO saura valoriser auprès des autres équipes. Dans ce cas de figure il est important d’être conscient que le vrai PO a finalement été le PO Proxy ; car lancer un nouveau projet avec le PO absent pourra facilement se transformer en échec si le casting du PO Proxy n’est pas aussi bon…

    Cette configuration amène naturellement à dire que le rôle de PO Proxy n’existe pas, puisque du point de vue de l’équipe de développement, il n’y avait bien qu’un PO (la question de sa compétence dans le rôle étant un autre sujet).

    Voyons donc si d’autres configurations existent.

    2ème configuration : Le binôme équilibré (« PO Stratégique » et « PO opérationnel »)

    Cette configuration consiste en un binôme équilibré en terme de disponibilité et permet de s’approcher de l’idéal de disponibilité du PO sur un projet, c’est à dire 1 ETP. On rencontrera souvent une répartition du type 20-30% de disponibilité pour le PO et 70-80% pour le PO Proxy, mais une répartition 50-50 peut aussi arriver.

    Dans cette configuration le PO (« PO Stratégique ») porte la vision du produit et prend les décisions les plus importantes. Il est également présent quelques demi-journées par semaine sur le plateau projet, au contact de l’équipe, pour répondre aux questions des développeurs. Il procède également aux recettes des stories pendant le Sprint (à minima, les plus importantes), au fil de l’eau des livraisons de l’équipe. Il est bien entendu présent aux Sprints plannings et Sprints reviews.

    Le PO Proxy (« PO Opérationnel ») quant à lui, est davantage présent sur le plateau projet. Il répond à la majorité des questions des développeurs, procède à l’ensemble des recettes, et maintient à jour le Backlog Produit (rédaction des user-stories, des axes d’acceptance, des personas, etc.) ainsi que la documentation nécessaire à l’équipe (description des règles métiers, éventuellement maquettes des IHM attendues, etc.)

    Ce binôme, équilibré sur le papier, peut aussi bien être une réussite qu’un échec. Pour que ce type de binôme fonctionne, il est impératif que le PO et le PO Proxy partagent parfaitement la vision du produit attendu, et que les décisions de l’un ne soient pas remises en cause par l’autre le jour suivant. Il est en outre primordial que les 2 acteurs répartissent de manière intelligente leurs plages de disponibilité pour que l’équipe ait quotidiennement un référent (il est en effet peu productif d’avoir le PO et son Proxy disponibles tous les deux le lundi et le vendredi toute la journée, et un trou de disponibilité pour l’équipe du mardi au jeudi)

    3ème configuration : Le PO Proxy « double action »

    Il existe une dernière configuration rencontrée sur le terrain, qui met le PO Proxy dans un rôle hybride de complément aux rôles du PO et du Scrum master.

    Pour rappel, le Scrum master est responsable à la fois :

    • de la bonne application de la méthode SCRUM par l’équipe
    • du maintien de bonnes conditions de travail pour l’équipe (éviter les perturbations externes, lever les obstacles au bon déroulement du projet)

    Or, dans certaines organisations, le Scrum Master peut ne pas avoir les leviers pour lever les obstacles, notamment lorsque ces derniers sont organisationnels et que leur levée nécessite une connaissance fine de l’organisation et une disponibilité élevée (un Scrum master peut être impliqué sur plusieurs projets à la fois).

    Je pense notamment à la situation où l’équipe Agile est en interactions avec plusieurs équipes « non Agiles » de la DSI (l’équipe d’exploitation, la sécurité, les architectes, ou d’autres équipes de développement calées sur le modèle « cycle en V »). Mobiliser et coordonner l’ensemble de ces acteurs peut nécessiter une connaissance approfondie de la DSI et de ses procédures ainsi qu’une charge importante de travail.

    Un PO Proxy qui connaît bien les rouages organisationnels de la DSI et de l’entreprise et qui forme un binôme équilibré avec un PO disponible et bien dans son rôle, peut alors avoir la disponibilité pour agir sur les problèmes bloquants du projet (organiser des réunions de travail avec les bons acteurs, escalader si besoin auprès des bonnes personnes, anticiper les demandes techniques, etc.) en soutien à l’équipe et au Scrum master.

    Le PO Proxy forme alors un trio avec le PO et le Scrum Master, et joue un rôle de fluidification du projet sur les 2 tableaux : Métier et SI.

    Conclusion :

    La théorie Agile veut qu’il n’y ait qu’un seul maître à bord : le Product owner. Ceci dans un souci de simplicité et d’efficacité des échanges au sein de l’équipe. Cependant la philosophie Agile prône une application pragmatique de la méthode.

    L’application « by the book » n’a aucun intérêt : il faut faire ce qui fonctionne et cela peut être différent au sein de chaque organisation.

    Le rôle de PO Proxy, même s’il n’existe pas dans la méthode, est donc acceptable. Il reste cependant absent de la théorie, car c’est un rôle à géométrie variable nécessitant des compétences différentes selon le contexte, allant d’une pure connaissance Métier (lorsque le PO Proxy joue le rôle de complément du PO) à un mix Métier / SI (lorsque le PO Proxy complémente à la fois le PO et le Scrum master)

    Ce qui nous ramène à l’un des facteurs clés de succès de tout projet Agile : la réussite du casting sur chacun des rôles !

    Le PO Proxy ne doit pas être propulsé dans une équipe déficiente en espérant qu’il redressera à lui seul la barre… L’équipe doit être pensée dans sa globalité pour être efficace et chacun doit avoir la disponibilité nécessaire pour assurer son rôle.

    Nicolas Montens

    Nos autres articles sur les méthodes agiles :

    Méthodes Agiles – quelles leçons tirer de leur utilisation ?

    Les développements agiles sont-ils plus rapides ?

      Pas d'image

      Organisation management|

      |

      Le management des 3%

      Florent Fouque décrypte, sur excellence opérationnelle TV, un phénomène selon lui assez répandu : certaines règles dans nos entreprises sont conçues pour prévenir des situations rares, voire uniques, et génèrent en parallèle un grand nombre d’effets négatifs.

      Première publication le 28 sep. 2013, mise à jour le 28 déc. 2016

      Le terme de « management des 3% » a été introduit par Gordon Forward, ancien directeur de Chaparal Steel.
Le management des 3% c’est le fait de définir des contraintes pour tout le monde alors même que le problème initial à résoudre ne concerne qu’une infime partie des employés.
 Vous connaissez certainement des anecdotes de ce genre ?

      • La mise en place d’une procédure stricte d’approvisionnement de fournitures de bureaux (mises sous clé) parce qu’une fois, une secrétaire en a profité pour remplir le cartable de rentrée de ses enfants.
      • L’obligation de passer par une agence de location de véhicules (…) ou le train (…) parce qu’une fois un rigolot s’est empoché 1 000€ de frais kilométriques en faisant Paris Marseille avec sa voiture.

      Le diable est dans les détails et l’enfer est pavé de bonnes intentions : on est au coeur des ces deux maximes. Croyant bien faire, on va à 180° de l’objectif et on conduit tout le monde en enfer !

      On ne compte plus les exemples de ce genre dans nos entreprises… (…) Au-delà du coût, ce genre de procédure génère une forte démotivation et déresponsabilisation des employés…

      A l’évocation de ces exemples on comprend assez aisément la stupidité de ces décisions.
 Mais ça ne serait pas très fair-play de s’en arrêter à ce constat sans chercher à comprendre ces déviances…

      Pour commencer, ce genre de décision leur évite d’avoir à affronter le cas particulier dont le comportement a dérivé. En effet, il est plus simple de lancer une nouvelle procédure que de chercher à comprendre les motivations d’une personne que l’on pense a priori mal intentionnée.
      Ensuite, ce genre de procédure permet d’ôter la responsabilité des erreurs aux managers. Bah, oui, si les employés ne respectent pas scrupuleusement les procédures, alors franchement, ils n’y sont pour rien !

      (…)

      Au-delà des points négatifs déjà énoncés, se concentrer sur les éléments perturbateurs montre à tous les employés qui veulent faire avancer l’entreprise, qu’il faut être un perturbateur pour générer une réaction du management.
      D’ailleurs, combien de projets sont embourbés car le chef de projet passe tout son temps à vouloir convaincre les réticents au lieu de prolonger la ferveur des plus enthousiastes ? 
(…)

      On a vu que le management des 3% pouvait coûter en gaspillage financier et humain… Essayons de voir ce que cela fait gagner en contrepartie… (…) Zéro ! Nada !
      Pourquoi ? Parce que ceux qui ont un esprit malsain trouveront toujours le moyen de contourner la procédure pour faire ce qui leur plaît !

      (…)

      Source : http://www.excellence-operationnelle.tv/faites-vous-lerreur-de-pratiquer-le-management-des-3.php

       

      Première publication le 28 sep. 2013, mise à jour le 28 déc. 2016

      Florent Fouque décrypte, sur excellence opérationnelle TV, un phénomène selon lui assez répandu : certaines règles dans nos entreprises sont conçues pour prévenir des situations rares, voire uniques, et génèrent en parallèle un grand nombre d’effets négatifs.

      Première publication le 28 sep. 2013, mise à jour le 28 déc. 2016

      Le terme de « management des 3% » a été introduit par Gordon Forward, ancien directeur de Chaparal Steel.
Le management des 3% c’est le fait de définir des contraintes pour tout le monde alors même que le problème initial à résoudre ne concerne qu’une infime partie des employés.
 Vous connaissez certainement des anecdotes de ce genre ?

      • La mise en place d’une procédure stricte d’approvisionnement de fournitures de bureaux (mises sous clé) parce qu’une fois, une secrétaire en a profité pour remplir le cartable de rentrée de ses enfants.
      • L’obligation de passer par une agence de location de véhicules (…) ou le train (…) parce qu’une fois un rigolot s’est empoché 1 000€ de frais kilométriques en faisant Paris Marseille avec sa voiture.

      Le diable est dans les détails et l’enfer est pavé de bonnes intentions : on est au coeur des ces deux maximes. Croyant bien faire, on va à 180° de l’objectif et on conduit tout le monde en enfer !

      On ne compte plus les exemples de ce genre dans nos entreprises… (…) Au-delà du coût, ce genre de procédure génère une forte démotivation et déresponsabilisation des employés…

      A l’évocation de ces exemples on comprend assez aisément la stupidité de ces décisions.
 Mais ça ne serait pas très fair-play de s’en arrêter à ce constat sans chercher à comprendre ces déviances…

      Pour commencer, ce genre de décision leur évite d’avoir à affronter le cas particulier dont le comportement a dérivé. En effet, il est plus simple de lancer une nouvelle procédure que de chercher à comprendre les motivations d’une personne que l’on pense a priori mal intentionnée.
      Ensuite, ce genre de procédure permet d’ôter la responsabilité des erreurs aux managers. Bah, oui, si les employés ne respectent pas scrupuleusement les procédures, alors franchement, ils n’y sont pour rien !

      (…)

      Au-delà des points négatifs déjà énoncés, se concentrer sur les éléments perturbateurs montre à tous les employés qui veulent faire avancer l’entreprise, qu’il faut être un perturbateur pour générer une réaction du management.
      D’ailleurs, combien de projets sont embourbés car le chef de projet passe tout son temps à vouloir convaincre les réticents au lieu de prolonger la ferveur des plus enthousiastes ? 
(…)

      On a vu que le management des 3% pouvait coûter en gaspillage financier et humain… Essayons de voir ce que cela fait gagner en contrepartie… (…) Zéro ! Nada !
      Pourquoi ? Parce que ceux qui ont un esprit malsain trouveront toujours le moyen de contourner la procédure pour faire ce qui leur plaît !

      (…)

      Source : http://www.excellence-operationnelle.tv/faites-vous-lerreur-de-pratiquer-le-management-des-3.php

       

      Première publication le 28 sep. 2013, mise à jour le 28 déc. 2016

      Transformation digitale|

      |

      Le scraping de pages web est-il légal ?

      Le terme scraping désigne l’action de récupérer du contenu à partir d’un ou plusieurs sites web de manière automatisée à l’aide d’un programme informatique.

      Pourquoi avoir recours au scraping ? 

      Le scraping est massivement utilisé aujourd’hui, notamment par les start-up, pour agréger en un temps court une grande quantité de contenu. Cette activité réduit le temps nécessaire pour passer d’une coquille vide de site internet à un outil qui peut être référencé par les moteurs de recherche et commencer à générer du trafic.

      En première approche cette pratique semble assez déloyale

      En remplaçant “site web” par “vaisseau de commerce” et “programme informatique” par “canons” dans la définition introductive, on obtient une bonne définition de la flibusterie dans les Caraïbes du XVIIe siècle.

      Il paraît en effet hautement déloyal qu’une entreprise ou un individu puisse récupérer, à titre gratuit et en quelques lignes de code, du contenu que d’autres ont sué sang et eau pour produire.

      L’auteur du contenu scrapé n’a par ailleurs aucun pouvoir sur le contexte dans lequel sera utilisé son contenu.

      Mais sur un plan juridique les choses ne sont pas aussi simples

      Le sujet est même éminemment complexe. Voici une mise en situation pour s’en convaincre : un internaute ou une entreprise produit et publie sur internet un ensemble d’articles. Les articles sont scrapés par un tiers et re-publiés sans modification.

      Dans ce cas précis le droit d’auteur entre en oeuvre en France et dans la grande majorité des pays du monde. Mais ce droit varie entre les pays. En France et en Europe, le droit sui generis stipule qu’un “investissement substantiel” doit être réalisé pour qu’une base de données (notamment de contenus) soit protégée par le droit d’auteur.

      De ce fait, le scraping et la restitution d’une base de donnée scrapée sont en violation du code de propriété intellectuelle (Article L342-1) sous réserve que la transformation réalisée sur les données ne soit pas suffisamment substantielle pour justifier que la nouvelle base soit elle-même sui generis c’est à dire « de son propre genre » .

      La jurisprudence européenne offre deux compléments intéressants :  

      1. Une compagnie aérienne (Ryanair) est scrapée par un comparateur de vols en ligne (Opodo) mais une partie seulement des informations de tarifs des billets est restituée aux clients finaux, rendant l’offre peu attrayante. Ryanair a attaqué Opodo en justice en 2010 à ce sujet dans plusieurs pays européen. En France, la compagnie aérienne a été  finalement déboutée en appel.
        Parmi les raisons qui ont conduit la cour d’appel à cette décision, la transformation réalisée sur les données a été jugée suffisante pour justifier d’un investissement substantiel de la part d’Opodo. Par ailleurs,  les conditions générales invoquées comme violées par Ryanair ne sont applicables que lors d’une transaction d’achat d’un billet d’avion. L’activité de scraping d’Opodo ne viole donc pas ces conditions et a été jugée légale par la cour. 

      2. Un métamoteur de recherche néerlandais spécialisé dans la vente automobile (GasPedaal) est attaqué en 2013 aux Pays-Bas par un site de recueil d’annonces de vente de voiture (AutoTrack). Le sujet est ensuite porté devant Cour de justice de l’Union Européenne (CJUE).
        La cour a estimé que l’utilisation d’un méta-moteur de recherche constituait une simple «mise à disposition» du contenu de la base de données du plaignant et que par conséquent cela entraînait la réutilisation d’une partie substantielle du contenu de la base de données sans aucune action de modifications. La cour a ainsi statué en faveur du plaignant AutoTrack. 

      Ces deux exemples montrent qu’une analyse plus profonde et contextuelle est nécessaire avant de statuer sur l’illégalité du scraping.

      Il convient néanmoins de noter que, dans les deux cas, c’est la publication des données scrapées qui pose problème. L’action de scraping n’est pas directement mise en cause.

      Le processus de scraping en lui-même n’est pas répréhensible

      En effet d’un point de vue pratique le scraping de données publiques consiste à se déplacer sur un site sans créer de compte et sans s’être enregistré et par conséquent sans avoir accepté les termes d’utilisation du site en question, notamment la non-reprise du contenu.

      La jurisprudence américaine considérant que les conditions d’utilisation doivent être expressément acceptées par l’utilisateur (à l’inverse des pratiques de browse wrap basées sur l’acceptation tacite des conditions par les utilisateurs), le scraper n’enfreint donc pas des conditions qu’il n’a jamais acceptées et ne viole par conséquent pas la loi.

      Par ailleurs le plus gros scraper du monde n’est autre que Google lui même :

      • Google Shopping qui propose des comparaisons de prix de vente entre différents site marchands tire également ses informations du scraping ;
      • Google actualités scrape le contenu des sites de News ;
      • Cette liste n’est pas exhaustive la plupart des services Google étant basés sur des actions de scraping (à l’exception du moteur de recherche lui-même basé sur le crawling, c’est à dire de l’aspiration de données sans structuration)

      L’activité de scraping n’a donc rien d’illégal, en revanche la réutilisation des données scrapées, telles quelles ou après transformation mineure, présente des risques plus importants et doit faire l’objet d’une étude juridique fine axée sur le niveau de transformation des données collectées.

      Le terme scraping désigne l’action de récupérer du contenu à partir d’un ou plusieurs sites web de manière automatisée à l’aide d’un programme informatique.

      Pourquoi avoir recours au scraping ? 

      Le scraping est massivement utilisé aujourd’hui, notamment par les start-up, pour agréger en un temps court une grande quantité de contenu. Cette activité réduit le temps nécessaire pour passer d’une coquille vide de site internet à un outil qui peut être référencé par les moteurs de recherche et commencer à générer du trafic.

      En première approche cette pratique semble assez déloyale

      En remplaçant “site web” par “vaisseau de commerce” et “programme informatique” par “canons” dans la définition introductive, on obtient une bonne définition de la flibusterie dans les Caraïbes du XVIIe siècle.

      Il paraît en effet hautement déloyal qu’une entreprise ou un individu puisse récupérer, à titre gratuit et en quelques lignes de code, du contenu que d’autres ont sué sang et eau pour produire.

      L’auteur du contenu scrapé n’a par ailleurs aucun pouvoir sur le contexte dans lequel sera utilisé son contenu.

      Mais sur un plan juridique les choses ne sont pas aussi simples

      Le sujet est même éminemment complexe. Voici une mise en situation pour s’en convaincre : un internaute ou une entreprise produit et publie sur internet un ensemble d’articles. Les articles sont scrapés par un tiers et re-publiés sans modification.

      Dans ce cas précis le droit d’auteur entre en oeuvre en France et dans la grande majorité des pays du monde. Mais ce droit varie entre les pays. En France et en Europe, le droit sui generis stipule qu’un “investissement substantiel” doit être réalisé pour qu’une base de données (notamment de contenus) soit protégée par le droit d’auteur.

      De ce fait, le scraping et la restitution d’une base de donnée scrapée sont en violation du code de propriété intellectuelle (Article L342-1) sous réserve que la transformation réalisée sur les données ne soit pas suffisamment substantielle pour justifier que la nouvelle base soit elle-même sui generis c’est à dire « de son propre genre » .

      La jurisprudence européenne offre deux compléments intéressants :  

      1. Une compagnie aérienne (Ryanair) est scrapée par un comparateur de vols en ligne (Opodo) mais une partie seulement des informations de tarifs des billets est restituée aux clients finaux, rendant l’offre peu attrayante. Ryanair a attaqué Opodo en justice en 2010 à ce sujet dans plusieurs pays européen. En France, la compagnie aérienne a été  finalement déboutée en appel.
        Parmi les raisons qui ont conduit la cour d’appel à cette décision, la transformation réalisée sur les données a été jugée suffisante pour justifier d’un investissement substantiel de la part d’Opodo. Par ailleurs,  les conditions générales invoquées comme violées par Ryanair ne sont applicables que lors d’une transaction d’achat d’un billet d’avion. L’activité de scraping d’Opodo ne viole donc pas ces conditions et a été jugée légale par la cour. 

      2. Un métamoteur de recherche néerlandais spécialisé dans la vente automobile (GasPedaal) est attaqué en 2013 aux Pays-Bas par un site de recueil d’annonces de vente de voiture (AutoTrack). Le sujet est ensuite porté devant Cour de justice de l’Union Européenne (CJUE).
        La cour a estimé que l’utilisation d’un méta-moteur de recherche constituait une simple «mise à disposition» du contenu de la base de données du plaignant et que par conséquent cela entraînait la réutilisation d’une partie substantielle du contenu de la base de données sans aucune action de modifications. La cour a ainsi statué en faveur du plaignant AutoTrack. 

      Ces deux exemples montrent qu’une analyse plus profonde et contextuelle est nécessaire avant de statuer sur l’illégalité du scraping.

      Il convient néanmoins de noter que, dans les deux cas, c’est la publication des données scrapées qui pose problème. L’action de scraping n’est pas directement mise en cause.

      Le processus de scraping en lui-même n’est pas répréhensible

      En effet d’un point de vue pratique le scraping de données publiques consiste à se déplacer sur un site sans créer de compte et sans s’être enregistré et par conséquent sans avoir accepté les termes d’utilisation du site en question, notamment la non-reprise du contenu.

      La jurisprudence américaine considérant que les conditions d’utilisation doivent être expressément acceptées par l’utilisateur (à l’inverse des pratiques de browse wrap basées sur l’acceptation tacite des conditions par les utilisateurs), le scraper n’enfreint donc pas des conditions qu’il n’a jamais acceptées et ne viole par conséquent pas la loi.

      Par ailleurs le plus gros scraper du monde n’est autre que Google lui même :

      • Google Shopping qui propose des comparaisons de prix de vente entre différents site marchands tire également ses informations du scraping ;
      • Google actualités scrape le contenu des sites de News ;
      • Cette liste n’est pas exhaustive la plupart des services Google étant basés sur des actions de scraping (à l’exception du moteur de recherche lui-même basé sur le crawling, c’est à dire de l’aspiration de données sans structuration)

      L’activité de scraping n’a donc rien d’illégal, en revanche la réutilisation des données scrapées, telles quelles ou après transformation mineure, présente des risques plus importants et doit faire l’objet d’une étude juridique fine axée sur le niveau de transformation des données collectées.

      Organisation DSI|

      |

      CMMI et Lean sont-ils compatibles ?

      Voici un point de vue d’Emmanuel Chenu, expert en Lean Software Development, mis en avant sur le blog de l’institut Lean IT

      L’objet de ce point de vue est de comparer deux méthodologies de développement logiciel, qui peuvent sembler de prime abord assez proches : CMMI et le Lean Software Development.

      En effet les 2 méthodes affichent comme l’un de leurs objectifs principaux « l’atteinte de la perfection » dans le développement logiciel. Si CMMI est un référentiel reconnu et répandu dans de nombreuses SSII, le Lean Software Development ou méthode Agile sont encore peu mis en place.

      Alors quelles sont les différences / similitudes entre ces 2 méthodes ? Sont-elles compatibles ?

      Morceaux choisis :

      L’équipe dont je fais partie développe des logiciels dans une démarche Agile. Poussés par nos clients, notre organisation est certifiée CMMi  niveau 3. Ces deux démarches d’amélioration continue sont-elles compatibles ou sommes-nous schizophrènes ?

      En quelques années, depuis l’adoption de la démarche Agile,  nous avons progressivement  et continuellement amélioré nos logiciels et la manière de les développer. De plus, les équipes impliquées ont eu du plaisir à travailler ensemble sur ces projets.
      Dans le même temps, nous avons cherché à obtenir le niveau 3 du CMMi. Nous y sommes allé avec curiosité.
      Pourquoi ai-je été déçu ? Pourquoi certains héros ont-ils dû déployer une telle énergie pour préparer l’audit et présenter les preuves requises ? Pourquoi lors des interviews, je n’ai jamais senti que les auditeurs cherchaient à savoir si nous développions correctement le bon logiciel ? Ainsi il suffit de s’assurer que l’on répond aux exigences du CMMi pour affirmer que nous développons bien le bon produit ? Pourquoi le rythme d’amélioration continue était-il soudain freiné par le formalisme détaillé requis par le CMMi ? Pourquoi nous a t-on reproché de ne pas planifier à l’avance les changements de processus que nous menions petit à petit et en continue au fur et à mesure que nous découvrions des opportunités d’amélioration ?

      Mais en fait, pouvons nous mener une démarche Agile ET viser le niveau 3 du CMMi ?

      Est ce réellement compatible ?

      Une réponse à cette question nous est proposée par Peter Middleton et James Sutton dans leur livre Lean Software Strategies. Les auteurs proposent de comprendre les principes du CMMi en les comparant à deux modèles industriels : la production de masse et le Lean.

      Les cinq principes les plus marquants de la production de masse sont:

      • Viser la répétabilité;
      • Les grandes infrastructures;
      • Optimiser le l’efficacité et le rendement;
      • Le gigantisme organisationnel;
      • Le technocentrisme.

      Les cinq principes les plus marquants de la production Lean sont:

      • Spécifier ce qui fait ou crée de la valeur pour le client;
      • Identifier le flux de valeur;
      • Favoriser l’écoulement du flux;
      • Tirer les flux;
      • Viser la perfection.

      Alors, comment positionne t-on la démarche CMMi par rapport à ces deux modèles ?

      Un des objectifs du CMMi est d’obtenir la répétabilité du processus de développement. D’ailleurs, le niveau 2 s’appelle « Repeatable ».

      Le CMMi cherche à améliorer l’efficacité et le rendement des processus. Une démarche pilotée par le rendement amène à optimiser des activités regroupées par type.

      Le travail est divisé en tâches et les travailleurs sont spécialisés par tâche.

      Dans cet esprit, le CMMi s’aligne clairement sur la philosophie de la production de masse.

      Alors y a t-il quelque chose qui rapproche CMMI de la philosophie Lean ?

      Le CMMi demande qu’il y ait une gestion des exigences sur le produit à développer. Par contre, le CMMi ne se préoccupe pas de s’assurer que l’on gère les bonnes exigences: c’est à dire celles qui répondent réellement au besoin du client. Ainsi, le CMMi ne suit pas le principe Lean de la valeur.

      Le Lean propose de se concentrer sur le flux de valeur afin de l’optimiser en supprimant tout gaspillage.

      Le CMMi propose de modifier le flux de valeur afin d’éviter le gaspillage représenté par un type de régression. Néanmoins, cela ne concerne pas l’optimisation d’un flux qui ne génère pas de défauts.

      Les exigences du CMMi sont organisées par activité. Le processus de création de valeur est traité activité par activité. Les activités sont surveillées par des groupes spécialisés. Une telle démarche ne se concentre  pas sur l’écoulement du flux de valeur.

      Conclusion

      Il est possible d’être Agile et certifié CMMi niveau 3. Ou plutôt, il me semble possible d’être Agile malgré une pratique du CMMi. En effet, un Agiliste devra faire des concessions et formaliser d’avantage en vue de réussir un audit. Dans une élimination systématique du gaspillage, un Agiliste sera tenté de se délester de certaines pratiques du CMMi qui n’apportent pas de valeur au client final. Cela mettra en péril son niveau de certification. Le problème se complique si ce certificat de maturité lui apporte de la valeur…

      Ce point de vue est intéressant car il compare d’un côté CMMI un référentiel répandu, encadré par des organismes de certification, et présentant des processus types à mettre en place et à contrôler, et de l’autre une méthode Lean qui propose des outils tout en se focalisant sur une « philosophie » tournée vers la valeur ajoutée pour le client.

      Les 2 méthodes affichent effectivement l’objectif d’atteindre la perfection. CMMI propose un cadre pour contrôler la « perfection de la réalisation », mais ne se penche pas sur l’utilité et la valeur finale de ce qui est réalisé. Le Lean se préoccupe davantage de la « perfection du produit fini » en supprimant toute forme de gaspillage.

      Retrouvez l’intégralité du point de vue  : http://manu40k.free.fr/articleCMMi.pdf

      Voici un point de vue d’Emmanuel Chenu, expert en Lean Software Development, mis en avant sur le blog de l’institut Lean IT

      L’objet de ce point de vue est de comparer deux méthodologies de développement logiciel, qui peuvent sembler de prime abord assez proches : CMMI et le Lean Software Development.

      En effet les 2 méthodes affichent comme l’un de leurs objectifs principaux « l’atteinte de la perfection » dans le développement logiciel. Si CMMI est un référentiel reconnu et répandu dans de nombreuses SSII, le Lean Software Development ou méthode Agile sont encore peu mis en place.

      Alors quelles sont les différences / similitudes entre ces 2 méthodes ? Sont-elles compatibles ?

      Morceaux choisis :

      L’équipe dont je fais partie développe des logiciels dans une démarche Agile. Poussés par nos clients, notre organisation est certifiée CMMi  niveau 3. Ces deux démarches d’amélioration continue sont-elles compatibles ou sommes-nous schizophrènes ?

      En quelques années, depuis l’adoption de la démarche Agile,  nous avons progressivement  et continuellement amélioré nos logiciels et la manière de les développer. De plus, les équipes impliquées ont eu du plaisir à travailler ensemble sur ces projets.
      Dans le même temps, nous avons cherché à obtenir le niveau 3 du CMMi. Nous y sommes allé avec curiosité.
      Pourquoi ai-je été déçu ? Pourquoi certains héros ont-ils dû déployer une telle énergie pour préparer l’audit et présenter les preuves requises ? Pourquoi lors des interviews, je n’ai jamais senti que les auditeurs cherchaient à savoir si nous développions correctement le bon logiciel ? Ainsi il suffit de s’assurer que l’on répond aux exigences du CMMi pour affirmer que nous développons bien le bon produit ? Pourquoi le rythme d’amélioration continue était-il soudain freiné par le formalisme détaillé requis par le CMMi ? Pourquoi nous a t-on reproché de ne pas planifier à l’avance les changements de processus que nous menions petit à petit et en continue au fur et à mesure que nous découvrions des opportunités d’amélioration ?

      Mais en fait, pouvons nous mener une démarche Agile ET viser le niveau 3 du CMMi ?

      Est ce réellement compatible ?

      Une réponse à cette question nous est proposée par Peter Middleton et James Sutton dans leur livre Lean Software Strategies. Les auteurs proposent de comprendre les principes du CMMi en les comparant à deux modèles industriels : la production de masse et le Lean.

      Les cinq principes les plus marquants de la production de masse sont:

      • Viser la répétabilité;
      • Les grandes infrastructures;
      • Optimiser le l’efficacité et le rendement;
      • Le gigantisme organisationnel;
      • Le technocentrisme.

      Les cinq principes les plus marquants de la production Lean sont:

      • Spécifier ce qui fait ou crée de la valeur pour le client;
      • Identifier le flux de valeur;
      • Favoriser l’écoulement du flux;
      • Tirer les flux;
      • Viser la perfection.

      Alors, comment positionne t-on la démarche CMMi par rapport à ces deux modèles ?

      Un des objectifs du CMMi est d’obtenir la répétabilité du processus de développement. D’ailleurs, le niveau 2 s’appelle « Repeatable ».

      Le CMMi cherche à améliorer l’efficacité et le rendement des processus. Une démarche pilotée par le rendement amène à optimiser des activités regroupées par type.

      Le travail est divisé en tâches et les travailleurs sont spécialisés par tâche.

      Dans cet esprit, le CMMi s’aligne clairement sur la philosophie de la production de masse.

      Alors y a t-il quelque chose qui rapproche CMMI de la philosophie Lean ?

      Le CMMi demande qu’il y ait une gestion des exigences sur le produit à développer. Par contre, le CMMi ne se préoccupe pas de s’assurer que l’on gère les bonnes exigences: c’est à dire celles qui répondent réellement au besoin du client. Ainsi, le CMMi ne suit pas le principe Lean de la valeur.

      Le Lean propose de se concentrer sur le flux de valeur afin de l’optimiser en supprimant tout gaspillage.

      Le CMMi propose de modifier le flux de valeur afin d’éviter le gaspillage représenté par un type de régression. Néanmoins, cela ne concerne pas l’optimisation d’un flux qui ne génère pas de défauts.

      Les exigences du CMMi sont organisées par activité. Le processus de création de valeur est traité activité par activité. Les activités sont surveillées par des groupes spécialisés. Une telle démarche ne se concentre  pas sur l’écoulement du flux de valeur.

      Conclusion

      Il est possible d’être Agile et certifié CMMi niveau 3. Ou plutôt, il me semble possible d’être Agile malgré une pratique du CMMi. En effet, un Agiliste devra faire des concessions et formaliser d’avantage en vue de réussir un audit. Dans une élimination systématique du gaspillage, un Agiliste sera tenté de se délester de certaines pratiques du CMMi qui n’apportent pas de valeur au client final. Cela mettra en péril son niveau de certification. Le problème se complique si ce certificat de maturité lui apporte de la valeur…

      Ce point de vue est intéressant car il compare d’un côté CMMI un référentiel répandu, encadré par des organismes de certification, et présentant des processus types à mettre en place et à contrôler, et de l’autre une méthode Lean qui propose des outils tout en se focalisant sur une « philosophie » tournée vers la valeur ajoutée pour le client.

      Les 2 méthodes affichent effectivement l’objectif d’atteindre la perfection. CMMI propose un cadre pour contrôler la « perfection de la réalisation », mais ne se penche pas sur l’utilité et la valeur finale de ce qui est réalisé. Le Lean se préoccupe davantage de la « perfection du produit fini » en supprimant toute forme de gaspillage.

      Retrouvez l’intégralité du point de vue  : http://manu40k.free.fr/articleCMMi.pdf

        Pas d'image

        Lean startup|

        |

        Avec le Lean Startup oubliez les Business Plans

        Une des étapes clés lorsqu’on souhaite se lancer dans l’entrepreunariat, consiste à définir son Business Plan. Cette étape nécessite une réflexion poussée, et dissuaderait nombre d’entrepreneurs en herbe. C’est ici qu’intervient une nouvelle méthode de création d’entreprise, très en vogue au Canada : le Lean Startup. Davantage centré sur les besoins et la capacité à y répondre de façon innovante en se démarquant de la concurrence, la méthode privilégie l’action à la réflexion.

        Voici un article du site Capital.fr sur le sujet :

        L’Agence pour la création d’entreprise (APCE) présente une méthodologie en vogue au Canada pour faciliter la création d’entreprise. Objectif : supprimer l’étape souvent dissuasive du « business plan ».

        Trop complexe, trop fastidieux, trop rigide… Au placard le bon vieux « business plan ». « Ce document né dans les années 70 retarde les projets et bride la créativité des entrepreneurs », assure Claude Ananou, enseignant à HEC Montréal et créateur d’une méthode alternative, nommée SynOpp.

        Déjà utilisée depuis deux ans au Québec, cette technique a déjà permis à 30.000 porteurs de projet canadiens de se lancer. Dans la même veine, le  » lean start up  » (démarrage agile) se développe, notamment aux Etats-Unis ou en Suisse.

        Pas question de théoriser sur un papier le développement hypothétique d’une entreprise ou de mener une étude de marché comme dans un plan d’affaires classique. « Le travail consiste à dessiner l’ADN du projet », explique Claude Ananou.

        Identifier un besoin

        Pour bâtir sa méthodologie, ce serial-entrepreneur est parti d’un constat : « les plus grands succès tels Microsoft, Facebook ou Google ne sont pas nés d’un business plan pré-établi mais d’une intuition ». Dans la méthode SynOpp, tout commence donc par identifier un besoin, puis la solution pour y répondre. Pour réussir, le porteur de projet doit bien sûr analyser le marché, mais surtout, trouver « un avantage prépondérant » par rapport à la concurrence.

        Tester son concept

        Pour valider ces hypothèses, la seconde étape consiste à identifier les « adeptes » – « ceux qui ont ce besoin de façon exacerbée », précise Claude Ananou – afin de valider son projet en grandeur nature. « Il faut tester sa formule comme une cellule-souche. Avant de monter un restaurant, par exemple, il s’agit de le valider auprès de vos amis fins gourmets », détaille Claude Ananou. En fonction de l’accueil réservé, le créateur doit alors renoncer ou adapter sa solution.

        Analyser sa propre sensibilité

        Avant de faire le grand saut, une phase d’introspection s’impose. Elle consiste à mesurer la sensibilité aux pertes du futur entrepreneur. « Il doit s’interroger : « qu’est-ce que je suis prêt à perdre sur le plan financier, personnel, réputation, estime de soi ? », recommande Claude Ananou. L’idée est de vérifier que le créateur est lui-même en phase avec son projet, afin de limiter les risques d’échec. Une fois le concept verrouillé, reste le plus délicat : convaincre les banquiers de renoncer au sacro-saint « business plan ». Plus corsé…

        source : http://www.capital.fr/carriere-management/actualites/creer-sa-boite-sans-business-plan-une-nouvelle-methode-debarque-en-france-573161

        Une des étapes clés lorsqu’on souhaite se lancer dans l’entrepreunariat, consiste à définir son Business Plan. Cette étape nécessite une réflexion poussée, et dissuaderait nombre d’entrepreneurs en herbe. C’est ici qu’intervient une nouvelle méthode de création d’entreprise, très en vogue au Canada : le Lean Startup. Davantage centré sur les besoins et la capacité à y répondre de façon innovante en se démarquant de la concurrence, la méthode privilégie l’action à la réflexion.

        Voici un article du site Capital.fr sur le sujet :

        L’Agence pour la création d’entreprise (APCE) présente une méthodologie en vogue au Canada pour faciliter la création d’entreprise. Objectif : supprimer l’étape souvent dissuasive du « business plan ».

        Trop complexe, trop fastidieux, trop rigide… Au placard le bon vieux « business plan ». « Ce document né dans les années 70 retarde les projets et bride la créativité des entrepreneurs », assure Claude Ananou, enseignant à HEC Montréal et créateur d’une méthode alternative, nommée SynOpp.

        Déjà utilisée depuis deux ans au Québec, cette technique a déjà permis à 30.000 porteurs de projet canadiens de se lancer. Dans la même veine, le  » lean start up  » (démarrage agile) se développe, notamment aux Etats-Unis ou en Suisse.

        Pas question de théoriser sur un papier le développement hypothétique d’une entreprise ou de mener une étude de marché comme dans un plan d’affaires classique. « Le travail consiste à dessiner l’ADN du projet », explique Claude Ananou.

        Identifier un besoin

        Pour bâtir sa méthodologie, ce serial-entrepreneur est parti d’un constat : « les plus grands succès tels Microsoft, Facebook ou Google ne sont pas nés d’un business plan pré-établi mais d’une intuition ». Dans la méthode SynOpp, tout commence donc par identifier un besoin, puis la solution pour y répondre. Pour réussir, le porteur de projet doit bien sûr analyser le marché, mais surtout, trouver « un avantage prépondérant » par rapport à la concurrence.

        Tester son concept

        Pour valider ces hypothèses, la seconde étape consiste à identifier les « adeptes » – « ceux qui ont ce besoin de façon exacerbée », précise Claude Ananou – afin de valider son projet en grandeur nature. « Il faut tester sa formule comme une cellule-souche. Avant de monter un restaurant, par exemple, il s’agit de le valider auprès de vos amis fins gourmets », détaille Claude Ananou. En fonction de l’accueil réservé, le créateur doit alors renoncer ou adapter sa solution.

        Analyser sa propre sensibilité

        Avant de faire le grand saut, une phase d’introspection s’impose. Elle consiste à mesurer la sensibilité aux pertes du futur entrepreneur. « Il doit s’interroger : « qu’est-ce que je suis prêt à perdre sur le plan financier, personnel, réputation, estime de soi ? », recommande Claude Ananou. L’idée est de vérifier que le créateur est lui-même en phase avec son projet, afin de limiter les risques d’échec. Une fois le concept verrouillé, reste le plus délicat : convaincre les banquiers de renoncer au sacro-saint « business plan ». Plus corsé…

        source : http://www.capital.fr/carriere-management/actualites/creer-sa-boite-sans-business-plan-une-nouvelle-methode-debarque-en-france-573161

        Stratégie de rupture|

        |

        Synthèse du livre de Philippe Silberzahn sur l’innovation de rupture

        À ISlean consulting, nous aimons beaucoup Philippe Silberzahn. Entrepreneur, professeur en stratégie à l’EM Lyon et chercheur associé à l’école Polytechnique, il fut l’un des premiers créateurs de MOOC en France, avec un MOOC sur l’effectuation. Très prolixe sur son blog, ses articles sont toujours une source féconde de réflexion.

        Il a écrit plusieurs livres, dont « Relevez le défi de l’innovation de rupture. » Le présent  article vise à vous en résumer l’essentiel et vous donner envie de le lire.

        Ce livre est une synthèse inédite, et en français, des travaux de Clayton Christensen, le célèbre professeur d’Harvard spécialiste de l’innovation. Je vais vous en donner la substantifique moelle, en suivant son sommaire, et en m’appuyant sur des citations clés, mais il faut évidemment le lire en entier pour mieux s’imprégner des concepts et les appréhender. N’hésitez pas, le livre est facile et agréable à lire.

         

        Première partie : la rupture et le dilemme de l’innovateur

        Chapitre 1 : le dilemme de l’innovateur vu au travers de l’histoire de Kodak

        L’exemple de Kodak montre qu’une entreprise meurt non pas d’avoir ignoré une innovation de rupture, mais d’avoir renoncé en pratique à agir pour la développer, en raison de son activité actuelle. L’entreprise est prisonnière de son modèle d’affaire.

        Chapitre 2 : innovation, rupture et dynamique de marché.

        L’innovation de rupture, contrairement à l’innovation continue, est une innovation qui nécessite pour l’acteur en place un modèle d’affaire différent du modèle d’affaire existant. C’est donc une notion relative (ce qui est rupture pour les uns n’est que continuité pour d’autres).

        Il y a la rupture de nouveau marché (Nespresso) et la rupture par le bas, en offrant un produit simplifié et moins cher (les hôtels Formule 1).

        Il y a 3 leviers qui transforment une industrie par une innovation de rupture :

        • Un développement de la technologie et des connaissances
        • De nouveaux modèles d’affaires qui définissent de nouvelles façons de créer de la valeur
        • Un nouveau réseau de valeur (parties prenantes, circuits de distribution,…)

         

        Deuxième partie : la tragédie du modèle d’affaires

        Chapitre 3 : rupture, de la technologie au modèle d’affaires

        Deux causes d’échecs des acteurs en place face à une rupture technologique :

        • La nouvelle technologie tend à avoir une performance inférieure à l’actuelle sur le critère dominant de performance (exemple : la VOIP face aux réseaux télécom classiques)
        • La nouvelle technologie introduit de nouveaux critères de performance qui séduisent d’actuels non-consommateurs ; les acteurs en place ont tendance à consacrer leur énergie à la satisfaction de leurs clients actuels et à ignorer les non-consommateurs

        Chapitre 4 : comment les ressources, processus et valeurs d’une entreprise déterminent sa réaction à une rupture.

        Selon Christensen, un modèle d’affaire comprend trois composantes :

        • La proposition de valeur (ce que l’entreprise offre au client et justifie le choix de ce dernier)
        • La formule de profit (ce qui fait que l’entreprise gagne de l’argent par cette proposition)
        • La structure de l’entreprise au travers de ses Ressources, Processus, Valeurs (RPV)

        Une rupture, qui correspond à une nouvelle typologie d’offre, basée sur des critères de performance nouveaux, appelle nécessairement des RPV différents. Cette différence de RPV explique pourquoi l’acteur en place ne trouve pas la rupture attractive. Sa réaction sera souvent d’essayer de conformer l’innovation à son RPV, ce qui ne peut réussir. D’où l’avantage des start-ups qui ne connaissent pas ce conflit identitaire.

        Chapitre 5 : la rupture par le bas, le low-cost

        La rupture par le bas est possible parce que dans leur volonté de satisfaire leurs clients les plus exigeants, les acteurs en place sont systématiquement attirés vers le haut de leur marché. Mais les clients normaux deviennent sur-servis. Les nouveaux entrants ont une structure (RPV) adaptée au low cost et l’acteur en place ne trouve pas attractif d’y répondre, et leur laisse le champ libre. A leur tour, une fois installés, les nouveaux entrants sont soumis à la même attraction vers le haut.

        Seule réponse possible : créer une offre spécifique low-cost avec un ensemble RPV adapté.

         

        Troisième partie : les mécanismes de la tragédie

        Chapitre 6 : l’impératif de contrôle et la disparition de la capacité créative de l’organisation

        Après la phase entrepreneuriale initiale, la croissance nécessite que soient mis en place des systèmes de gestion, qui instaurent une logique de contrôle et de mesure. A court terme, l’entreprise devient performante. Mais à long terme, ces mécanismes rigidifient la capacité d’innovation, en particulier de rupture, peu prédictible. L’enjeu est de trouver un équilibre entre contrôle et créativité.

        Le livre montre une matrice performance / créativité et le positionnement de différentes entreprises (ou le voyage d’Apple dans cette matrice au long de son histoire).

        Chapitre 7 : la tyrannie de la microdécision : les effets pervers de l’allocation de ressources

        Le dilemme de l’innovateur prend effet dans ce qui motive les prises de décision à tous les niveaux de l’organisation, et en particulier les bases sur lesquelles les ressources (temps, argent, attention) sont allouées.

        Tous les préceptes de bonne gestion conduisent à l’échec en situation de rupture. L’entreprise échoue parce qu’elle est trop bien gérée :

        • L’orientation client favorise les projets demandés par les clients actuels aux dépens des non-consommateurs (les clients futurs)
        • Les outils financiers sous-estiment le coût d’opportunité en situation de rupture.
        • On regarde les concurrents d’aujourd’hui au lieu de ceux de demain
        • Le besoin de contrôle et de prévision favorise l’investissement dans les projets certains aux dépens des projets incertains

         

        Quatrième partie : éviter la tragédie

        Chapitre 8 : la réponse tactique : protéger le projet d’innovation de rupture

        La solution préconisée par Christensen est simple : loger l’innovation de rupture dans une entité séparée.

        Les quatre erreurs à éviter :

        • Essayer d’aller trop vite: le marché est toujours petit au début, l’innovation n’est pas linéaire, le projet passe par la constitution d’un réseau de valeur avec des parties prenantes, ce qui est un processus lent et fastidieux (Nespresso a mis 21 ans à sortir chez Nestlé, avec deux échecs de lancement avant la réussite)
          • Mon commentaire : ce principe montre qu’il n’y a pas de formule magique. Oui le processus est long et chaotique. Mais nombre d’investisseurs ou de maisons-mères n’auront pas la patience d’attendre 21 ans comme Nestlé le retour sur investissement, et souvent à juste titre. La question de savoir si on a raison de s’entêter au nom d’une vision juste ou si on est sur de l’acharnement thérapeutique est au cœur de la valeur de l’investisseur
        • Singer l’entrepreneuriat en « échouant vite » : Philippe Silberzahn apporte ici des limites au fameux « fail fast » qui est mis en avant dans le Lean startup. Quelque chose peut échouer lors de premiers essais, mais peut au long cours réussir, cf. Nespresso.
          • Mon commentaire : je crois personnellement au « fail fast » dans le sens de la capacité à « pivoter » (autre mot à la mode). Il faut savoir parfois faire évoluer sa vision à l’épreuve des faits. La question de l’équilibre entre force de la vision et compromis avec les parties prenantes fait d’ailleurs l’objet d’un article de P.Silberzahn sur son blog.
        • Essayer d’être le premier : la théorie du « first mover advantage », reprise par le livre « océan bleu » est contredite par les faits. Beaucoup de leaders dans leurs domaines ont été des entrants tardifs.
          • Mon commentaire : la question n’est effectivement pas d’être le premier à entrer sur le marché lorsqu’il émerge. En revanche, elle est bien d’avoir réussi à occuper une position dominante sur le marché quand celui-ci est arrivé à maturité
        • Mal mesurer la progression du projet de rupture : il faut trouver le juste milieu entre un système de mesure inadapté et pas de mesures du tout. Par exemple, dans la phase d’émergence, on peut surveiller l’acquisition de parties prenantes.

        Qui doit piloter le projet de rupture ? Réponse du livre : pas un profil de premier de la classe, mais plutôt un profil aventurier.

        Chapitre 9 : la réponse stratégique : créer une capacité d’innovation de rupture

        Ce qui ne marche pas :

        • Poser le problème en termes de créativité individuelle (le mythe de la boîte à idées)
        • Créer une entité « innovation »
        • Ne pas trouver l’équilibre entre autonomie complète et mise sous contrôle de l’entité séparée portant un projet innovant
        • Définir un processus officiel d’innovation

        On peut chercher à créer une organisation dédiée aux « non-consommateurs » ou aux clients « sur-servis ».

        On peut aussi s’inspirer de l’exemple d’IBM pour gérer l’innovation de rupture au sein de l’entreprise existante. IBM avait défini trois « horizons » pour ses activités, avec des modèles de gestion différents (d’après Garvin et Levesque en 2004).

        • L’horizon des activités actuelles, matures
        • L’horizon des activités en croissance
        • L’horizon des activités émergentes

        Le tableau 9.1 proposé par Ph. Silberzahn d’après Garvin et Levesque dans son livre est une clé de lecture que j’ai trouvée particulièrement intéressante et que je recommande désormais à mes clients souhaitant réfléchir à ces questions.

        Le livre développe ensuite des idées pour créer une capacité d’innovation de rupture autour de six axes :

        • Organisation
        • Processus
        • Culture
        • Humain
        • Systèmes de gestion
        • Parties prenantes

        Je vous laisse découvrir à la lecture du livre les pistes développées sur chacun de ces axes. Il n’y a, encore une fois, pas de formule miracle. Mais des bonnes pratiques peuvent guider les entrepreneurs et investisseurs sur le chemin de l’innovation.

        A noter, dans les annexes du livre, Ph. Silberzahn se livre à une analyse critique des critiques de Christensen qui est également éclairante.

        Bonne lecture !

        À ISlean consulting, nous aimons beaucoup Philippe Silberzahn. Entrepreneur, professeur en stratégie à l’EM Lyon et chercheur associé à l’école Polytechnique, il fut l’un des premiers créateurs de MOOC en France, avec un MOOC sur l’effectuation. Très prolixe sur son blog, ses articles sont toujours une source féconde de réflexion.

        Il a écrit plusieurs livres, dont « Relevez le défi de l’innovation de rupture. » Le présent  article vise à vous en résumer l’essentiel et vous donner envie de le lire.

        Ce livre est une synthèse inédite, et en français, des travaux de Clayton Christensen, le célèbre professeur d’Harvard spécialiste de l’innovation. Je vais vous en donner la substantifique moelle, en suivant son sommaire, et en m’appuyant sur des citations clés, mais il faut évidemment le lire en entier pour mieux s’imprégner des concepts et les appréhender. N’hésitez pas, le livre est facile et agréable à lire.

         

        Première partie : la rupture et le dilemme de l’innovateur

        Chapitre 1 : le dilemme de l’innovateur vu au travers de l’histoire de Kodak

        L’exemple de Kodak montre qu’une entreprise meurt non pas d’avoir ignoré une innovation de rupture, mais d’avoir renoncé en pratique à agir pour la développer, en raison de son activité actuelle. L’entreprise est prisonnière de son modèle d’affaire.

        Chapitre 2 : innovation, rupture et dynamique de marché.

        L’innovation de rupture, contrairement à l’innovation continue, est une innovation qui nécessite pour l’acteur en place un modèle d’affaire différent du modèle d’affaire existant. C’est donc une notion relative (ce qui est rupture pour les uns n’est que continuité pour d’autres).

        Il y a la rupture de nouveau marché (Nespresso) et la rupture par le bas, en offrant un produit simplifié et moins cher (les hôtels Formule 1).

        Il y a 3 leviers qui transforment une industrie par une innovation de rupture :

        • Un développement de la technologie et des connaissances
        • De nouveaux modèles d’affaires qui définissent de nouvelles façons de créer de la valeur
        • Un nouveau réseau de valeur (parties prenantes, circuits de distribution,…)

         

        Deuxième partie : la tragédie du modèle d’affaires

        Chapitre 3 : rupture, de la technologie au modèle d’affaires

        Deux causes d’échecs des acteurs en place face à une rupture technologique :

        • La nouvelle technologie tend à avoir une performance inférieure à l’actuelle sur le critère dominant de performance (exemple : la VOIP face aux réseaux télécom classiques)
        • La nouvelle technologie introduit de nouveaux critères de performance qui séduisent d’actuels non-consommateurs ; les acteurs en place ont tendance à consacrer leur énergie à la satisfaction de leurs clients actuels et à ignorer les non-consommateurs

        Chapitre 4 : comment les ressources, processus et valeurs d’une entreprise déterminent sa réaction à une rupture.

        Selon Christensen, un modèle d’affaire comprend trois composantes :

        • La proposition de valeur (ce que l’entreprise offre au client et justifie le choix de ce dernier)
        • La formule de profit (ce qui fait que l’entreprise gagne de l’argent par cette proposition)
        • La structure de l’entreprise au travers de ses Ressources, Processus, Valeurs (RPV)

        Une rupture, qui correspond à une nouvelle typologie d’offre, basée sur des critères de performance nouveaux, appelle nécessairement des RPV différents. Cette différence de RPV explique pourquoi l’acteur en place ne trouve pas la rupture attractive. Sa réaction sera souvent d’essayer de conformer l’innovation à son RPV, ce qui ne peut réussir. D’où l’avantage des start-ups qui ne connaissent pas ce conflit identitaire.

        Chapitre 5 : la rupture par le bas, le low-cost

        La rupture par le bas est possible parce que dans leur volonté de satisfaire leurs clients les plus exigeants, les acteurs en place sont systématiquement attirés vers le haut de leur marché. Mais les clients normaux deviennent sur-servis. Les nouveaux entrants ont une structure (RPV) adaptée au low cost et l’acteur en place ne trouve pas attractif d’y répondre, et leur laisse le champ libre. A leur tour, une fois installés, les nouveaux entrants sont soumis à la même attraction vers le haut.

        Seule réponse possible : créer une offre spécifique low-cost avec un ensemble RPV adapté.

         

        Troisième partie : les mécanismes de la tragédie

        Chapitre 6 : l’impératif de contrôle et la disparition de la capacité créative de l’organisation

        Après la phase entrepreneuriale initiale, la croissance nécessite que soient mis en place des systèmes de gestion, qui instaurent une logique de contrôle et de mesure. A court terme, l’entreprise devient performante. Mais à long terme, ces mécanismes rigidifient la capacité d’innovation, en particulier de rupture, peu prédictible. L’enjeu est de trouver un équilibre entre contrôle et créativité.

        Le livre montre une matrice performance / créativité et le positionnement de différentes entreprises (ou le voyage d’Apple dans cette matrice au long de son histoire).

        Chapitre 7 : la tyrannie de la microdécision : les effets pervers de l’allocation de ressources

        Le dilemme de l’innovateur prend effet dans ce qui motive les prises de décision à tous les niveaux de l’organisation, et en particulier les bases sur lesquelles les ressources (temps, argent, attention) sont allouées.

        Tous les préceptes de bonne gestion conduisent à l’échec en situation de rupture. L’entreprise échoue parce qu’elle est trop bien gérée :

        • L’orientation client favorise les projets demandés par les clients actuels aux dépens des non-consommateurs (les clients futurs)
        • Les outils financiers sous-estiment le coût d’opportunité en situation de rupture.
        • On regarde les concurrents d’aujourd’hui au lieu de ceux de demain
        • Le besoin de contrôle et de prévision favorise l’investissement dans les projets certains aux dépens des projets incertains

         

        Quatrième partie : éviter la tragédie

        Chapitre 8 : la réponse tactique : protéger le projet d’innovation de rupture

        La solution préconisée par Christensen est simple : loger l’innovation de rupture dans une entité séparée.

        Les quatre erreurs à éviter :

        • Essayer d’aller trop vite: le marché est toujours petit au début, l’innovation n’est pas linéaire, le projet passe par la constitution d’un réseau de valeur avec des parties prenantes, ce qui est un processus lent et fastidieux (Nespresso a mis 21 ans à sortir chez Nestlé, avec deux échecs de lancement avant la réussite)
          • Mon commentaire : ce principe montre qu’il n’y a pas de formule magique. Oui le processus est long et chaotique. Mais nombre d’investisseurs ou de maisons-mères n’auront pas la patience d’attendre 21 ans comme Nestlé le retour sur investissement, et souvent à juste titre. La question de savoir si on a raison de s’entêter au nom d’une vision juste ou si on est sur de l’acharnement thérapeutique est au cœur de la valeur de l’investisseur
        • Singer l’entrepreneuriat en « échouant vite » : Philippe Silberzahn apporte ici des limites au fameux « fail fast » qui est mis en avant dans le Lean startup. Quelque chose peut échouer lors de premiers essais, mais peut au long cours réussir, cf. Nespresso.
          • Mon commentaire : je crois personnellement au « fail fast » dans le sens de la capacité à « pivoter » (autre mot à la mode). Il faut savoir parfois faire évoluer sa vision à l’épreuve des faits. La question de l’équilibre entre force de la vision et compromis avec les parties prenantes fait d’ailleurs l’objet d’un article de P.Silberzahn sur son blog.
        • Essayer d’être le premier : la théorie du « first mover advantage », reprise par le livre « océan bleu » est contredite par les faits. Beaucoup de leaders dans leurs domaines ont été des entrants tardifs.
          • Mon commentaire : la question n’est effectivement pas d’être le premier à entrer sur le marché lorsqu’il émerge. En revanche, elle est bien d’avoir réussi à occuper une position dominante sur le marché quand celui-ci est arrivé à maturité
        • Mal mesurer la progression du projet de rupture : il faut trouver le juste milieu entre un système de mesure inadapté et pas de mesures du tout. Par exemple, dans la phase d’émergence, on peut surveiller l’acquisition de parties prenantes.

        Qui doit piloter le projet de rupture ? Réponse du livre : pas un profil de premier de la classe, mais plutôt un profil aventurier.

        Chapitre 9 : la réponse stratégique : créer une capacité d’innovation de rupture

        Ce qui ne marche pas :

        • Poser le problème en termes de créativité individuelle (le mythe de la boîte à idées)
        • Créer une entité « innovation »
        • Ne pas trouver l’équilibre entre autonomie complète et mise sous contrôle de l’entité séparée portant un projet innovant
        • Définir un processus officiel d’innovation

        On peut chercher à créer une organisation dédiée aux « non-consommateurs » ou aux clients « sur-servis ».

        On peut aussi s’inspirer de l’exemple d’IBM pour gérer l’innovation de rupture au sein de l’entreprise existante. IBM avait défini trois « horizons » pour ses activités, avec des modèles de gestion différents (d’après Garvin et Levesque en 2004).

        • L’horizon des activités actuelles, matures
        • L’horizon des activités en croissance
        • L’horizon des activités émergentes

        Le tableau 9.1 proposé par Ph. Silberzahn d’après Garvin et Levesque dans son livre est une clé de lecture que j’ai trouvée particulièrement intéressante et que je recommande désormais à mes clients souhaitant réfléchir à ces questions.

        Le livre développe ensuite des idées pour créer une capacité d’innovation de rupture autour de six axes :

        • Organisation
        • Processus
        • Culture
        • Humain
        • Systèmes de gestion
        • Parties prenantes

        Je vous laisse découvrir à la lecture du livre les pistes développées sur chacun de ces axes. Il n’y a, encore une fois, pas de formule miracle. Mais des bonnes pratiques peuvent guider les entrepreneurs et investisseurs sur le chemin de l’innovation.

        A noter, dans les annexes du livre, Ph. Silberzahn se livre à une analyse critique des critiques de Christensen qui est également éclairante.

        Bonne lecture !

        Transformation digitale|

        |

        #Innovationdumois : Aube – le drone français, biocompostable et protecteur de la faune

        Alors que je réalisais des recherches sur les drones pour un usage personnel, j’ai découvert cet ingénieur alsacien et ai souhaité vous faire partager cette belle découverte.

        Aube, le drone de petite taille, endurant et silencieux

        Crédit : https://www.ihmati.fr/

        Julien Lerch a mis au point en 2012 un drone paramoteur très silencieux qui a pour but d’observer et de protéger la faune. Il a appelé son drône Aube et l’a doté d’un moteur très peu bruyant ainsi que d’une voile, pour ne pas perturber la nature. Ce petit bijou résiste à toutes les températures, de l’hiver glacial alsacien aux chaleurs insoutenables du Niger. 

        Bien que son but premier est d’aider les gardes forestiers dans leur lutte contre le braconnage, Aube peut également être utilisé lors de vos balades touristiques. Si ces sujets vous intéressent, vous me direz qu’il existe déjà des drones permettant de sauver les faons comme en Allemagne ou encore les baleiniers au Japon, mais l’inconvénient de tous ces modèles est le bruit qu’ils émettent lorsqu’ils survolent la zone à observer. C’est en cela que l’ingénieur alsacien arrive à se démarquer avec sa machine qui ne fait du bruit qu’au moment du décollage. La voile lui assure la sustentation dans l’air, à la différence des drones les plus répandus qui utilisent des rotors d’hélicoptère, au bourdonnement d’autant plus gênant qu’il est parfois très fort.

        Drone unique aux usages divers

        Crédits : https://www.ihmati.fr/

        Son autre atout est son impact environnemental. Issu d’imprimante 3D avec des matériaux à 90% biocompostables et de maïs ou de coquilles d’huitres pour les parties souples, Aube peut se crasher ou perdre une pièce en vol, cela ne polluera pas la nature. Il est également faible consommateur d’énergie, malgré une autonomie d’une heure de vol !

        Aube peut voler une heure

        Crédits : https://www.ihmati.fr/

        Mais pour posséder cette merveilleuse invention, il vous faudra attendre encore quelques mois, le temps qu’Aube sorte de la phase de pré-commercialisation et dépenser la somme de 12 000 euros.

        De plus, la cible pour Julien Lerch est, dans un premier temps, les professionnels du tourisme ainsi que les ONG pour atteindre son but premier qui est de protéger la faune sauvage.

        En résumé, Aube est une belle invention française et bienveillante envers l’environnement !

         

        Alors que je réalisais des recherches sur les drones pour un usage personnel, j’ai découvert cet ingénieur alsacien et ai souhaité vous faire partager cette belle découverte.

        Aube, le drone de petite taille, endurant et silencieux

        Crédit : https://www.ihmati.fr/

        Julien Lerch a mis au point en 2012 un drone paramoteur très silencieux qui a pour but d’observer et de protéger la faune. Il a appelé son drône Aube et l’a doté d’un moteur très peu bruyant ainsi que d’une voile, pour ne pas perturber la nature. Ce petit bijou résiste à toutes les températures, de l’hiver glacial alsacien aux chaleurs insoutenables du Niger. 

        Bien que son but premier est d’aider les gardes forestiers dans leur lutte contre le braconnage, Aube peut également être utilisé lors de vos balades touristiques. Si ces sujets vous intéressent, vous me direz qu’il existe déjà des drones permettant de sauver les faons comme en Allemagne ou encore les baleiniers au Japon, mais l’inconvénient de tous ces modèles est le bruit qu’ils émettent lorsqu’ils survolent la zone à observer. C’est en cela que l’ingénieur alsacien arrive à se démarquer avec sa machine qui ne fait du bruit qu’au moment du décollage. La voile lui assure la sustentation dans l’air, à la différence des drones les plus répandus qui utilisent des rotors d’hélicoptère, au bourdonnement d’autant plus gênant qu’il est parfois très fort.

        Drone unique aux usages divers

        Crédits : https://www.ihmati.fr/

        Son autre atout est son impact environnemental. Issu d’imprimante 3D avec des matériaux à 90% biocompostables et de maïs ou de coquilles d’huitres pour les parties souples, Aube peut se crasher ou perdre une pièce en vol, cela ne polluera pas la nature. Il est également faible consommateur d’énergie, malgré une autonomie d’une heure de vol !

        Aube peut voler une heure

        Crédits : https://www.ihmati.fr/

        Mais pour posséder cette merveilleuse invention, il vous faudra attendre encore quelques mois, le temps qu’Aube sorte de la phase de pré-commercialisation et dépenser la somme de 12 000 euros.

        De plus, la cible pour Julien Lerch est, dans un premier temps, les professionnels du tourisme ainsi que les ONG pour atteindre son but premier qui est de protéger la faune sauvage.

        En résumé, Aube est une belle invention française et bienveillante envers l’environnement !