Auteur/autrice : Alexis

  • Que faire de l’héritage ?

    Pour être plus précis : que faire de notre héritage culturel ? Quelles actions mener pour donner accès à cet héritage culturel d’une incroyable richesse et diversité dont nous disposons en France ? Quelles actions mener pour assurer sa pérennité et permettre son enrichissement continu ?

    L’accès à cet héritage culturel est le premier point à aborder, pas seulement parce que nos catalogues (les œuvres qui sont exposées, visibles) ne représentent qu’une infime portion de ce dont nous disposons dans nos fonds (les caves de nos musées), mais aussi parce que l’accès à cet héritage nécessite des connaissances préalables acquises par une faible proportion de la population. Faible proportion, qui explique probablement la faible fréquentation des lieux de culture.

    Culture pour tous ?

    Certains lieux d’exposition, proposent déjà des « formules » adaptées à différentes catégories de visiteurs (visite guidée pour les enfants, expositions spécialisées par tranche d’age). Ces efforts contribuent à une part de leurs succès, augmentant leur notoriété, et à partir de là leur fréquentation, et donc leurs ressources. La question, pour beaucoup de lieux, est : comment disposer des ressources initiales permettant d’entrer dans cette dynamique ?

    L’INA, en donnant l’accès à une partie des ces archives sur Internet, a trouvé les ressources lui permettant de garantir pour l’avenir sa mission de conservation et préserver ainsi une partie du patrimoine en danger. L’intérêt de ce site réside d’ailleurs dans l’animation qui est faite autour d’un catalogue d’une grande richesse, permettant au visiteur de découvrir, en flânant, quelques trésors…

    Numérisation, publication, animation, sont des premières pistes pour amener de nouveaux publics à profiter de notre héritage culturel. L’expérience de l’INA laisse penser que les ressources pour poursuivre la numérisation pourraient provenir de ces spectateurs. A condition de savoir amener les moteurs de recherches à proposer ces nouvelles ressources numériques, ce qui sous-entend d’enrichir les œuvres de contenus, d’actualités et pourquoi pas des ressentis des visiteurs.

    Du virtuel au réel…

    Au-delà ce ces nouveaux visiteurs virtuels à qui l’on fait découvrir des thèmes, des œuvres… de nouvelles façon de s’exprimer… Comment les amener à choisir d’employer leurs temps libres dans les lieux d’exposition. C’est en sachant répondre à des questions aussi diverses que la diversité du monde que nous pourrons les amener à envisager le parcours dans un musée comme leur premier choix.

    Un exemple ? Je pose la question à un ami… 35 ans Marié, 2 enfants de 5 et 7 ans… Un musée ne serait pas vraiment le premier choix, sauf… si il y a un site Internet qui rassure sur la possibilité de visite guidée pour les enfants de cet age (comme au Louvre), il faudrait que ce ne soit pas trop loin de chez lui, qu’il y ait des possibilités de restauration sur place ou à proximité… Ah ! Encore une chose, son épouse apprécie l’art pictural, il a une nette préférence pour le concret, les choses utiles… Vous avez la réponse ?

    Certitude de passer un bon moment

    Cette réponse, il faut que le visiteur lui accorde sa confiance. Bien sur cette confiance viendra avec l’expérience : « vous m’avez conseillé cela, j’ai passé un bon moment, alors je suis prêt à suivre à nouveau votre conseil ». Les mécanismes de recommandation utilisés par certains marchands en ligne pourraient être d’une grande aide pour améliorer la qualité des réponses apportées par un tel service.

    Le partage des opinions, avis, ou même au-delà, de travaux d’études ou de recherche permettra peut-être aussi de faire émerger de nouveaux talents ou de nouvelles approches. La coordination de travaux scolaires par des professeurs pour enrichir les éléments de base de notre patrimoine serait un parmi tant d’autres exemples possibles, sous réserve que les solutions techniques nécessaire à cette production collaborative soient disponibles. Ces travaux d’enrichissement pourraient être l’occasion de renforcement de lien entre les générations, en encourageant la co-production entre des scolaires et des personnes âgées échangeant sur un patrimoine local facilement accessible pour eux.

    Ce serait évidement l’occasion de rassembler autour des visiteurs les connaissances et l’expertises de professionnels aux métiers très différents : archéologues, conservateurs, archivistes, architectes, urbanistes… qui chacun dans sa spécialité dispose d’information d’une incroyable richesse sur les trésors proches de nous.

    Numériser le patrimoine, l’Enrichir d’informations complémentaires, et le Partager le plus largement possible… Le partage d’information comme moteur d’accès à notre héritage culturel, ça vous tente ?

  • Les TIC en mai

    Deux évènements à noter sur les calepins pour la fin du mois de mai :

    1. Les assises nationales des TIC du secteur public qui se tiendront les 21 et 22 mai à Nice : www.assises-tic.com avec la participation de nombreuses organisations de l’Etat et des collectivités.
    2. Les TIC levier de croissances et de compétitivité conférence qui se tiendra à Paris le 29 mai, et qui verra l’intervention de 8 ministres depuis la politique industrielle en passant par les usages publics et privés : www.tic-croissance.com
  • ExplorCamp à La Cantine

    Je n’avais pas créé d’article à l’époque, et pourtant, en cherchant cela doit être le premier évènement auquel j’ai participé à La Cantine !

    http://explorcamp.com/open-explorcamp/explorcamp-a-la-cantine-2

  • Que valent les prévisions économiques ?

    Le cycle des rencontres économiques organisé par l’IGPDE vient de reprendre ce jeudi 3 avril. Le thème d’ouverture est curieusement d’actualité (pour un sujet sélectionné une année auparavant) comme le faisait remarquer l’animateur Didier Ades en rappelant que si les prévisions économiques ont un caractère fondamental par les décisions qu’elles entraînent, elles n’ont rien d’une science exacte…

    Il y a en effet eu beaucoup de questions posées autour de la révision de prévision du PIB français juste après les élections. Ce que j’ai appris lors de ces rencontres, c’est que nous ne saurions la vérité sur ce chiffre qu’en mai 2011 lors de la publication des comptes définitifs pour l’année 2008 avant cela tout ne sera que prévisions basées sur des données incomplètes.

    Denis FERRAND, Directeur de la conjoncture et des perspectives de Coe-Rexecode, avait la charge d’introduire cette conférence en présentant les Principes et réalités des prévisions économiques. Son propos était de rappeler que la prévision est une affaire de conteur, dont on pourra mesurer l’habilité à la qualité de l’histoire qu’il va raconter. Ce que l’on demande au prévisionniste est d’évaluer différents scénarii possibles puis de s’engager sur un scénario.

    Alain CHAPPERT, Directeur des Etudes et Synthèses Economiques de l’INSEE, venait présenter les deux métiers de l’Institut : la production d’information (sur lesquelles vont s’appuyer les prévisionnistes) et les prévisions à court terme avec la publication de notes de conjoncture. Il rappelait le cycle de révisions des comptes publiés par l’INSEE, depuis les comptes trimestriels publiés 45 jours après la fin du trimestre, aux comptes provisoires publiés en mai de l’année suivante, aux comptes semi définitifs publiés en mai deux années plus tard, jusqu’aux comptes définitifs publiés en mai trois années plus tard. Première surprise donc, il faudra presque 3 ans et demi pour connaître le véritable chiffre du PIB dont la croissance nous préoccupe chaque trimestre…

    Alain CHAPPERT rassurait l’auditoire en précisant le niveau de révision depuis 94 du PIB trimestriel… niveau en moyenne de 0,27 points par trimestre… comparé au PIB de 0,5 pts par trimestre environ (sur un rythme de 2 % annuel, c’est assez effrayant !) Cette incertitude a d’ailleurs donné lieu à des discours politique en décalage complet avec la réalité, l’histoire d’une révision de prévision de croissance à la baisse (qualifiée de trou d’air par le ministre de l’époque) contredite nettement plus tard par une croissance du double de la prévision. C’est la part de subjectivité et l’absence de transparence de la méthode d’évaluation qui pourrait être mise en cause.

    Cette évaluation en partie subjective du PIB, servant de base à des décisions politiques de première importance, pourrait être un argument supplémentaire à ce qui souhaite l’utilisation d’autres indicateurs prenant en compte les externalités des flux monétaires.

    Philippe Bouyoux, Directeur des politiques économiques à la DGTPE prenait le relais des représentants de l’Etat de cette conférence. Il remarquait que si les travaux de prévision de l’INSEE se traduisent par une note de conjoncture à 6 mois, les travaux de la DGTPE sont annexés aux projets de loi de finances et ont donc une portée plus longue. Ces travaux ont pour objectifs le cadrage des décisions budgétaires et l’identification de points faibles dans l’économie. Il notait toutefois que certains évènements peinent à être explicités par les modèles développés en citant en exemple la baisse des exportations qui reste en bonne partie inexpliquée (les composantes habituelles d’une fluctuation des niveaux d’exportation n’expliquent pas les baisses constatées… sur les chiffres prévisionnels… la réalité rejoindra peut-être le modèle ?). La DGTPE réuni un groupe technique de prévisionnistes du secteur privé afin de comparer ses prévisions, groupe technique auquel participe Mathilde LEMOINE, Directeur des études économiques et de la stratégie marché de HSBC qui concluait les sessions de présentation avec le titre « Comment penser l’imprévisible ? ». Elle revenait sur la nécessité de courage et de constance pour résister aux pressions de différentes natures, internes et externes, qui peuvent peser sur le prévisionniste. Elle donnera d’ailleurs une vision de la fiabilité des prévisions lors de la table ronde en expliquant le concept de « biais », positif ou négatif, qui lui permettent d’inciter les clients à se diriger vers le marché français plutôt qu’un autre par exemple.

    Une dernière anecdote pour terminer, à la question de l’animateur sur le niveau du taux de change euro/dollars dans un an, la prévisionniste d’HSBC expliquait les paramètres à prendre en compte : politique monétaire, élections… celui de la DGTPE coupait court en indiquant que leur méthode était de retenir la moyenne des trois dernières semaines, méthode qui cumulait les deux avantages de ne pas révéler de politique monétaire et de ne pas être plus mauvais que des modèles biens plus sophistiqués…

    A la question de savoir comment se diriger vers des comptes définitifs au trimestre, la réponse a été que cela ferait peser une charge complémentaire sur les entreprises ??? Les mêmes entreprises qui tiennent leurs comptes pour des motifs de bonne gestion ou d’obligation sociales ou fiscales ? A l’heure ou les comptes des entreprises sont massivement informatisés, et à l’heure du décisionnel (la Business Intelligence) cela ne me semble pas un argument très solide…

    Incertitude, révision, subjectivité, biais… à la question « que valent les prévisions économiques ? » titre de cette conférence, je crois que les participants avaient acquis une opinion plutôt tranchée, s’orientant vers le zéro…

    Première session de ces rencontres économiques 2008 passionnante donc ! A bientôt pour la suite…

  • Au-delà du PIB le bonheur ?

    Je reprends ici le titre de l’analyse de Marine Boisson, Département Questions sociales et Céline Mareuge, Département des Affaires économiques et financières, du Centre d’analyse stratégique parue dans la note de veille numéro 91, datée de février 2008.

    En cette semaine du développement durable, plusieurs voix s’élèvent pour interroger les indicateurs utilisés pour les décisions politiques. Le plus connu de ces indicateurs, celui qui est invoqué le plus régulièrement est le PIB, ou Produit Intérieur Brut, dont la Croissance nous apportera implicitement le bonheur.
    Le résumé proposé par les auteurs de cette note est :
    « L’adage populaire selon lequel « l’argent ne fait pas le bonheur même s’il y contribue » s’est trouvé confirmé depuis une trentaine d’années par les enquêtes montrant une dissociation relative entre progressions du niveau de vie et de la satisfaction des individus. Il s’en est suivi un foisonnement d’indicateurs alternatifs au produit intérieur brut, censés être plus aptes à mesurer le « vrai » progrès et à guider les politiques publiques. Toutefois, amender ou compléter le PIB, dont la cohérence reste avérée, n’est pas si aisé. Cette note montre les difficultés rencontrées, les choix explicites ou sous-jacents à cette entreprise, que même les approches objectives, y compris la neuroéconomie, ne peuvent éviter. »

    Les indicateurs alternatifs évoqués dans la note sont par exemple ceux du PNUD (Programme des Nations Unies pour le Développement), comme l’IDH (Indice de Développement Humain), IPH (Indice de Pauvreté Humaine). Une liaison avec des indicateurs de mesures des inégalités puisque comme le remarquait dés les années 20, le créateur de l’ancêtre du PIB, l’apport de revenu complémentaire à un impact très différents en fonction du revenu initial (en caricaturant si Bill Gates gagne 10000 euros de plus, il ne le remarquera pas… alors que pour la plupart de nos concitoyens etc…).

    Et pour vous donner envie de lire cette note, j’extrais un autre élément de la conclusion :
    « La question du point de vue collectif ne serait pas tant de garantir un droit au bonheur qu’une organisation qui favorise sa poursuite. Une vision sociale positive pour le XXIe siècle est notamment offerte par la théorie des « capabilités », développée par Amartya Sen et relayée par un nombre croissant d’acteurs institutionnels (PNUD, Commission européenne, OCDE, etc.). »

    En avant donc pour une amélioration continue équilibrant les trois composantes du développement durable : Environnement, Social et Economie.

    http://www.strategie.gouv.fr/rubrique.php3?id_rubrique=12

  • In Principo : « accélérateur de progrès »

    Ce 25 mars j’étais invité à découvrir le programme CoAgilité d’In Principo. Cette présentation était introduite par Olivier Réaud, un des fondateurs, qui résumait la dénomination par une illustration d’agilité : une jolie photo de singe – indéniablement agile – illustration permettant de prendre conscience simplement que pour l’entreprise, c’est le fait d’être agile ensemble qui allait compter… L’intérêt de ce programme réside dans les limites des approches classiques qui ne sont pas adaptées lorsque le nombre de parties prenantes augmente, ou que les délais de mise en œuvre raccourcissent.

    Le témoignage de Jean-Philippe Sarraut, PDG de SEFAS Innovation, venait renforcer cette présentation attractive. Jean-Philippe Sarraut se présente comme un manager de crise, qui a remis en bonne forme une entreprise en construisant un système hiérarchique ou il est à l’initiative de toutes orientations et où il prend toutes les décisions. Si il justifie ce système par la situation de crise dans laquelle se trouvait la société, il est évidemment très intéressant de comprendre ce qu’il a poussé à revoir le mode de management si radicalement. Il explique qu’en effet, ce mode de management, qu’il qualifie lui-même de brutal, empêche les initiatives et la collaboration transverse et donc les innovations pour le client. Il avait donc besoin de mobiliser à nouveau l’ensemble de ces équipes en agissant par le haut (lui-même avec son comité de direction) et en favorisant une collaboration transverse par le bas (par la constitution d’une équipe pluridisciplinaire). L’accompagnement de cette opération a été réalisé par In Principo. Il a débuté par une phase d’entretiens (1/3 des effectifs), puis par la constitution d’équipes afin de partager une vision de la situation, suivi par un choix des priorités de l’entreprise. Ces équipes ont ensuite mener les travaux de transformation, impliquant les acteurs des processus eux-mêmes collaborant au-delà de leurs départements d’origines, les décisions étant prises au « bon » niveau (c’est-à-dire le plus bas possible). Dans les approches classiques, le projet de transformation est défini dans une première phase, puis suit une phase de conduite du changement pour le déployer. Dans cette approche, les transformations sont définies par les acteurs eux-mêmes en fonction des priorités de l’entreprise, la conduite du changement est donc incluse dans le processus… les transformations se poursuivent… à suivre donc…

    Une démarche s’adaptant à chaque organisation, encourageant la mise en réseau des compétences de l’entreprise, dans l’accomplissement d’un objectif commun. Et tout cela porté par une équipe fort sympathique… Mais je suis en train de faire de la pub, là, non ?

  • Conseil et numérique

    A l’heure ou mon premier article sur le sujet vient d’être publié sur Agoravox, une question demeure : « Pourquoi ? ».
    Un élément de réponse vient d’un autre témoignage d’une personne en charge d’organiser le partage des connaissances pour un grand cabinet de conseil anglo-saxon. Son diagnostique de la situation est simple. L’organisation des cabinets est une organisation extrêmement hiérarchique construite par les associés pour eux-mêmes. Leurs efforts pour se constituer un réseau externe de clients et un réseau interne de compétences se voient rétribués lorsqu’ils atteignent cette position d’associé. Ils vivent donc dans une organisation ou l’information est le pouvoir, et il sera donc très difficile de passer à une organisation ou l’information n’a de valeur que si elle est partagée.
    A titre d’illustration, prenez un livre blanc publié par un cabinet de conseil…cherchez l’auteur…vous ne trouverez qu’une page contact avec le nom de l’associé et éventuellement son secrétariat… mais pas les contributeurs…

    Comme pour tous les métiers, certains acteurs éprouvent plus de difficultés que d’autres à changer de modèle d’organisation, effet d’histoire, de taille, de conviction des dirigeants…

    Certains acteurs ouvriront donc la voie en mettant en place ce que Laurent Salsé*, de BSA Conseil, appelle l’ERP du cabinet de conseil, gérant « tout » depuis les imputations horaires à la gestion des connaissances…

    * voir article du magazine CIO de novembre 2007

  • Patrimoine Immatériel de l’Etat

    Suite à la remise du rapport LEVY-JOUYET sur l’économie de l’immatériel, en décembre 2006, à Thierry Breton, alors ministre de l’Economie des Finances et de l’Industrie, la France s’est doté d’une Agence pour le Patrimoine Immatériel de l’Etat (APIE).
    Cette Agence est dirigée par Claude Rubinowicz qui présentait ses travaux lors d’une session de l’université mutuelle organisée par l’IGPDE.
    Il soulignait que peu de pays ont engagé une réflexion sur la valeur de leur patrimoine immatériel et donc que la France, qui elle s’est dotée d’une agence, est en avance.
    Je ne reviendrais pas sur ce qu’est l’immatériel et ce qu’on entend par cette valorisation du patrimoine, le site de l’APIE donnant les informations suffisantes pour illustrer cela.
    Je souhaitais juste revenir sur deux éléments de cette conférence qui m’ont surpris.
    Le premier est la volonté de vendre des prestations intellectuelle par l’Etat sur le marché concurrentiel. C’est non seulement indiqué comme possible, mais nécessaire pour valorisé les compétences de l’Etat. Il faut juste prendre garde à ne pas vendre ses prestations à un coût budgétaire + une marge, mais bien au prix du marché, ce qui dans les cas ou l’exercice à été fait revient à peu près à 3 fois le coût budgétaire.
    Le deuxième élément est la mise à disposition gratuite des données de l’Etat. Si Claude Rubinowicz considère que la mise à disposition gratuite des données pour le grand public est une évidence (surtout que les exemples ou la publicité sur les sites publics est très efficaces sont éclairants, voir à ce sujet les résultats de l’INA), il considère que toute utilisation à des fins commerciales doit faire l’objet d’une redevance… Et pourtant si l’activité économique générée par cette mise à disposition suffisait ?

  • Stratégie DSI 2010

    Cette conférence réunissait, à l’initiative de la société De Gamma :

    • Michel Delattre, DSI Groupe La Poste
    • Bernard Dubs, fondateur du BIT Group
    • Jacques-Benoit Lebris, Directeur Business Intelligence Rhodia
    • Eric Tirlemont, Ineum Consulting
    • Gilles Martin, De Gamma
    • José Rodrigues, De Gamma

    Dans le cadre du plan CIGREF 2010, Michel Delattre, a présenté les travaux menés sur le dialogue stratégique entre les Directions des Systèmes d’Information, les Directions générales et les Directions Métiers.

    Un bref résumé de l’intervention pourrait être :

    En fonction de l’organisation, de sa maturité par rapport aux Systèmes d’Information, la situation peut aller :

    • l’informatique est un problème (messagerie plantée…),
    • en passant par une situation d’optimisation du SI par rapport aux métiers,
    • vers une véritable transformation des métiers grâce au système d’information.

    Ces trois niveaux se traduisent en terme de relation par

    • une relation client-fournisseur,
    • une relation d’alignement stratégique (en réaction à l’établissement d’une stratégie métier),
    • une véritable intégration dans la stratégie métier.

    Les apports des systèmes d’information sont de deux ordres :

    • un premier niveau d’optimisation,
    • un deuxième niveau d’innovation dans les usages des métiers.

    Michel Delattre termine par ce que le DSI doit faire et doit être :

    • il doit connaître les métiers,
    • il doit être le moteur de la transformation des processus,
    • il doit s’intégrer dans la gouvernance de l’organisation.

    L’alignement stratégique du Système d’Information est une posture réactive, il faut, pour réellement innover, intégrer la dimension numérique dans la stratégie de l’entreprise.

    Bernard Dubs, présenta ensuite Cap 2020, la vision stratégique pour l’entreprise, la fonction SI et le système d’information. Cette vision décrit l’évolution des organisations depuis les organisations verticales en silo de la révolution industrielle, en passant par les organisations matricielles de la fin du 20ème siècle pour se tourner vers les organisations en réseaux intégrant les parties prenantes.

    Encore un peu de chemin à faire pour certaines organisations coincées dans le modèle en silo, n’imaginant les matrices que sous l’angle restrictif du fonctionnement client-fournisseur encadré par un contrat statique…

    Passons à la démonstration organisée par la société De Gamma. J’avoue avoir écouté la présentation de la société d’une oreille distraite. Non pas que Gilles Martin soit un mauvais orateur, bien au contraire… Mais une société qui me parle de SOA, d’analyse de patrimoine applicatif, de qualité du code généré automatiquement… Je suis quand même surpris d’apprendre que la société est labellisé ANVAR, est dans le programme INRIA Transfert…

    Passons à la démonstration disais-je… Jacques-Benoit Lebris, présente l’utilisation de la solution De Gamma sur le cas concret d’un centre d’assistance clients de Rhodia. Dans ce centre les personnels sont devenus polyvalents et doivent manipuler une dizaine d’applications verticales bâties sur des solutions progicielles (comme SAP par exemple). Cela conduit à des manipulations complexes entre les applicatifs, et il est évidement très difficile d’intégrer de nouveaux arrivants.

    En première approche, l’évolution à minima des écrans d’une des solutions verticales est délicate, longue et couteuse…

    La solution De Gamma va permettre, par la construction d’une nouvelle couche interface entre les applications verticales et l’utilisateur une évolution radicale. La construction de la solution s’est faite avec les utilisateurs par prototypages successifs sur une durée courte (6 semaines) et pour un coût réduit (rapport 10 par rapport à la transformation d’une seule des applications verticales). L’avantage est énorme, premièrement, on ne touche pas à des applications verticales robustes, deuxièmement, on peut adapter une nouvelle interface à chaque population d’utilisateurs et les faire évoluer très rapidement. En partant du constat que 80% des innovations vont à la poubelle (durée du projet trop importante, conjoncture, évolution du besoin…) il est encore plus essentiel de donner la possibilité aux métiers d’essayer des innovations, de nouvelles approches, le prototypage est donc un élément majeur d’un dialogue efficace avec les métiers de l’organisation. Cela pourrait être une piste intéressante pour l’adaptation de solutions verticales standardisées (Accord ou Chorus par exemple) aux différents métiers d’une grande « organisation » comme l’Etat ?

    La conférence se terminait par une table ronde riche en interventions, je n’en retiendrais que deux.

    La première est une réaction des intervenants à une question de la salle : « la conjoncture semble évoluer très négativement, les budgets d’innovation vont être coupés donc la solution présentée à peu de chance de décoller ».

    La réponse est essentielle et va faire la différence entre les entreprises qui savent faire cela et les autres : « NON, c’est une idée reçue, une crise est le moment idéal pour innover ». L’innovation dans les métiers est encore plus essentielle dans les situations difficiles, Il ne s’agit pas de couper des budgets par département de l’entreprise, mais de conduire un arbitrage sur l’ensemble du portefeuille de projets de l’entreprise en s’interrogeant sur la valeur de chaque projet dans le nouveau contexte.

    La deuxième est une interrogation d’un des participants de la table ronde sur les attentes des utilisateurs. Le constat est que les services de messagerie proposé par google sont plus performant que les services proposés en interne (accès mobile, capacité de stockage, recherche…), que les services proposés par les distributeurs de produits informatiques grand public comme Darty sont également plus performants (support, échange…). Il est alors peut-être temps pour l’entreprise de laisser ces services de commodité être réalisé par des acteurs spécialisés et que la DSI se consacre aux innovations dans les usages métiers ?

  • Conseil et numérique

    Quelques réactions à mon article sur la place de l’innovation numérique au sein des Cabinets de conseil, m’encouragent à ajouter cette suite. Ces réactions viennent principalement de Cabinets qui ne travaillent pas au quotidien avec moi, je les ordonne du moins visible pour le client, au plus visible.

    L’apport majeur de ces dix dernières années est, selon un associé, la gestion des connaissances (knowledge management) qui permet d’être intelligent sur un sujet en 2 heures, en se basant autant sur des études externes – analystes et autres – que sur une connaissance des missions réalisées.

    La mobilité est aussi un paramètre qui a changé le métier, au lieu de travailler 12 à 14 heures par jour au bureau, il travaille plutôt 18 heures par jour de n’importe où… Mon commentaire un peu acide sur ce point est lorsque l’on ne sait pas augmenter la productivité, il suffit d’augmenter le nombre d’heures travaillées…

    Ce qui commence vraiment à m’étonner, c’est l’utilisation d’outils de modélisation, avec un langage standard, pour faciliter le dialogue avec les métiers, toujours dans cet objectif, l’utilisation de maquettage construit directement avec les utilisateurs, certains utilisent pour cela leur fidèle powerpoint, d’autres construisent cela avec des outils plus élaborés liés aux outils de modélisation, allant jusqu’à l’utilisation de méthodes de développement rapide à base de prototypages successifs.

    La dernière contribution est celle d’une petite société m’annonçant fièrement qu’elle utilise les outils du web 2.0 principalement pour favoriser l’adhésion des utilisateurs aux processus de changements.

    Une situation très inégale donc… méritant une position plus nuancée !