Le paysage contrasté de l'industrie du logiciel et des services en France ne pouvait mieux être illustré cette semaine dans la concomitance de la seconde édition de « Paris Capitale du libre » et de la parution de l'édition 2007 des indices de l'AFDEL, l'Association française des éditeurs de logiciels.
Malgré une croissance moyenne de 12%, l'AFDEL constate néanmoins que les éditeurs de logiciels français restent trop petits et peu présents hors des frontières. Les cent premiers éditeurs français totalisent près de 4 milliards d'euros de chiffre d'affaires en 2006, mais les deux premiers (Dassault Systèmes et Business Objects) en représentent 47% à eux seuls et l'on compte plus de 2000 éditeurs réalisant moins de 2 millions d'euros, pratiquement exclusivement en France. Le chiffre d'affaire du 100e est de 4 millions d'euros. Quelques points de comparaison pour mettre ces chiffres en perspective : Microsoft affiche 49,5 milliards de dollars de revenus, en haut de l'affiche, la moyenne de l'industrie aux Etats-Unis est à environ 220 millions de dollars. Au plan des capitalisations boursières, pour celles de ces sociétés qui sont cotées : la valorisation de Microsoft à 282 milliards de dollars fait apparaître un P/E (Price/Earning ratio) de 21,34 en retrait de la moyenne du secteur, 29,5 aux USA. À ce compte là, Dassault Systèmes coté à 7 milliards de dollars affiche un P/E de 29,1 tout à fait dans la moyenne ; Business Objects (1 milliard d'euros de chiffre d'affaires, n°2 au classement de l'AFDEL) à 3,7 milliards et un P/E de 54,99 bénéficie des faveurs de la Bourse, idem pour ILOG (145 millions d'euros de chiffre d'affaires et n°8 au classement de l'AFDEL) coté à 236 millions de dollars de capitalisation pour un P/E de 37,7 bien au-dessus de la moyenne.
Le poids de l'Europe est estimé à 50 milliards d'euros, un petit 30% du marché mondial d'après le rapport de l'AFDEL, la France étant devancée par le Royaume Uni (5%) et l'Allemagne (12%), loin derrière les Etats-Unis (23%). Les éditeurs américains sont donc omniprésents en Europe, surclassant les éditeurs locaux dont très peu ont atteint une taille « mondiale ».
Pas d'autodénigrement, en revanche, à la deuxième conférence « Paris Capitale du libre, porte Maillot ces 13 et 14 juin : plus de 3000 visiteurs ont pu se réjouir de d'une croissance attendue de 60% du chiffre d'affaires du secteur du logiciel libre, qui devrait dépasser le milliard d'euros en France, en 2008. L'étude de marché de Markess International, parue à l'occasion de l'événement, indique que si cette croissance est au premier chef soutenue par la demande de logiciels libres des administrations publiques, le nombre d'entreprises privées clientes du libre serait en hausse de 60% pour 2007. Le président du Cigref, Didier Lambert, DSI d'Essilor, y voit un espoir pour les jeunes pousses nationales ; Alexandre Zapolsky, le PDG de Linagora, première SSLL (Société de service en logiciels libres) et organisateur de la conférence, indique que le logiciel libre devrait séduire de plus en plus de grands comptes, poussant d'ailleurs les acteurs du libre à la spécialisation dans les domaines applicatifs et ultérieurement à la course à la taille par la concentration, comme dans le secteur « propriétaire » - Linagora a d'ailleurs absorbé Alia Source, un éditeur français de solutions Open Source de travail collaboratif. Jean-Pierre Corniou, actuel président d'EDS France et qui ne nous avait guère habitué à un tel lyrisme, annonce le logiciel libre comme « tsunami, un bienfait de la mondialisation », avènement de l'ère de l'intelligence collective. Reprise en coeur par les panélistes, la vulgate prévalente qui voudrait assimiler innovation à logiciels libres triomphait : « 200 000 codeurs, parmi les meilleurs du monde, améliorent sans cesse la qualité des logiciels libres. Microsoft ou Oracle n'y arriveront jamais même en délocalisant en Inde » précisait Jean-Pierre Corniou.
Ce dernier point mériterait analyse plus profonde. Une étude d'Evans Data publiée en mai dernier prévoit que le nombre de développeurs atteindrait 19 millions dans le monde en 2010, une croissance de 45% entre 2006 et 2010. D'après Evans Data, en 2010, 43% de ces développeurs seront issus de la région Asie-Pacifique. En 2006, cette région du monde compte d'ailleurs déjà autant de programmeurs professionnels qu'en Europe. (Des croissance explosives sont anticipées en Chine, en Inde, en Russie et au Brésil.) Selon IDC cette fois, les revenus mondiaux des logiciels libres (hors services) ont atteint 1,8 milliards de dollars en 2006 et devraient atteindre 5,8 milliards en 2011 (soit 26% de croissance annuelle). Au plan économique, les chiffres restent encore faibles en comparaison du « propriétaire ». Quant aux « bienfaits » de l'organisation collective du développement Open Source, l'innovation dans ce modèle reste très spécifique et peu étudiée dans la pratique - à l'exception passionnante des travaux des économistes Josh Lerner et Jean Tirole et de ceux, tout aussi indispensables, de Yochai Benkler, dans son livre The Wealth of Networks.
Les efforts sont donc méritoires tant dans le camp propriétaire que dans celui des logiciels libres. Mais comme souvent en France, l'opinion publique est déçue par les résultats qu'elle juste injuste au regard du rang auquel elle estime devoir être reconnue. Le même psychodrame tricolore est rejoué chaque année au moment de la publication du classement des universités dans le monde par l’université Jian Tong de Shanghaï. (Sa dernière édition en fait apparaître deux françaises dans les cent premiers.)
Plutôt que de s'étouffer d'indignation, on se consolera donc en constatant la bonne forme financière de nos grands éditeurs et (très) grandes SSII, la vaillance et la croissance de nos jeunes pousses du logiciel libre (de Linagora à Nuxeo, de Mandriva à DreamFace Interactive, de Talend à Wallix et bien d'autres encore) qui n'ont rien à envier aux startups américaines sur ces sujets, la réorganisation d'ObjectWeb en un OW2 aux accents résolument asiatiques, la prochaine tenue, à Amiens, des « Rencontres mondiales du logiciel libre » (!), et... le rôle réel d'innovateurs français, parfois expatriés, dans le succès de certains grands éditeurs américains
dimanche, juin 24, 2007
samedi, juin 09, 2007
Microsoft réunit les VC à Bruxelles
L'un des attraits du « Small Business Innovation Event », un séminaire sur l'innovation et les PME en Europe, organisé la semaine dernière par Microsoft à Bruxelles - dans son luxueux European Demo Center donnant sur le Parc du Centenaire et voisin de la Commission européenne - était sans nul doute une intervention de Craig Mundie, Chief Research and Strategy Officer du géant de Redmond. Accompagné d'Anoop Gupta - un ancien camarade de Carnegie-Mellon University que je n'ai pa eu le temps de saluer dans la bousculade d'une salle bondée - Corporate Vice President, Technology Policy and Strategy, Craig Mundie révélait à une audience essentiellement constituée de financiers de la communauté du capital risque européen et d'entrepreneurs triés sur le volet par Microsoft au travers de son programme IDEES, et de ses équivalents en Grande-Bretagne et en Allemagne, quels étaient les défis que les équipes de recherche de Microsoft s'attachaient à relever.
Comme c'est souvent le cas lors des présentations des travaux de recherche des laboratoires de Microsoft, Craig Mundie insistait en préliminaires sur l'indépendance de l'organisation Microsoft Research vis-à-vis des divisions produit de son bailleur de fonds. Eric Boustouller avait ouvert la journée d’inauguration du laboratoire commun à l'INRIA et à Microsoft sur les mêmes remarques. Andrew Herbert, le patron du seul laboratoire européen, basé à Cambridge en Angleterre, avait martelé le point de la même manière lors d'une journée portes ouvertes l'année dernière. Rien qu'à ce titre, la réalisation de cette vision de la recherche et de l'innovation d'entreprise de Microsoft est particulièrement intéressante à suivre. Probablement inspirée par l'effort de recherche fondamentale d'IBM lancé dès 1945, mais très différemment positionnée, la recherche de Microsoft est un modèle encore inédit, créé de toute pièce en 1991. Alors que la division recherche d'IBM, à l'origine mandatée pour des objectifs appliqués en relation avec les développements commerciaux de la firme, élargissait rapidement ses secteurs de recherche à des domaines plus théoriques et scientifiques - plusieurs prix Nobel de physique sont issus de ses rangs - celle de Microsoft, bien que centrée sur l'informatique et, par conséquent, bien sur ses secteurs commerciaux, affirme néanmoins chaque fois son indifférence aux applications commerciales à court terme. Alors qu'en France la réflexion sur l'innovation, régulièrement mêlée à la confrontation recherche privée contre recherche publique, spasmodiquement ravivée lors des publications des classements mondiaux de la recherche et de l'innovation qui témoignent, sous toutes les formes, de l'effondrement national depuis les vingt dernières années n'accouche éternellement que de grands « machins » étatiques (AII, ANR, pour les plus récents) au colbertisme suranné, la stratégie mise en oeuvre par Microsoft pourrait bien servir de modèle à d'autres.
Quels sont donc les sujets de préoccupations de ces chercheurs « industriels » post-modernes ? Premier point, précédemment évoqué par Bill Gates devant la communauté des développeurs .NET il y a quelque mois, le défi que représentent les architectures de processeurs multi-coeurs. Comme le dit justement Craig Mundie, la banalisation des multi-coeurs entraîne nécessairement une remise sur le métier des modèles de programmation traditionnels qui font habituellement l'impasse sur les traitements parallèles. Et précise-t-il, rien ne prouve que les travaux sur le parallélisme, évidemment déjà abondants et de longue date, mais souvent développés dans le contexte d'architectures multi-processeurs soient pertinents pour un processeur multi-coeurs. Dans l'approche de Microsoft, cette optimisation à inventer pour les multi-coeurs sera à situer dans le système d'exploitation. C'est cependant un domaine où l'on attend encore quelques percés théoriques pour avancer : beaucoup soupçonnent que le mécanisme traditionnels des « threads », généralement utilisé pour parallèliser les algorithmes et les applications, devient impraticable lorsque que l'on passe de quelques coeurs à plusieurs centaines, voir à 1000 comme le pronostique Anant Agarwal, professeur au MIT.
Alors même que Craig Mundie évoquait ces questions devant ces investisseurs en capital, déroutés pour certains par le tour quasi-scientifique que prenait l'exposé, Google, dans l'ombre de son acquisition récente de FeedBurner, faisait le même jour l'acquisition de PeakStream, une startup spécialisée dans la programmation des multi-coeurs. Ayant déjà mis au point son propre système de gestion des fichiers pour ses monumentaux datacenters - pas de réelle innovation scientifique ici mais une mise en oeuvre particulièrement astucieuse et efficace d'algorithmes d'allocation de ressources et de distribution de tâches (MapReduce) - Google affiche résolument ses intentions de ne pas se laisser distancer sur ces sujets non plus et vise à augmenter encore la puissance collective de ses serveurs.
Second sujet, dans la droite ligne du thème de l'accroissement des capacités de calcul des PC, l'utilisation efficace de ce surcroît prévisible de puissance de stations client. Que faire de ce temps de calcul et de ces ressources disponibles ? Faisant peu de cas de la critique (facile) des produits de Microsoft qui voudrait que quelque soit l'accroissement de puissance des PC, elle se trouve finalement employée à 100% par la bureautique sous Windows de Microsoft dans tous les cas, Craig Mundie décrit la notion de « speculative execution », l'exécution anticipée. L'exécution anticipée n'est pas une nouveauté pour les concepteurs ou les étudiants des langages de programmation. L'idée élémentaire est d'exécuter à l'avance dans un programme certains de ses blocs pour ne plus avoir qu'à effectuer un accès mémoire aux résultats le moment venu. Bien sûr, dans un contexte dynamique dans lequel le chemin d'exécution du programme est inconnu à l'avance, le prix à payer est évidemment que certains blocs calculés par anticipation ne soient pas utilisés à l'exécution du programme. Plus intriguant, l'extension de cette idée par Craig Mundie au monde des applications utilisateur et plus uniquement au domaine des langages et des compilateurs : dans cette vision plus orwellienne, le système met à profit le « temps mort » et les ressources libres pour anticiper sur le comportement de l'utilisateur et préparer d'avance le prochain jeu de données ou la prochaine application que cet utilisateur est susceptible de demander. Mémorisant et analysant les interactions de l'utilisateur, le système se construit alors un véritable modèle de son utilisateur et anticipe, tel le parfait majordome de la tradition britannique, les actions ultérieures de l'utilisateur. Diable ! Nous étions déjà pistés par Google dans toutes nos transactions commerciales ou non, et voilà que Vista et ses successeurs passeront leurs loisirs à se construire insidieusement des profils de leurs utilisateurs - pour mieux les servir sans nul doute et absolument sans aucune vocation commerciale... (Voyons le bon côté des choses : voilà qui promet de savoureux débats pour les futures versions de lois DADVSI, la CNIL et la protection de « l'exception culturelle »à la française.)
Enfin, Craig Mundie concluait sur la vision « Software + Services » de Microsoft - subtil distinguo avec SaaS, Software As A Service, terme plus généralement employé par ses concurrents de l'industrie informatique. L'idée, qui est de plus en plus à la mode ces derniers temps, est de permettre la continuité du travail des applications entre le mode connecté et le mode déconnecté. Google, encore, comme un fait exprès, annonçait cette semaine Google Gears une extension Firefox et IE6 qui apporte la possibilité de stocker des informations sur le PC. (Le socle Mozilla sur lequel Firefox est construit permet déjà de faire pas mal de choses sur ce sujet. Il contient, par exemple, un moteur de base de données SQLite.)
Voilà pour la mission ; pour les travaux pratiques Microsoft avait réuni une quarantaine de startups venues de toute l'Europe issue de la sélection des programmes d'accompagnement des PME européennes innovantes, IDEES en France. C'était le véritable attrait de la journée pour les investisseurs en capital pas peu fiers de montrer la progéniture de leurs portefeuilles sous l'aile protectrice de Microsoft à leurs collègues. Les grincheux - probablement ceux dont les sociétés investies n'avaient pas été retenues - notaient que Microsoft avait beau jeu de se donner une bonne conscience européenne, à quelques pas même de la Commission qui persiste à le tancer sur le sujet de la concurrence, en instrumentalisant la communauté des VC pour sélectionner à son avantage les jeunes sociétés prometteuses. En revanche, il est important de noter que Microsoft, en retour, essaime volontiers certains des travaux de recherche de ses laboratoires vers des jeunes startups à qui Microsoft confie, moyennant participation au capital et accord avantageux sur les royalties, sa propriété intellectuelle pour une exploitation commerciale indépendante hors de sa ligne de produits. Pour le moment seule la société anglaise Skinkers a bénéficié de se programme et vint en vanter les mérites à Bruxelles.
Alors, entrepreneurs innovants, les sujets de recherche sont distribués, à vos claviers !
Comme c'est souvent le cas lors des présentations des travaux de recherche des laboratoires de Microsoft, Craig Mundie insistait en préliminaires sur l'indépendance de l'organisation Microsoft Research vis-à-vis des divisions produit de son bailleur de fonds. Eric Boustouller avait ouvert la journée d’inauguration du laboratoire commun à l'INRIA et à Microsoft sur les mêmes remarques. Andrew Herbert, le patron du seul laboratoire européen, basé à Cambridge en Angleterre, avait martelé le point de la même manière lors d'une journée portes ouvertes l'année dernière. Rien qu'à ce titre, la réalisation de cette vision de la recherche et de l'innovation d'entreprise de Microsoft est particulièrement intéressante à suivre. Probablement inspirée par l'effort de recherche fondamentale d'IBM lancé dès 1945, mais très différemment positionnée, la recherche de Microsoft est un modèle encore inédit, créé de toute pièce en 1991. Alors que la division recherche d'IBM, à l'origine mandatée pour des objectifs appliqués en relation avec les développements commerciaux de la firme, élargissait rapidement ses secteurs de recherche à des domaines plus théoriques et scientifiques - plusieurs prix Nobel de physique sont issus de ses rangs - celle de Microsoft, bien que centrée sur l'informatique et, par conséquent, bien sur ses secteurs commerciaux, affirme néanmoins chaque fois son indifférence aux applications commerciales à court terme. Alors qu'en France la réflexion sur l'innovation, régulièrement mêlée à la confrontation recherche privée contre recherche publique, spasmodiquement ravivée lors des publications des classements mondiaux de la recherche et de l'innovation qui témoignent, sous toutes les formes, de l'effondrement national depuis les vingt dernières années n'accouche éternellement que de grands « machins » étatiques (AII, ANR, pour les plus récents) au colbertisme suranné, la stratégie mise en oeuvre par Microsoft pourrait bien servir de modèle à d'autres.
Quels sont donc les sujets de préoccupations de ces chercheurs « industriels » post-modernes ? Premier point, précédemment évoqué par Bill Gates devant la communauté des développeurs .NET il y a quelque mois, le défi que représentent les architectures de processeurs multi-coeurs. Comme le dit justement Craig Mundie, la banalisation des multi-coeurs entraîne nécessairement une remise sur le métier des modèles de programmation traditionnels qui font habituellement l'impasse sur les traitements parallèles. Et précise-t-il, rien ne prouve que les travaux sur le parallélisme, évidemment déjà abondants et de longue date, mais souvent développés dans le contexte d'architectures multi-processeurs soient pertinents pour un processeur multi-coeurs. Dans l'approche de Microsoft, cette optimisation à inventer pour les multi-coeurs sera à situer dans le système d'exploitation. C'est cependant un domaine où l'on attend encore quelques percés théoriques pour avancer : beaucoup soupçonnent que le mécanisme traditionnels des « threads », généralement utilisé pour parallèliser les algorithmes et les applications, devient impraticable lorsque que l'on passe de quelques coeurs à plusieurs centaines, voir à 1000 comme le pronostique Anant Agarwal, professeur au MIT.
Alors même que Craig Mundie évoquait ces questions devant ces investisseurs en capital, déroutés pour certains par le tour quasi-scientifique que prenait l'exposé, Google, dans l'ombre de son acquisition récente de FeedBurner, faisait le même jour l'acquisition de PeakStream, une startup spécialisée dans la programmation des multi-coeurs. Ayant déjà mis au point son propre système de gestion des fichiers pour ses monumentaux datacenters - pas de réelle innovation scientifique ici mais une mise en oeuvre particulièrement astucieuse et efficace d'algorithmes d'allocation de ressources et de distribution de tâches (MapReduce) - Google affiche résolument ses intentions de ne pas se laisser distancer sur ces sujets non plus et vise à augmenter encore la puissance collective de ses serveurs.
Second sujet, dans la droite ligne du thème de l'accroissement des capacités de calcul des PC, l'utilisation efficace de ce surcroît prévisible de puissance de stations client. Que faire de ce temps de calcul et de ces ressources disponibles ? Faisant peu de cas de la critique (facile) des produits de Microsoft qui voudrait que quelque soit l'accroissement de puissance des PC, elle se trouve finalement employée à 100% par la bureautique sous Windows de Microsoft dans tous les cas, Craig Mundie décrit la notion de « speculative execution », l'exécution anticipée. L'exécution anticipée n'est pas une nouveauté pour les concepteurs ou les étudiants des langages de programmation. L'idée élémentaire est d'exécuter à l'avance dans un programme certains de ses blocs pour ne plus avoir qu'à effectuer un accès mémoire aux résultats le moment venu. Bien sûr, dans un contexte dynamique dans lequel le chemin d'exécution du programme est inconnu à l'avance, le prix à payer est évidemment que certains blocs calculés par anticipation ne soient pas utilisés à l'exécution du programme. Plus intriguant, l'extension de cette idée par Craig Mundie au monde des applications utilisateur et plus uniquement au domaine des langages et des compilateurs : dans cette vision plus orwellienne, le système met à profit le « temps mort » et les ressources libres pour anticiper sur le comportement de l'utilisateur et préparer d'avance le prochain jeu de données ou la prochaine application que cet utilisateur est susceptible de demander. Mémorisant et analysant les interactions de l'utilisateur, le système se construit alors un véritable modèle de son utilisateur et anticipe, tel le parfait majordome de la tradition britannique, les actions ultérieures de l'utilisateur. Diable ! Nous étions déjà pistés par Google dans toutes nos transactions commerciales ou non, et voilà que Vista et ses successeurs passeront leurs loisirs à se construire insidieusement des profils de leurs utilisateurs - pour mieux les servir sans nul doute et absolument sans aucune vocation commerciale... (Voyons le bon côté des choses : voilà qui promet de savoureux débats pour les futures versions de lois DADVSI, la CNIL et la protection de « l'exception culturelle »à la française.)
Enfin, Craig Mundie concluait sur la vision « Software + Services » de Microsoft - subtil distinguo avec SaaS, Software As A Service, terme plus généralement employé par ses concurrents de l'industrie informatique. L'idée, qui est de plus en plus à la mode ces derniers temps, est de permettre la continuité du travail des applications entre le mode connecté et le mode déconnecté. Google, encore, comme un fait exprès, annonçait cette semaine Google Gears une extension Firefox et IE6 qui apporte la possibilité de stocker des informations sur le PC. (Le socle Mozilla sur lequel Firefox est construit permet déjà de faire pas mal de choses sur ce sujet. Il contient, par exemple, un moteur de base de données SQLite.)
Voilà pour la mission ; pour les travaux pratiques Microsoft avait réuni une quarantaine de startups venues de toute l'Europe issue de la sélection des programmes d'accompagnement des PME européennes innovantes, IDEES en France. C'était le véritable attrait de la journée pour les investisseurs en capital pas peu fiers de montrer la progéniture de leurs portefeuilles sous l'aile protectrice de Microsoft à leurs collègues. Les grincheux - probablement ceux dont les sociétés investies n'avaient pas été retenues - notaient que Microsoft avait beau jeu de se donner une bonne conscience européenne, à quelques pas même de la Commission qui persiste à le tancer sur le sujet de la concurrence, en instrumentalisant la communauté des VC pour sélectionner à son avantage les jeunes sociétés prometteuses. En revanche, il est important de noter que Microsoft, en retour, essaime volontiers certains des travaux de recherche de ses laboratoires vers des jeunes startups à qui Microsoft confie, moyennant participation au capital et accord avantageux sur les royalties, sa propriété intellectuelle pour une exploitation commerciale indépendante hors de sa ligne de produits. Pour le moment seule la société anglaise Skinkers a bénéficié de se programme et vint en vanter les mérites à Bruxelles.
Alors, entrepreneurs innovants, les sujets de recherche sont distribués, à vos claviers !
Inscription à :
Articles (Atom)