Interview avec M. Thierry Joubert, directeur technique de THEORIS réalisée par Baptiste Michaud et Pierre-Olivier Dybman.

«aujourd’hui il est difficile d’expliquer à des étudiants ce qu’était l’informatique des années 80, je pense fort probable qu’il sera difficile d’expliquer à des étudiants de 2018 ce qu’était un PC»


En guise d’introduction, donc, on va peut-être commencer par vous demander de présenter votre entreprise, THEORIS, en quelques mots.

THEORIS est un acteur de l’informatique embarquée, spécialisé dans le logiciel et ses aspects embarqué. C’est un acteur relativement récent sur le marché puisque c’est une société qui entre dans sa sixième année. Par contre l’équipe qui est le noyau dur de THEORIS s’est constituée depuis un petit peu plus d’une vingtaine d’années. Cette équipe développait un OS temps réel dans les années 90 et elle est beaucoup intervenue sur des problématiques de projets automobiles, et évidemment sur des projets d’un des gros consommateur d’informatique embarqué qu’est le domaine militaire, ainsi que sur tout ce qui est études, banc d’essais, etc.

Et vous, pour votre part quel est votre parcours personnel ?

Je travaille dans le domaine de l’informatique en tant que professionnel depuis 86. J’ai démarré l’informatique en 83. C’était une époque où on ne distinguait pas tout ça (NDLR : embarqué, etc.). J’ai un diplôme qui est celui de l’École Centrale de Nantes, une école généraliste et j’ai fait une option informatique qui m’a conduit à faire tout ce qui est automatisme, ainsi que l’informatique implantée sur les équipements industriels.
J’ai commencé dans l’informatique tertiaire par l’installation du système de l’ambassade de France à Washington. J’ai fait cela pendant mon service militaire en VSNA à l’époque puis j’ai assez rapidement embrayé sur l’informatique technique chez Thomson (aujourd’hui Thalès) puis Renault. J’ai beaucoup travaillé dans le domaine de la réalité virtuelle et du temps réel qui sont d’ailleurs deux domaines connexes.

Justement au niveau du secteur des systèmes embarqués plus particulièrement, vous en tant que patron d’entreprise, quelles sont les avancées que vous attendez sur ce marché pour les années à venir ?

L’informatique embarquée, on parlait également d’informatique temps réel ce qui était un petit peu un abus de langage, a été pendant très longtemps un secteur relativement isolé du reste du monde de l’informatique. Des serveurs, on en a toujours été relativement isolé, mais surtout du monde PC. Jusqu’à une date récente on distinguait bien le monde du PC de celui de l’informatique embarquée. Mais depuis l’avènement des PDA à la fin des années 90, l’intégralité, enfin, on va dire la galaxie informatique s’est déplacée vers le monde de l’embarqué dans la mesure où les problèmes de compacité de coût et de fiabilité des équipements mobiles sont notre pain quotidien dans l’embarqué. Or aujourd’hui, ce sont des problèmes qui se posent pour les téléphones portables mais aussi sur tous les appareils d’informatique personnelle et bientôt de domotique.
Donc en fait, on a un petit peu le sentiment d’avoir toujours vécu en marge du terrain et que finalement, c’est le terrain qui s’est déplacé vers nous. En définitive quand on parle d’architecture RISC embarquée, quand on parle de systèmes bootables sur flash, quand on va parler de systèmes qui font du 24/24 et qui tiennent dans la poche, c’est un domaine que l’on traite. C’est déjà ce qu’on devait faire dans les systèmes d’armes il y a 20 ans. Et aujourd’hui, c’est ce que tout le monde a dans sa poche, dans sa maison, ou encore dans son automobile.
D’ailleurs le premier secteur qui a été touché par l’informatique embarqué c’est l’automobile il y a une petite quinzaine d’années avec le multiplexage, comme on appelait cela à l’époque, c’est-à-dire le fait de passer toutes les informations du véhicule sur un bus numérique, et non plus sur une quantité de fils.
Il y avait à l’époque des motivations économique en cuivre et en temps de montage et puis surtout les mises à jour et la gestion des gammes facilitées.
Donc voilà un petit peu le sentiment de se retrouver au cœur du terrain alors que le savoir-faire n’a pas bougé.
Par contre les domaines d’application ont vraiment changé et tout ça est directement lié, à mon sens, à la loi de Moore. C’est-à-dire, le fait qu’aujourd’hui les capacités d’intégration font que l’on a une puissance de feu absolument énorme dans une puce qui va coûter quelques euros et qui consommera quelques centaines de milliwatts. Le moteur a toujours été cette loi de Moore. J’ai connu au départ ce qu’on appelait les minis, qui ont été tués par les stations de travail, qui ont été tuées par les PC ce même PC qui commence à être sérieusement attaqué par ce qu’on appelle l’UMPC. Aujourd’hui, j’ai dans mon téléphone portable, qui n’est pourtant pas si récent que ça, j’ai plus de puissance de feu que dans mon PC de mon bureau il y a 10 ans … 32bits, 32Mo de RAM, en fait je n’avais même pas ça dans mon PC de bureau il y a 10 ans.

Donc justement, au niveau des évolutions et des perspectives d’avenir, vous avez le sentiment que c’est un phénomène qui va s’accélérer ou est-ce que vous pensez qu’à un moment donné il va y avoir une saturation ?

La problématique, puisque l’on est dans un secteur industriel, est très simple, c’est un problème de marché. Aujourd’hui, l’avènement des technologies de l’informatique embarquée offre deux perspectives en termes de marché.
La première perspective, c’est que la loi de Moore fait baisser les coûts. Or cette baisse des coûts permet d’étendre très largement le marché. De mémoire en 2007, il s’est venu 230 millions de PC à peu près tout confondus, la même année il s’est vendu 1 milliard et demi de téléphones portables et autres PND (NDLR : Personal Navigation Device) donc automatiquement, la baisse des coûts fait que le marché s’élargit. Il est évident qu’il y a plus de gens qui sont capables de s’acheter un PC à 500€ qu’un PC à 1500€. C’est le premier point.
La seconde perspective c’est que la taille du marché elle même fait baisser les coûts. Le PC est typiquement un appareil fragile et sophistiqué, il est quand même limité à un marché, disons occidental. A partir du moment où on est dans l’embarqué, des appareils très solides, très robustes, plus de pièces mobiles, de l’informatique extrêmement compacte avec un très haut niveau de fiabilité et une consommation basse, on peut en plus de cette baisse des coûts atteindre de nouveaux marchés. Je crois qu’il y a un milliard d’humain équipé d’un PC, mais 4 milliards équipés d’un téléphone portable.

Donc les perspectives sont assez énormes. Les pays occidentaux se sont payés des réseaux de téléphone à base de cuivre mais aujourd’hui diffuser un réseau ne nécessite plus de tirer la paire de cuivre auprès de chaque abonné. Ces choses là permettent d’élargir le marché potentiel et ça, à mon sens, ce sont deux facteurs qui font que l’on est aujourd’hui au début du phénomène. C’est-à-dire que ce que l’on voit de l’informatique embarquée aujourd’hui, on a parlé des téléphones, des PND, on aurait pu parler des players multimédia. Ces objets sont un petit peu ce qu’était l’IBM PC en 81/82. Et d’ailleurs à mon sens, ils vont très fortement modifier le marché du PC parce qu’ils vont finir par, je pense, l’envahir pour une large part. Je pense que dans les 10/15 années qui viennent on va voir se mettre en place de nouveaux équipements de nouveaux usages, de nouvelles façons de vendre. Une très grosse différence à mon sens aussi, c’est que quand on vend un PC on vend un équipement, alors que quand on vend de l’embarqué, on appelle ça de la mobilité et ce que l’on vend c’est un contrat de service donc les modèles économiques n’ont rien à voir. Ça aide énormément à la diffusion car quand vous achetez un PC, il faut quand même mettre quelque centaines d’euros sur la table, alors que vous pouvez avoir un abonnement téléphone, et le téléphone qui va avec, pour un engagement de quelques euros tous les mois à condition d’avoir simplement signé pour 2 ans. Tous ces facteurs vont très profondément modifier les périmètres.
Alors qu’aujourd’hui il est difficile d’expliquer à des étudiants ce qu’était l’informatique des années 80, je pense fort probable qu’il sera difficile d’expliquer à des étudiants de 2020 ce qu’était un PC. Le form factor restera parce que un clavier un écran, ça restera mais cela deviendra un équipement parmi beaucoup d’autres.

Vous avez beaucoup évoqué le marché de la téléphonie mobile. Est-ce que, justement en parlant de ce marché et plus spécifiquement peut-être des OS mobiles, est-ce que donc THEORIS est présente sur ce marché là, spécifiquement ?

Oui, on est présent sur ce marché là, historiquement puisque le marché de la téléphonie mobile a été pour nous un terrain de jeu important et il le reste, mais c’est justement un marché que l’on a vu beaucoup changer, puisqu’il y a encore 3/4 ans, on travaillait avec des industriel Français à des optimisations très pointues de modules GSM sur lesquels il n’y avait pas d’OS ou si peu, donc vraiment très bas-niveau.
On a vu arriver une offre Windows Mobile qui est une plate-forme d’intégration de services, on a vu des acteurs comme Palm se transformer, on a vu des acteurs comme Psion mourir.
Aujourd’hui, dans le marché de la téléphonie le bas de gamme n’est plus trop en France. C’est-à-dire le soft de base que l’on faisait y a 5 ans ou 6 ans, aujourd’hui on ne le voit plus trop parce que d’une part il a déménagé dans les pays à bas-coûts de main d’œuvre et que l’on a vu apparaître des offres à valeur ajoutée, ce que l’on appelle aujourd’hui les smart connected service orientated devices. La notion de service orientated est importante parce que finalement c’est cela qui permettra de faire signer des forfaits aux gens donc ça nous ramène vers le modèle économique.
Ces choses là sont en place depuis 4 ans déjà. Je pense que le plus représentatif en tant qu’offre qui n’est ni offre d’opérateur, ni offre d’un fabriquant de téléphones, c’est Windows Mobile. C’est le premier, enfin, Psion bien sûr avec Symbian était présent avant, mais depuis que Symbian appartient à Nokia, c’est vrai que les choses ont un petit peu changé de ce point de vue là. Donc aujourd’hui la principale offre qui a montré qu’il y avait un écosystème technologique à côté du périmètre des opérateurs et des fabricants de matériel c’est Windows Mobile, et c’est la brèche sur laquelle un certain nombre d’autres prétendants sont en train de travailler, c’est clair.

«Pour moi l’initiative iPhone, c’est quelque chose qui ressemble beaucoup a ce qu’a été la machine Lisa en 83. C’est-à-dire que l’on attend le Mac quand même !»

Au niveau du marché actuel de ces OS mobiles, on a évoqué Windows Mobile et Symbian qu’est-ce que vous pensez de l’arrivée d’Apple sur ce marché avec son Mac Os sur un seul terminal, l’iPhone pour ne pas le nommer ?

Alors en fait aujourd’hui Mac Os X est disponible sur deux terminaux: l’iPhone en architecture ARM et le « mac » en architecture x86 (NDLR : L’architecture PowerPC n’étant plus supportée par Apple). Par ailleurs, je pense qu’Apple a souvent su montrer la voie. Pour moi l’initiative iPhone, c’est quelque chose qui ressemble beaucoup à ce qu’a été la machine Lisa en 83. C’est-à-dire que l’on attend le Mac quand même ! C’est un bien meilleur succès commercial que la machine Lisa qui avait été un flop mais à l’époque elle avait vraiment montré la voie. De toute façon on voit bien en ce moment que tout les intégrateurs de … de … on ne peut plus vraiment appeler ça des téléphones …

«chez Apple l’OS est un mal nécessaire»

Des terminaux mobiles ?

Oui, des terminaux voilà. Tous les grands intégrateurs, tout les grands OEM sont en train de travailler sur des choses qui ressemblent quand même beaucoup à l’iPhone.
Je pense que ce qui freine et ce qui a toujours freiné Apple pour être un acteur majeur du marché, c’est que le modèle économique d’Apple, c’est de fabriquer et de vendre du hard. Comme Sun, comme était HP, comme était IBM il y a des années. C’est une entreprise qui conçoit son hard et ce n’est pas un acteur de l’Operating system. On pourrait caricaturer en disant que chez Apple l’OS est un mal nécessaire. C’est un peu dur mais le business model d’Apple c’est de vendre du hard, c’est clair.
Ils ont montré qu’ils sont très bons pour vendre du hard quand ils ont montré pendant des années qu’ils arrivaient à vendre des flashs ou des disques durs pour 5 fois leur prix. C’est-à-dire qu’ils savent packager, ils savent faire le marketing, ils savent optimiser du hard. Et du hard costaud ! C’est-à-dire qu’ils ont montré que dans l’embarqué, tout ce qui était iPod, c’est du solide. Si les gens l’achètent c’est aussi parce que ça tient, et ça répond aux besoins.
Pour moi c’est ce qui a toujours freiné Apple et je ne vois pas trop les choses changer de ce point de vue là. Ils ouvrent leur SDK, c’est vrai, enfin ils entrouvrent leur SDK, on va dire les choses comme ça. Mais je ne sais pas trop comment ils peuvent changer de modèle économique.
Pour un industriel c’est dur de changer de modèle économique parce qu’il faut avoir de la réserve, or aujourd’hui le monde de l’informatique est extrêmement structuré, donc le ticket d’entrée pour prendre la place de quelqu’un ou venir se glisser à côté de quelqu’un, est extrêmement cher.
Apple a une chance malgré tout, par contre les gens qui sont les mieux placés pour tirer leur épingle du jeu sont d’une part Microsoft qui est déjà présent et qui a un modèle économique qui n’est pas du tout celui du hardware et puis en face un nouvel entrant qu’est Google avec Android.

Et l’alliance qu’il y a autour d’Android.

Oui alors l’alliance … Les alliances dans le monde industriel sont les mêmes que les alliances au niveau diplomatique ou politique. C’est-à-dire qu’elles ne tiennent que le temps d’en parler. Quand les choses se précisent les vraies alliances se font jour. En fait les alliances n’existent pas en termes de droit des affaires. Ce qui existe en droit des affaires, ce sont les contrats. L’alliance autour d’Android est une alliance entre des gens qui font du soft et des gens qui font du hard ou tout du moins qui intègre du hard. On a ce genre de chose dans le cadre des projets OEM que Microsoft a signé avec les grands OEM à partir de 1992 et qui sont des deals contractuels.
Moyennant un engagement d’installation, un OEM obtient des réductions sur ses prix de licences. Il y a aussi des accords entre Intel et les intégrateurs qui font que moyennant de mettre l’étiquette, moyennant de respecter certaines règles ils peuvent utiliser la technologie. Ca, ce sont des réalités qui d’ailleurs pour Microsoft, enfin pour le couple Wintel, ont plutôt bien fonctionné.
Mais attention ce sont des contrats, ce ne sont pas des alliances, ce n’est pas la même chose.
Le chemin à faire pour Google est de montrer qu’ils arrivent justement à mettre cela en place car, je ne pense pas que Google se mette à faire des Google Phone. La destinée de Google n’est pas de fabriquer du hard, l’idée est bien d’utiliser les meilleurs intégrateurs, HTC en particulier.
Maintenant comment vont se dérouler les choses ?
Aujourd’hui, c’est difficile à dire, dans la mesure où le logiciel évolue lentement, très lentement. On a parlé de la loi de Moore tout à l’heure, dans le domaine du hard les choses sont allé très vite. Aujourd’hui, le PC que j’utilise n’a vraiment plus rien à voir avec celui de 93.
Par contre, je fais toujours tourner sur mon PC en 2008 les mêmes binaires que j’avais sous NT 3.1 en 1993. Et quand je regarde l’architecture de ce que je fais aujourd’hui tourner sur mon PC, sur le monde Windows en particulier, j’ai des composants comme des ActiveX, j’ai Office, etc. Ce soft n’a pratiquement pas bougé et le phénomène est identique dans le monde GNU-Linux où l’initiative Open Source a permis de déclarer l’ensemble des développements des années 80 « patrimoine commun ».
Pourquoi ?
Le logiciel coûte très cher. Le logiciel, c’est ce qui s’adresse directement à l’utilisateur. Il n’y a pas ou peu de re-utilisation dans le logiciel, il y a de l’usage. Cela entraine une évolution extrêmement lente. Si on prend l’exemple du monde Windows Embedded par exemple, il a mis 10 années pour se mettre en place. Démarré en 1996, rentable en 2006, et tout cela en s’appuyant sur un monde existant qui était Windows, c’est-à-dire avec des développeurs, des composants, etc. On peut estimer que l’offre Google prendra « un certain temps » pour se mettre en place. Windows Embedded, grosso modo c’est 10 ans et certainement plusieurs dizaines de millions de dollars d’investissement, je ne vois pas trop comment Google peut arriver à faire sa place au soleil, sans aligner quelque chose de comparable.

«La victoire ne peut se faire que dans le silence le plus total»

Page suivante