Sitemap

Dialogue de Philotech & Antitech

9 min readMay 16, 2025

Faire la part du signal et du bruit dans l’accélération technologique

Overdose d’IA ? Moi oui : je n’arrive plus à suivre les dernières tendances, nouveautés, gadgets, opinions, déclarations qui sortent sans cesse autour d’un sujet aux définitions de plus en plus floues.

Je me souviens avoir appelé mon éditeur en larmes, alors que je rédigeais Fantasia : Chat-GPT 3.5 venait d’être rendu public, et j’y voyais déjà la fin de mon livre, de la littérature et de l’humanité — je fais les choses en grand. Finalement, je me rends compte que l’ouvrage se bonifie avec le temps : je voulais montrer, à travers des histoires, toutes les IA invisibles du quotidien (de curation, de matching, d’optimisation…), ce qui était à l’époque nécessaire parce qu’on les connaissait mal, et devient aujourd’hui crucial parce qu’on les oublie, à l’heure où IA devient synonyme de Chat-GPT.

Ce sentiment de perdre les pédales dans la course à l’innovation, je l’ai retrouvé la semaine dernière en discutant avec Yacine Touati, CTO de Lamalo, une start-up IA incubée par Reboot Conseil. Seulement cette fois je n’ai pas pleuré : j’ai cherché ce qui était durable, profond, ce qui faisait écho aux grands questionnements de l’homme, dans le flot d’innovations. Le mot d’ailleurs est éclairant : pourquoi parle-t-on d’innovation, et non de nouveautés ? Parce que le fait d’être nouveau est devenu une valeur en soi : toujours plus récent, toujours dernier cri, que ce soit mieux ou pas.

Un classique

Plus exactement, je comparais le champ de l’IA à celui de l’écologie ou du droit international, sujets eux aussi gigantesques, mais moins soumis à cette fièvre de créer, d’inventer, de rendre caduques les discours de la veille. Yacine défendait plus l’innovation comme dynamique nécessaire afin de faire vivre un Progrès auquel il croit encore : cette fièvre de créer, c’est précisément ce qui lui plaît dans le software et l’IA, et qui ne cesse de l’émerveiller.

La seule chose sur laquelle nous sommes tombés d’accord, c’est que l’accélération continue des annonces et sorties en matière d’IA ne devait pas nous faire perdre de vue la route. Pour ça, les adeptes de la Formule 1 comme ceux de la randonnée seront tous d’accord : vite ou lentement, avec prudence ou avec témérité, il faut garder le cap. Ce qui, dans les mots de Yacine, se traduit par : distinguer le signal du bruit ; la route du hors-piste.

En somme, nous débattions surtout par goût de la polémique, ce qui m’a rappelé les joutes du théâtre grec, les dialogues où Philocléon affronte Bdélycléon (Chéricléon et Vomicléon, dans la traduction Victor-Henri Debidour) Je profite donc du dernier mail de Yacine, où il liste les principales tendances de fond en matière d’IA, pour faire parler Philotech et Antitech, et espérer tirer, de leur passe d’armes, une vision plus claire des grandes idées qui agitent le petit monde de l’IA.

Les Guêpes d’Aristophane

Philotech : Cher Antitech, il faut comprendre les tendances de fond, identifier les tendances émergentes et ne pas vivre au rythme des annonces quotidiennes autour des capacités des nouveaux modèles et autres breakthroughs technologiques. Perso, des tendances de fond, j’en ai identifié quelques-unes, qui sont pour moi les plus importantes.

En premier, l’évolution du “raisonnement” des LLMs vers une compréhension du langage plus conceptuelle que littérale (les Large Concept Models de Meta)

Antitech : Ah ne me lance pas sur les limites des modèles statistiques ! Tu en parles déjà dans cet article. Hallucinations, manque de cohérence et de contextualisation, effet “boîte noire”… Il était temps que les LLMs évoluent vers une compréhension plus conceptuelle — mais une évolution n’est pas une révolution.

Philotech : Certes, mais des modèles qui développeraient une représentation du monde moins adossée à la distribution statistique des mots qui constituent leurs datasets pourront comprendre nos besoins de manière beaucoup plus intuitive, et se mettre à un niveau de communication qui requiert moins de prompt engineering pour arriver à un résultat décent. Une telle évolution pourrait permettre une révolution dans le scope des applications instrumentant de tels modèles.

Antitech : Je traduis en langage humain : “la transformation des modèles de langage en modèles plus conceptuels permettrait de communiquer avec eux, et non plus que de seulement les solliciter pour des tâches précises”. Oui. Sans doute. What a time to be alive.

Philotech : En seconde tendance de fond, évidemment, je distingue la création de standards de communication et de protocoles techniques (comme le MCP, le A2A) permettant une meilleure interopérabilité des systèmes autonomes (les fameux agents), quel que soit leur vendor (Google, Anthropic, OpenAI, etc.)

Antitech : Et qui met en place ces standards de communication et ces protocoles techniques ? Des entreprises privées, Google, Anthropic, OpenAI, qui ont vocation à faire du profit, et n’ont presque pas de garde-fous. Tout pouvoir corrompt, s’il n’a pas de contre-pouvoir… et plus encore s’il est concentré dans les mains de quelques entrepreneurs de la Silicon Valley, aux parcours, visions et réseaux similaires.

Philotech : Je comprends tes réserves quant à l’origine privée de ces standards et protocoles. Il est naturel de se méfier d’une potentielle influence excessive des grandes entreprises. Cependant, je voudrais te présenter une perspective qui, je l’espère, te montrera les aspects positifs et la nécessité de telles initiatives.
Premièrement, ils sont open-source, cela signifie que leur spécification est publique et se fait de manière collaborative, cette transparence est un garde-fou important contre le contrôle unilatéral.
Inutile de se voiler la face, les systèmes agentiques d’aide à la décision vont se développer quoi qu’il arrive, il est nécessaire de faciliter leur interopérabilité au niveau mondial, car si on ne le fait pas cela va freiner nos échanges.
De plus, on a un point de comparaison : l’aube d’Internet. Des protocoles fondamentaux qui régissent Internet aujourd’hui (TCP/IP, HTTP, SMTP, etc.) ont bénéficié d’investissements massifs et de recherches provenant du secteur privé, souvent en collaboration avec des institutions académiques et gouvernementales. Des entreprises comme Xerox PARC, IBM, et plus tard d’autres, ont joué un rôle clé. Pourtant, ces efforts ont abouti à des standards ouverts qui ont permis l’émergence d’un réseau mondial, accessible et vecteur de libertés et d’innovations sans précédent. Le fait que des entreprises aient été à l’origine de ces briques technologiques n’a pas empêché Internet de devenir un bien commun. Lorsque ces standards ouverts sont adoptés, ils créent un écosystème. De nouvelles entreprises peuvent se construire sur ces fondations, des services innovants peuvent voir le jour, et la concurrence peut s’exercer sur la qualité des implémentations et des services plutôt que sur le contrôle d’un protocole fermé. C’est cette dynamique qui favorise le progrès pour tous.

Antitech : On en vient à se demander si l’internet a été “vecteur de libertés et d’innovations”, s’il aurait pu être mieux développé, si l’innovation doit vraiment se mettre au même plan que les libertés, et enfin s’il est vraiment suffisant de parler de libertés au pluriel… Preuve, au moins, que le sujet des protocoles n’est pas qu’une question de pure technique !

Philotech : Troisièmement, le caractère pervasif de la conquête du monde physique par l’IA (kit de création de robots open-source, développement des robots humanoïdes multi fonctions)

Antitech : Ce qui m’inquiète, ce sont les usages invisibles et donc inconscients de l’IA. Je crains plus une IA de curation qui nous maîtrise lorsque nous ne la maîtrisons pas, qu’une IA générative, sans doute plus impressionnante, mais qu’on a conscience d’utiliser. Nous avons aussi de moins en moins conscience des usages de l’IA dans le hardware : dans nos frigos connectés, dans la domotique, et dans tous les outils de tracking du sommeil ou de la performance sportive.

Philotech : Là, j’aurai une tendance plus naturelle à rejoindre tes craintes, des systèmes intelligents qui sortent du monde digital et interagissent avec le monde physique poseront de nombreuses et pressantes questions sociales, éthiques, sécuritaires, etc. De plus, leur efficacité sera conditionnée au fait qu’ils soient radicalement différents des LLMs dans leur connaissance du monde environnant, ce que Yann LeCun appelle les world models, et qui selon lui se rapprochent bien plus de l’AGI que l’offre qui est fournie au grand public aujourd’hui.

Antitech : Poseront ? Sera ? Je n’en parlerai pas au futur : l’IA modifie déjà notre rapport au monde physique. Nous passons en moyenne huit heures par jour devant des écrans, beaucoup en ont en permanence aux poignets, et je ne parle même pas des caméras de surveillance ou des dispositifs d’eye tracking pour optimiser l’impact des pubs… J’admets que la conquête du monde physique par l’IA est une lame de fond, mais elle a déjà touché le rivage.

Philotech : Quatrième tendance qui me vient à l’esprit : les modèles à mémoire dynamique, capables d’apprendre et de persister leur apprentissage sans données pré entraînées (Titan models de Google)

Antitech : Ah, voilà encore l’argument du “tout nouveau tout beau” ! Plus des données seraient récentes, plus elles seraient importantes ? Il faudrait écraser l’Illiade et l’Odyssée, puisqu’elles sont périmées, pour faire de la place à la masse de livres générés par IA ? Ces modèles mourront d’apoplexie : la place des données synthétiques dans les corpus d’entraînement est déjà un grand problème et n’ira pas en diminuant.

Philotech : Non tu n’as pas compris, il s’agit plutôt d’une architecture de modèles intégrant, sans outils externes comme des bases de données, des modules de mémoire à court et long termes. Cela signifie, qu’après leur entraînement initial, qui serait comme les autres modèles que nous connaissons, basé sur des corpus de textes énormes (dont l’Illiade et l’Odyssée), ces modèles seraient capables de persister durant leur runtime de nouvelles données sur le long terme, et donc d’apprendre : cette perspective de learning during inference est fascinante !

Antitech : Oh, je croyais que c’était déjà le cas ? On a beaucoup entendu la promesse de modèles apprenants.

Meme automatiquement généré sur ce dialogue par supermeme.ai

Philotech : Si tu veux du contrôle de la base d’entraînement : pour moi, les systèmes d’aide à la prise de décision basés sur des ontologies, sont à mon sens amenés à exploser dans un futur proche (cf. Palantir)

Antitech : Là je suis d’accord. J’ai pu voir de mes yeux ce que tu as fait avec le projet Gematria, et ça me rend optimiste pour les développements futurs des IA neuro-symboliques, les systèmes d’aide à la décision basés sur des ontologies. Il y a une vidéo où tu les compares au fait de reconnaître vaguement une silhouette dans la rue, puis de se retourner pour vérifier : c’est cette vérification, cet encadrement par l’expertise, qui manque aux LLMs trop généralistes actuels.

Philotech : Oui, en effet, ces systèmes vont au-delà de la reconnaissance de pattern et utilisent des cartographies de tel domaine pour valider la génération initiale des LLMs (grounding), ils peuvent aussi permettre une meilleure explicabilité des systèmes autonomes, que l’on qualifie souvent de boîtes noires.

Antitech : Hâte d’en voir les résultats sur Gematria ! Je les partagerai sur ce compte. Merci pour cette discussion ! Je résume : pour toi, il faut faire la part du bruit et des tendances de fond de l’IA — évolution des LLM vers une compréhension conceptuelle, interopérabilité des systèmes autonomes, conquête du monde physique, modèles à mémoire dynamique, systèmes basés sur des ontologies. Tout cela te rend optimiste : tu y vois une meilleure interaction de l’homme avec les machines, un encadrement plus ouvert et transparent des protocoles, une réponse aux limites des LLMs. Mais tu restes inquiet de l’usage de l’IA, le plus souvent invisible, dans le monde physique, par le biais des objets connectés. Je n’ai pas ta foi… mais parmi tous les sujets d’inquiétude, l’opacité des systèmes, la concentration des modèles, des données et du capital dans les mêmes mains, malgré tout cela, je suis d’accord que la priorité, c’est de rendre visible l’IA, parce qu’elle est déjà présente au quotidien. C’est aussi ce qui rend ta veille si nécessaire. Merci !

--

--

Laura Sibony
Laura Sibony

Written by Laura Sibony

Author of Fantasia | Art & Tech

No responses yet