La course aux LLM, ces moteurs au cœur des offres IA génératives, est vraiment devenue une sorte de concours de zizis.
Pas une semaine sans une annonce d’une nouvelle version de la part de la compagnie X ou Y, avec à chaque fois un score X sur le benchmark Y, forcément en faveur de cette nouveauté. Puis sort un autre benchmark. Puis un autre LLM. Et ainsi de suite…
Ça me rappelle de plus en plus ces gars qui discutent sur les parkings le dimanche matin pour comparer leurs voitures tunées, et qui se lancent dans des comparaisons interminables sur le volume des cylindres, le couple, le nombre de secondes pour passer de 0 à 100… 🏎️
Un vrai concours de qui a la plus longue.
Je ne suis pas en train de minimiser cette course à l’innovation. Elle est essentielle, et c’est grâce à ces travaux qu’on a l’IA d’aujourd’hui. Et qui évolue encore, moins vite qu’avant, mais très vite tout de même.
Juste… j’ai appris à laisser ça de côté. À les laisser optimiser leurs moteurs. Ce n’est pas mon boulot (et je suis loin d’avoir les compétences pour !)
Parce que le FOMO de louper le dernier truc à la mode, il est omniprésent dans le milieu de l’IA. Il y a tellement d’annonces en permanence ! C’est super excitant, mais c’est aussi le meilleur moyen de ne plus jamais être focus, concentré sur sa tâche.
Alors je préfère attendre un peu. Pourquoi passer de Gemini à Claude si Gemini reprend la tête un mois plus tard… Vivre à une échelle de 6 mois me semble un bon principe dans ce domaine. Suffisant pour être à peu près à jour des dernières évolutions, sans s’user à courir dans toutes les directions.
Et puis… Quand on achète une bagnole, le moteur est important, mais il y a tellement d’autres facteurs : l’équipement, la fiabilité, le confort, la tenue de route… D’ailleurs, il y a bien moins de constructeurs de moteurs que de marques automobiles. On a vu des moteurs Renault dans des Mercedes, des moteurs Mercedes dans des Aston Martin, des moteurs Peugeot dans des BMW…
Et c’est pareil avec l’IA : le LLM est important mais il n’est pas seul. La façon dont il est exploité est limite plus importante. J’ai pu voir un Claude Opus 4.5 réagir de manière hyper smart ou complètement débile en fonction de son environnement, de son prompt, de son contexte… 🤷
Apple choisit Google Gemini pour l’intégrer dans Siri ? Parfait, ils pourront se concentrer sur l’expérience utilisateur.
Perplexity vient d’annoncer que leur navigateur Comet allait utiliser Claude Opus.
Dans la plupart de mes projets, les LLM sont quasiment interchangeables. La qualité des réponses est importante, mais tout autant le sont la rapidité, le coût au token, la fiabilité de la plateforme…
Et c’est très bien ainsi. ✌️
Et vous, vous venez avec quel LLM au prochain concours de tuning sur le parking du Leclerc dimanche ? 😄
Partager cet article :
Écrit par
Jean David Olekhnovitch
Oldschool developer, Auvergnat & European & Québécois d'adoption. At the crossroad between tech, people and culture. Living on a small Island in Québec