(tout ceci c’est my two cents, à prendre avec des grosses pincettes car je suis loin d’avoir mon permis concernant l’IA que je suis de loin, mais ce coup de pied au cul deepseek ne m’étonne pas tellement)
je bosse dans la data, avec un background de dev, je suis déjà un cas un peu à part, et je m’étonne toujours de la puissance requise pour faire tourner la moindre analyse.
l’explosion de l’IA est liée à l’explosion du cloud, et à la scalabilité qu’il offre, on a à sa disposition une puissance de calcul absolument colossale à portée de clic, les principaux outils pour analyser/trier/manipuler/stocker sont des outils qui tirent profit de cette scalabilité en parallélisant les process.
on lance une requète, elle parse des téras de données, et on a le résultat en moins de 2 secondes, magique !!
en vrai la requête a été parallélisée sur des centaines de machines, coût réel 22h CPU.
c’est très complexe à faire, ça demande d’architecturer tes machines, ton logiciel mais aussi tes structures de données pour travailler en parallèle. gros gros taf d’engineering et d’archi, merci les devs rattachés à l’apache foundation qui font ça en open source et dont les solutions consituent le catalogue des gros du cloud.
donc d’un coté on a des outils super puissants (vous avez peut-être déjà entendu parler de spark par ex. pour les calculs distribués, le machine learning, l’analyse de données…) avec parfois des learning curves bien vénér, ce qui fait qu’on a pas envie de switcher d’un jour à l’autre de techno.
de l’autre on a des mastodontes de la tech qui proposent des solutions cloud quasiment sans limite de puissance là aussi avec une adhérence de malade.
des data centers qui se sont aussi petit à petit équipés avec des puces qui étaient conçues pour favoriser les calculs et les traitements des logiciels en tête de gondole.
on a le fric qui coule à flot parceque la data/crypto/blockchain/IA… c’est l’eldorado du moment.
mais faut aller vite, on te demande pas de faire mieux, on te demande de faire.
et on a plein de jeunes ingénieurs brillants, plus ou moins formés à ces technos, mais (cadeau, c’est mon moment boomer) sans aucun recul par rapport à ces solutions et le coté TGCM du cloud.
et pour un dev/archi c’est confort de prendre la solution leader du moment, ça rassure les managers, c’est adapté ? on verra ça plus tard… (spoiler: si c’est pas adapté on va tordre le truc dans tous les sens, voire le prendre à contrepied, et si à un moment ça a pu être adapté, ça ne l’est plus)
enfin, on a globalement un « écosystème » qui est très dur à appréhender, techniquement et financièrement, dans sa globalité, quand ta stack technique est full hébergée (c’est à dire que tu « loues » le service pas besoin d’installer la machine, de la tweaker pour tes besoins) t’as juste à faire tes courses et mettre dans le chariot, les équipes se retrouvent face à une montagne de services, chacun avec son coût CPU/storage/mémoire aussi ridicule soit-il (allez hop 2 centimes du Go ici, 15 centimes de l’heure CPU là…) et au final une stack MONSTRUEUSE.
(avec parfois des étages qui communiquent entre eux en s’échangeant des fichiers textes bien verbeux, minblown.gif)
bon, vous voyez peut être où je veux en venir, vous allez me dire, ben ouais on dilapide le pognon et les ressources, mais c’est comme ça dans toutes les grosses boîtes. capitalism baby!
disons alors que ce concept scale lui aussi à merveille avec le cloud !
quand tu vois ton équipe déployer un conteneur kubernetes avec du spark pour parser 3000 lignes de CSV tu te dis qu’il y a un malaise.
mais arriver avec une autre solution, c’est très très difficile, déjà parceque la stack est pas prête pour ça, ensuite parceque les coûts sont répartis sur tellement de postes qu’on te dira toujours « ça coûte pas si cher » (surtout ramené au temps de travail de dév) et que rares sont les boîtes avec du finops assez pointu pour définir précisément qui dépense quoi, ensuite parceque c’est pas ce qu’on te demande, que ça fait peur à l’équipe (quoi ??!!! il existe un autre langage que python ?), que ça demande un gros taf, qu’il faut pas avoir peur de mettre (un peu) les mains dans le cambouis (parceque les optimisations tu les obtiendras pas faisant clic-clic sur un jupyter notebook) etc… etc…
lors d’un précédent projet, on a repris des pipelines d’intégration de données, pourtant réalisés dans les règles et avec les solutions à la pointe du moment, en divisant les temps de traitement par 50 et les coûts par 20.
et on a pas mis en place de l’assembleur hein, ça restait des lambdas déclenchées dans le cloud, rien de bien sorcier. et ça a rencontré de fortes résistances.
bref, que quelqu’un revienne aux bases des besoins, et foute un énorme coup de pied au cul à nvidia/aws/google/openAI et consors, ça me semble pas un truc si bizarre.
EDIT: wouah, laissez tomber, l’article de chaz est way above, pour une fois que je fais un brouillon…