[ Informatique ] Le topic de l'aide à la personne

Je viens de me rendre compte d’un truc, et je dois dire que ça m’effraie un peu (autant que ça m’excite), les communautés en ligne aussi anciennes que Boulette sont des terrains d’entrainement rêvés pour une IA.

J’anticipe depuis des décennies que cette somme de culture et de « connaissances » puisse être explorés « après nous » (ou pendant), mais jusqu’à présent je souhaitais bonne chance à ces historiens du web, ou à nos enfants qui auraient aimé savoir ce qu’on pouvait bien se raconter à l’époque, pour tirer quoi que se soit de tout ce bordel, en partant du principe qu’il n’y aurait plus d’incendie et qu’une personne serait assez folle pour maintenir et financer le forum sur les décennies à venir.

Mais avec une IA, il est désormais possible de synthétiser toutes ces données en un instant, pour extraire nos pensés, en déduire un profil psychologique, la qualité de nos liens, les évènements importants, extrapoler qui on est IRL, et même jusqu’à recréer une version virtuelle de nous même, pour poser directement des questions à nos avatars.

Vous imaginez un chatbot Chaz ? Qui parlerait constamment de la Saturn ? On est dans Black Mirror là.

2 « J'aime »

terrains d’entrainement rêvés pour une IA.

Une IA en à rien à carrer de Boulette, tout au plus ça nourri ses probabilités de voir les mots « Nintendo », « Saturn » et « Retro » ensembles.

Un humain qui voudrait faire du profiling de gens par contre oui c’est intéressant, et ça rends beaucoup plus accessible un travail de synthèse qui demanderait beaucoup de temps à un être humain. Pour les marketeurs, ou des services de renseignements (très pratique pour synthéthiser les choses en SIGINT/OSINT).

Après « recréer une personne à partir de ses traces » je ne suis pas sûr que ça si fiable que ça. C’est un peu comme prévoir la trajectoire d’un acteur: est-ce qu’une IA pourrait prévoir la performance des acteurs qui jouent (et jouent bien !) à l’opposé de type ? (genre Jim Carrey dans Eternal Sunshine, Coluche dans Ciao Pantin)

Une intention humaine derrière ce genre d’IA me paraissait une évidence, tout du moins tant qu’elles n’auront pas développé de conscience propre :slight_smile:

Ce genre de chatbot existe déjà pour « parler » avec des défunts, ça se limite bien entendu à ce que tu lui donne à manger, mais même en se limitant à la durée actuelle de Boulette, ça doit déjà être assez marrant.

Wow, ah ouai, transparent by design un peu.

C’est l’usage le plus évident je trouve en 2025. Je m’en sers au travail pour faciliter le travail de recherche sur Google qui prendrait des heures autrement + manipuler des données chiffrées comme des tableaux Excel. Donc par exemple trouver des archétypes dans un gros data set, ça doit marcher pas mal dans certaines situations et avec de grosses limitations. Mais ce que décrit Ono == lol en l’état actuel des choses.

De mon expérience limitée, cela demande aussi bcp de travail de l’usager pour en tirer des propositions qui ne soient pas tellement génériques qu’elles sont inutilisables (ie: « propose moi une stratégie pour X »). L’intérêt de tout système de ce type est de développer une expertise dans un contexte donné, et là pour mon métier qui est par nature très « ouvert » (on me demande déterminer quoi faire et pourquoi pour une entreprise / un produit / une équipe par exemple), j’ai pas encore réussi à en faire un truc utile, à moins d’y passer un temps énorme. Si la chose me demande un tel investissement pour entrainer la machine et qu’elle puisse contribuer, autant le faire moi-même à ce stade et donc la value-prop est au final très limitée.

Traduction, reformulation, ca par contre c’est super.

Du point de vue perso, j’ai une histoire familiale un peu compliquée du côté de mon père, et j’ai fait des enregistrements audio de lui, que j’ai ensuite fait transcrire dans je sais plus quel speech to text. Ca m’a donnée des pages et des pages de texte, que je garde dans un google doc comme matière brute. J’avais ensuite tout balancé dans ChatGPT pour espérer en faire un résumé interactif. Ca marche pas mal sans plus, car il se plantait sur certaines relations familiales ou bien qui est qui derrière les prénoms. Faudrait que je passe du temps à updater son contexte pour qu’il mappe correctement les gens et les relations, mais on revient au même point qu’il comprend mal le contexte et la nature des concepts qui se cache derrière un mot.

Bref, un super perroquet à ce stade.

4 « J'aime »

C’est vraiment pénible cette faille actuelle qui les pousse à « halluciner » plutôt qu’être constant dans leurs réponses.

On est au delà de la faille. C’est dans la nature profonde des systèmes IA actuels: ce sont des modèles probabilistes. Tu peux optimiser autant que tu veux pour réduire l’incertitude, ça reste des probas. Pour faire une TRES mauvaise comparaison, la mécanique quantique est une théorie probabiliste, l’incertitude est présente à la base. Sauf que la mécanique quantique est un meilleur bien reflet de la réalité physique (en plus d’être la théorie la plus éprouvée de l’histoire), alors que la technologie AI actuelle ne reflète peut être pas la manière dont nos esprits fonctionnent, ni comment notre cadre informationnelle existe. Mais l’idée reste la même, ce sont des probabilités.

1 « J'aime »

Autre bon billet sur Deepseek et ses implications géopolitiques.

2 « J'aime »

(tout ceci c’est my two cents, à prendre avec des grosses pincettes car je suis loin d’avoir mon permis concernant l’IA que je suis de loin, mais ce coup de pied au cul deepseek ne m’étonne pas tellement)

je bosse dans la data, avec un background de dev, je suis déjà un cas un peu à part, et je m’étonne toujours de la puissance requise pour faire tourner la moindre analyse.

l’explosion de l’IA est liée à l’explosion du cloud, et à la scalabilité qu’il offre, on a à sa disposition une puissance de calcul absolument colossale à portée de clic, les principaux outils pour analyser/trier/manipuler/stocker sont des outils qui tirent profit de cette scalabilité en parallélisant les process.

on lance une requète, elle parse des téras de données, et on a le résultat en moins de 2 secondes, magique !!
en vrai la requête a été parallélisée sur des centaines de machines, coût réel 22h CPU.

c’est très complexe à faire, ça demande d’architecturer tes machines, ton logiciel mais aussi tes structures de données pour travailler en parallèle. gros gros taf d’engineering et d’archi, merci les devs rattachés à l’apache foundation qui font ça en open source et dont les solutions consituent le catalogue des gros du cloud.


donc d’un coté on a des outils super puissants (vous avez peut-être déjà entendu parler de spark par ex. pour les calculs distribués, le machine learning, l’analyse de données…) avec parfois des learning curves bien vénér, ce qui fait qu’on a pas envie de switcher d’un jour à l’autre de techno.

de l’autre on a des mastodontes de la tech qui proposent des solutions cloud quasiment sans limite de puissance là aussi avec une adhérence de malade.
des data centers qui se sont aussi petit à petit équipés avec des puces qui étaient conçues pour favoriser les calculs et les traitements des logiciels en tête de gondole.

on a le fric qui coule à flot parceque la data/crypto/blockchain/IA… c’est l’eldorado du moment.
mais faut aller vite, on te demande pas de faire mieux, on te demande de faire.

et on a plein de jeunes ingénieurs brillants, plus ou moins formés à ces technos, mais (cadeau, c’est mon moment boomer) sans aucun recul par rapport à ces solutions et le coté TGCM du cloud.
et pour un dev/archi c’est confort de prendre la solution leader du moment, ça rassure les managers, c’est adapté ? on verra ça plus tard… (spoiler: si c’est pas adapté on va tordre le truc dans tous les sens, voire le prendre à contrepied, et si à un moment ça a pu être adapté, ça ne l’est plus)

enfin, on a globalement un « écosystème » qui est très dur à appréhender, techniquement et financièrement, dans sa globalité, quand ta stack technique est full hébergée (c’est à dire que tu « loues » le service pas besoin d’installer la machine, de la tweaker pour tes besoins) t’as juste à faire tes courses et mettre dans le chariot, les équipes se retrouvent face à une montagne de services, chacun avec son coût CPU/storage/mémoire aussi ridicule soit-il (allez hop 2 centimes du Go ici, 15 centimes de l’heure CPU là…) et au final une stack MONSTRUEUSE.
(avec parfois des étages qui communiquent entre eux en s’échangeant des fichiers textes bien verbeux, minblown.gif)


bon, vous voyez peut être où je veux en venir, vous allez me dire, ben ouais on dilapide le pognon et les ressources, mais c’est comme ça dans toutes les grosses boîtes. capitalism baby!
disons alors que ce concept scale lui aussi à merveille avec le cloud !

quand tu vois ton équipe déployer un conteneur kubernetes avec du spark pour parser 3000 lignes de CSV tu te dis qu’il y a un malaise.
mais arriver avec une autre solution, c’est très très difficile, déjà parceque la stack est pas prête pour ça, ensuite parceque les coûts sont répartis sur tellement de postes qu’on te dira toujours « ça coûte pas si cher » (surtout ramené au temps de travail de dév) et que rares sont les boîtes avec du finops assez pointu pour définir précisément qui dépense quoi, ensuite parceque c’est pas ce qu’on te demande, que ça fait peur à l’équipe (quoi ??!!! il existe un autre langage que python ?), que ça demande un gros taf, qu’il faut pas avoir peur de mettre (un peu) les mains dans le cambouis (parceque les optimisations tu les obtiendras pas faisant clic-clic sur un jupyter notebook) etc… etc…

lors d’un précédent projet, on a repris des pipelines d’intégration de données, pourtant réalisés dans les règles et avec les solutions à la pointe du moment, en divisant les temps de traitement par 50 et les coûts par 20.
et on a pas mis en place de l’assembleur hein, ça restait des lambdas déclenchées dans le cloud, rien de bien sorcier. et ça a rencontré de fortes résistances.

bref, que quelqu’un revienne aux bases des besoins, et foute un énorme coup de pied au cul à nvidia/aws/google/openAI et consors, ça me semble pas un truc si bizarre.


EDIT: wouah, laissez tomber, l’article de chaz est way above, pour une fois que je fais un brouillon…

5 « J'aime »

Je mettrais peut être un bémol basé sur mon expérience, pour avoir fait bcp de cloud dans de grosses multinationales du jeu vidéo. Sur l’AI il y a clairement une course au gigantisme qui est en train de se pêter la gueule, mais pour le reste les entreprises qui baignent dans le cloud sont en général hyper à l’affut sur les coûts.

que rares sont les boîtes avec du finops assez pointu pour définir précisément qui dépense quoi

J’ai travaillé justement avec ce genre de profils qui vont te parser toute ta facture GCP ou AWS ou qui questionnent tous tes choix de taille de VM en phase d’architecture, car oui ça monte vite très haut. Par exemple, je connais certains jeux dont les serveurs dédiés coutent 60 à 80% de leur OPEX mensuel. 80 POURCENTS. Alors oui, on parle de jeux gigantesques qui déploient des milliers de serveurs le plus proche possible des joueurs pour des raisons de latence, mais la logique reste la même. A partir d’une certaine taille les entreprises, quand les produits sont commoditisés (ie: les VMs, les DBs), donc à toute chose égale les mêmes, ce sont les coûts qui sont les principaux facteurs de décision. Et de mon expérience les équipes de procurement des grands éditeurs de jeu par exemple sont sans pitié.

C’est plutôt quand tu es une petite entreprise que tu es bcp plus vulnérable sur le prix des technos, car tu n’as pas l’échelle, ni la force de frappe en interne, pour trouver ou négocier une alternative. Un bel exemple est AWS : si tu es un Epic ou un Electronic Arts, tu as accès à des rates de malade. Bon courage par contre si tu t’appelles Jojo Dev Indé.

L’IA est en pleine explosion de bulle dot.com, et c’est tant mieux quand on voit le ROI minable de certaines des solutions proposées et le gâchis colossal de ressources et de capital au temps du réchauffement climatique. Ce qu’on voit en ce moment est justement une commoditization à vitesse grand V d’une certaine branche commerciale d’un certain type de technologie d’IA.

Soit dit en passant, je suis passé au travers de la phase de consolidation de la tech et du jeu vidéo post-pandémie, où d’un coup c’était plus ta croissance à deux chiffres que les investisseurs regardaient mais le fait que tu perdais du pognon tous les mois. Et l’industrie IA s’apprête à vivre exactement ça, avec deux ou trois zéros en plus derrière la virgule. Ca va être un carnage, car tous les start-up du secteur vont potentiellement perdre l’accès au financement, mais en plus les GAFAMs vont sans doute vouloir rattraper certaines des sommes perdues dans ce grand feu de joie, même si au final ce sont les grands gagnants de la chaine de valeur, vu que tout tourne sur leur infra.

EDIT : juste un point important : ce n’est pas parce que ces entreprises font attention aux coûts qu’il y a pas du gâchis autrement. Que ce soit sur la duplication du tooling ou des langages ("oui on veut faire du Rust. -Mais pourquoi ? -cricket"), ou bien encore de sur-tester sur des environnements qui te font faire l’équivalent d’un Paris-New York à chaque loadtest, y a plein de moyen de perdre du pognon et aggraver la crise climatique, même sans IA hein !

3 « J'aime »

je suis d’accord avec toi sur la gestion point à point des coûts, et encore heureux, si on utilise une solution qui loggue la terre entière à chaque requête, que l’on est capable (avec beaucoup de travail) de consolider tout ça.

après je pense que le JV est une industrie à part, hyper pointue sur plein de domaines tech, mais avec un périmètre plus réduit sur d’autres.
tu vas me dire, on n’est plus en train de commercialiser des jeux gameboy, mais on a des jeux services multi-plateformes qui tournent H24 dans le monde.
pourtant ça garde un éventail assez restreint, je pense, face à par exemple un grand groupe de distribution qui gère les stocks, les approvisionnements, les magasins physiques et onlines (on-brand et off-brand), les matières premières, les payes, le flux internet, les commerciaux, la flotte de véhicules, les sous-traitants… c’est pas forcément des volumes de malade comme peuvent l’avoir des boîtes de streaming ou le JV, mais en terme de pipelines de données c’est le far west, et quand tu consolides des logs AWS avec l’excel de jeannine à la compta, tracer les coûts avec finesse de ta stack « data » devient vachement problématique.

après, le plus grand gâchis et l’aveuglement face aux coûts, tu mets le doigt dessus dans ton dernier point.


ça m’a tellement fait grincer des dents quand j’ai vu les rates appliqués (et les conditions offertes pour migrer d’un géant à l’autre)…
quand une connaissance qui bosse dans le streaming m’a parlé des rabais qui lui étaient appliqués, alors que je bossais pour un énorme groupe qui avait déjà des conditions totalement folles, j’ai eu du mal à le croire.
là aussi pour moi il y a souci quand le ratio est tel, ça veut dire quoi de la valeur réelle ? je veux bien que c’est plus compliqué de gérer plein de petits clients, mais ça justifie pas des x10…

Pff même pas, tout est en self-serve. Non la raison est simple : des marges à 70%, pratique courante en SaaS (un de mes produits faisait 55-60% et c’était considéré comme pas assez). Epic par exemple est dans le top 10 des usagers AWS. Donc tu perds en marge pour aller gagner de tels clients, mais tu gagnes en volume + tu fais des contrats avec des spend commits sur 3-4 ans. Après c’est aussi de bons attrapes nigauds pour les gros groupes quand tu te fais pieger à devoir dépenser 300-500 MILLIONS en 3-4 ans avec GCP ou AWS, que tu perds sinon. Ca entraine du coup une incitation à les utiliser pour tout et n’importe quoi, et notamment migrer du workload de force pour tenir le spend commit. Bonjour le gâchis !

Oui je suis tout à fait d’accord, je suis dans une industrie très spécifique, dont le principal coût est la main d’œuvre, et qui est par définition un service digital == on a un coup d’avance sur des entreprises qui ne viennent pas de ce monde là.

Pardonnez moi de revenir à des choses basiques, j’ai une SD card qui n’est pas protégée physiquement (le bouton n’est pas en mode lock), mais la carte est vue comme tel. J’ai tenté la d’utiliser « diskpart » pour virer les attributs en read only de ma carte, mais ça ne marche pas.

Le pire c’est que j’ai cherché une autre carte SD dans mon fourbi pour faire le switch, et bim ! Même chose ! Elle est vue comme protégée alors que non. Quelle est encore cette sorcellerie.

As tu essayé de la mettre dans un appareil photo récent et de lancer un formatage complet ?
Des fois, ça fonctionne à remettre la carte à zéro …

Le problème venait d’un dongle hub USB/SD, qui pour une raison que j’ignore, passe toutes les cartes en read only, avec un autre adaptateur, no prob.

1 « J'aime »

Je tombe là-dessus : LM Studio , pas essayé

2 « J'aime »

Parfois, c’est rigolo.

2 « J'aime »

Super article. J’aime beaucoup cette phrase à la fin:

AI is the « most aggressive » example of « technologies that are not done ‹ for us › but ‹ to us. › »

3 « J'aime »

Et pour les commerciaux qui vendaient des projets informatique en ayant la perception, genre, « It’s magic ».
Là ça l’est vraiment. :sweat_smile:

1 « J'aime »

Le gars est agaçant mais l’appli en question (Rustdesk) a l’air d’être une bonne solution de remote control, gratuite, qu’on peut host en local.