Je m’attendais pas vraiment à une vidéo fouillée, avec des infos correctes, des analyses réfléchies et surtout, fait rare, des question où la réponse est “on ne sait pas”. Pas (peu) de confusion entre “IA” et “capitalisme” comme souvent dans ces conversations, une critique de l’enthousiasme des promesses technologiques mais qui laisse la porte ouverte. J’ai trouvé ça bien!
Cette vidéo est fortement recommandée par la communauté de Tournesol:
[47🌻] Stupid Economics: IA : CE QUE CACHE LA BULLE [ARGENT MAGIQUE]#Tournesol est un outil web open-source développé par une association non caritative, qui évalue la qualité des vidéos pour combattre les fake-news et les contenus non recommandables.
Et j’ai bien aimé la comparaison avec la crise du train au 19e: beaucoup d’investissements qui n’ont pas été rentables, mais la techno est toujours là et est toujours super utile.
Le rappel sur les buisness model de vendor lock et l’effet de réseau sont intéressants, on voit bien que pour l’IA la rentabilité reste à trouver.
Ce mail qui a leak de google est un peu à la base de cette réalisation https://newsletter.semianalysis.com/p/google-we-have-no-moat-and-neither
La partie que j’avais bien aimé de cette vidéo, c’est la mention de l’exploitation humaine derrière l’IA.
C’est une technologie profondément impérialiste, colonialiste, qui ne peut fonctionner que dans un monde où on peut exploiter du labeur humain pas cher. Paradoxal pour un outil qui prétend pouvoir remplacer l’humain.
C’est le passage que j’ai trouvé faible, perso. Parce que non, c’est pas essentiel (genre pas du tout) à ces technos, mais ils le font parce que dans le système capitaliste actuel, c’est faisable, facile, pas cher et ça leur permet de grappiller 2% de perfs dans les benchmarks.
On interdirait ça, le monde de l’IA se porterait tout aussi bien, et serait passé aux données synthétiques plus tôt.
Et on pourrait parfaitement bien faire du textile sans exploiter d’enfants aussi.
Les clickworkers du sud global, le pillage culturel des données, les modèles optimisés pour les langues dominantes et reproduire les biais impériaux, l’extraction de ressources pour construire les datacenters, l’expérimentation de la surveillance de masse qui cible d’abord les minorités, c’est pas des accidents de route, ce sont des éléments essentiels à la réalité des IA qu’on a.
“On interdirait tout ça” n’existe pas, ce n’est même pas une considération.
Ben oui on peut faire du textile sans exploiter d’enfants. Les mêmes process, les mêmes machines sont utilisables par des adultes syndiqués et bien payés. C’est uniquement un problème d’organisation du travail et de l’économie de marché.
L’exploitation, c’est rentable dans la plupart des domaines. Si tu ne l’interdis pas, ce sera utilisé pour faire des IA, produire des textiles, cultiver des tomates ou construire des stades.
Et aucune de ces choses n’a besoin de l’exploitation pour fonctionner. Ça ne joue que sur le prix final. Interdis l’exploitation dans la production de textile, il y en aura toujours, mais les prix seront plus haut, c’est tout.
ce sont des éléments essentiels à la réalité des IA qu’on a.
Je crois qu’on n’a pas la même définition de “essentiel”.
Les modèles optimisés pour les langues dominantes
Les modèles sont entraînés sur les datasets qu’on a. Oui, ça fait que l’anglais et le chinois sont dominants. C’est pas essentiel, c’est un défaut, et ça risque pas de s’arranger si on considère qu’intégrer des données publiques pour les rendre polyglotte c’est un “vol” des données.
reproduire les biais impériaux
À quoi penses tu?
l’extraction de ressources pour construire les datacenters
Ça me rend un peu amer que le grand public ait attendu ChatGPT pour réaliser que “le cloud” c’est des gros datacenters quelque part alors qu’on gueule depuis les années 90 de se méfier de la centralisation des services internet. C’était absolument pas essentiel de le faire d’une façon aussi centralisée et quand tu regardes en détail et en quantitatif les ressources dont on parle, c’est pas du tout le problème existentiel qu’on nous vend. La majorité des resources des datacenters sont utilisées pour des usages non IA (streamer des vidéos, stocker des données dans “le cloud”) et c’est parce que tout le monde s’est habitué à délocaliser ses besoins en informatique qu’ils s’attendaient à ce que “l’IA” ça marche pareil.
Je fais tourner du LLM de moyenne taille (Devstral 24B) sur un simple PC ici. Ça aurait pu être le mode de fonctionnement par défaut.
Il y a beaucoup de chercheurs qui considère qu’OpenAI a fait plus de mal que de bien au domaine, en imposant l’exploration des voies “capital-intensive” d’abord, vu qu’ils sont bon à lever des fonds. Il semble enfin y avoir un consensus que “modèle plus gros et plus gourmand” est une impasse et les voies défrichées par les labs chinois, qui préfèrent améliorer les algos plutôt que juste les amener à l’échelle supérieure, nous fait enfin repartir dans le bon sens.
Oui, encore une fois, “l’IA” se prend des coups alors que c’est clairement le “capitalisme” (certains aspects de notre fonctionnement économique) qui est en cause.
l’expérimentation de la surveillance de masse qui cible d’abord les minorités
Je pense que tu te rends compte que les progrès en IA n’ont absolument pas besoin de passer par des classifieurs de visages racistes. Tout comme l’industrie chimique n’avait pas à produire des gaz de guerre pour avancer. Les autoritaristes et les racistes s’emparent forcément de tous les outils que le progrès leur fournit. Est ce qu’il faut abandonner le feu parce que des tarés ont décidé de brûler des villages?
D’accord mais là tu me présentes un point de vue technologique quand je suis dans le matérialisme.
Moi aussi j’ai un LLM sur ma machine pour m’aider à coder plus vite, il est cool, a vite appris mon style, et fait parfaitement le job. Je n’ai aucun problème avec lui. Quand les gens parlent de l’IA, personne pense au LLM maison sympa, de la même façon que quand on parle du textile, personne en dehors du métier pense à une broderie cool faite à la maison.
Je ne dis à aucun moment qu’il faut abandonner l’IA, je dis qu’il faut foutre à la poubelle 99% de ce qu’on a qui porte le label IA aujourd’hui (oui même les “biens publics” comme alphafold et co.), et encourager des projets libres, ouverts, équitables pour les remplacer. Ils le font remarquer dans la vidéo, les gros de l’IA arrivent pas à construire une clientèle captive, donc il y a un marché possible pour du libre qui prendrait leur place.
Dans ce cas évite de dire des choses du genre “C’est une technologie profondément impérialiste, colonialiste, qui ne peut fonctionner que dans un monde où on peut exploiter du labeur humain pas cher”
Tu parles des business model des boites d’IA. On peut faire des LLMs open source sans ces problèmes et c’est pourtant exactement la même techno.
C’est une technologie profondément impérialiste, colonialiste, qui ne peut fonctionner que dans un monde où on peut exploiter du labeur humain pas cher. Je maintiens cette affirmation. Je ne vais pas changer pour te faire plaisir.
L’IA c’est un système socio économique réel, avec des chaînes d’approvisionnement, du travail, des flux de valeur, des centres et des périphéries, ça a largement dépassé la condition matérielle informatique ou mathématique d’une façon structurellement irréversible (l’effet de cliquet est engagé de plusieurs crans).
Abstraire une technologie des ses conditions matérielles d’existence c’est du non-sens idéaliste. Ce qu’on voit n’est pas le capitalisme qui salit une technologie neutre (il le fait ceci dit), c’est le déploiement global d’une technologie qui n’est possible dans son modèle d’existence actuel à l’échelle globale que parce que les rapports de domination existent.
L’IA, c’est profondément impérialiste. La lutte contre les gros acteurs de l’IA s’exprime de la même façon que la lutte décoloniale : une forme de résistance venant de ceux qui sont proches de la base (dans ce cas de la technologie originelle) et tentent d’être les intendants de la planète, en lutte contre les grosses puissances impériales qui la colonisent.
Ce n’est pas une thèse militante sortie de mon imaginaire ou une haine de l’IA, c’est la position mainstream actuelle de personnes respectées qui écrivent sur le sujet (et ne sont pas fondalement anti-IA), telles que :
- Kate Crawford et son Atlas de l’IA qui est devenu un ouvrage de référence et soutient le même point de vue
- AA Casilli et son analyse du digital labor colonialism et sa contrepartie inévitable, le décolonialisme digital
- L Winner sur la technologie comme structure politique, l’impossibilité d’abstraire l’IA de ses conditions matérielles
- Bratton et son analyse du Stack comme architecture planétaire de pouvoir, qui a prédit que l’IA ne pourrait exister que sous une seule forme, celle qui comble les trous permettant de compléter la construction du Stack
Tu es libre de ne pas être d’accord, et je le respecte (fais de même ça te fera grandir), mais je te prie de ne pas me demander de renier ma position, et encore plus de me demander “d’éviter de dire des choses” qui sont le consensus académique actuel sur le sujet. Je ne parle pas “du business model des boites d’IA”, c’est une analyse matérialiste et réaliste de l’IA dans son intégralité, qui embarque également un grand nombre des LLM open source qui ne peuvent pas exister en dehors de cette réalité matérielle (de la même façon qu’on ne peut pas décider d’exister en dehors du capitalisme ou de l’impérialisme même si on en a très fort envie).
Abstraire une technologie des ses conditions matérielles d’existence c’est du non-sens idéaliste.
Certes mais confondre les deux choses c’est un raisonnement fallacieux. D’autant plus que tu l’admets toi-même, on peut très bien faire de l’IA sans ce que tu présente comme des conditions matérielles d’existence nécessaires.
T’as une contradiction profonde dans ton propos.
C’est comme critiquer le gratin de tomates alors que ce que tu dénonces c’est les conditions de travail dans la jungle de plastique andalouse. Oui, la plupart des gens utilisent des tomates produite dans des conditions merdiques. Non, c’est pas l’usage de la tomate le problème.
J’ai essayé des modèles locaux pour coder avec opencode ou crush. Avec 8go de vram je n’ai rien trouvé de probant. Quel modèle utilises tu ?
J’ai également 8 GB de VRAM, j’utilise un modèle un peu “vieux” (tout est relatif) :
"provider": "ollama", "model": "deepseek-coder:6.7b"Avec :
format: gguf quantization: Q4_K_M




