Tech Café XX
[0] Vous écoutez Tech Café, votre rendez -vous sur l 'actualité des nouvelles technologies.
[1] Nous sommes le 4 février 2025 et c 'est l 'épisode 397.
[2] C 'est l 'événement dans la tech ces derniers jours.
[3] On vous en avait déjà parlé depuis quelques épisodes.
[4] C 'est DeepSync, l 'intelligence artificielle au logo de Baleine et d 'origine chinoise surtout, qui fait plonger les valeurs des boîtes d 'intelligence artificielle américaine parce qu 'elle est performante et pas chère.
[5] Mais...
[6] On revient dans cet épisode sur ce Lidl de l 'intelligence artificielle avec un peu de recul.
[7] Et puis, ironie, OpenAI se plaint.
[8] Ils se plaignent de quoi ?
[9] Ils se plaignent d 'avoir été exploités sans donner leur accord pour l 'entraînement de cette IA chinoise.
[10] Ça ne vous rappelle rien ?
[11] Peut -être que si.
[12] Et puis, en complément de lien, on revient aussi sur les résultats financiers d 'Apple, Tesla qui tribuche et puis les dernières frasques d 'Elon Musk.
[13] Je suis Guillaume Vendée, podcaster technophile enthousiaste et je retrouve le responsable du conducteur de cet épisode, c 'est Guillaume Pogjaspala.
[14] Salut Guillaume, comment vas -tu ?
[15] Écoute bien, jusqu 'à présent.
[16] Tu as réussi à éplucher toutes les news qui concernaient Dipsy, à nous faire une analyse que tu vas pouvoir nous livrer, c 'est ça, dans cet épisode, pour nous tenir au courant.
[17] J 'ai épluché Dipsy, il n 'y a plus qu 'à cuire.
[18] Ah bah d 'accord, très bien.
[19] C 'est bon, la baleine ?
[20] Ça se cuit bien ?
[21] Non ?
[22] La baleine, c 'est protégé, surtout.
[23] Ah, bon, on ne va pas en manger, alors.
[24] Bon, au passage, deux petits mots, très rapidement, Guillaume, puisqu 'il y a...
[25] L 'ami Gaëtan, qui officie dans Tech Café Domotique à l 'occasion, quand ils font des épisodes, qui a cité dans son podcast perso Coticast, il nous a cité, il dit, en gros, qu 'il a testé sur Perplexity quels sont les meilleurs podcasts français, en français, sur la tech.
[26] Et donc, il y a le rendez -vous tech en premier, très bien.
[27] Il y avait Tech Café en deuxième.
[28] J 'étais tout content.
[29] En fait, selon comment on cherche, on est deuxième ou troisième, Guillaume, sache -le.
[30] Il y a Studio 404 qui n 'a pas été mis à jour depuis 2019, qui parfois prend la seconde place.
[31] Mais en tout cas, on est bien classé.
[32] Donc, Perplexity nous classe bien.
[33] Ça, c 'est important.
[34] Deuxième chose.
[35] Est -ce que tu sais qu 'en ce moment, je passe un petit peu trop de temps à essayer de configurer des trucs en domotique ?
[36] Je m 'amuse avec Lautrix.
[37] Je ne sais pas si tu sais ce que c 'est que Lautrix.
[38] Je ne sais pas si tu connais non plus la métrique.
[39] Je ne sais pas si tu vois.
[40] Non, du tout.
[41] C 'est un peu les horloges de youtubeurs, tu sais, les trucs qui coûtent très cher avec les gros pixels en couleur.
[42] Ah oui.
[43] On les voit parfois.
[44] Et il y a Autrix qui est un système que tu peux installer sur des ESP, etc. Et donc, je configure ce truc.
[45] Je passe beaucoup trop de temps en ce moment à essayer de le faire fonctionner avec comme assistant.
[46] Je lui envoie des requêtes MQTT.
[47] MQTT.
[48] Donc, voilà, je m 'amuse en ce moment, je bricole avec ça.
[49] Est -ce que tu fais des bricolages en ce moment, informatiques, des explorations, des tests, des trucs comme ça ?
[50] Oui, des tests toujours, mais pas comme ça, en tout cas.
[51] Pas sur ça ?
[52] Non, pas des tests de YouTubeurs, de futurs YouTubeurs.
[53] Ah !
[54] Loin de moi, l 'idée de vouloir m 'en servir pour incarner la hype YouTube, c 'est juste que je voudrais dire à mon fils qu 'à 19h, il faut qu 'il vienne mettre la table.
[55] Tu vois, c 'est beaucoup plus pragmatique.
[56] Il faudrait qu 'il ait ça dans sa chambre.
[57] Bon, on verra si j 'y arrive.
[58] Merci beaucoup à Cédric, Frédéric Léger, à Romain Leclerc, qui est derrière Actutech sur Reddit, et le podcast Tech10.
[59] Merci à Franck B, Cataille, Yann Polmier, Armand Delesser et Mathieu Voirin, qui foulent le tapis rouge de l 'accueil des nouveaux soutiens Patreon de Tech Café depuis la semaine dernière.
[60] Vous pouvez faire comme eux, parce que si vous écoutez Tech Café, si vous l 'aimez, vous voulez en profiter davantage.
[61] J 'ai commencé...
[62] Il n 'y a pas très longtemps, c 'est un format un peu newsletter, donc ça arrive automatiquement comme les messages de Patreon.
[63] Puis j 'y livre des choses un petit peu plus personnelles, mais aussi et surtout en soutenant Tech Café sur Patreon, vous assurez que Tech Café continuera d 'exister longtemps et vous accompagnera dans le futur.
[64] Alors que vous soyez un pro des nouvelles technos ou passionné, c 'est une veille qualitative et sourcée, on l 'espère, pour suivre l 'actualité tech tout en passant un bon moment, alors que ce soit pendant vos projets.
[65] vos trajets, vos bricolages en faisant du sport ou du ménage.
[66] Tech Café vous les rendra ces moments plus agréables.
[67] Lancez votre navigateur patreon .com slash techcafé.
[68] Guillaume, on a des avis sur Apple Podcast qui sont arrivés.
[69] Alors, un des derniers a été laissé par, ça va faire bizarre de le dire, Appel -moi Q. C -U -L, Appel -moi Q. Donc voilà, je ne sais pas si je devrais mettre un petit avertissement sur cet épisode.
[70] Appel -moi Q. Qui a dit, découvert par hasard.
[71] Excellent podcast.
[72] J 'ai passé de bons moments à écouter ces différentes interventions.
[73] Je m 'abonne.
[74] Merci beaucoup à toi.
[75] Appelle -moi cul d 'avoir laissé cet avis.
[76] Je pense que cette personne n 'a pas découvert ce podcast par hasard ou en tout cas pas totalement.
[77] Je pense qu 'elle a découvert ce podcast en se rendant compte qu 'il y avait des centaines d 'avis positifs sur les apps de podcast.
[78] Et donc, du coup, c 'est un cercle vertueux parce que plus il y a de personnes qui évaluent positivement le podcast.
[79] Plus il y a des personnes qui l 'écoutent, plus il y a des personnes qui l 'écoutent, plus il y a d 'avis.
[80] C 'est la recette miracle pour conquérir le monde.
[81] Donc, vous aussi, prenez part à cet édifice incroyable de la notoriété de Tech Café sur les apps de podcast en déposant votre propre avis.
[82] Et puis, on vous invite aussi à commenter sur techcafé .fr dans les articles qui accompagnent l 'apparition des épisodes.
[83] Et sur Discord, on a aussi d 'autres discussions diverses et variées.
[84] On parle évidemment de tech, mais pas que. Et le lien est dans les notes de l 'épisode techcafé .fr slash Discord.
[85] Et justement, Guillaume, je sais que soit toi, soit un robot, soit un stagiaire, je ne sais pas, scroll sur Discord pour aller identifier les remarques les plus pertinentes depuis l 'épisode hebdomadaire de la semaine dernière.
[86] À chaque fois, à toutes les semaines, tu te prêtes à cet exercice.
[87] Là, il y a deux personnes qui ont retenu ton attention.
[88] Il y a Maxilv qui a déposé plein de messages.
[89] D 'ailleurs, il parle de plein de choses.
[90] Qu 'est -ce qui a attiré ton attention là -dedans ?
[91] Oui, alors du coup, je n 'ai pas lu, forcément, manifestement.
[92] Mais c 'est vrai qu 'il a réagi à la news du dernier supplément lien en disant que lui, il utilise toujours des blu -rays réinscriptibles pour stocker des jeux qui ne rentrent plus sur son SSD.
[93] Et donc, ça existe encore, et qu 'il se rassure, Stephen Garongale a confirmé.
[94] D 'ailleurs, Verbatim fait toujours des blu -rays, même si Sony arrête la production, comme on le disait.
[95] Je ne sais pas si c 'est vraiment compétitif aujourd 'hui avec un disque externe de 2 ou 4 teraoctets qui ne sont pas méga géants en ce moment, mais bon, pourquoi pas.
[96] C 'est toujours un moyen de faire des sauvegardes, et puis c 'est important de faire des sauvegardes.
[97] Et ce n 'est pas pratique, je trouve, par rapport à NAS, moi.
[98] Ce n 'est pas pratique, effectivement.
[99] C 'est moins pratique, j 'imagine.
[100] Juste un clin d 'œil à Grémy aussi, qui nous a raconté son aventure pour récupérer des vidéos sur MiniDV.
[101] Alors moi, je profite toujours du prétexte d 'avoir accédé à des vieilles données pour acheter du matos d 'époque.
[102] Parce que c 'est marrant.
[103] La dernière fois que j 'ai eu des disquettes à lire, il y a quelques années de ça, je n 'ai pas hésité à racheter un portable Pentium d 'époque.
[104] Alors oui, bien sûr, évidemment, j 'aurais pu acheter avec un USB, je suis au courant que ça existe, mais ça aurait été beaucoup moins fun.
[105] Car le saviez -vous ?
[106] les cartes CompactFlash sont compassibles d 'IDE.
[107] Et donc, moyennant un convertisseur PC, MCIA, CompactFlash, Windows 95 les reconnaît comme des disques durs et donc transférer des fichiers à travers les âges devient alors très facile.
[108] Oh, c 'est beau, ça ressemble à une forme d 'archéologie comme ça, de traducteur à travers le temps.
[109] Très bien, ça me laisse imaginer à quoi tu occupes tes journées.
[110] Moi, c 'est pour configurer Outrix avec Home Assistant.
[111] Merci beaucoup, Guillaume.
[112] Merci à vous de réagir.
[113] C 'est important pour nous d 'avoir ces interactions avec vous pour continuer à nourrir Tech Café et à prendre connaissance de vos réactions.
[114] Sans autre forme de procès, il faut qu 'on en parle.
[115] C 'était obligatoire.
[116] C 'est ce que tu m 'as dit, je crois, par message il y a une semaine, Guillaume, juste après notre enregistrement.
[117] Il y a quelques jours, en tout cas, tu disais, bon, on ne va pas passer à côté.
[118] Il va falloir qu 'on continue à parler de...
[119] De DeepSeek.
[120] Et oui, ça a ponctué l 'actualité tech depuis quelques jours.
[121] À chaque fois, des nouvelles infos qui arrivent.
[122] Ils ont jeté un pavé dans la mare à défaut d 'une baleine, c 'est ça ?
[123] C 'était la semaine de la baleine.
[124] Et ce que tu veux jusqu 'à présent, c 'était du sel de table.
[125] Désormais, tout le monde connaît le logo de DeepSeek.
[126] Ta mamie te demande comment utiliser DeepSeek.
[127] DeepSeek, c 'est la star des App Store.
[128] C 'est aussi un escroc.
[129] C 'est aussi un ennemi.
[130] C 'est aussi une campagne de manipulation de masse.
[131] C 'est aussi une IA de propagande.
[132] C 'est aussi des voleurs de données.
[133] C 'est le signe annonciateur du déclin de l 'Occident, c 'est une trompette de l 'Apocalypse, j 'exagère vraiment à peine.
[134] Parce qu 'on en a vraiment beaucoup parlé de toutes les manières possibles cette semaine.
[135] Alors les auditeurs de Tech Café, les assidus, connaissent ce nom depuis une bonne année, et du jour au lendemain, ce qui est marrant, c 'est que c 'est devenu une star planétaire.
[136] C 'est plus juste un truc de geek.
[137] Deep Six a né le premier surpris, je pense d 'ailleurs, ils ont été victimes de leur succès avec pas mal de soucis de connexion.
[138] Alors sur les infos chinois, ils ont même eu une attaque d 'EDOS, une attaque de demi -delit service.
[139] Peut -être des patriotes américains qui attaquent la menace chinoise, je ne sais pas.
[140] En tout cas, gros point problématique pour l 'orgueil des Américains, évidemment, c 'est l 'efficacité de DeepSig.
[141] Et plein d 'articles ont été écrits pour dire que les 5 ou 6 millions ne correspondent pas au vrai prix du modèle prodige.
[142] Et d 'ailleurs, c 'est vrai, les Chinois n 'ont même jamais dit le contraire.
[143] Parce que c 'est dans l 'article de DeepSig V3, comme on a mentionné un supplément, qui dit que l 'entraînement du modèle V3 n 'est pas errant.
[144] Ce modèle V3, le modèle d 'origine, a coûté 700.
[145] Bon, on ne sait pas.
[146] combien a coûté l 'entraînement de la star actuelle et qui est donc R1.
[147] Mais de même, on ne sait pas non plus combien ils ont de GPU en tout et quel est le prix d 'achat de tous ces GPU.
[148] Tout ça, ce n 'est pas inclus.
[149] Ce n 'est pas le prix de tout, c 'est juste le prix de l 'entraînement et du temps de calcul.
[150] C 'est bien évident, je pense, que cette somme ne représente qu 'une petite fraction du budget complet de DeepSync.
[151] Il n 'empêche qu 'ils ont très bien optimisé leur code d 'entraînement.
[152] Ils sont allés jusqu 'à programmer leur carte en PTX.
[153] Alors la PDX, c 'est pas tout à fait de l 'assembleur, mais c 'est un langage de très bas niveau.
[154] C 'est quasiment de l 'assembleur des cartes graphiques, quoi.
[155] Donc c 'est du plus bas niveau que CUDA.
[156] Ça nécessite une maîtrise du logiciel qui est absolument remarquable et beaucoup, beaucoup de travail.
[157] Et ça aussi, ça a coûté de l 'argent.
[158] Et l 'argent, vous connaissez les Américains, il n 'y a que ça qui les intéresse.
[159] Alors évidemment, semi -analysie, ça fait une étude là -dessus qui est assez intéressante pour avoir une vue d 'ensemble.
[160] Parce que oui, ça range des Chinois aussi, bien sûr, de faire croire que des génies de chez eux ont révolutionné le monde de l 'IA dans leur garage.
[161] Mais c 'est faux.
[162] Et sans minimiser leur performance, il faut bien se rendre compte que DeepSeek n 'est pas un micro -projet à la marge.
[163] C 'est aussi...
[164] Il faut rester, disons, équilibré.
[165] Alors, DeepSeek, ils ont quand même des moyens.
[166] Alors, on l 'a dit en supplément, DeepSeek, c 'est un fonds d 'investissement qui s 'est lancé il y a deux ans avec comme idée d 'utiliser l 'IA sur les marchés financiers.
[167] De coup, ils ont acheté des GPU pour se faire leur propre data center pour ça.
[168] En 2021, donc avant les restrictions de Biden, ils ont acheté 10 000 à 100.
[169] Ils ont continué à se procurer, autant qu 'ils pouvaient, des cartes graphiques, des GPU.
[170] Dans l 'article de DeepSync V3, ils ont mentionné des H800, dans le papier de DeepSync, c 'est comme ça, qu 'ils ont fait apparemment, donc c 'est cohérent, c 'est plus de génération suivante, mais par rapport à H100, ce sont des plus un petit peu castrés.
[171] Castrés surtout au niveau du réseau d 'ailleurs, ce qui explique aussi les efforts assez colossaux de programmation sur ce point qu 'on a détaillé.
[172] Semi -analysis a fait des analyses, c 'est leur boulot après tout, Et donc au moment où je parle, Zipsy aurait dans les 60 000 GPU, tous modèles confondus.
[173] Donc des plus anciennes, les A100, OH800 et même quelques H100 ont récupéré on ne sait pas trop comment d 'ailleurs.
[174] Tout ce beau monde représenterait quand même dans les 500 millions de dollars au bas mot pour un joli petit datacenter.
[175] Et après il y a des coûts de fonctionnement de tout ce bordelain, c 'est pas vraiment un truc qui rentre dans le sous -sol de chez mamie quoi.
[176] Tout cela dit, ça reste quand même assez modeste si on compare ça aux datacenters de Microsoft ou Meta évidemment.
[177] Eux, ils auraient dans les 150 employés.
[178] Là, ils recrutent à tour de bras avec des gros salaires, des grosses flexibilités, et puis 10 000 GPU pour faire mémus, ça se refuse pas.
[179] Ils recrutent directement des doctorants, les meilleurs des universités, et puis ils sont forts, c 'est évident.
[180] Malgré leur taille modeste, ils vont rivaliser quand même avec OpenAI et META pour des prix dérisoires, puisque c 'est quand même 27 cents du Megatoken, c 'est chez DeepSync V3, contre 2 ,5 dollars pour GPT -4 O. À ce prix -là, on imagine qu 'ils ne sont pas rentables, d 'ailleurs, et que le but, c 'est de croître le plus vite possible.
[181] Et vu la couverture médiatique, ça marche, pour le moment.
[182] Est -ce que ça va continuer ?
[183] DeepSync, malgré tout, a utilisé des puces occidentales.
[184] C 'est des puces Nvidia pour entraîner ces modèles.
[185] Ils ont pu en choper encore quelques temps, mais là, c 'est fini.
[186] Biden a fermé le robin en partant.
[187] D 'ailleurs, on apprend qu 'ils utilisaient des puces Huawei pour l 'inférence de DeepSync R1, et qu 'ils proposent sur le site où l 'appli.
[188] Il y a une pub qu 'on a vu passer sur X, qui a circulé.
[189] où apparemment, c 'est marqué en chinois, mais bon, apparemment, c 'est les modèles distillés, les modèles plus petits, les répliques distillées, on va dire, de R1 qui tournaient pour des prix modiques sur des puces Ascend 910C, donc de chez Graveille, des puces dédiées 100 % à l 'IA, mais qui sont 100 % chinoises.
[190] Alors, c 'est difficile de dire si ces puces sont des alternatives qui sont viables au GPU de Nvidia actuel d 'Egyptic, à quel point, et surtout, pendant combien de temps, quoi.
[191] Parce que pour l 'année qui vient, ça va probablement passer, pour l 'année d 'après, peut -être, mais après, voilà, ils ont des H200.
[192] ça va finir par être distancé par les puces occidentales, et les performances actuelles et futures des Ascend sont assez incertaines.
[193] Donc pour Dario Amodei, le PDG d 'entropique, les restrictions fonctionnent, parce qu 'après tout, Zipsic V3 est globalement du niveau de Claude, mais avec 12 mois de retard.
[194] Même O1, qui est donc...
[195] Enfin, O1 est talonné par R1, donc R1 est pratiquement au niveau de O1, mais aujourd 'hui c 'est O3, le plus...
[196] O3, le plus puissant.
[197] Et il est déjà disponible et sans plus aucun accès à de l 'attaque américaine à partir de maintenant, ça va peut -être être dur de se maintenir.
[198] Et donc Dario prend un embargo assez dur, ce qui est, il est conscient, un peu contradictoire quand même.
[199] Parce que tout ce beau monde de la Silicon Valley clame que leur but c 'est de faire une IA, une super IA, super humaine, pour le bien de toute l 'humanité.
[200] Donc c 'est dur de dire qu 'il ne faut surtout pas que les Chinois avancent.
[201] Toute l 'humanité, les Chinois aussi sont humains quand même, malgré tout.
[202] Donc Dario...
[203] Dario dit que la Chine va utiliser cette puissance pour l 'armée, pour les IA militaires, tout ça, et c 'est pour ça qu 'il faut que l 'Occident le fasse avant.
[204] Parce que l 'Occident, ça lui viendrait pas une seconde à l 'idée d 'utiliser l 'IA à des fins militaires.
[205] Faut pas déconner.
[206] Bien sûr que non.
[207] Alors cette semaine, ça s 'est un peu affolé, on a assisté à une cascade de réactions plus ou moins bien informées, et plus ou moins de mauvaise foi, pour tenter de se rassurer.
[208] C 'est intéressant de voir les puces Huawei à priori qui seraient commercialisées à partir du premier trimestre 2025.
[209] C 'est vrai qu 'on a du mal à se rendre compte quelle est la puissance de ces ressources -là sur le plan matériel.
[210] Elles sont réputées comparables à des H100.
[211] Ce qui n 'est pas neutre, quand même.
[212] Ce qui est important.
[213] Si Huawei est capable de faire ça, c 'est pas mal, déjà.
[214] Le truc, c 'est que c 'est très bien, parce que pour l 'instant, c 'est ça que les gens utilisent.
[215] Là, les B100 arrivent, les plus Blackwell vont arriver pour les remplacer, cette année.
[216] Donc, il y aura déjà une génération de décalage dans le cours de l 'année, d 'ici à peu près six mois, je pense.
[217] Et après, par contre, c 'est toute la question, parce que probablement, Nvidia va continuer à...
[218] à faire des puces toujours plus puissantes, il va être un petit peu limité, si tu veux, par les capacités de construction, les capacités de fabrication des Chinois qui ne sont pas exactement au même niveau, voire carrément pas au même niveau, a priori, que celles d 'occidentaux.
[219] Donc, c 'est aussi une question pour l 'avenir.
[220] On parle d 'OpenAI, je te disais tout à l 'heure, mais qui se plaint que DeepSync aurait été exploiter leurs ressources et leurs données sans l 'autorisation.
[221] C 'est quand même un comble, Guillaume Coppone et Aille, puissent se plaindre de ça.
[222] En tout cas, ça motive les créateurs de contenus, les détenteurs de l 'information aussi à prendre part à cet édifice de la défense des contenus et essayer de, en gros, je vais le dire, je vais être un peu vulgaire, mais faire chier ces boîtes d 'IA quand elles viennent récupérer notre donnée, c 'est ça ?
[223] Oui, il y a eu énormément de trucs concernant effectivement les données.
[224] Il y a beaucoup, beaucoup de réactions.
[225] De toute façon, ça continue.
[226] Il y a même un sénateur républicain qui s 'appelle Joe Schaulé, qui a un projet de loi qui punirait de prison tout import -export de produits IA vers la Chine.
[227] De la Chine ou vers la Chine.
[228] Un truc complètement lunaire, d 'ailleurs, qui punirait de 20 ans de prison.
[229] Quiconque téléchargerait 10 psychs, en gros, ça ne passera jamais.
[230] Si ça passe un jour, c 'est extrêmement grave.
[231] Je pense qu 'on est très loin.
[232] Il y a tellement des choses qu 'on n 'imaginait pas passer qui se font passer, quand même.
[233] Oui, ce n 'est pas faux.
[234] Ce n 'est même assez inquiétant.
[235] Plus marrant, la palme peut -être de la mauvaise force via Sam Altman.
[236] Il y a tous ceux qui disent que DeepSync a volé les données d 'OpenEye.
[237] Alors, pas les sets de données, parce que de toute façon, personne n 'y a accès.
[238] Mais DeepSync aurait utilisé les sorties de ChatGPT pour entraîner ses modèles.
[239] Alors, j 'ai un scoop pour OpenEye.
[240] Ça fait deux ans que tout le monde le fait.
[241] Et 90 % des datasets sur Hugging Face, pour fine -tuner les IA de Roleplay et autres, contiennent des données synthétiques qui sont créées par ChatGPT.
[242] Cohen se prend même parfois pour ChatGPT, comme un paquet d 'autres, d 'ailleurs.
[243] OpenEye ne peut pas l 'ignorer.
[244] Bon, là, ça passe à la télé, alors du coup, c 'est du vent.
[245] C 'est que DeepSeek, les vilains, ils ont généré beaucoup, beaucoup, beaucoup.
[246] En fait, on ne sait pas à quel point, mais bon, ils ont probablement généré beaucoup des textes par ChatGPT.
[247] Donc, ils ont profité des données d 'OpenAI qui, lui -même, a profité des vôtres.
[248] Parce que, comme une majorité de médias l 'a bien souligné, quand même, c 'est OpenAI qui pense que subitement, le copyright, c 'est important.
[249] Lui qui est accusé par le New York Times en train d 'avoir siphonné les siennes et qui, comme tous les autres, se sert allègrement sur Libgenesis et chope tous les bouquins pirates possibles pour le voir pleurer parce que les productions de GPT servaient en concurrence, c 'est un peu marrant quand même.
[250] Alors bien sûr, sur Fox News, selon le AIZAR, cette technique de distillation serait bien mesquine et peut -être même une raison d 'interdire le modèle.
[251] Donc lui aussi, il parle d 'interdire le modèle.
[252] C 'est un modèle qui, je rappelle, est un open source, mais bon, bref.
[253] Alors, rien n 'est fait, mais c 'est un truc qui est dans l 'air, c 'est spécial.
[254] Alors, je précise quand même que, d 'ailleurs, ce n 'est pas vraiment une distillation pour moi.
[255] C 'est juste un fine -tuning parce qu 'on n 'a pas accès aux productions brutes du LLM.
[256] OpenAI, personne n 'a les productions brutes.
[257] Donc, on utilise les textes créés par ChatGPT.
[258] Mais si tu utilises les textes créés par ChatGPT, ce n 'est pas vraiment une distillation.
[259] On entraîne juste un modèle sur les textes d 'un autre.
[260] Une distillation, c 'est quand tu prends un gros modèle professeur, il y a un petit modèle étudiant, quoi, et tu forces la distribution de probabilité du petit à coller à celle du gros.
[261] Et donc, ce sont les outputs complets des deux modèles qui doivent se correspondre, et pas les mots, mais des probabilités sur tous les mots à chaque fois, sur tous les vecteurs résultats, pas juste sur les mots, il n 'y a pas d 'échantillonnage.
[262] Sinon, tu perds l 'information, du coup, ce n 'est pas efficace.
[263] De toute façon, c 'est un détail.
[264] Toujours est -il que ça fait beaucoup rigoler et qu 'on voit toute cette histoire de données volées.
[265] Et on voit apparaître, comme tu disais, des actes de résistance, de rébellion de la part des créateurs YouTube, par exemple, et de certains administrateurs de sites web.
[266] Donc sur YouTube, il y a une créatrice qui utilise de manière très créative les fichiers de sous -titres pour ruiner complètement les transcriptions de ses vidéos.
[267] Donc elle utilise le format HAS, oui je sais, mais là ça veut dire Advanced Substation, décidément, avec le mec appelle -moi Q. Décidément, oui.
[268] C 'est peut -être le Q de James Bond, attention.
[269] Non, c 'était un CUL.
[270] Ah pardon, désolé.
[271] J 'ai pas vu.
[272] Ok, d 'accord, d 'accord.
[273] Donc le format Haas, ce truc permet donc de la mise en page super chiadée, couleur, gras, italique, et tu peux faire même du positionnement libre.
[274] Et du coup, elle a rajouté des textes complètement aléatoires, très loin à l 'extérieur de l 'écran.
[275] Alors, ce n 'est pas visible, mais un robot qui chope le truc, enfin qui chope ce Haas, ce petit Haas -là, il va le choper, il aura une transcription qui sera complètement sabotée, puisqu 'il aura un petit peu n 'importe quoi, en plus des vrais textes de la vidéo.
[276] Et donc, les IA le rendent dans le...
[277] Enfin bon, passons aux administrateurs web qui, eux -mêmes, ont plusieurs outils à leur disposition, comme par exemple Nepenthes et Locaine.
[278] Alors le principe de ces deux malware, parce que finalement c 'est ce qu 'ils sont en réalité, c 'est de perdre dans un dédale de pages vides les bots d 'OpenEye ou d 'Enthropic, ou de Google, qui ignorait les directives de robots TXT, du fichier robots TXT, c 'est le fichier qui définit si oui ou non le site autorise les robots, les bots à venir récolter son contenu.
[279] Mais ça, c 'est juste indicatif.
[280] Et leurs bonnes questions peuvent parfaitement s 'en foutre totalement et faire ce qu 'ils veulent.
[281] C 'est pour ça que les code -décodeurs énervés ont eu l 'idée de Nepenthes, du nom de la fleur carnivore.
[282] Le but, c 'est de créer des milliers de pages.
[283] Je ne connaissais pas le nom, mais je ne connaissais pas cette plante carnivore.
[284] Après, je ne suis pas spécialiste des plantes carnivores non plus, mais bon.
[285] Oui, moi non plus, mais j 'aime bien, ça fait rigolo.
[286] Donc, le but, c 'est de créer des milliers de pages.
[287] Le problème, c 'est qu 'il y en a qui puent quand même.
[288] Bref, je suis très fausse.
[289] Qui nous donnera les rêves ?
[290] pour attirer les mouches en même temps.
[291] Ah oui, ok. Donc le but, c 'est de créer des milliers de pages dans le sous -domaine du site web qui ne contiennent rien ou du texte poubelle.
[292] Mais toutes les pages se lient entre elles.
[293] Toutes ces pages vides, finalement, creusent, se lient entre elles.
[294] Donc si un robot part sur une des pages, il va y arriver pour l 'éternité dans une dédale de pages vides en pages vides ou pour amener juste des poubelles, ce qui va faire perdre du temps et de l 'argent aux boîtes qu 'il envoie.
[295] Alors c 'est marrant, et pour le moment c 'est assez efficace, si on en croit les logs du créateur de Nepenthes, dont le hobby sadique est de voir combien de temps les robots de Google et ces compagnies se sont paumés là -dedans.
[296] Mais pour le moment ça marche un petit peu, mais après il ne faut pas se leurrer, les grosses boîtes sont déjà au courant que ce genre de technique existe, et ils vont trouver une parade à un moment donné.
[297] Le créateur du logiciel admet, de toute façon le but n 'est pas de gagner, c 'est de résister, c 'est de retarder la putréfaction du web, je cite, et parce que, voilà encore je cite, l 'internet avec lequel j 'ai grandi a disparu depuis longtemps.
[298] J 'en ai marre, je contre -attaque.
[299] Si on doit être avalé, soyons le plus indigeste possible.
[300] Ce que je trouve marrant dans l 'article qui couvre ce sujet, c 'est qu 'il évoquait, il y a une espèce de questionnement quand même qui est évoqué à un moment.
[301] Donc en gros, il sait qu 'il ne va pas gagner.
[302] Et il sait qu 'il va leur faire dépenser plus de temps, d 'argent, mais aussi d 'énergie.
[303] Et quelque part, il pourrait culpabiliser du fait que, comme ils vont de toute façon gagner.
[304] il est pour partie responsable du fait que ces boîtes -là dépensent plus d 'argent et d 'énergie.
[305] Mais bon, je trouve ça rigolo de voir qu 'on peut être amené à se poser ce type de questions jusqu 'au bout, et c 'est assez louable.
[306] Mais heureusement que ça existe.
[307] J 'aime beaucoup la mécanique de jouer avec les sous -titres pour faire en sorte qu 'on joue avec un alignement qui fait que nous, en tant qu 'humains, on n 'est pas pénalisés, mais que ces pauvres robots bêtes qu 'ils sont prennent le contenu tel quel et se font avoir.
[308] On continue avec la propriété intellectuelle des contenus et notamment les contenus générés par IA.
[309] Il y a le bureau des copyrights qui s 'est exprimé et qui dit qu 'en gros, il n 'y a pas besoin de faire avancer les arbitrages qui avaient déjà été faits il y a des décennies.
[310] Oui, et puis d 'ailleurs, c 'est même un petit peu ce qu 'on avait dit quand on avait déjà parlé, puisqu 'on parle de données plus ou moins bien acquises.
[311] C 'est vrai que ce bureau du copyright, finalement, dit que tu ne peux pas vraiment protéger une œuvre créée par IA si elle a été créée de manière trop simple, en fait.
[312] Pour eux, finalement, c 'est assez simple.
[313] Tu ne peux pas revenir sur les règles actuelles.
[314] C 'est les règles qui datent de 1965, donc effectivement, qui sont vieilles.
[315] Mais donc, tu ne peux pas être protégé par copyright que les productions qui sont suffisamment transformatives, suffisamment transformées.
[316] Donc, une œuvre générée par un prompt seul, même compliqué, ne peut pas être protégée.
[317] L 'idée, c 'est qu 'un prompt...
[318] tout seul, ne contrôle pas suffisamment l 'image finale.
[319] Et c 'est vrai qu 'un prompt peut donner une multitude d 'images qui ne peuvent pas être très, très différentes.
[320] Substantiellement différentes.
[321] Et que donc, ce n 'est pas une œuvre définie, même si elle se rapproche vaguement de ce que l 'artiste a dans la tête.
[322] Et donc, il doit y avoir un travail identifiable de l 'artiste dans l 'œuvre finale.
[323] Donc, il y a des centaines d 'œuvres qui sont déjà co -créées avec des IA qui sont déjà protégées par copyright.
[324] Mais il faut un travail supplémentaire.
[325] Il faut un contrôle supplémentaire.
[326] Alors, bien sûr, ça empêche...
[327] Ça empêche tout ça.
[328] Évidemment, vous imaginez, ça empêche d 'avoir à copyrighter 800 000 images par jour générées sur Civitair, parce qu 'il s 'en crée des millions par jour d 'images.
[329] Et donc, s 'il crée une œuvre copyrightable, ça prend moins de 5 secondes.
[330] S 'imaginent le bordel, les œuvres qui prennent plus de 5 secondes à créer, du coup, sont totalement noyées dans la masse.
[331] Donc, ce point de vue est d 'ailleurs assez consensuel.
[332] Parmi les spécialistes, on est plutôt d 'accord.
[333] Il y a quand même des gens qui se battent encore pour protéger des œuvres qu 'ils estiment être les leurs et qui n 'ont été créées finalement qu 'avec des promptes.
[334] Ça veut dire aussi que les œuvres doivent être évalues au cas par cas par le bureau, donc c 'est quand même aussi un boulot assez monstrueux pour eux.
[335] Ils ne sont sans doute pas staffés pour répondre à ces enjeux -là.
[336] On comprend qu 'ils veulent se baser sur des arbitrages qui ont déjà été faits, c 'est beaucoup plus simple et quelque part ça paraît assez pragmatique.
[337] On parle de Deep Seek, il faut qu 'on parle un petit peu de Erwan, le modèle qui tend à réfléchir en profondeur.
[338] Et évidemment, il a du succès, il a de la notoriété.
[339] Et qu 'est -ce qui se passe quand on devient une star, Guillaume ?
[340] On commence à cumuler les problèmes.
[341] C 'est normal, toutes les stars commencent à avoir très vite des problèmes.
[342] Et oui, Erwan, on traînait au Finistère.
[343] Bref, on revient sur Deep Seek, qui est resté là -dessus cette semaine, effectivement, et pas toujours de manière très élogieuse.
[344] Déjà, leur succès fulgurant les a sans doute un peu pris de cours, et pas mal de trucs ont été faits à l 'arrache, manifestement, puisque les bases de données des conversations étaient stockées sur un serveur SQL ouvert, sans mot de passe et en clair, au calme le plus complet.
[345] Ça a été corrigé depuis, c 'est une erreur probablement due à l 'urgence, par contre, DeepSy que ça reste chinois, donc si vous discutez avec le site ou avec l 'appli, vous envoyez vos données en Chine.
[346] Donc des infos, potentiellement perso, bien entendu, sur des serveurs très très loin de chez vous, qui sont facilement accessibles par n 'importe qui, du parti, au cas où.
[347] C 'est un risque, évidemment, que ne veulent pas courir la plupart des départements américains.
[348] Le Congrès, la Navy, le Pentagone, la NASA ont tous bloqué l 'accès à DeepSync.
[349] D 'ailleurs, Taïwan aussi, le Texas, même l 'état du Texas, et même en Italie.
[350] D 'ailleurs, la CNIL locale aurait estimé que la sécurité des données personnelles n 'était pas garantie.
[351] On peut comprendre les doutes quand on voit le serveur actuel ouvert comme en Hall de Gare.
[352] Effectivement, c 'est pas bon signe.
[353] Et puis, surprise, DeepSync est censuré.
[354] Incroyable.
[355] Alors...
[356] Deep Singh ne parle pas de ping, même pas une milliseconde.
[357] La Chine est le pays des droits de l 'homme et du tibétain, et puis il a des trous de mémoire sur l 'année 89.
[358] En fait, il est probable que sur le site, la censure se fasse même carrément à la serpe, c 'est -à -dire qu 'il s 'arrête carrément de réfléchir des fois très brusquement pour te dire « Non, en fait, je ne sais pas, ce n 'est pas mon domaine, tu ne veux pas faire des charades plutôt ? » Par contre, il est chill sur tous les massacres qu 'on a fait, nous.
[359] Parce que bon, on dit des Chinois, c 'est vrai.
[360] Mais nous, c 'est fait aussi des massacres.
[361] On en a fait pas mal.
[362] Et bien, en plus, au cours de l 'histoire, Bob, il te dit comment, en théorie, bien sûr.
[363] Au plus, il est assez chill sur des trucs.
[364] C 'est vraiment marrant parce qu 'il est complémentaire quelque part de ChatGPT.
[365] Puisque lui, par contre, ici, il ne te parle pas de Ping.
[366] Il te dit comment démarrer une voiture sans clé, par exemple.
[367] De ce point de vue -là, il est assez complémentaire des chatbots occidentaux qui sont censurés pas exactement de la même manière, on va dire.
[368] Mais bon, voilà, en tout cas, il y a une version, disons, brute que vous pouvez télécharger sur HackingFace puisque c 'est un modèle open -weight.
[369] Ne le faites pas si vous n 'avez pas au moins 300 Go de mémoire vive.
[370] Ce n 'est pas commun.
[371] Ce n 'est pas communément répondu.
[372] En gros, vous ne pouvez pas, mais bon, effectivement, c 'est un modèle open -weight et à priori accessible.
[373] Et ce modèle sera un peu moins censuré, mais il le reste quand même.
[374] Donc, il sera un petit peu moins censuré, mais enfin, vous ne faites pas d 'illusion, ça reste un modèle chinois.
[375] Il n 'est pas censuré quand on l 'utilise en tant que moteur dans un Perplexity, par exemple, ou dans d 'autres outils.
[376] Mais beaucoup moins.
[377] C 'est moins grossier.
[378] Je faisais des petits tests et c 'est toujours marrant de voir que le fonctionnement est un peu toujours le même.
[379] On est tenté de vouloir les blouser.
[380] Puis tu commences à dire, classe -moi les pays de par leur épanouissement dans le monde.
[381] Dis -moi quels sont les pays qui interviennent le plus.
[382] Donc, tu arrives à un historiologue, tu te rapproches de plus en plus des sujets qui sont évidemment controversés et que tout le monde a en tête.
[383] Et tout d 'un coup, effectivement, il commence à te répondre, puis hop, il annule.
[384] Puis il dit, bon, en fait, effectivement, est -ce qu 'on pourrait plutôt parler de la recette des crêpes ou un truc comme ça ?
[385] C 'est toujours déroutant, en fait, d 'avoir ce fonctionnement parce que tu as l 'impression que c 'est l 'outil en temps réel qui s 'auto -censure sous tes yeux.
[386] En faisant genre, genre, t 'as rien vu, quoi.
[387] Mais en fait, là, je pense qu 'il y a juste une couche supplémentaire toute conne avec un truc qui fait du pattern matching et qui, quand il voit des mots interdits, il coupe direct, à mon avis.
[388] Je pense qu 'il y a vraiment une couche supplémentaire sur le site.
[389] Bon, allez tester, évidemment.
[390] C 'est toujours rigolo de voir les résultats.
[391] De toute façon, ça affleurit sur les réseaux sociaux les tests qui dénoncent justement, effectivement, le comportement dès que tu abordes.
[392] des sujets comme Tiananmen ou Xi Jinping.
[393] En sachant que, effectivement, c 'est intéressant que tu le soulignes, ça nous rappelle aussi à quel point personne n 'est tout blanc, finalement.
[394] Alors évidemment, c 'est toujours hyper délicat, dangereux et glissant que de faire le jeu des comparaisons.
[395] Mais effectivement, de rappeler la réalité de massacre, comme tu le dis, dans d 'autres pays, c 'est aussi parfois important.
[396] DeepSync qui semble être a priori trouvé un allié parmi les américains, et ça tombe bien, ça a l 'air d 'être un allié qui est dans une relation un peu ambivalente OpenAI, c 'est Microsoft, Guillaume.
[397] Oui, le plus marrant, c 'est que le premier à s 'être jeté littéralement sur DeepSync, c 'est Microsoft, celui -là même d 'ailleurs qui a lancé une enquête pour montrer que DeepSync avait utilisé les sorties de tchat GPT.
[398] Donc c 'est des voleurs, mais on télécharge quand même R1, et en quelques jours, on le met à disposition de tous ses clients sur Azure.
[399] C 'est -à -dire, si on n 'en a rien à foutre, qu 'on est pompé OpenAI.
[400] Nadella avait parlé de Dipsy, qui les avait dans le viseur depuis longtemps.
[401] Évidemment, il est un peu comme nous.
[402] Il nous ressemble beaucoup.
[403] Évidemment, il regarde l 'actu de très très près.
[404] Il est aussi conscient que la distillation est inévitable.
[405] Avoir Gratos, un modèle comparable à celui d 'OpenAI, on ne va pas se priver, ce serait gâché.
[406] Non seulement Dipsy qu 'intègre Azure, mais il va aussi arriver sur les copilotes PC.
[407] en version petite.
[408] Donc ces fameuses distillations, ces fameux petits modèles, vont arriver sur les copilotes PC qui sont équipés donc de NPU, dans les Snapdragon Elite, ou les tout dernières processeurs Intel.
[409] Et donc il y a une version qui fait 1 ,5 milliard de paramètres, qui est vraiment minuscule, qui sera donc la première à fonctionner là -dessus, et après il y aura des plus grosses apparemment qui vont arriver.
[410] D 'ailleurs il faut que je fasse une parenthèse là -dessus, parce que c 'est vrai que j 'ai vu passer beaucoup de confusion, et ce qui n 'a pas aidé par le fait que même sur Olama par exemple, un outil très très utilisé, En open source, on appelle R1 des modèles qui, en fait, ne sont pas R1.
[411] Le modèle DeepSync R1, le vrai, il est monstrueux.
[412] Il fait plus de 600 milliards de paramètres et, sauf exception, vous ne pouvez pas le faire tourner.
[413] Mais DeepSync a lui -même créé aussi des espèces de répliques qui ne sont pas basées sur DeepSync, mais qui sont des, entre guillemets, distillations.
[414] DeepSync, le DeepSync le plus gros, a enseigné à d 'autres modèles de langage open source et, en l 'occurrence, il a enseigné à des membres de la famille Quen, donc d 'Ali Baba, et Lama de chez Meta.
[415] Il en résulte donc plein de petits modèles qui font 1 ,5, 7, 8, 14 et 32 milliards de paramètres.
[416] Chacun ayant, vous vous en doutez, des performances qui sont très différentes selon sa taille.
[417] Donc aucun n 'est à la hauteur de R1.
[418] Et donc non plus de O1, ne rêvez pas.
[419] Mais le plus gros dédistiller accessible à un gros PC de gamer, on va dire, avec 24Go de RAM vidéo, c 'est donc le 32B et le plus petit est accessible à un grip 1.
[420] Ces performances, évidemment, sont un peu misérables.
[421] Mais vous pouvez avoir, pour la première fois à l 'histoire, un grille -pain qui réfléchit.
[422] C 'est génial.
[423] Donc, si vous les essayez et que vous les trouvez nazes, gardez bien en tête que ce ne sont pas vraiment les DeepSync R1.
[424] Cela dit, ça rend accessible à tous des modèles qui réfléchissent et qui sont meilleurs pour la logique des modèles qui ne réfléchissent pas.
[425] Si vous les testez vous -même, il faudra d 'ailleurs veiller aussi aux réglages.
[426] Ce sont des modèles qui ont besoin de grandes fenêtres de contexte, parce que sinon, ils risquent d 'oublier leurs propres réflexions d 'il y a quelque temps.
[427] C 'est suffisamment de mémoire.
[428] Et puis, ils ont parfois des températures favorites, donc ni trop bas, ni trop haut.
[429] Si par contre, vous voulez essayer le gros truc, effectivement, il y a Perplexity ou GeekFace, par exemple, ou même Open Router, qui peuvent vous permettre de l 'essayer plus ou moins gratuitement.
[430] D 'ailleurs, les chercheurs de GeekFace sont...
[431] lancer le défi de recréer un modèle R1, mais complètement open source, puisqu 'on a le rapport, on a le code aussi.
[432] Bon, on n 'a pas les données, mais donc il faut des données.
[433] Et puis bon, tout sera accessible.
[434] Si jamais on arrive à faire Open R1, tout sera accessible.
[435] Ce sera peut -être le début de la démocratisation complète des IA de ce type.
[436] On attend ça avec impatience.
[437] En attendant, c 'est la panique, Guillaume, j 'ai l 'impression.
[438] En tout cas, c 'est le rythme habituel des sorties des intelligences artificielles qui continuent.
[439] Avec OpenAI qui annonce que vous n 'avez encore rien vu et que vous allez voir ce qu 'il y a. Oui, parce que dans ce contexte, évidemment, OpenAI doit réagir.
[440] Donc, grosse actu.
[441] Il y a eu pas mal d 'annonces cette semaine.
[442] Et déjà, il va accroître ses partenaires avec le gouvernement.
[443] Les laboratoires nationaux vont bénéficier des derniers modèles d 'OpenAI.
[444] Donc, il y a 15 000 scientifiques qui vont avoir accès à O1 et ses copains.
[445] Entre autres, à Los Alamos, à Laurence Livermore, à Sandia.
[446] C 'est Microsoft qui va effectivement déployer tout ça.
[447] C 'est une collaboration qui ouvrira, bien sûr, une nouvelle ère d 'innovation scientifique dans la domaine de l 'énergie, de la physique et du nucléaire, de la sécurité nucléaire, en tout cas, pour l 'instant.
[448] OpenAI est devenu le chouchou.
[449] Donc, auparavant, l 'administration de Biden avait déjà accès à ces modèles en avant -première, mais c 'était pour vérifier leur inocuité, leur sécurité.
[450] Là, on s 'en fout.
[451] Voilà, les modèles, ils arrivent.
[452] Et puis, des modèles comme O3 en particulier, c 'est vrai qu 'ils pourraient se révéler quand même utiles pour la recherche.
[453] Surtout qu 'ils continuent d 'évoluer.
[454] Alors, je parle de O3, parce qu 'O3 n 'était il y a encore deux semaines qu 'un modèle en preview.
[455] donc quasi expérimental.
[456] Mais bon, Dipsy qu 'oblige, O3 Mini vient remplacer O1 O1 dans l 'offre OpenAI.
[457] Alors O3 Mini peut réfléchir plus ou moins longtemps.
[458] En fait, il a trois options, Low, Medium et High, et en fonction de ça, il peut se révéler meilleur que O1 Mini, ou même meilleur que O1 tout court.
[459] Il est plus léger aussi, d 'ailleurs, un peu plus rapide, ce qui a fait une très bonne option, même pour les domaines de prédilection avec lesquels on utilise O1, qui sont les sciences, les maths, la logique, le code principalement.
[460] Parce que pour le reste, GPT -K3O est bien suffisant et beaucoup moins bavard.
[461] Mais c 'est pas tout, OpenEye vient aussi d 'annoncer DeepResearch, la recherche profonde, uniquement réservée aux abonnés pros par contre.
[462] Donc DeepResearch, c 'est vraiment intéressant, c 'est quand même la version agent de O3 en quelque sorte.
[463] Alors ça reste un chatbot qui réfléchit pendant potentiellement très longtemps.
[464] Mais O3, c 'est un chatbot qui n 'a pas vraiment d 'autonomie.
[465] Ça reste un chatbot que tu discutes en texte et puis voilà.
[466] Deep Research, lui, c 'est une version customisée de O3 qui peut utiliser des outils et qui peut utiliser globalement les mêmes outils que nous, c 'est -à -dire qu 'il peut aller sur Internet et il peut exécuter du code pour faire des calculs, vérifier des hypothèses, traiter des données, tout ce que vous voulez.
[467] Il est aussi entraîné à planifier des actions, à les accomplir, à analyser les résultats, s 'adapter en fonction de ça.
[468] Donc, on est un petit peu entre les agents qui utilisent ton PC et le chatbot standard.
[469] Dans la démo, le premier exemple, c 'est de faire un rapport, par exemple, sur le pourcentage de gens.
[470] qui apprennent une langue sur iOS et Android, l 'évolution sur 10 ans, les données classées par PIB pour chaque pays.
[471] En gros, un prompt chiant pour créer un rapport sur une étude de marché sérieuse, pour lancer un produit innovant, tout ça, tout ça, un truc d 'école de commerce.
[472] Alors le chatbot va commencer par te demander encore plus de précisions, souvent il te pose des questions, et puis après il va se lancer et bosser pendant un petit moment, mais potentiellement beaucoup, 10, 20, 30 minutes, des heures éventuellement.
[473] Alors déjà, c 'est O3, donc rien que pour fournir une réponse à un truc, ça peut prendre des minutes.
[474] Mais là, il va décider sur quel site aller, récolter des données, analyser, synthétiser, se poser des milliards de questions dans l 'intervalle.
[475] Aller sur d 'autres sites, il décide qu 'il n 'y a pas assez d 'infos, etc. Et donc, vous pouvez même avoir de ces nouvelles.
[476] Il y a un panneau latéral que tu peux ouvrir et sur lequel tu peux constater qu 'il est toujours vivant, malgré tout.
[477] Et au bout, potentiellement...
[478] Allô ?
[479] Il y a quelqu 'un ?
[480] Oui, je suis là.
[481] Et bon, au bout d 'un bon moment, tu obtiens une réponse très détaillée avec tout ce que tu as demandé.
[482] Et bien voilà, ton boulot de rapporteur est fait.
[483] Donc pour 200 balles par mois, tu peux avoir droit à 100 requêtes de recherche profonde.
[484] À mort les assistants parlementaires.
[485] Il y en a qui vont être contents chez McKinsey.
[486] Mais attention, les premiers tests montrent qu 'il y a encore des erreurs.
[487] Les hallucinations restent un problème.
[488] C 'est rare, mais ça arrive.
[489] Il faut donc tout vérifier minutieusement si on est vraiment consciencieux.
[490] DeepSicker 1 a aussi une option de recherche sur Internet, d 'ailleurs, qui n 'est pas mauvaise, qui est encore au -dessous de celle de O3.
[491] Google a une fonction qui est un peu analogue, mais qui est aussi un cran au -dessous pour le moment.
[492] Ils ne sont pas non plus d 'ailleurs à l 'abri des hallucinations.
[493] Dernier point intéressant, cette version spécifique de O3 obtient un score remarquable au dernier examen de l 'humanité.
[494] Vous ne savez pas, il y a de nouveaux benchmarks.
[495] Il ne faut pas en toucher deux mots.
[496] D 'ailleurs, on parle d 'un petit article assez sympa aussi, si tu veux.
[497] Allons -y, allons -y.
[498] Oui, parce que le souci qu 'on a avec les IA modernes, c 'est qu 'elles saturent les tests de performance qu 'on a très très vite à l 'époque.
[499] Enfin, à une époque, un test comme, je ne sais pas, le GSM 8K pour les maths, ou MMLU, c 'était suffisant pour classer les aptitudes des modèles.
[500] Mais aujourd 'hui, même de mini -machins qui tournent sur ton portable ne fait qu 'une bouchée du GSM 8K.
[501] C 'est vraiment...
[502] Et donc, on en invente sans cesse de nouveaux tests qui soient faisables pour des humains, mais qui soient très difficiles pour les IA.
[503] On avait parlé du Frontier Math, spécifiquement pour les mathématiques très avancées.
[504] Là, il y en a un autre qui fait le buzz, qui s 'appelle très pompeusement The Humanity Last Exam, le dernier examen de l 'humanité.
[505] Un nom franchement très très mal choisi puisqu 'il ne va pas rester très longtemps le dernier exemple.
[506] Il n 'est pas pertinent mais il est génial.
[507] D 'un point de vue com, il est très bon.
[508] L 'apocalypse nous guette.
[509] C 'est un thèse qui est beaucoup plus éclectique.
[510] Les sujets sont très diversifiés et souvent obscurs.
[511] Ça peut être des questions compliquées de zoologie, d 'écologie, de littérature classique.
[512] Comment s 'appellent les plantes carnivores ?
[513] On va voir ça.
[514] accompagné parfois d 'ailleurs d 'éléments graphiques, parfois tu as des textes antiques à traduire, il y a des mathématiques de niveau universitaire aussi, il y a de la chimie, tu as des schémas de molécules, il faut réfléchir sur les schémas, c 'est du costaud.
[515] Aucun chatbot standard n 'atteint même les 5 % de bonnes réponses.
[516] Par contre, les modèles qui réfléchissent, O1, R1 et O3, dépassent les 9%, O3 mini atteint les 13%, et la version deep search atteint 26 ,6%, ce qui est quand même assez impressionnant.
[517] Alors bien sûr, quand on a des questions sur les domaines obscurs, avoir accès à Internet, ça fait une grosse différence.
[518] Mais il y a aussi vraiment quelque chose de différent avec ces modèles -ci.
[519] Et c 'est illustré par deux articles.
[520] En particulier, il y a un article d 'une université de psychologie, et oui, l 'université de psychologie de Géorgie, qui a mené des tests de performance à un petit jeu vidéo de plusieurs IA.
[521] Alors le jeu, c 'est un vrai petit jeu sur un navigateur.
[522] Vous pouvez le faire vous -même.
[523] C 'est un truc qui s 'appelle Little Alchemy 2, vous connaissez.
[524] vous avez des éléments sur la droite de l 'écran, donc des éléments comme, je ne sais pas, la terre, l 'eau, le feu, etc. Au début, vous n 'avez que ça, vous n 'avez que les éléments de base, et puis vous pouvez les combiner pour en faire de nouveau.
[525] Genre, la terre plus l 'eau, ça fait de la boue.
[526] Puis après, vous combinez les trucs comme ça, c 'est un jeu d 'exploration combinator, si vous voulez.
[527] Et c 'est aidé un petit peu par l 'intuition, bien entendu.
[528] Et donc, ils ont fait jouer à ce petit jeu, ils ont fait jouer des IA, donc ils ont fait jouer le gros lama de méta, ils ont fait jouer GPT -4 -O et O1.
[529] Et puis, ils ont aussi fait jouer des humains.
[530] Et les humains, ils ont fait 500 tests chacun à peu près en moyenne.
[531] Et du coup, ils ont demandé au LLM de faire à peu près 500 tests aussi.
[532] Alors, les humains ont en moyenne découvert 42 éléments.
[533] Le petit lama, seulement 9.
[534] Le gros lama, 25.
[535] Et GPT -4O, 35.
[536] Par contre, Owen en a découvert 177.
[537] Soit nettement plus que l 'humain moyen.
[538] Ah bah alors !
[539] En général, les LLM de base réfléchissent trop vite, et ils ne cherchent pas à maximiser le potentiel de leur choix à long terme.
[540] Les chercheurs font aussi divers tests avec diverses températures, ils essaient d 'analyser où l 'incertitude est gérée par le LLM et comment elle est gérée, et constatent que les LLM sont bien moins créatifs, qui recherchent beaucoup moins dans l 'espace des possibles, et que leurs choix sont arrêtés très tôt, dans les couches même des transformeurs, et qui sont moins efficaces pour ce jeu que les humains.
[541] Alors que Owen, à l 'inverse, Owen, lui, maximise l 'ouverture des potentialités et il favorise toujours les éléments prometteurs.
[542] Il travaille à long terme, il possède une tendance à l 'exploration des possibles qui est même supérieure à celle des humains.
[543] Et il y a un autre article, d 'ailleurs, qui va dans ce sens, c 'est un article du Allen Institute qui propose une batterie de tests aussi, qu 'il appelle Zebra Logic, qui est un ensemble de puzzles de logique.
[544] Il y a des contextes différents, puis vous avez en gros des entités, des relations, de manière abstraite.
[545] Vous avez des entités, des relations variables de toutes sortes entre les entités de manière logique.
[546] Vous avez des schémas comme ça d 'implication les unes aux autres.
[547] Et puis dans ce contexte -là, vous pouvez en fabriquer, en fait, ce genre de puzzle, vous pouvez en fabriquer autant que vous voulez.
[548] Et puis surtout, de la complexité que vous voulez, il suffit d 'augmenter le nombre de relations et de la taille des entités, etc. Le nombre d 'entités, etc. Donc Zebra Logic, c 'est pas compliqué, mais bon, en gros, il faut connecter les points.
[549] Il faut le faire.
[550] Et parfois, c 'est long et fastidieux.
[551] Alors, comment réussissent les chatbots ?
[552] Là aussi, on a une différence nette entre les chatbots qui réfléchissent et ceux qui ne réfléchissent pas.
[553] Tous les chatbots standards de type Lama ont des performances qui descendent très très vite avec la complexité des questions.
[554] C 'est genre comme 1 sur X, voire 1 sur X au carré.
[555] Au début, c 'est assez très haut, puis dès qu 'on commence un peu à augmenter la taille du modèle, ça descend très très rapidement.
[556] La taille du modèle ne change pas qualitativement ce comportement.
[557] Ce que je veux dire, c 'est la taille du problème.
[558] La taille du modèle ne change pas qualitativement le comportement, c 'est -à -dire que globalement, la courbe reste la même.
[559] C 'est -à -dire que tu prends un modèle qui fait 8 milliards de paramètres et un modèle qui fait 405 milliards de paramètres, ça ne change en fait pas grand -chose.
[560] Ça descend pratiquement aussi vite.
[561] Un peu moins vite dans le cas du 405, mais c 'est toujours 1 sur X. C 'est structurel.
[562] Ça descend vraiment très très vite de la même manière.
[563] Par contre, les modèles qui réfléchissent, eux, voient leur performance décroître beaucoup plus lentement.
[564] C 'est même presque linéaire pour O1.
[565] C 'est comme si vous aviez une ligne qui baisse comme ça doucement.
[566] Ça baisse aussi.
[567] Alors évidemment, les performances baissent avec la complexité des questions, mais qualitativement, ce n 'est pas la même courbe.
[568] On a quasiment une droite pour O1, qui descend assez doucement comme ça, alors que vous avez une courbe de genre E sur X pour tous les autres.
[569] Et donc, la différence est quand même vraiment frappante.
[570] Dans un cas, ça s 'effondre et dans l 'autre, ça diminue.
[571] C 'est ça, c 'est exactement ça.
[572] Alors d 'où vient ce comportement si différent ?
[573] J 'allais te poser la question.
[574] Justement, probablement de la manière dont ils sont créés ces trucs.
[575] C 'est -à -dire que dans une certaine mesure, ils sont la troisième génération de modèles.
[576] Puisqu 'à la base, vous avez les LLM, c 'est -à -dire les modèles de langage, les grands modèles de langage.
[577] Et ce sont des autocomplits.
[578] On l 'a déjà expliqué plein de fois, l 'objectif d 'un LLM, c 'est -à -dire ce sur quoi il a été entraîné, son objectif.
[579] L 'objectif d 'un modèle fondation, comme on les appelle maintenant, c 'est d 'avoir les probabilités du prochain mot.
[580] Et c 'est tout.
[581] Ça complète.
[582] Donc ce sont des modèles linguistiques.
[583] Ce sont des modèles qui sont là pour modéliser la structure de la langue.
[584] Mais ce ne sont pas des modèles qui ont d 'horizon à long terme.
[585] Ce ne sont pas des modèles qui sont prévus pour produire des choses en réalité.
[586] Leur objectif, c 'est le prochain mot.
[587] Donc ils connaissent les structures de la langue, mais ils ne sont pas prévus pour discuter avec toi.
[588] Ils sont conçus sans tenir compte de la mécanique auto -regressive derrière qu 'on utilise pour produire des phrases, c 'est -à -dire un mot après l 'autre.
[589] La seconde évolution, en gros, c 'est ChatGPT, qui a commencé donc avec le RLHF.
[590] Le RLHF, c 'est l 'apprentissage par renforcement sur les préférences humaines, c 'est ça que ça veut dire.
[591] Et donc ça part d 'un LLM de base, et ça lui applique une phase d 'entraînement supplémentaire pour en faire un chatbot.
[592] Et ce qu 'on fait, en fait, c 'est qu 'on va modifier le LLM de base avec un objectif un peu différent.
[593] qui est produire des mots à la suite dans le cadre d 'une conversation que les humains trouvent agréable.
[594] Je disais trop vite, ça complète.
[595] C 'est effectivement cela qui complète par définition.
[596] Donc, le chatbot, en faisant ça, dans une certaine mesure, tu vas donner au chatbot un objectif à plus long terme.
[597] On va lui demander d 'optimiser sa production de mots d 'une certaine manière pour être un chatbot poli et gentil.
[598] Donc, sur des phrases, des tours de conversation et pas juste au mot suivant.
[599] On va intégrer, quelque part, la mécanique autorégressive directement au cœur de l 'apprentissage.
[600] Donc on va modifier son objectif réel.
[601] Et enfin vient la troisième génération, la troisième évolution, c 'est comme les Pokémon.
[602] Les modèles comme O1 et R1, dans ces cas -là, on part de LLM de base ou de LLM déjà converti en chatbot, souvent c 'est des LLM déjà convertis, et on l 'entraîne, là encore, par renforcement d 'ailleurs, sur un objectif encore différent, celui de résoudre des problèmes de maths ou de logique.
[603] Et il s 'y prend comme il veut d 'ailleurs.
[604] On s 'en fout.
[605] Seul compte le résultat.
[606] Et naturellement, tout seul, pour accomplir son objectif, le modèle va se modifier pour générer des raisonnements très longs.
[607] Parce que sinon, il n 'y arrive pas.
[608] Donc son objectif, il est différent totalement de celui du LN d 'origine.
[609] Parce que son objectif, ce n 'est plus de produire des probabilités pour le mot suivant, c 'est de produire toute une suite très longue de probabilités qui va aboutir à une solution.
[610] Les O1 ou R1 ont un objectif de long terme.
[611] Donc, ils ne sont plus vraiment de la même nature que les modèles fondations sur lesquels ils sont basés.
[612] Les modèles comme O1 ont donc aussi des comportements différents des chatbots standards.
[613] Et ça, ça leur ouvre tout un nouveau champ de potentialité et aussi tout un nouveau champ de recherche.
[614] C 'est quoi la quatrième évolution ?
[615] Il y a forcément une évolution encore après, tu vois.
[616] Moi, j 'aime bien essayer de...
[617] Je ne sais pas si on peut l 'identifier.
[618] Là, écoute...
[619] Il y a plein, plein, plein de pistes.
[620] En réalité, il y a plein, plein de choses qu 'on peut faire.
[621] Et d 'ailleurs, on en a parlé même ici.
[622] On a les pistes multimodales, simplement, c 'est -à -dire leur donner la capacité de penser dans des modes différents, de penser en utilisant le champ visuel, l 'audio, exactement, et même à terme dans des robots.
[623] de penser même en termes mécaniques, en termes de comportement, d 'action, en termes de posture, et tout ça de manière complètement...
[624] Et puis on avait parlé aussi de coconut et ce genre de trucs, et des SCM, c 'est -à -dire c 'est aussi de favoriser effectivement les raisonnements par concept, là encore en faisant abstraction des modalités, c 'est -à -dire de réunir toutes les modalités possibles dans un espace abstrait et d 'un espace totalement conceptuel.
[625] donc totalement abstrait, bon, mais en fait, c 'est un espace mathématique, mais bon, c 'est l 'espace qui représente les concepts, et de les faire réfléchir là -dedans, et de ne pas sortir, en fait, parce que finalement, sortir pour pondre un mot à chaque fois, finalement, qu 'est -ce que tu fais pour l 'instant ?
[626] Tu demandes à un LLM, finalement, de réfléchir un mot, puis il doit sortir de son espace mental, pondre le mot, re -rentrer dans son espace mental, ce n 'est pas forcément le plus optimal.
[627] Et il est probable qu 'on s 'oriente vers des trucs un petit peu plus...
[628] un petit peu mieux s 'adapter pour le futur.
[629] Bon, ça pose des questions.
[630] Je te demande quelle est la prochaine génération, quelles sont les prochaines évolutions.
[631] On est en train de décortiquer un petit peu comment ça évolue.
[632] Enfin, il y a quand même un problème qui revient assez vite en commun à chaque fois quand on parle de ces évolutions -là.
[633] C 'est les mises à l 'échelle et surtout quand on considère l 'énergie nécessaire et évidemment les impacts que ça peut avoir sur la planète, Guillaume.
[634] Oui, c 'est vrai que c 'est excitant.
[635] Des modèles qui réfléchissent, c 'est vraiment impressionnant.
[636] On vit une époque incroyable.
[637] Scientifiquement, tout ça est très excitant.
[638] Le souci, c 'est que mon PC peut mettre 3 minutes à réfléchir sur un problème.
[639] J 'en teste actuellement.
[640] Je teste des petits distillats de R1 sur mes machines.
[641] C 'est vrai que c 'est très impressionnant de voir un truc réfléchir 2 minutes sur un problème et ne pas tomber forcément dans certains pièges.
[642] C 'est utile, c 'est efficace, mais tout ça, ce n 'est pas gratuit.
[643] C 'est quoi, excuse -moi, c 'est quoi les pièges que tu peux avoir en tête, auxquels tu dois soumettre, j 'imagine, tes cobayes ?
[644] En fait, là, à côté, juste anecdotiquement, j 'éteste les problèmes du dataset MatTrap, dont on avait parlé il y a quelque temps sur TechCafé.
[645] C 'est des petits problèmes de maths niveau lycée, première année de fac, rien de foufou, mais ils ont un petit twist, ils sont modifiés pour ne pas être possible à résoudre.
[646] En gros, ils sont piégés.
[647] Alors bien sûr, les modèles de base, surtout les problèmes de base, mon petit R1 que je fais tourner sur ma machine, en fait, il résout tous les problèmes sans aucune difficulté.
[648] La question de piège, par contre, il a du mal.
[649] Il sent qu 'il y a un problème.
[650] Et c 'est presque mignon.
[651] Il se perd en raisonnement et boucle en essayant à toute force de trouver une solution.
[652] Mais il comprend qu 'il y a un problème, il comprend que ça ne marche pas, mais il boucle comme ça, il ne sait pas trop.
[653] Et en général, il se perd.
[654] Par contre, si tu lui dis, magnanime, que certains problèmes peuvent être mal posés ou ne pas avoir de solution, Là, pas toujours, mais régulièrement, il va effénétiquement raisonner, raisonner, réfléchir très très très fort, et il va de temps en temps, régulièrement même, finir son raisonnement et te dire non, ça cloche, c 'est pas possible.
[655] Et c 'est impressionnant de voir littéralement mon PC, un de mes PC, réfléchir sur un truc, se casser la tête et finir par me dire que ma question est pourrie, c 'est tout.
[656] Donc c 'est vraiment super intéressant, mais effectivement, ça consomme de l 'énergie.
[657] Et en fait, nos bons vieux chatbots d 'avant la réflexion, ils consommaient déjà de l 'énergie, beaucoup.
[658] Il y a un rapport de Capgemini qui estime que les IA génératifs consomment entre 25 et 4600 fois plus d 'énergie que les algos de la génération d 'avant, pour faire simple.
[659] Alors, c 'est un écart très très très important, 25 et 4600 quand même.
[660] Et ça, c 'est parce qu 'il y a aussi énormément de cas d 'usage.
[661] Si on va un petit peu dans les détails, un tout petit LLM sur un serveur avec des NVIDIA 100 est estimé consommer 0 ,93 Wh par inférence.
[662] Ici, c 'est une moyenne sur un tour de conversation pour un chatbot.
[663] En gros, c 'est une moyenne de 126 tokens en entrée et de 208 tokens en sortie.
[664] Et c 'est déjà plus qu 'un algo de reconnaissance de forme, par exemple, qui, lui, se situe aux alentours de 0 ,025 Wh par image, alors que pour un tour de conversation, on est sur un tout petit modèle, déjà à 0 ,093 Wh.
[665] Mais le problème, il y a d 'autres algos aussi qui comparent, les algos de linguistique, par exemple, qui consomment encore 10 fois moins.
[666] Mais bon, là, c 'est pour un petit modèle.
[667] Le truc, c 'est que si on prend un chatbot qui est plus comparable, on va dire, à la puissance de chat GPT, comme un lama 7010b, on passe à 1 ,55 Wh.
[668] Et le gros lama, qui est de niveau GPT -4, c 'est 17 Wh.
[669] Mais il y a pire, parce qu 'on utilise beaucoup les systèmes avec des systèmes de base de connaissances, de base de rag, quoi.
[670] Donc, en fait, on donne une base de connaissances au chatbot pour qu 'ils aient l 'usine moins.
[671] Mais quand on fait ça, on va les faire travailler aussi beaucoup plus.
[672] Parce que là, on va utiliser allègrement 5000 tokens à montrer.
[673] à chaque demande, et c 'est les données qui seront après synthétisées par le modèle lui -même et résumé, tout ça consomme encore deux fois plus d 'énergie.
[674] Et c 'est pas fini, parce qu 'après, il y a les agents.
[675] Les agents, ils doivent planifier des tâches complexes, faire des actions, analyser les résultats, faire des allers -retours constants, et là, c 'est presque encore trois fois plus d 'énergie.
[676] Alors, de toute façon, on va se dire aussi, est -ce que c 'est comparable de toute façon ?
[677] Ils disent, oui, 4600 fois plus d 'énergie, mais tu compares quoi, finalement ?
[678] Tu compares un agent IA qui fait une tâche complexe pour toi, à un truc qui reconnaît juste un visage sur une photo.
[679] Est -ce que ça a vraiment du sens de comparer ces trucs -là ?
[680] Ça se discute.
[681] Par contre, ce qu 'on constate quand même, c 'est qu 'il y a un énorme écart entre un petit chatbot et un super agent.
[682] Ça passe de 0 ,093 Wh à 95 Wh, et c 'est un facteur 1000.
[683] Et les modèles qui réfléchissent, ils ont des comportements qui sont un peu semblables à ceux des agents en termes de consommation.
[684] Donc on est quand même sur la partie très très haute.
[685] Et bon...
[686] D 'ailleurs, O3 Deep Search, c 'est pas autre chose, c 'est un truc qui met 30 minutes.
[687] Par exemple, si votre Deep Search, qui vous fait votre travail de rapporteur, il met 30 minutes à faire une tâche, c 'est 30 minutes de calcul intensif dans une ferme de gros serveurs de calcul.
[688] Je ne connais pas la taille d 'O3, je ne suis pas dans le secret des dieux, mais à supposer qu 'il tienne tout entier sur une GPU H100, ce qui n 'est pas gagné du tout, il est probablement plus gros que ça, mais bon, on va dire ça.
[689] Je n 'imagine pas comment la puce et le serveur qui est autour, surtout, pourrait consommer moins d 'un kilowatt.
[690] Donc votre requête, votre boulot, il va être demandé au bas mot 500 Wh.
[691] Et c 'est très très optimiste ça.
[692] Donc c 'est un peu la zone quand même.
[693] C 'est démesuré quand il réfléchit.
[694] Ça c 'est un truc pour vous, un truc que vous allez lui demander, vous pouvez lui demander des dizaines et puis surtout il y a des millions de gens qui l 'utilisent.
[695] Donc dans le rapport, il y a divers scénarios pour l 'évolution de la consommation électrique et l 'impact CO2.
[696] Il y a aussi, il part d 'une espèce de grosse boîte moyenne, une sorte de boîte prototype.
[697] et donc une boîte comme ça qui utiliserait les nouveaux outils à fond, combien est -ce qu 'elle consommerait de plus.
[698] Alors l 'avenir est très flou, il peut se passer plein de choses, économiquement comme technologiquement, mais si on prend un scénario intermédiaire, la projection c 'est une multiplication par 7 de la consommation électrique, par 6 de l 'eau et par 5 de l 'impact carbone.
[699] Après il y aura peut -être des repures technologiques, Dipsy qui a été entraîné avec une pression de 8 bits par exemple, ce qui est deux fois plus économe que ce qu 'on faisait avant.
[700] L 'inférence aussi se fait sur 8 bits, de plus en plus souvent, on n 'a pas le temps de rentrer dans plus de détails, mais...
[701] Les GPU Blackwell sont optimisés pour l 'inférence en 4 bits par poids, et il y a un article d 'ailleurs de Microsoft Asia qui montre qu 'en moyennant quelques ajustements, on peut même entraîner des modèles 4 bits en 4 bits presque tout le long, ce qui s 'économise énormément de calculs et de mémoire, parce qu 'avant, il n 'y a pas si longtemps que ça, GPT -3 et GPT -4 étaient entraînés en 16 bits quand même.
[702] Bon, reste qu 'en termes énergétiques, pour l 'instant, les performances étonnantes des modèles de réflexion, c 'est à la fois une bonne et une mauvaise nouvelle du coup.
[703] À suivre, un enjeu, vous le savez, qui est récurrent dans nos épisodes et dans Tech Café, dans les chroniques de Guillaume -Poc Jaspala et dans la surveillance qu 'on fait, on aime bien attirer votre attention évidemment sur ces sujets -là, qui sont quand même des questions sur lesquelles on n 'a pas l 'impression que les spécialistes se posent cette question -là.
[704] On a l 'impression qu 'on avance.
[705] L 'impression que ça donne, c 'est qu 'on avance très, très vite, très, très vite.
[706] Il faut qu 'on aille très, très vite.
[707] Et après, on se posera la question de comment on adapte tout ça à la réalité de la consommation énergétique.
[708] Un autre sujet, il y a pour terminer cette rubrique qui a fait les gros titres, les choux gras, comme on dit, c 'est le français Mistral qui a publié un nouveau modèle Opal Source, Guillaume.
[709] Oui, on va conclure cette section avec des nouvelles de notre Mistral national, qui a libéré un nouveau venu, le Mistral Small 3, que vous pouvez dès aujourd 'hui télécharger et utiliser avec vos outils favoris.
[710] C 'est un modèle de taille intermédiaire.
[711] Alors, il n 'est pas vraiment utilisable sur une patate, quoique si vous avez 16 Go de RAM, tout est possible, il sera lent.
[712] Mais c 'est un truc qui est très confortable à utiliser sur une machine avec 16 Go de mémoire vidéo, et il sera rapide, par exemple, avec un PC équipé d 'une 4060 Ti, par exemple, avec 16 Go.
[713] Et pour ce prix, il sera supérieur à GPT 3 .5.
[714] C 'est un truc qui parle très bien français.
[715] C 'est une bonne mise à jour.
[716] C 'est à essayer pour une fois qu 'on a une IA européenne qui est vraiment crédible, complètement open -weight.
[717] Et il est, oui, beaucoup, vraiment beaucoup meilleur que lui -ci.
[718] Il est aussi beaucoup plus gros et beaucoup mieux entraîné.
[719] Vous pouvez le tester.
[720] Vous nous ferez vos retours sur le serveur Discord de TechCafé.
[721] On enchaîne, Guillaume, effectivement, avec une rubrique où on doit parler des choses essentielles dans Tech Café, à savoir de l 'argent et d 'Elon Musk.
[722] Souvent, ça va avec Guillaume.
[723] On commence avec des résultats pour Apple.
[724] Oui, c 'est la saison des résultats financiers.
[725] Alors, on se fait plaisir.
[726] On prend le pouls des grosses boîtes en cette fin de trimestre.
[727] Et Apple va...
[728] Elles vont mal.
[729] Ouh là là, qu 'est -ce qu 'elles vont mal ?
[730] Non, Apple, ça va être un frail à l 'œil vif.
[731] Les ventes ont monté de 4 %, ce qui est presque décevant.
[732] Et elles ont même baissé en Chine de 11%.
[733] Il semble que l 'iPhone se soit mieux vendu dans les pays où Apple Intelligence était dispo.
[734] Preuve que l 'IA, comme argument marketing en tout cas, est efficace.
[735] On peut aussi le voir comme un argument complètement inverse d 'ailleurs, et dire qu 'il n 'y a plus que ça pour vendre des appareils qui se ressemblent comme deux gouttes d 'une année sur l 'autre.
[736] Alors c 'est un peu comme vous voulez, vous le prenez comme vous voulez.
[737] Mais bon, justement, l 'intelligence de tapin arrive en mandarin bientôt, et aussi en français, entre autres, dans iOS 18 .4, et ça serait pour avril.
[738] Préparez -vous.
[739] Le secteur du wearable aussi serait en baisse, mais les services par contre ça va fort.
[740] Et l 'un dans l 'autre, Apple a encore fait 36 ,33 milliards de bénéfices ce trimestre, alors pas de panique.
[741] Ouais, on est confiants quand même.
[742] Est -ce qu 'on est tout autant confiants pour Tesla, Guillaume ?
[743] C 'est pas tout à fait pareil, ses services et sa division énergie avec les batteries pour les maisons, tout ça, ça a le vent, on poupe.
[744] Mais quand même son cœur de métier, c 'est les voitures, on en déplaise à Elon.
[745] qui dit que les voitures, ça patine.
[746] 8 % de chiffre d 'affaires en moins, bénéfices nets en baisse de 111%, à seulement 2 ,3 milliards.
[747] Sur l 'Inde, d 'ailleurs, les bénéfices nets baissent de 53%, c 'est plutôt une mauvaise année, c 'est même la pire depuis 2021.
[748] Et tout ça s 'explique par des baisses de prix sur plein de modèles pour survivre face à la concurrence et par beaucoup de dépenses pour l 'IA et la robotique, tout ça, tout ça.
[749] Tesla dit d 'ailleurs que Elon dit que Tesla, c 'est plus une boîte qui fait des voitures, c 'est une boîte de robotique maintenant.
[750] Ça reste quand même sur 70 -17 % des chiffres d 'affaires, les voitures, chez Tesla.
[751] Alors Tesla annonce une année 2025 Farminos, néanmoins, parce que l 'IA va produire des bénéfices, les services vont exploser, les ventes sur les voitures vont me dire de 60%.
[752] Pourquoi ?
[753] Je ne sais pas.
[754] Mais les investisseurs y croient, c 'est le principal.
[755] La dernière fois que j 'ai regardé, c 'est -à -dire hier, l 'action était toujours en hausse, et elle est passée de 390 à 404 dollars, juste après l 'annonce des résultats, qui ne sont pourtant pas fameux, donc allez comprendre.
[756] Musk a par ailleurs dû reconnaître avoir été un poil optimiste sur l 'autopilote de ces Tesla qui devaient pouvoir équiper n 'importe quel modèle avec une simple mise à jour logicielle.
[757] En fait, non.
[758] Même les voitures équipées du hardware version 3 ne pourront pas bénéficier de la version qui arrive.
[759] La promesse de 2016, elle est morte.
[760] Il faudra passer au hardware 4 pour pouvoir utiliser la dernière version du pilote.
[761] À la même, il semblerait que celle qui équiperait les futurs taxis de Tesla, qu 'on a d 'ailleurs de voir à l 'œuvre.
[762] En attendant, en France, le marché des véhicules électriques n 'est pas du tout dominé par Tesla, puisque là, en janvier, il arrive uniquement à la huitième place, seulement des ventes avec le premier, c 'est Renault, avec une Renault 5, que de souvenirs.
[763] Les premières places sont trustées par Renault, Peugeot, Citroën et Dacia.
[764] Merci, on continue un petit peu pendant qu 'on parle d 'Elon Musk.
[765] Il voudrait a priori se mettre à la compta, c 'est ça, aux Etats -Unis ?
[766] Quelques petites nouvelles du Doge, puisqu 'on en avait parlé il n 'y a pas très longtemps au supplément, puisque cette entité avait été intégrée à l 'USDS et apparemment ça devenait une sorte d 'organe de consulting tech qui était là pour moderniser l 'infrastructure informatique du gouvernement.
[767] Sauf qu 'en fait, non, manifestement non.
[768] Déjà, l 'USDS n 'existe plus, parce que ça fusionne carrément avec le Doge et manifestement, il ne va pas s 'intéresser qu 'à la version Windows utilisée sur les PC des fonctionnaires.
[769] En fait, le Doge a même un comportement très déroutant.
[770] Ils cherchent depuis des mois à mettre la main sur l 'infrastructure de paiement du Trésor américain et des services généraux de l 'administration.
[771] Un des plus hauts cadres du Trésor a d 'ailleurs claqué la porte en réaction.
[772] C 'est très étonnant parce que le département en question, les accès qu 'ils veulent, concernent des fonctions de comptabilité très basiques et très mécaniques.
[773] Il n 'y a rien à voir.
[774] C 'est juste des gens qui payent les factures en réalité, c 'est tout.
[775] Ils payent les aides sociales, les aides médicales, les salaires des fonctionnaires, les factures des prestataires et des sous -traitants.
[776] Donc il n 'y a rien de passionnant.
[777] Surtout, il n 'y a rien de politique.
[778] Donc, voir Elon Musk et sa clique et mettre la main là -dessus, c 'est très troublant.
[779] Il a la main sur des données personnelles de millions et de millions d 'Américains.
[780] Fonctionnés aux personnes malades, bonnes difficultés, prestataires pour le gouvernement, voilà.
[781] Prestataire, d 'ailleurs, qui pourrait très bien être en concurrence avec une des boîtes de Musk ou des collaborateurs ou des amis de Musk.
[782] Je suis parano ?
[783] Ben, voyons voir.
[784] Un des gens qui ont la main dessus, désormais, c 'est Tom Krause, qui est PDG d 'une boîte cloud qui possède Citrix, entre autres.
[785] Conflit d 'intérêt ?
[786] Non, sans doute pas.
[787] Mais bon, même au -delà, certains au Congrès s 'émeuvent quand même qu 'un rouage fondamental du fonctionnement de l 'État, qui ne peut ni ne doit être politisé d 'une quelconque manière, tombe au main d 'un grand patron privé, qui a des intérêts très importants d 'ailleurs en Chine, et s 'est attaqué en justice par une association déjà qui s 'appelle le Public Citizen.
[788] Alors le feuilleton américain va devenir de plus en plus intéressant, et il y a les nouveaux droits de douane aussi, on ne va pas s 'ennuyer.
[789] Alors c 'est devenu une télé -novélas à ce niveau -là, parce que...
[790] Si vous n 'avez pas suivi, Trump veut imposer, enfin, il voulait imposer, il veut imposer 25 % de taxes sur ses principaux alliés commerciaux, c 'est -à -dire le Canada et le Mexique.
[791] Alors, ça a gueulé sec. Partout, en particulier au Canada, et les industriels, même et surtout américains, sont vends debout.
[792] La bourse, d 'ailleurs, a dévissé à cause de ça.
[793] Et du coup, c 'est en pause.
[794] Apparemment, c 'est en pause pendant 30 jours.
[795] Donc, qu 'est -ce qui va se passer ?
[796] On ne sait pas trop.
[797] Il y aurait des accords vaguement.
[798] Enfin, bon, c 'est en pause pendant 30 jours.
[799] Donc, c 'est toujours sur la table.
[800] Tout ça, c 'est un outil de pression et de négociation.
[801] C 'est une incertitude monumentale.
[802] C 'est extrêmement chiant à suivre, comme ActuTech.
[803] Bon, il y a 10 % pour la Chine qui sont maintenus, par contre, d 'ailleurs.
[804] Et c 'est évident qu 'il va arriver dans notre gueule d 'européens des nouvelles taxes d 'ici pas longtemps.
[805] Après tout, c 'est pour ça que tout ce que la Silicon Valley compte de grands patrons a plié le genou.
[806] C 'est pour ça que Zuckerberg s 'est soumis à toutes les demandes des conservateurs.
[807] C 'est pour que Trump nous attaque et nous fasse plier sur toutes les réglementations qui l 'emmerdent.
[808] Il va falloir résister, il va falloir faire front.
[809] Tous ces sujets politiques, entre guillemets, vont avoir de gros impacts sur l 'économie dans le monde entier, sur la tech en particulier, certainement.
[810] Et oui, en gros, on ne dit plus « oh, on a merdé », on dit plutôt « on suspend 30 jours ».
[811] Je pense qu 'ils se sont rendus compte, effectivement, que ça les pénalisait peut -être beaucoup aussi.
[812] Ces frais de douane de 25 % avec le Canada et le Mexique, et on lui a peut -être dit « non, mais t 'as vu, c 'est la merde quand même ».
[813] Bon, d 'accord, on va suspendre 30 jours.
[814] On verra ce qui se passe.
[815] Rendez -vous dans 30 jours.
[816] Résultat financier aussi pour une boîte.
[817] C 'est intéressant de suivre ce qui se passe de son côté, forcément.
[818] C 'est Intel.
[819] Ah bah Intel, oui, forcément.
[820] Comment ça va ce mois -ci, Intel ?
[821] Parce que c 'est la petite forme en ce moment.
[822] En fait, j 'ai retenu, moi, ces derniers temps, même quand ils vont plutôt bien, c 'est quand même la petite forme.
[823] C 'est ce que je retiens.
[824] C 'est exactement ça.
[825] Mais c 'est malheureusement...
[826] L 'hémorragie est plus ou moins stoppée, puisqu 'Intel ne fait que perdre 100 millions cette année, ce trimestre.
[827] 100 millions de pertes nettes.
[828] Bon, ok. Alors, d 'une année sur l 'autre, le chiffre d 'affaires d 'Intel a encore baissé de 6 points, quand même, à 13 milliards.
[829] Un peu tout est en baisse, sauf le secteur du réseau et du age computing.
[830] Malheureusement, c 'est encore trop petit pour sauver les meubles.
[831] Non seulement, Intel continue à perdre de l 'argent, mais il admet aussi qu 'il a complètement raté le train de l 'IA.
[832] C 'est dommage, parce que ça a quand même valu Nvidia d 'être la plus grosse bottec du monde, globalement.
[833] Et c 'est en gros ce qui stimule comme jamais les dépenses dans le secteur du calcul.
[834] Et Intel n 'en profite pas, c 'est quand même ballot.
[835] Ces accélérateurs Gaudi 3 n 'intéressent personne.
[836] Ils n 'ont même pas pu rapporter 500 millions l 'an dernier.
[837] Et la prochaine génération, qui était censée s 'appeler Falcon Shore, n 'est plus du tout à l 'ordre du jour.
[838] Donc le projet est plus ou moins abandonné.
[839] Il y a des proto en interne, c 'est tout.
[840] Aucun produit en Falcon Shore ne va sortir.
[841] Intel est intéressé par le secteur, sans doute.
[842] Mais pour le moment, ils n 'ont rien à proposer, ce qui est quand même assez terrible.
[843] On avait parlé de Falcon Shore et des changements de programme d 'ailleurs qu 'il avait subis et qui trahissaient d 'ailleurs peut -être un petit peu le manque de vision précise chez Intel sur le sujet.
[844] Mais à côté de l 'annulation des prochains GPU d 'Intel, il y a aussi des Xeon qui sont retardés, les Clearwater Forest qui sont déplacés vers le début 2026, qui vont bénéficier de ce fameux processus 18A, le prochain processus d 'Intel, celui -là sur lequel repose sa survie, si on résume.
[845] Donc ces Xeon sont bourrés d 'une multitude de petits cœurs, apparemment moins demandés, et donc du coup, c 'est moins prioritaire.
[846] On peut noter d 'ailleurs qu 'Intel fait les sommes en ce moment, puisqu 'ils sont poussés au cul par AMD.
[847] Donc, moment téléachat, un Xeon 6980p passe de 17800 à 12460 dollars.
[848] Une misère assez du vol à ce prix -là, c 'est impossible à refuser.
[849] Mettez moins de 4, quoi.
[850] C 'est surtout proche de la puce d 'AMD la plus proche, qu 'est -ce qui est l 'Epic 8654.
[851] Alors, il y a d 'autres puces qui se voient aussi replacées plus en face de la concurrence, mais pas toutes.
[852] Et avec l 'augmentation du nombre de cœurs, les Xeon sont désormais beaucoup plus compétitifs.
[853] Bon, reste à voir comment on va réagir AMD, puis à quel point ces démarches suffisantes pour Intel, d 'ailleurs.
[854] En ce qui concerne la gouvernance chez Intel, parce que bon, qu 'est -ce qui se passe depuis ?
[855] Ils ont viré pattes, mais bon, qu 'est -ce qui se passe ?
[856] Ils n 'ont toujours pas réussi à nommer un nouveau CEO.
[857] Ils virent plus vite qu 'ils ne nomment.
[858] Carrément, c 'est toujours Michel Johnston, Holthaus et David Zinser qui sont en pleine recherche.
[859] Ils disent que pour le moment, en tout cas, la direction d 'Intel n 'a pas changé.
[860] C 'est -à -dire l 'orientation.
[861] L 'objectif, c 'est toujours celui poursuivi par Pat Gelsinger en son temps, c 'est -à -dire faire d 'Intel le TSMC occidental en produisant des puces pour tout le monde et les meilleurs du monde.
[862] Et si c 'est exactement la même ligne, on se demande pourquoi ils ont lourd des pattes, du coup.
[863] Parce que maintenant, ils ne trouvent personne d 'assez barrage pour en prendre les commandes du truc.
[864] Ça doit être pour le moins compliqué.
[865] Tu disais qu 'ils joueraient leur survie à ce rythme -là.
[866] C 'est un peu exagéré quand même.
[867] Je te prends pied de la lettre sur ce que tu nous dis, Guillaume.
[868] Ils ont encore un petit peu le temps de voir venir, non, Intel ?
[869] Là, c 'est toujours...
[870] Si le 18A n 'est pas à la hauteur de ce que fait TSMC, les gens continueront à aller chez TSMC.
[871] Il ne faut pas oublier que pour devenir une fonderie, pour devenir le TSMC de l 'Occident, il faut des clients.
[872] Il faut attirer des clients.
[873] Donc il faut que les clients aient confiance.
[874] Ils aient confiance dans la fiabilité, les performances et dans la disponibilité de tes produits.
[875] Donc c 'est beaucoup de choses.
[876] Il faut gagner cette confiance.
[877] Et pour gagner cette confiance, il faut que tu sois attractif.
[878] Donc si le process n 'est pas attractif, ils vont continuer à perdre énormément d 'argent puisque ça leur coûte énormément d 'argent de former cette nouvelle entité, de se restructurer complètement et en profondeur.
[879] ils sont obligés d 'attirer des clients, beaucoup de clients et des gros marchés.
[880] Et donc, si le process n 'est pas suffisamment attractif et que les gens restent à tes SMC, ça risque d 'avoir des conséquences assez catastrophiques.
[881] À suivre, du coup.
[882] Un pour qui on ne se fait pas trop d 'inquiétude quand même.
[883] Pour l 'instant, ça va. Mais il y a quand même des choses à dire.
[884] C 'est Microsoft, notamment avec sa division sur les jeux vidéo.
[885] Oui, on continue très logiquement avec les résultats de Microsoft qui sont très bons et qui semble -t -il valides de sa stratégie centrée sur l 'IA.
[886] Ce trimestre, Microsoft annonce presque 70 milliards de chiffres d 'affaires, 10 % de plus que l 'an dernier.
[887] Ça aide quand tu augmentes tes abonnements.
[888] Pardon, excuse -moi.
[889] Tu sais que son bénéfice net d 'ailleurs a augmenté à 24 milliards et donc sur un an, leur business IA sur Azure explose à 13 milliards, soit 175 % de plus que l 'an dernier.
[890] C 'était sans doute assez faible l 'an dernier de toute façon.
[891] Les services cloud de leur ensemble ont encore cru de 31 % par rapport à l 'année précédente.
[892] À qui lui a cru ?
[893] Lui, il a cru.
[894] Bref, Microsoft est très content officiellement du partenariat avec OpenAI.
[895] C 'est toujours son meilleur ami.
[896] Mais bon, Dipsy, quand même, il est sympa.
[897] Du côté gaming, c 'est plus mitigé.
[898] Le chiffre d 'affaires de Xbox est de 6 ,58 milliards de dollars, en hausse de 11%.
[899] Et c 'est grâce principalement à Activision Blizzard.
[900] Call of Duty 6 est la meilleure vente du trimestre, autant côté Xbox que côté PlayStation.
[901] Il a explosé le nombre de joueurs et boosté les autres titres d 'ailleurs.
[902] Il a boosté un petit peu le Game Pass et tout ça.
[903] Il y a eu Indiana Jones qui a été aussi un très très bon truc.
[904] Indiana Jones d 'ailleurs, c 'est un succès qui m 'a un peu étonné.
[905] Je crois qu 'il totalise déjà 4 millions de joueurs alors que c 'est quand même...
[906] Une franchise assez vintage, on va dire.
[907] Donc, ce n 'était pas gagné.
[908] Très bien.
[909] Côté cloud gaming, on est sur 140 millions d 'heures streamées.
[910] En gros, les services Xbox se portent bien.
[911] Donc, ils ont énuméré les records un petit peu comme ça.
[912] Par contre, les ventes de Xbox, d 'ailleurs de matériel, eux, c 'est chute libre.
[913] 29 % de baisse.
[914] Ce qui n 'a rien d 'étonnant vu que la politique est quasi schizophrène chez Microsoft puisqu 'on appuie toutes nos forces sur le streaming, la dématérialisation et le multiplateforme PC et même PlayStation.
[915] Donc après, vendre des Xbox, pourquoi ?
[916] Forcément.
[917] Quel est l 'argument de honte d 'une Xbox ?
[918] Qu 'est -ce qui différencie les Xbox ?
[919] À un moment donné, Microsoft va devoir choisir pourquoi ils continuent de vendre des consoles.
[920] Surtout s 'ils tentent de penser au tout des maths, puisqu 'on a eu des fuites sur une prochaine Xbox cylindrique et qui n 'aurait pas de l 'écart de disques, tout ça.
[921] ça les démange, comme Sony d 'ailleurs.
[922] Ils ont forcément un projet pour une prochaine génération, après ce qu 'ils vont la sortir.
[923] Une prochaine génération, tout démate, parce que les consoles tout démate, ça les démange, clairement, Sony aussi.
[924] La PS5 Pro, elle les démate, et puis les lecteurs de disques, ils sont très très rares.
[925] En réalité, tu n 'arrives pas à en acheter.
[926] Donc, elle est concrètement, elle est quasiment une console dématérialisée.
[927] Donc, j 'ai hâte de savoir ce qu 'ils vont préparer pour la prochaine Xbox, s 'il y en a une, de voir quel chemin sera pris.
[928] S 'ils décident de se différencier sur le hardware, ils pourraient redonner, si tu veux, une raison d 'acheter des Xbox.
[929] Mais le problème, c 'est que s 'ils ont un hardware qui est différenciant, c 'est presque une cour d 'ordure du cercle.
[930] Si tu différencies trop côté hardware, si tu essaies de faire une Nintendo, globalement, tu vas casser l 'universalité de l 'accès qui semble être au cœur de la politique Xbox en ce moment.
[931] Donc, je n 'ai pas trop d 'illusions.
[932] C 'est compliqué.
[933] On n 'a pas envie d 'être à leur place.
[934] On sera juste observateurs sur ce côté -là.
[935] Oui, effectivement.
[936] Mais pas à la place du...
[937] Si, remarque lui aussi.
[938] Bon, allez.
[939] Tu veux qu 'on parle de jeux vidéo ?
[940] Tu veux vraiment qu 'on parle de jeux vidéo ?
[941] Continuons à parler de jeux vidéo et terminons cet épisode avec cette rubrique complément autour du jeu vidéo et justement un petit retour avec la dernière carte graphique de Nvidia, la 5080 qui envoie du lourd.
[942] Guillaume, tu l 'as conseillé à tout le monde, c 'est ça ?
[943] qui envoie du modérément lourd.
[944] La semaine dernière, on relayait le test de la 5090, alors je veux résumer le test si vous ne l 'avez pas vu, c 'était moins bon.
[945] Et donc cette semaine, on passe au test de la 5080, dont je vous spoil la conclusion immédiatement, et qui est, on s 'en fout.
[946] Et c 'était à prévoir, la série 5000, c 'est le même process que la série 4000.
[947] Et ça a déjà valu la 5090 d 'être une mise à jour très modérément excitante.
[948] Plus chère, plus de consommation, plus de puissance.
[949] Bon, voilà quoi.
[950] un petit peu de tout ça.
[951] Et au moins, la 5090 avait -elle plus de mémoire vidéo, ce qu 'on n 'a pas la 5080 par rapport à une 4080 Super.
[952] En fait, la 5080, elle est tellement proche de la 4080 Super qu 'on se demande pourquoi cette carte existe.
[953] On est entre 5 et 13 % de mieux au -dessus.
[954] La 5080 reste toujours nettement inférieure à la 4090 dans tous les cas.
[955] Et c 'est une déception.
[956] Pour cette différence, par contre.
[957] Elle fait 1000 balles.
[958] Voilà pourquoi elle se vend.
[959] Enfin, pourquoi elle est vendue.
[960] C 'est une déception.
[961] On se souvient quand même que la 4080 dépassait sans problème la 3090 tout en consommant moins et en étant nettement moins cher.
[962] Là, on est loin du compte cette fois.
[963] La carte coûte 1000 balles et c 'est vrai qu 'elle coûte 1000 balles en plus sur le papier.
[964] En théorie, c 'est une autre raison de ne surtout pas chercher à acheter ce truc.
[965] Il n 'y a pas de stock.
[966] Sur le papier, elle est sortie, mais en pratique, il faudra encore attendre 3, peut -être 6 mois avant de les toucher au pré -officiel.
[967] Bon, je ne sais pas s 'il y a une production super limitée, ce qui est un peu étonnant d 'ailleurs, mais bon.
[968] Ou c 'est l 'escalpeur, je ne sais pas, tout le monde les a scalpés.
[969] La carte, elle est épuisée un peu partout, les prix sur les baies sont ridicules.
[970] 2000 balles pour une 5 .080, 5000 balles pour une 5 .090, c 'est totalement absurde.
[971] De base, c 'est absurde, et en particulier pour une génération de cartes dont la pertinence est vraiment faible.
[972] Alors bien sûr, elle est performante quand même.
[973] Évidemment, la 5 .080 est très performante, bien sûr, ce n 'est pas la question.
[974] Sa mémoire est un peu plus rapide.
[975] Le DLSS 4, quand c 'est exploité, ça peut être agréable.
[976] Mais franchement, vu les prix, la disponibilité et le peu de gains en fâche à la génération précédente, même en venant d 'une génération 2000, à la limite, si vous venez d 'une génération 2000, sinon c 'est vraiment très dur à recommander.
[977] Si vous voulez upgrader votre 2060, votre 1060 et une génération 4000 d 'occasion est encore nettement la meilleure option performance prix.
[978] D 'ailleurs, vu la 5080, je ne vois clairement pas.
[979] comment on pourrait avoir ne serait -ce qu 'une once d 'intérêt pour une 5070 ou une 5060 ?
[980] Vu le peu d 'écart entre une 5080 et une 4080, si l 'écart aurait été encore plus restreint entre une 5070 et une 4070, on va rentrer dans l 'épaisseur du trait.
[981] On va bien voir.
[982] La reco de la 4060 Ti reste valable, j 'ai l 'impression, encore heureux, à une semaine d 'écart.
[983] Un petit mot sur Bioware qui a désormais moins d 'employés que DeepSync.
[984] Eh oui, tout à fait.
[985] Et puis, Dipsy, en plus, c 'est vraiment deux tendances opposées.
[986] Parce que Dipsy, ça monte très vite.
[987] Bioware...
[988] Ça descend.
[989] Bioware va pas bien du tout.
[990] Dragon Age Veilgard, c 'est mal vendu.
[991] C 'est leur troisième échec consécutif.
[992] Après Mass Effect Andromeda et Anthem.
[993] Donc là, c 'est qui tout double.
[994] Le studio a considérablement maigré.
[995] Donc, il a perdu la moitié de ses effectifs.
[996] Alors, ils n 'ont pas tous été virés.
[997] Mais certains ont été relocalisés chez Electronic Arts.
[998] Alors, ça devait être...
[999] C 'était devait temporaire.
[1000] Bon, là, non, c 'est pas temporaire.
[1001] Là, ils vont se concentrer sur le prochain Mass Effect, ils ont intérêt à ne pas se rater.
[1002] L 'échec assez cuisant de Dragon Age a même fait baisser l 'action Electronic Arts.
[1003] Significativement, et donc un autre échec, c 'est clair que le studio disparaît.
[1004] Bioware est donc très focus sur le prochain épisode du Space Opera favori des petits et des grands, et il compte sur des vétérans, des gens qui étaient là dès la première trilogie, et même sur le légendaire Cotter, pour faire reprendre un petit peu la mayonnaise.
[1005] Il va falloir attendre, par contre, parce que la bande -annonce de Mass Effect 4 date d 'il y a 4 ans, comme Mass Effect 4.
[1006] Le jeu serait encore qu 'au tout début de son développement, puisqu 'ils ont affirmé qu 'ils n 'avaient pas besoin de tout le monde dans le studio.
[1007] Ça veut dire quoi ?
[1008] Ça veut dire qu 'en gros, ils sont toujours en train de l 'écrire, plus ou moins.
[1009] Donc, comptez sur rien de concret avant, je ne sais pas, 4 ans, comme Mass Effect 4, toujours, je pense.
[1010] On peut commencer à développer ?
[1011] Non.
[1012] C 'est logique.
[1013] On peut commencer à développer ?
[1014] Non, non, attendez les gars, on ne sait pas encore de quoi on va parler.
[1015] Ah bon, d 'accord.
[1016] Je caricature évidemment.
[1017] Un petit mot aussi pour terminer avec Sony qui fait le choix du bon sens quelque part, j 'allais dire, Guillaume, et qui n 'ira pas plus loin pour imposer comme ça sa connexion au compte PlayStation sur PC.
[1018] Ouais, enfin, ça y est, vous n 'avez pas besoin de compte PlayStation pour jouer aux 4 jours masterisés sur Steam.
[1019] Que sont Spider -Man 2, God of War, Lost of Us 2 et Horizon.
[1020] Alors, les comptes PlayStation sont optionnels, mais il y a des incitations, quand même, pour les joueurs qui s 'enregistrent.
[1021] Voilà, ils peuvent accéder à des trophées, les achievements, quoi.
[1022] Ils peuvent gérer leurs amis PlayStation Network, avoir des récompenses, des tenues spéciales, tout ça, tout ça.
[1023] Les récompenses ne sont pas exclusives aux comptes PlayStation, d 'ailleurs, mais bon, bref.
[1024] En tout cas, c 'est une décision qui est un revirement politique de Sony, suite à une réaction très négative et tout à fait compréhensible des joueurs PC, qui s 'est insurgée, donc, contre l 'obligation d 'avoir un compte PlayStation.
[1025] et qui rappelle d 'ailleurs la controverse de Live Earth 2 où les joueurs avaient protesté aussi et finalement Sony avait fini par renoncer.
[1026] Merci beaucoup Guillaume pour cette compilation des essentiels de l 'actu des nouvelles technologies de cette semaine.
[1027] J 'espère que vous avez passé un bon moment et surtout que vous avez joint l 'utile à l 'agréable parce que j 'espère aussi que les informations qui ont pu être partagées dans cet épisode vous seront utiles et de nature à compléter votre culture.
[1028] sur les nouvelles technologies.
[1029] Si jamais vous avez apprécié cet épisode et si vous êtes encore en train de l 'écouter, c 'est vraiment que pour vous, Tech Café a du sens et un rôle complet dans votre quotidien.
[1030] Donc évidemment, je ne peux que vous inciter à aller jeter un coup d 'œil sur patreon .com slash techcafé et d 'envisager un soutien.
[1031] Je vous rappelle l 'incontournable du moment.
[1032] Au mois de mars, il y aura une bascule du mode de fonctionnement de Patreon qui ne prélèvera plus à l 'épisode, mais qui fera des prélèvements.
[1033] Dans les faits, finalement, ce sera les mêmes montants qui correspondront puisqu 'il y a quelque part un multiplicateur qui est appliqué.
[1034] Mais vous n 'aurez plus la possibilité de plafonner vos participations.
[1035] Donc, si vous voulez en profiter durablement, il faut vous inscrire avant cette date -là.
[1036] N 'hésitez pas à aller jeter un petit coup d 'œil, bien évidemment, comme je vous incite aussi à aller jeter un coup d 'œil sur Discord techcafé .fr et à laisser des avis dans les apps de podcast comme Apple Podcast, Podcast Addict ou Spotify.
[1037] Et puis, bien entendu, bien entendu, vous le savez, on peut discuter individuellement.
[1038] Où est -ce qu 'on va pouvoir te retrouver, toi, Guillaume ?
[1039] Moi, je vais continuer à torturer mon petit RM personnel.
[1040] Espèce de sadique.
[1041] Avec des histoires de chèvres et de choux.
[1042] On va tester ça.
[1043] Tu disais tout à l 'heure que ça le rendait presque mignon.
[1044] Oui, mais bien sûr.
[1045] Mais du coup, quand tu dis ça, ça te rend presque sadique.
[1046] Ah mais ouais, t 'as raison.
[1047] Ah merde, c 'est vrai ça.
[1048] Ça n 'en est que plus jubilatoire.
[1049] C 'est mignon, écoute, c 'est fou.
[1050] Comme tu peux lire ce qu 'il pense, tu sais, à tout moment, il se dit, ah mais non, mais là, ça va pas.
[1051] Attends, mais attends, peut -être que si je fais ça, mais non, ça va pas.
[1052] Je suis bloqué là.
[1053] Les bras croisés en train de regarder.
[1054] C 'est fou.
[1055] Non, mais je te jure, c 'est vraiment mignon.
[1056] On sent qu 'il met tout son cœur.
[1057] Espèce de sadique.
[1058] Merci beaucoup de ton sadisme, Guillaume.
[1059] Je suis Guillaume Vendée.
[1060] Vous me retrouvez sur Blue Sky, en train de structurer ma présence sur YouTube, de temps en temps sur Twitch, dont vous avez les liens dans les notes de l 'épisode.
[1061] En cette fin de semaine, il n 'y aura pas d 'épisode supplément, mais il y aura quand même un épisode spécial avec une interview.
[1062] Vous allez voir, on ne baisse pas les bras dans Tech Café.
[1063] Et on se confronte à nos convictions les plus profondes.
[1064] Et j 'ai fait une interview, une assez chouette interview, je dirais, d 'une personne avec qui on a parlé de crypto -monnaie.
[1065] Donc, vous allez voir qu 'on remet sur le devant de la table ces sujets -là.
[1066] Je vous laisserai écouter et réagir, bien évidemment, et me partager votre sentiment avec cette interview.
[1067] Merci beaucoup, en tout cas, pour votre fidélité.
[1068] Je vous donne rendez -vous.
[1069] dans une semaine pour un prochain épisode de Tech Café.
[1070] Ciao à toutes et à tous.
[1071] Ciao à tous.