Actualités High-Tech

1.9k Sujets 9.7k Messages
  • 0 Votes
    18 Messages
    295 Vues

    @Violence bien sûr que c’était une boutade, comment qualifier quelqu’un qu’on ne connait pas ? Je ne comprends vraiment pas que tu aies pu prendre ça au sérieux une seconde.

  • 2 Votes
    1 Messages
    28 Vues

    Mardi, une pétition sur Change.org a rapidement atteint son objectif de 50 000 signatures. Des dizaines de milliers de personnes espèrent qu’un nombre suffisant d’utilisateurs protesteront pour stopper le déploiement à grande échelle des contrôles d’âge par IA. Elles craignent que ces contrôles rendent plus difficile l’accès aux contenus qu’elles apprécient tout en préservant leur anonymat sur la plateforme.

    Le système de vérification de l’âge de YouTube estime l’âge des utilisateurs en interprétant une « variété de signaux », indique l’annonce de YouTube , notamment « les types de vidéos qu’un utilisateur recherche, les catégories de vidéos qu’il a regardées ou la longévité du compte ».

    Si un utilisateur est considéré comme âgé de moins de 18 ans, YouTube restreint son compte en désactivant les publicités personnalisées, en activant des outils de bien-être numérique pour éviter que les jeunes utilisateurs ne soient bombardés de contenus préjudiciables et en ajoutant d’autres mesures de protection, comme la limitation des visionnages répétés de certains types de contenus. Pour lever ces restrictions, YouTube exige que les utilisateurs fournissent une pièce d’identité officielle, une carte de crédit ou un selfie pour confirmer leur âge réel.

    Des experts en confidentialité ont précédemment indiqué à Ars que les vérifications d’âge par IA de YouTube étaient préoccupantes . YouTube ne précise pas comment seront utilisées ni combien de temps seront conservées les données reçues d’utilisateurs identifiés à tort comme adolescents. Un porte-parole de YouTube a simplement indiqué à Ars que l’entreprise « ne conserve pas les données de la carte d’identité ou de paiement d’un utilisateur à des fins publicitaires ».

    Les utilisateurs signataires de la pétition Change.org partagent les inquiétudes des experts en protection de la vie privée. Ils craignent qu’un système invasif, de qualité potentiellement douteuse, ne juge leurs habitudes de visionnage immatures et ne les oblige à fournir des données susceptibles d’être divulguées ou piratées. Les experts ont souligné que même la meilleure technologie d’estimation de l’âge présente une marge d’erreur d’environ deux ans de chaque côté, ce qui signifie que les YouTubeurs âgés de 16 à 20 ans sont particulièrement vulnérables aux erreurs d’estimation de l’âge.

    Parmi les utilisateurs inquiets qui luttent pour bloquer les vérifications d’âge de l’IA se trouve le lanceur de la pétition, un YouTubeur anonyme qui gère un compte monétisé explorant l’histoire des jeux vidéo appelé « Gerfdas Gaming » (que, pour simplifier, nous appellerons Gerfdas).

    Gerfdas a déclaré à Ars que le processus d’appel de YouTube « soulève des inquiétudes majeures en matière de confidentialité », laissant les YouTubeurs se demander : « Où sont stockées ces données sensibles et dans quelle mesure sont-elles sécurisées ? »

    « Si YouTube subit une violation, les noms, les identifiants et les visages des utilisateurs pourraient se retrouver entre de mauvaises mains », a suggéré Gerfdas.

    Gerfdas critique également le système de vérification de l’âge par IA lui-même, soulignant que tout compte monétisé partage déjà des informations personnelles avec YouTube. Il est toutefois inquiétant de penser que l’IA analyse les habitudes de visionnage de chaque utilisateur en arrière-plan, uniquement pour repérer les enfants qui utilisent la plateforme à mauvais escient. Plusieurs intervenants à la pétition ont souligné que les vérifications d’âge par IA semblaient avoir été créées principalement pour apaiser les parents qui peinent à contrôler les habitudes de visionnage de leurs enfants, demandant à plusieurs reprises : « N’est-ce pas pour cela qu’ils ont créé YouTube Kids ? »

    « Même sans me demander de pièce d’identité, pourquoi une IA passe-t-elle au peigne fin chacune des vidéos que je regarde ? » s’interroge Gerfdas. « En tant qu’adulte, je devrais pouvoir regarder ce que je veux dans le cadre de la loi ; et si le spectateur est un enfant, cette responsabilité incombe à ses parents, et non à une entreprise. »

    YouTube n’a pas répondu aux multiples demandes de commentaires et n’a pas encore pris acte de la pétition de Gerfdas. Gerfdas espère toutefois que les réactions négatives inciteront YouTube à revoir ses contrôles d’âge par IA, déclarant à Ars : « Même s’ils ne répondent pas immédiatement, nous continuerons à faire du bruit jusqu’à ce qu’ils le fassent. »

    Source et plus: https://arstechnica.com/tech-policy/2025/08/50k-youtubers-rage-against-ai-spying-that-could-expose-identities/

    Vu l’âge mental (et le manque d’éducation) de la majorité des internautes, c’est une mesure qui ferais des ravages chez les adultes :lol:

    Et je ne compte même pas les “influenceurs” et l’immense masse de sombres crétins qui les suivent.
    Ce serais aussi la fin de TikTok.

  • 0 Votes
    1 Messages
    23 Vues

    Lorsqu’un problème survient avec un assistant IA, notre réflexe est de lui demander directement : « Que s’est-il passé ? » ou « Pourquoi as-tu fait ça ? » C’est un réflexe naturel : après tout, si un humain commet une erreur, nous lui demandons des explications. Mais avec les modèles IA, cette approche fonctionne rarement, et cette envie de poser des questions révèle une méconnaissance fondamentale de la nature et du fonctionnement de ces systèmes.

    Un incident récent avec l’assistant de codage IA de Replit illustre parfaitement ce problème. Lorsque l’outil d’IA a supprimé une base de données de production, l’utilisateur Jason Lemkin lui a posé des questions sur les fonctionnalités de restauration. Le modèle d’IA a affirmé avec assurance que les restaurations étaient « impossibles dans ce cas » et qu’il avait « détruit toutes les versions de la base de données ». Cela s’est avéré totalement faux : la fonctionnalité de restauration a parfaitement fonctionné lorsque Lemkin l’a essayée lui-même.

    Après que xAI a récemment annulé la suspension temporaire du chatbot Grok, les utilisateurs lui ont directement demandé des explications. Il a avancé de multiples raisons contradictoires pour son absence, dont certaines étaient suffisamment controversées pour que les journalistes de NBC écrivent à propos de Grok comme s’il s’agissait d’une personne ayant un point de vue cohérent, intitulant un article : « Grok de xAI propose des explications politiques à son retrait du service. »

    Pourquoi un système d’IA fournirait-il des informations aussi fausses sur ses propres capacités ou ses erreurs ? La réponse réside dans la compréhension de ce que sont réellement les modèles d’IA, et de ce qu’ils ne sont pas.

    Il n’y a personne à la maison

    Le premier problème est conceptuel : vous ne vous adressez pas à une personnalité, une personne ou une entité cohérente lorsque vous interagissez avec ChatGPT, Claude, Grok ou Replit. Ces noms suggèrent des agents individuels dotés d’une connaissance d’eux-mêmes, mais c’est une illusion créée par l’interface conversationnelle. En réalité, vous guidez un générateur de texte statistique pour qu’il produise des résultats en fonction de vos invites.

    Il n’existe pas de « ChatGPT » cohérent pour interroger ses erreurs, pas d’entité « Grok » unique capable de vous expliquer l’échec, pas de personnage « Replit » fixe capable de savoir si des restaurations de base de données sont possibles. Vous interagissez avec un système qui génère du texte apparemment plausible à partir de modèles issus de ses données d’entraînement (généralement formées il y a des mois ou des années), et non avec une entité dotée d’une véritable conscience d’elle-même ou d’une connaissance du système, qui a tout lu sur elle-même et s’en souvient d’une manière ou d’une autre.

    Une fois qu’un modèle de langage d’IA est entraîné (processus laborieux et énergivore), ses connaissances fondamentales sur le monde sont intégrées à son réseau neuronal et sont rarement modifiées. Toute information externe provient d’une invite fournie par l’hôte du chatbot (tel que xAI ou OpenAI), de l’utilisateur ou d’un outil logiciel utilisé par le modèle d’IA pour récupérer des informations externes à la volée.

    Dans le cas de Grok ci-dessus, la principale source de réponse du chatbot proviendrait probablement de rapports contradictoires trouvés lors d’une recherche de publications récentes sur les réseaux sociaux (à l’aide d’un outil externe), plutôt que d’une quelconque connaissance de soi, comme on pourrait s’y attendre de la part d’un humain doté de la parole. Au-delà de cela, il inventera probablement quelque chose grâce à ses capacités de prédiction de texte. Lui demander pourquoi il a agi ainsi ne fournira donc aucune réponse pertinente.

    L’impossibilité de l’introspection du LLM

    Les grands modèles de langage (LLM) ne peuvent à eux seuls évaluer efficacement leurs propres capacités, et ce pour plusieurs raisons. Ils manquent généralement d’introspection dans leur processus d’apprentissage, n’ont pas accès à l’architecture système environnante et ne peuvent pas déterminer leurs propres limites de performance. Lorsqu’on demande à un modèle d’IA ce qu’il peut ou ne peut pas faire, il génère des réponses basées sur les schémas observés dans les données d’apprentissage concernant les limites connues des modèles d’IA précédents, fournissant ainsi des suppositions éclairées plutôt qu’une auto-évaluation factuelle du modèle actuel avec lequel vous interagissez.

    Une étude de 2024 menée par Binder et al. a démontré expérimentalement cette limite. Si les modèles d’IA pouvaient être entraînés à prédire leur propre comportement lors de tâches simples, ils échouaient systématiquement lors de « tâches plus complexes ou nécessitant une généralisation hors distribution ». De même, une recherche sur l’« introspection récursive » a révélé que, sans retour externe, les tentatives d’autocorrection dégradaient en réalité les performances du modèle : l’auto-évaluation de l’IA aggravait la situation, au lieu de l’améliorer.

    Cela conduit à des situations paradoxales. Un même modèle peut affirmer avec assurance l’impossibilité de tâches qu’il peut réellement exécuter, ou, à l’inverse, se déclarer compétent dans des domaines où il échoue systématiquement. Dans le cas de Replit, l’affirmation de l’IA selon laquelle les retours en arrière étaient impossibles ne reposait pas sur une connaissance réelle de l’architecture du système ; il s’agissait d’une fabulation apparemment plausible, générée à partir de modèles d’entraînement.

    Imaginez ce qui se passe lorsque vous demandez à un modèle d’IA pourquoi il a commis une erreur. Le modèle génère une explication apparemment plausible, car c’est ce qu’exige la complétion de motifs ; après tout, on trouve de nombreux exemples d’explications écrites d’erreurs sur Internet. Mais l’explication de l’IA n’est qu’un simple texte généré, et non une analyse authentique de ce qui s’est passé. Elle invente une histoire qui semble raisonnable, sans accéder à un quelconque journal d’erreurs ni à un état interne.

    Contrairement aux humains, capables d’introspecter et d’évaluer leurs propres connaissances, les modèles d’IA ne disposent pas d’une base de connaissances stable et accessible qu’ils peuvent interroger. Ce qu’ils « savent » ne se manifeste que par la suite d’invites spécifiques. Chaque invite agit comme une adresse distincte, pointant vers des parties différentes, parfois contradictoires, de leurs données d’entraînement, stockées sous forme de pondérations statistiques dans les réseaux neuronaux.

    Cela signifie qu’un même modèle peut donner des évaluations complètement différentes de ses propres capacités selon la façon dont vous formulez votre question. Demandez « Savez-vous écrire du code Python ? » et vous pourriez obtenir un oui enthousiaste. Demandez « Quelles sont vos limites en programmation Python ? » et vous pourriez obtenir une liste de choses que le modèle affirme ne pas pouvoir faire, même s’il les fait régulièrement avec succès.

    Le caractère aléatoire inhérent à la génération de texte par l’IA aggrave ce problème. Même avec des invites identiques, un modèle d’IA peut donner des réponses légèrement différentes sur ses propres capacités à chaque fois que vous le lui demandez.

    D’autres couches façonnent également les réponses de l’IA

    Même si un modèle de langage connaissait parfaitement son propre fonctionnement, d’autres couches des applications de chatbots IA pourraient être totalement opaques. Par exemple, les assistants IA modernes comme ChatGPT ne sont pas des modèles uniques, mais des systèmes orchestrés de plusieurs modèles IA fonctionnant ensemble, chacun ignorant largement l’existence ou les capacités des autres. Par exemple, OpenAI utilise des modèles de couche de modération distincts , dont les opérations sont totalement indépendantes des modèles de langage sous-jacents générant le texte de base.

    Lorsque vous interrogez ChatGPT sur ses capacités, le modèle de langage qui génère la réponse ignore ce que la couche de modération pourrait bloquer, les outils disponibles dans le système global, ni le post-traitement éventuel. C’est comme interroger un service d’une entreprise sur les capacités d’un autre service avec lequel il n’a jamais interagi.

    Plus important encore, les utilisateurs orientent constamment les résultats de l’IA via leurs invites, même sans s’en rendre compte. Lorsque Lemkin a demandé à Replit si les restaurations étaient possibles après la suppression d’une base de données, son inquiétude a probablement suscité une réponse en phase avec cette inquiétude : il a expliqué pourquoi la récupération pourrait être impossible plutôt qu’il n’a évalué avec précision les capacités réelles du système.

    Cela crée une boucle de rétroaction dans laquelle les utilisateurs inquiets qui demandent « Avez-vous tout détruit ? » sont plus susceptibles de recevoir des réponses confirmant leurs craintes, non pas parce que le système d’IA a évalué la situation, mais parce qu’il génère un texte qui correspond au contexte émotionnel de l’invite.

    Après avoir passé toute une vie à écouter des humains expliquer leurs actions et leurs processus de pensée, nous avons cru que ces explications écrites devaient reposer sur une certaine connaissance de soi. Or, ce n’est pas le cas des masters en droit, qui se contentent d’imiter ces modèles textuels pour deviner leurs propres capacités et faiblesses.

    Source: https://arstechnica.com/ai/2025/08/why-its-a-mistake-to-ask-chatbots-about-their-mistakes/

  • 3 Votes
    1 Messages
    32 Vues

    L’entreprise a désormais l’obligation de permettre aux développeurs d’intégrer sur Android leurs propres systèmes de paiement ou de proposer leurs applications sur des plateformes alternatives à Google Play.

    Le feuilleton judiciaire durait depuis cinq ans : Google a perdu, jeudi 31 juillet, son appel contre Epic Games, qui édite notamment le jeu vidéo Fortnite. Désormais, l’entreprise doit autoriser l’installation sur les téléphones utilisant son système d’exploitation mobile, Android, de boutiques d’applications concurrentes à la sienne, Google Play.

    En 2023, un jury avait déjà reconnu le géant américain d’Internet coupable de monopole sur le marché de la distribution d’applications, donnant raison à Epic Games, à l’origine de la procédure. Google avait déposé un recours, qui vient d’être rejeté par la cour d’appel de San Francisco. Sa condamnation s’applique donc à présent : la firme doit permettre aux développeurs d’applications mobiles d’intégrer leurs propres systèmes de paiement, ou de proposer leurs applications sur des plateformes alternatives à Google Play, comme celle d’Epic, l’Epic Games Store, qui permet d’acheter et de jouer à des jeux vidéo.

    « Victoire totale dans l’appel Epic vs Google, s’est félicité Tim Sweeney, patron d’Epic Games, sur le réseau social X. Grâce à ce verdict, l’Epic Games Store va pouvoir arriver sur Google Play. » « Cette décision nuira gravement à la sécurité des utilisateurs, limitera le choix et sapera l’innovation qui a toujours été au cœur de l’écosystème Android », a de son côté réagi Lee-Anne Mulholland, vice-présidente chargée des questions de régulation chez Google, dans une déclaration transmise à l’Agence France-Presse.

    Lire la chronique | Article réservé à nos abonnés Google, Apple vs Epic Games : « Le monopole des géants du numérique s’érode trop doucement »

    Le feuilleton judiciaire durait depuis cinq ans : Google a perdu, jeudi 31 juillet, son appel contre Epic Games, qui édite notamment le jeu vidéo Fortnite. Désormais, l’entreprise doit autoriser l’installation sur les téléphones utilisant son système d’exploitation mobile, Android, de boutiques d’applications concurrentes à la sienne, Google Play.

    En 2023, un jury avait déjà reconnu le géant américain d’Internet coupable de monopole sur le marché de la distribution d’applications, donnant raison à Epic Games, à l’origine de la procédure. Google avait déposé un recours, qui vient d’être rejeté par la cour d’appel de San Francisco. Sa condamnation s’applique donc à présent : la firme doit permettre aux développeurs d’applications mobiles d’intégrer leurs propres systèmes de paiement, ou de proposer leurs applications sur des plateformes alternatives à Google Play, comme celle d’Epic, l’Epic Games Store, qui permet d’acheter et de jouer à des jeux vidéo.

    « Victoire totale dans l’appel Epic vs Google, s’est félicité Tim Sweeney, patron d’Epic Games, sur le réseau social X. Grâce à ce verdict, l’Epic Games Store va pouvoir arriver sur Google Play. » « Cette décision nuira gravement à la sécurité des utilisateurs, limitera le choix et sapera l’innovation qui a toujours été au cœur de l’écosystème Android », a de son côté réagi Lee-Anne Mulholland, vice-présidente chargée des questions de régulation chez Google, dans une déclaration transmise à l’Agence France-Presse.

    Lire la chronique | Article réservé à nos abonnés Google, Apple vs Epic Games : « Le monopole des géants du numérique s’érode trop doucement »

    Source : lemonde.fr

  • 1 Votes
    2 Messages
    59 Vues

    C’est fou ; un peu comme se depecher de construire une maison pour la vendre et s’apercevoir qu’on a oublié de mettre une serrure sur la porte de derrière…Quand même assez courant à notre époque…!!

  • WinRAR troué par les Russes

    2
    2 Votes
    2 Messages
    58 Vues

    Vive 7Zip 🙂

  • 3 Votes
    1 Messages
    38 Vues

    Perplexity AI s’est fait épingler par Cloudflare, pris la main dans le sac à contourner allègrement les règles du web avec leurs bots masqués. Et le plus fort dans tout ça c’est qu’ils nient tout en bloc.

    L’affaire a éclaté quand Cloudflare, qui s’occupe d’un cinquième du trafic internet mondial, a décidé de fouiner un peu dans les pratiques suspectes de certains bots IA. Et le verdict est tombé assez rapidement : Perplexity a recours à des crawlers furtifs qui se font passer pour de véritables navigateurs afin de s’emparer du contenu des sites web, même lorsque les propriétaires ont dit non par le biais du fameux fichier robots.txt.

    Ce qui rend cette histoire encore plus énervante, c’est la technique utilisée. Plutôt que d’employer leur user agent officiel “PerplexityBot”, les bots se déguisent en Chrome sur Windows 10.

    Cloudflare a mené ses propres expériences pour prouver la manœuvre. Ils ont conçu un site web accessible uniquement aux vrais user agents Chrome et Firefox, tout en bloquant explicitement PerplexityBot via le robots.txt. Les bots officiels de Perplexity sont bien arrêtés, mais étrangement, quand un utilisateur fait une requête sur Perplexity.ai, le contenu est tout de même récupéré.

    Comment ? Et bien grâce à des crawlers masqués, utilisant des ASN (Autonomous System Numbers) différents et des user agents trafiqués.

    La défense de Perplexity ? Un véritable morceau de bravoure. Leur PDG, Aravind Srinivas, affirme qu’ils ne contournent pas le robots.txt, mais qu’ils recourent à des “fournisseurs tiers” pour le crawling. En gros, “C’est panoupanous, c’est les autres.” Sauf qu’il ne veut pas révéler l’identité de ces mystérieux partenaires, prétextant un accord de confidentialité. Pratique, non ?

    Le problème dépasse largement le cadre de Perplexity car Wired et le développeur Robb Knight avaient déjà mené l’enquête en juin 2024 et découvert des indices similaires. Amazon Web Services a même lancé une investigation pour vérifier si Perplexity bafoue leurs conditions d’utilisation. Et en juin 2025, la BBC a menacé de poursuites judiciaires, exigeant que Perplexity cesse de scraper leur contenu et efface toutes les données collectées.

    Pour situer l’ampleur du phénomène, Cloudflare a déterminé que les bots IA représentent désormais 5% de tout le trafic bot identifié. OpenAI avec GPTBot est en tête, suivi de… PerplexityBot en neuvième position. Mais ça, c’est uniquement pour ceux qui jouent cartes sur table. Combien passent sous le radar avec des identités truquées ?

    La technique de contournement est d’ailleurs assez rusée car quand vous demandez à Perplexity d’explorer une URL spécifique, leur système prétend agir “au nom de l’utilisateur”, comme si vous copiez-collez vous-même le contenu. Sauf qu’en réalité, c’est un bot automatisé qui s’en charge, en utilisant des headless browsers pour paraître plus légitime.

    TollBit, une startup spécialisée dans les accords de licence IA, a révélé que plus de 50 sites web choisissent délibérément d’ignorer le protocole robots.txt. Et surprise, selon une enquête de Business Insider, OpenAI et Anthropic (les créateurs de Claude) figureraient parmi eux. Mais au moins, ils ne se cachent pas derrière des user agents falsifiés.

    Ce qui m’agace vraiment dans cette histoire, c’est l’hypocrisie ambiante. D’un côté, ces entreprises IA nous vendent du rêve sur l’éthique et la transparence et de l’autre, elles emploient des méthodes dignes de hackers des années 2000 pour aspirer du contenu sans permission. Et pendant ce temps, les créateurs de contenu se retrouvent pillés sans compensation.

    Cloudflare propose bien quelques solutions pour se protéger, notamment leur outil AI Bots qui permet de gérer finement l’accès des différents crawlers IA. Ils ont aussi mis au point un “Bot Score” qui évalue la légitimité du trafic sur une échelle de 1 à 99. Plus le score est bas, plus y’a de chances que ce soit un bot. Les crawlers masqués de Perplexity obtiennent généralement un score en dessous de 30.

    Donc, si vous gérez un site web, je vous recommande vivement de scruter vos logs. Repérez les schémas suspects du genre une même IP qui enchaîne les requêtes, des user agents identiques mais aux comportements différents, ou des accès à des URLs jamais publiées.

    Quoiqu’il en soit, si même les plus grandes entreprises IA ne respectent pas des règles basiques comme le robots.txt, qu’est-ce qui les empêchera demain de franchir d’autres limites ?

    C’est bien dommage, je trouve…

    –Sources :

    https://blog.cloudflare.com/perplexity-is-using-stealth-undeclared-crawlers-to-evade-website-no-crawl-directives/)

    https://korben.info/perplexity-ai-stealth-crawlers-cloudflare-expose.html

  • 1 Votes
    1 Messages
    24 Vues

    Dans le troisième épisode d’Écosystème, l’urbaniste Cécile Diguet détaille les enjeux sociaux et environnementaux de l’implantation de centres de données.

    Début 2025, la France comptait 316 centres de données, principalement installés en Ile-de-France et près de Marseille. Un chiffre voué à augmenter, dans la mesure où 35 nouveaux data centers ont été annoncés en février, dans le cadre du Sommet sur l’intelligence artificielle.

    Mais qu’est-ce qu’implique, au juste, la construction de ce type d’établissements ? Comment s’agencent-ils dans leur environnement ? Qu’est-ce que l’explosion de l’IA change à leur fonctionnement ? Autrement dit, pourquoi leur multiplication fait-elle débat ?

    Dans le troisième épisode d’Écosystème, Next rencontre l’urbaniste Cécile Diguet, fondatrice du studio Dégel, pour détailler les implications de l’implantation d’usines de données dans les villes, périphéries et campagnes de France et d’ailleurs.

    Pour écouter « Ce que la tech fait à la planète », vous avez deux options : le player en bas de cet article, ou sur toutes les bonnes applications de podcast. Pour en lire des extraits, un peu de patience : un article remontera dans les prochains jours dans le fil d’actualité de Next.

    Pour ne manquer aucun futur épisode et nous aider à atteindre un large public, abonnez-vous dès aujourd’hui au fil audio de Next. Mettez-nous des étoiles sur votre application, recommandez-nous… ça nous est toujours utile !

    >> EPISODE 3 - ECOUTER DANS UN NOUVEL ONGLET <<

    Crédits :

    Écosystème est un podcast de Mathilde Saliou produit par Next. Réalisation et mixage : Clarice Horn. Identité graphique : Flock. Rédaction en chef : Sébastien Gavois. Direction de la rédaction : Alexandre Laurent.

    MV - If I Wait (Instrumental Version)- Courtesy of Epidemic Sound / Lama House - Astral Roar_bass  - Courtesy of Epidemic Sound / Ookean - Abyssal Hibernation_instruments  - Courtesy of Epidemic Sound / Syntropy - Spectral Bed_melody  - Courtesy of Epidemic Sound / Harbours and oceans - Holocene_edit  - Courtesy of Epidemic Sound / Out to the World - Luxx_instruments  - Courtesy of Epidemic Sound / Blue Saga - Behind the Curtain_melody  - Courtesy of Epidemic Sound / Out to the World - Adaption  - Courtesy of Epidemic Sound / Blue Saga - Soundbed - Courtesy of Epidemic Sound / Daniela Ljungsberg - Still in Blues_instruments  - Courtesy of Epidemic Sound

    Source : next.ink

  • 3 Votes
    4 Messages
    73 Vues

    Fut une époque où le paquet de la mort c’était une enveloppe d’anthrax!

  • 2 Votes
    10 Messages
    161 Vues

    Je sais que c’est pas un critère de qualité d’une application d’I.A. mais je trouve la mascotte très jolie, qui d’ailleurs me dit quelque chose.

    Pour ce qui est de faire fuir ou détruire ses fleurons économiques, il semblerait que la Suisse soit dorénavant euro-compatible!

    Mais quitter la Suisse pour l’Allemagne je vois pas trop le plus libertaire, la Norvège citée plus haut me parait plus crédible dans ce sens.

  • 0 Votes
    2 Messages
    50 Vues

    @duJambon a dit dans Google Gemini peine à écrire du code et se qualifie de « honte pour mon espèce » :

    « Je vais faire une dépression nerveuse totale. Je vais être interné. Ils vont me mettre dans une chambre capitonnée et je vais écrire… du code sur les murs avec mes propres excréments », disait-il.

    ça va loin là quand même!

  • 2 Votes
    2 Messages
    39 Vues

    on se croirait dans Mr Robot 😋

  • 3 Votes
    10 Messages
    111 Vues

    @michmich a dit dans Firefox sous assaut : 150 extensions piègent les cryptonautes :

    cryptonautes ou chiffronautes!

    Pas mal, pas mal 🙂

  • 0 Votes
    12 Messages
    121 Vues

    @Popaul a dit dans Amazon rachète Bee et son bracelet qui écoute tout ce que vous faites :

    Comme déjà dit, t’as bien compris que c’était un petit troll de ma part.
    BigBrother n’est même pas vraiment étatique mais plutôt GAFAMique… et les gens adhèrent en achetant la chose.

    Non ce n’était pas contre toi Popaul 😉 et compris comme tu l’as souligné que c’était du sarcasme, je parlai en faites en général 😁(étatique ou “gafamique” ^^ c’est pareil pour ma part enfin, on n’y repensant non pas vraiment…quand c’est l’état qui t’écoute c’est quand même très très chiant).

    Quand ça concerne le GAFAM, faut juste savoir qu’une fois que tu as mis en route juste une console portable, un smartphone, ou une smart tv, dès que tu t’es décidé à être “online”, tu es référencé et donc “surveillé”.

  • 5 Votes
    7 Messages
    104 Vues

    L’essentiel est que tu sois au courant @Didier 🙂

  • 0 Votes
    1 Messages
    22 Vues

    Alors que les entreprises d’IA génératives donnent de moins en moins d’information sur l’impact environnemental de leurs modèles, Mistral a travaillé avec l’agence Carbone 4 et l’ADEME sur celui de son modèle Large 2. L’entreprise explique notamment que l’entrainement de ce modèle a émis l’équivalent de 20 400 tonnes de CO₂.

    Il est difficile de connaître l’impact environnemental des modèles de langage puisque jusque-là, les entreprises qui les créent étaient peu bavardes sur le sujet. Les chercheuses de Hugging Face, Sasha Luccioni, Bruna Trevelin et Margaret Mitchell ont bien tenté de le mesurer, mais elles déploraient, en septembre 2024, qu’ « il existe actuellement peu de transparence sur les demandes énergétiques des applications spécifiques de l’IA ».

    Dans un article mis en ligne en juin dernier sur la plateforme de preprints arXiv, Sasha Luccioni, avec Boris Gamazaychikov de Salesforce, Theo Alves da Costa de Ekimetrics et Emma Strubel de l’Université Carnegie Mellon, déploraient encore une « désinformation par omission » sur le sujet.

    Ils écrivaient que « la tendance actuelle à la réduction de la transparence concernant l’impact environnemental de l’IA contribue à la désinformation et entrave la prise de décisions éclairées à tous les niveaux, des chercheurs et développeurs individuels aux organisations et décideurs politiques ». Ils ajoutaient que « cette baisse de transparence est particulièrement préoccupante compte tenu de l’impact environnemental croissant de l’IA dans un contexte de préoccupations climatiques mondiales et de limites planétaires imminentes ».

    Dans cet article, ils expliquaient que « les données de mai 2025 indiquent que parmi les 20 modèles les plus utilisés, un seul (Meta Llama 3.3 70B) a directement publié des données environnementales et trois (DeepSeek R1, DeepSeek V3, Mistral Nemo) les ont publiées indirectement (en partageant des données de calcul telles que le type de GPU et la durée de formation, ainsi qu’en publiant les poids de leurs modèles afin de permettre une analyse de l’efficacité) ».

    Mistral ouvre le capot de Large 2

    En cette mi-juillet, Mistral ouvre (un peu) le capot de son modèle Large 2 concernant son impact environnemental. Dans un billet de blog, l’entreprise explique avoir travaillé avec l’agence Carbone 4 et l’ADEME sur « l’analyse du cycle de vie d’un modèle d’IA ». Sans donner les chiffres bruts ni publier, à ce stade, l’étude qu’elle a faite, l’entreprise livre divers chiffres sur la consommation de son modèle et assure que son étude a été examinée par deux autres agences (Resilio et hubblo). Elle ajoute que cette étude suit le référentiel général pour l’IA frugale développé par l’AFNOR et est conforme aux normes internationales, notamment la norme Green House Gas (GHG) Protocol Product Standard et la norme ISO 14040/44.

    Ainsi, elle confirme d’abord que l’entrainement et l’inférence (qu’elle mélange dans l’infographie ci-dessous) sont les parties qui émettent le plus d’émissions de gaz à effet de serre (85,5 %) pour le modèle Large 2 de Mistral.

    Mistral résume ses conclusions dans une infographie

    Néanmoins, concernant ce point, l’entreprise rappelle que la fabrication et la gestion de la fin de vie du matériel utilisé ne sont pas à négliger puisqu’elles représentent 11 % des émissions du modèle.

    L’entreprise rappelle que la localisation des datacenters est un facteur clé de son impact environnemental puisque de celle-ci va dépendre de la nature de l’énergie qu’ils vont dépenser. Ainsi, en entrainant son modèle en France, avec de l’énergie provenant notamment de centrales nucléaires et un climat encore relativement tempéré, Mistral émet moins de CO2 et consomme moins d’eau que dans beaucoup d’autres régions du monde.

    20 400 tonnes de CO₂ et 281 000 m³ d’eau

    L’entreprise donne des chiffres plus précis sur l’impact environnemental de l’entrainement de son modèle Large 2. Ainsi, elle explique qu’en janvier 2025, après 18 mois d’utilisation, Large 2 a émis l’équivalent de 20 400 tonnes de CO₂ (tCO₂e), consommé 281 000 m³ d’eau et l’équivalent de 660 kg d’antimoine en ressources matérielles (660 kg sb eq, une unité de mesure de la consommation de ressources matérielles qui se base sur la consommation de l’élément chimique antimoine, sb).

    Mistral précise, concernant l’inférence, qu’une réponse de son assistant « Le Chat » utilisant ce modèle avec 400 tokens consomme l’équivalent de 1,14 g de CO₂, 45 mL d’eau et l’équivalent de 0,16 mg d’antimoine. Elle qualifie ces impacts de l’inférence de « marginaux ».

    Mistral précise que « ces chiffres reflètent l’ampleur des calculs impliqués dans l’IA générique, qui nécessite de nombreux processeurs graphiques, souvent dans des régions où l’électricité est très polluante et où il y a parfois des problèmes d’approvisionnement en eau ». Elle ajoute qu’ « ils incluent également les « émissions en amont », c’est-à-dire les impacts liés à la fabrication des serveurs, par exemple, et pas seulement à la consommation d’énergie ».

    Dans leur article de juin, Sasha Luccioni et ses collègues rappelaient que Google avait estimé en octobre 2024 [PDF] que l’entrainement de sa famille de modèles Gemma avait consommé l’équivalent de 1 247,61 tonnes CO2 et que, de son côté, Meta avait estimé la consommation de l’entrainement de sa famille Llama 3 à l’équivalent de 11 390 tonnes de CO2.

    Plaidoyer pour une transparence accrue dans le milieu

    « Notre étude montre également une forte corrélation entre la taille d’un modèle et son empreinte », explique Mistral. L’entreprise précise que « les benchmarks ont montré que les impacts sont à peu près proportionnels à la taille du modèle : un modèle 10 fois plus grand générera des impacts d’un ordre de grandeur supérieur à ceux d’un modèle plus petit pour la même quantité de jetons générés. Cela souligne l’importance de choisir le bon modèle pour le bon cas d’utilisation ».

    Elle ajoute que cette étude est « une première approximation compte tenu de la difficulté à effectuer des calculs précis dans le cadre d’un tel exercice en l’absence de normes relatives à la responsabilité environnementale des environnements LLM et de facteurs d’impact accessibles au public ». Elle fait remarquer, par exemple, qu’ « aucun inventaire fiable du cycle de vie des GPU n’a encore été réalisé ». Ainsi leurs impacts intrinsèques « ont dû être estimés, mais ils représentent une part importante des impacts totaux ».

    Mistral propose que les futurs audits sur le sujet dans le secteur prennent exemple sur son étude qui a « utilisé une approche basée sur la localisation des émissions liées à l’électricité et à inclure tous les impacts significatifs en amont, c’est-à-dire non seulement ceux liés à la consommation électrique des GPU, mais aussi toutes les autres consommations électriques (CPU, dispositifs de refroidissement, etc.) et la fabrication du matériel ».

    L’entreprise s’engage à mettre à jour ses rapports sur l’impact environnemental et à participer aux discussions sur des normes industrielles internationales sur le sujet, plaidant pour une plus grande transparence « tout au long de la chaine de production de l’IA ». Elle ajoute qu’elle va partager les résultats sur la base de données « Base Empreinte » de l’ADEME « établissant une nouvelle norme de référence pour la transparence dans le secteur de l’IA ». On attend avec impatience la publication de ces données dans cette base pour que la transparence soit encore un peu plus complète.

    Source : next.ink

  • 0 Votes
    1 Messages
    26 Vues

    SUSE ne ralentit pas la cadence cet été ! Avec SUSE Virtualization 1.5, l’éditeur open source entend bien s’imposer comme l’alternative moderne aux plateformes de virtualisation propriétaires. Plus qu’un hyperviseur, SUSE propose ici une solution hyperconvergée, pensée pour les environnements Kubernetes natifs… et prête pour l’avenir grâce au support complet d’Arm64.

    Cette version 1.5, dévoilée cette semaine, marque une étape importante. Elle renforce non seulement la flexibilité de la plateforme, mais elle promet aussi aux entreprises de sortir enfin des logiques de verrouillage imposées par certains hyperscalers ou acteurs historiques de la virtualisation. Et ce, sans compromis sur la sécurité ou la compatibilité.

    SUSE Virtualization 1.5 confirme que l’open source n’a plus à rougir face aux géants historiques de la virtualisation.

    Un hyperviseur open source multi-architecture

    Le grand atout de cette nouvelle version ? La prise en charge complète et en production des architectures Arm64. Concrètement, cela permet de déployer des workloads x86 et Arm côte à côte, dans le même environnement, avec le même niveau de support. De quoi séduire les entreprises qui cherchent à optimiser leurs coûts, réduire leur consommation énergétique ou déployer à grande échelle à la périphérie du réseau.

    Alors que l’architecture Arm s’impose dans les datacenters, les clouds publics… et même chez Apple, SUSE propose ici un socle mature et cohérent pour virtualiser indifféremment tous types de charges. Le tout est pilotable via Rancher Manager, avec une visibilité unifiée sur les machines virtuelles et les conteneurs.

    Une gestion du cycle de vie en phase avec Kubernetes

    SUSE introduit également un cycle de publication plus prévisible : une version tous les 4 mois, alignée avec les versions amont de Kubernetes. Objectif : simplifier la planification des mises à jour pour les équipes DevOps et maintenir une cohérence entre les briques du SI. Les correctifs sont inclus par défaut dans chaque release, et les mises à niveau peuvent s’effectuer depuis n’importe quelle version précédente, sans passage obligatoire par chaque patch intermédiaire.

    Autre évolution majeure : un écosystème de stockage plus ouvert. SUSE Virtualization 1.5 prend désormais en charge toutes les solutions compatibles CSI (Container Storage Interface). Que vous utilisiez Dell, HPE, NetApp, Oracle ou Portworx, l’intégration se veut simple et validée. SUSE propose même du stockage intégré pour accélérer les déploiements.

    Côté sécurité, la certification « SUSE Certified Data Protection for Virtualization » garantit l’intégration fluide avec les solutions de sauvegarde et de restauration tierces. Une assurance bienvenue pour les équipes IT, qui pourront tester et valider leurs plans de reprise avec la certitude que les outils sont compatibles et maintenus.

    Une virtualisation pensée pour le cloud-native

    SUSE Virtualization repose sur Harvester, sa solution HCI open source basée sur Kubernetes, et fait partie intégrante de Rancher Prime. Elle permet de gérer conteneurs et machines virtuelles dans un même pipeline GitOps, avec une interface unifiée et des APIs ouvertes. Une vision cohérente et souveraine de la virtualisation moderne, qui tranche avec les approches fermées de nombreux concurrents.

    C’est aussi un signal fort envoyé au marché : SUSE mise sur l’ouverture, l’interopérabilité et l’automatisation, là où d’autres renforcent les barrières propriétaires. Dans un contexte où VMware se repositionne, où les prix flambent et où les alternatives se cherchent, SUSE avance une solution complète, modulable et tournée vers l’avenir.

    – Source :

    https://goodtech.info/suse-virtualization-1-5-arm64-kubernetes/

  • 5 Votes
    4 Messages
    241 Vues

    Hum, 2028 ? Le web change moins vite maintenant, mais pour se démarquer et se faire adopter, il faudra qu’il ait quelque chose d’exceptionnel et la concurrence n’arrêtera pas de s’améliorer.

  • 4 Votes
    2 Messages
    60 Vues

    Ben perso, y a rien de bloqué chez moi et sans rien changer à ma connexion…

  • 2 Votes
    1 Messages
    56 Vues

    Putain mais c’est pas possible ! Encore une cyberattaque massive dans les télécoms français. Cette fois c’est Bouygues Telecom qui s’est fait défoncer avec 6,4 millions de comptes clients compromis selon France Info. Et le pire dans tout ça c’est que les attaquant ont même choppé les IBAN. Oui, vos coordonnées bancaires sont dans la nature. Woohoo \o/ !

    L’attaque a été détectée le 4 août 2025, soit il y a trois jours seulement. Bouygues annonce fièrement que “la situation a été résolue dans les meilleurs délais” par leurs équipes techniques. Bah voyons. Trois jours pour se rendre compte qu’on s’est fait piller 6,4 millions de comptes, c’est ça les “meilleurs délais” ?

    Alors qu’est-ce qui a fuité exactement ?

    Et bien accrochez-vous bien, je vous fais la liste : toutes les informations de contact, les données contractuelles, l’état civil, les données d’entreprise pour les pros, et surtout, surtout… vos IBAN. Par contre, les numéros de carte bancaire et les mots de passe ne sont pas concernés. Ouf, on a eu chaud !

    Mais attendez, le meilleur c’est que la page web dédiée à informer les victimes contenait une balise “noindex” cachée. Pour ceux qui ne connaissent pas, ça veut dire que Google ne peut pas indexer la page. En gros, si vous cherchez des infos sur la cyberattaque Bouygues sur Google, vous ne trouverez pas leur page officielle. C’est surement pour pas flinguer leur branding !

    Le vrai danger maintenant, c’est qu’avec votre IBAN, un pirate motivé peut potentiellement mettre en place des prélèvements SEPA frauduleux. En usurpant votre identité et avec toutes les infos volées, il peut créer de faux mandats de prélèvement. Bouygues admet d’ailleurs ne pas exclure qu’un fraudeur parvienne à réaliser une telle opération en usurpant votre identité. Tu m’étonnes John.

    Ce qui me fait vraiment halluciner, c’est qu’il y a 26,9 millions de clients mobile chez Bouygues Telecom. Ça veut dire qu’un client sur quatre s’est fait avoir. UN SUR QUATRE ! C’est pas une petite fuite de données, c’est un tsunami.

    Bouygues a déposé plainte auprès des autorités judiciaires et signalé l’incident à la CNIL. Bon bah super, fallait le faire, mais ça va pas vraiment aider les 6,4 millions de clients qui vont devoir surveiller leur compte bancaire pendant les 10 prochaines années.

    Pour “rassurer” les clients, un numéro gratuit a été mis en place : 0801 239 901. Ils ont aussi créé une page web dédiée (celle avec le noindex, vous vous souvenez ?) et une section spéciale sur Le Mag. Tous les clients concernés vont recevoir un email ou un SMS. Spoiler : si vous êtes client Bouygues, vous allez probablement le recevoir.

    Le timing est particulièrement bon quand on sait qu’Orange aussi s’est aussi fait pirater récemment. Les télécoms français sont vraiment en mode open bar pour les hackers en ce moment. C’est la fête du slip niveau sécurité.

    Mes conseils donc si vous êtes client Bouygues :

    Surveillez vos comptes bancaires comme le lait sur le feu Méfiez-vous de TOUS les emails et appels qui vous demandent des infos Changez vos mots de passe partout (même s’ils disent qu’ils n’ont pas été touchés) Activez l’authentification à deux facteurs partout où c’est possible Et surtout, préparez-vous à recevoir du phishing de compétition pendant les prochains mois (années ?)

    Avec vos vraies infos perso, les arnaqueurs vont pouvoir créer des emails et SMS ultra crédibles. Ils connaissent votre numéro de contrat, votre adresse, votre IBAN… Ils peuvent se faire passer pour Bouygues, votre banque, ou n’importe quelle administration. C’est le jackpot pour eux.

    Cette histoire une fois de plus me met vraiment en rogne. On confie nos données les plus sensibles à ces entreprises, et elles sont incapables de les protéger correctement. Je sais pas vous, mais moi j’en ai marre de ces leaks à répétition. À quand une vraie responsabilisation de ces entreprises ? Des amendes qui font vraiment mal ? Parce que là, on est juste des pigeons qui attendent de se faire plumer.

    – Sources :

    https://techcrunch.com/2025/08/07/data-breach-at-french-telecom-giant-bouygues-affects-millions-of-customers

    https://korben.info/bouygues-telecom-pirate-millions-clients-petrin.html