Actualités High-Tech

1.9k Sujets 9.6k Messages
  • 1 Votes
    4 Messages
    400 Vues

    Protocole intéressant …Merci pour ces infos ; je vais marquer cette page pour plus tard…

  • 1 Votes
    6 Messages
    58 Vues

    J’avais lu les sources. Changer un DNS est je pense à la portée de toua avec un peu de bonne volonté. Pas qu’aux admins réseau. Idem pour Pi-Hole ou ADGUARD home avec un tuto clair.

    Il y a pas mal de vieux d’anciens 🙂 ici qui savent le faire par exemple !

    Pour info, Pi-hole peut être utilisé de l’extérieur 😉

  • 1 Votes
    4 Messages
    75 Vues

    Aussi crédible que la masturbation rend sourd :ahah:

    singe sourd.png

  • 1 Votes
    1 Messages
    19 Vues

    Dans le cinquième épisode d’Écosystème, la développeuse Anaïs Sparesotto détaille les enjeux que soulève l’écoconception de services numériques.

    En 1965, le physicien Gordon Moore énonçait une loi empirique selon laquelle la puissance de calcul des ordinateurs doublerait chaque année grâce aux progrès des microprocesseurs. Jusqu’à la fin des années 2000, l’industrie de l’électronique a plutôt bien réussi à respecter cette théorie, ce qui a permis la miniaturisation de nos équipements numériques.

    Mais pendant que la partie matérielle gagnait en capacité, la partie logicielle, elle, s’étendait sans trop se poser de question. La dynamique est telle qu’entre 2010 et 2020, le poids des sites web a été multiplié par 10, selon GreenIT.

    En quoi est-ce que cet étalement joue sur les performances de nos outils numériques, donc sur leur impact environnemental ? Comment la contrer ? Dans quelle mesure réfléchir à l’écoconception de services numériques permet aussi de répondre à des enjeux de sécurité technique ou d’accessibilité ? Développeuse web chez Toovalu et formatrice à l’Ada tech School, Anaïs Sparesotto évoque tous ces sujets dans le cinquième épisode d’Écosystème.

    Pour écouter « Des services numériques légers comme l’air », vous avez deux options : le player en bas de cet article, ou sur toutes les bonnes applications de podcast. Pour en lire des extraits, un peu de patience : un article remontera dans les prochains jours dans le fil d’actualité de Next.

    Pour ne manquer aucun futur épisode et nous aider à atteindre un large public, abonnez-vous dès aujourd’hui au fil audio de Next. Mettez-nous des étoiles sur votre application, recommandez-nous… ça nous est toujours utile !

    >> EPISODE 5 - ECOUTER DANS UN NOUVEL ONGLET <<

    Crédits :

    Écosystème est un podcast de Mathilde Saliou produit par Next. Réalisation et mixage : Clarice Horn. Identité graphique : Flock. Rédaction en chef : Sébastien Gavois. Direction de la rédaction : Alexandre Laurent.

    Van Sadano - Ayama / Van Sadano - Orbit / Daniel Jorge - Constellations / Van Sadano - Naiad / Blue Saga - Neutral State / Anthony Earls - Hydrogenic / Gridded - Experimental / Ryan James Carr - Lost Lover Undercover / MV - If I Wait (Instrumental Version) — Courtesy of Epidemic Sound

    Source : next.ink

  • AI Act : Le guide de survie pour les éditeurs web

    1
    2 Votes
    1 Messages
    19 Vues

    Bon, on est le 31 juillet 2025 et dans deux jours, c’est le grand chamboulement. L’AI Act entre en application et j’ai vu passer tellement de conneries sur le sujet que j’ai décidé de vous faire un guide clair et net. Parce que non, vous n’allez pas devoir mettre “CONTENU GÉNÉRÉ PAR IA” en gros sur chaque article de votre blog.

    Alors respirez un coup, prenez un café, et on va démêler tout ça ensemble. Je vous promets qu’à la fin de cet article, vous saurez exactement ce que vous devez faire sur votre site. Et surtout, ce que vous n’êtes PAS obligé de faire.

    L’AI Act, c’est donc le nouveau règlement européen sur l’intelligence artificielle. Un peu comme le RGPD mais pour l’IA. Et comme le RGPD, ça s’applique à tous ceux qui proposent des services dans l’Union européenne, même si vous êtes basé aux États-Unis ou sur Mars.

    Le truc important à comprendre, c’est que l’AI Act fonctionne par niveaux de risque. Plus votre système d’IA présente de risques, plus vous avez d’obligations. Pour nous, éditeurs web et créateurs de contenu, on est généralement dans la catégorie “risque limité”, ce qui veut dire qu’on a principalement des obligations de transparence.

    Et c’est là que ça devient intéressant car c’est l’article 50 du règlement qui définit ces obligations de transparence, mais il y a plein d’exemptions que personne ne vous raconte.

    Concrètement, si vous utilisez l’IA pour générer du contenu sur votre site, vous devez en informer vos utilisateurs. Mais attention, ce n’est pas aussi simple que “mettez une mention partout”.

    Voici ce que dit précisément le texte :

    Pour les contenus type deepfake (images, audio, vidéo) : Vous devez indiquer que le contenu a été artificiellement généré ou manipulé. Pour les textes d’information publique : Si vous utilisez l’IA pour générer des textes “dans le but d’informer le public sur des questions d’intérêt public”, vous devez le signaler. Pour les chatbots et assistants : Vous devez informer les utilisateurs qu’ils interagissent avec un système d’IA.

    Mais voilà le twist, ces obligations ne s’appliquent pas dans tous les cas car l’AI Act prévoit plusieurs cas où vous n’avez pas besoin de signaler l’utilisation de l’IA :

    L’exemption MAJEURE - La relecture humaine

    C’est probablement l’exemption la plus importante pour vous ! D’après l’article 50 paragraphe 4 de l’AI Act, vous n’avez PAS besoin de mentionner l’utilisation de l’IA si :

    Le contenu généré par IA a subi un processus de relecture humaine ou de contrôle éditorial ET qu’une personne physique ou morale assume la responsabilité éditoriale de la publication

    Concrètement, ça veut dire que si vous utilisez ChatGPT / Claude pour générer un brouillon d’article, qu’ensuite, vous le relisez, le modifiez, l’éditez, le corrigez et quie vous en assumez la responsabilité en tant qu’éditeur/blogueur, vous n’avez PAS besoin de mentionner que l’IA a été utilisée !

    C’est énorme car cette exemption reconnaît que la relecture humaine et la responsabilité éditoriale réduisent considérablement les risques. Le texte officiel précise ainsi que cette exemption est conçue pour les cas où les textes générés par IA sont “examinés, classés et dont la responsabilité est assumée par du personnel éditorial” (source Lexology). Je trouve ça très bien car dans ce cas précis, l’IA est utilisé comme un outil sous contrôle humain, et pas un moyen automatisé capable de faire n’importe quoi.

    Par contre, pour les images générées par IA, la mention reste nécessaire.

    L’exemption “c’est évident”

    L’article 50 précise aussi que vous n’avez pas à informer les utilisateurs si c’est “évident du point de vue d’une personne raisonnablement bien informée, observatrice et circonspecte”.

    En clair, si c’est évident que c’est de l’IA, pas besoin de le dire. Par exemple, si vous avez un chatbot qui s’appelle “Assistant IA” avec une icône de robot, pas besoin d’ajouter “Ceci est une IA”. C’est du bon sens.

    L’exemption créative

    Si votre contenu fait partie d’une œuvre “manifestement artistique, créative, satirique, fictionnelle ou analogue”, vous n’avez qu’une obligation minimale, celle de signaler l’existence du contenu généré “d’une manière appropriée qui n’entrave pas l’affichage ou la jouissance de l’œuvre”.

    Traduction, si vous faites de l’art, de la fiction ou de la satire avec l’IA, vous pouvez mettre une petite mention discrète quelque part, pas besoin de gâcher votre création avec un gros bandeau rouge.

    L’exemption édition standard

    Si l’IA n’a qu’une “fonction d’assistance pour l’édition standard” et ne modifie pas substantiellement le contenu, pas non plus d’obligation de transparence.

    Donc si vous utilisez l’IA pour :

    Corriger vos fautes d’orthographe Reformuler légèrement vos phrases Ajuster le ton Optimiser le SEO sans changer le fond

    Vous n’avez PAS besoin de le signaler. C’est considéré comme de l’édition standard, au même titre qu’utiliser un correcteur orthographique.

    L’exemption usage personnel

    Si vous utilisez l’IA dans un contexte personnel et non professionnel, l’AI Act ne s’applique pas. Donc votre blog perso où vous racontez vos vacances n’est pas concerné sauf si vous le monétisez ou si vous avez une audience professionnelle.

    Bon, parlons maintenant du nerf de la guerre. Si vous ne respectez pas ces obligations, vous risquez :

    Jusqu’à 15 millions d’euros d’amende OU 3% de votre chiffre d’affaires mondial annuel ( c’est le montant le plus élevé des deux qui sera conservé)

    Mais avant de paniquer, sachez que ces amendes maximales sont pour les cas graves et répétés. Les autorités vont d’abord vous demander de vous mettre en conformité. C’est un peu comme le RGPD… on commence par la prévention avant la répression.

    Maintenant qu’on a vu la théorie, passons à la pratique. Voici exactement ce que vous devez faire selon votre situation :

    Vous utilisez ChatGPT ou Claude pour écrire vos articles

    Cas 1 : Vous générez un brouillon avec l’IA puis vous le relisez/éditezPAS d’obligation de mention grâce à l’exemption de relecture humaine (article 50.4) → Condition : vous devez vraiment relire et assumer la responsabilité éditoriale

    Cas 2 : Vous publiez directement le texte généré par l’IA sans relecture → Si c’est pour informer le public : mention obligatoire → Si c’est créatif/satirique/fiction : mention discrète suffisante

    Cas 3 : Vous utilisez l’IA juste pour améliorer votre texte (grammaire, style) → Pas d’obligation car c’est de l’édition standard

    Vous utilisez Midjourney ou DALL-E pour vos images

    Pour toute image générée par IA, vous devez le signaler, SAUF si :

    C’est dans un contexte artistique évident C’est pour un usage personnel non-commercial

    Comment le signaler ? Une mention dans la balise alt, dans la légende ou en bas de page suffit. Pas besoin d’un watermark géant.

    Vous avez un chatbot sur votre site

    Vous devez informer les utilisateurs qu’ils parlent à une IA, SAUF si c’est évident (le chatbot s’appelle “Bot IA”, a une tête de robot, etc.).

    Voici donc mes recommandations pour dormir sur vos deux oreilles :

    Créez une page “Notre utilisation de l’IA” Expliquez comment vous utilisez l’IA sur votre site. C’est transparent et ça couvre vos arrières. Soyez raisonnable avec les mentions Pas besoin de mettre “GÉNÉRÉ PAR IA” en Comic Sans rouge sur chaque paragraphe. Une mention sobre, claire, nette et précise suffit. Documentez votre process Gardez une trace de comment vous utilisez l’IA comme ça si on vous demande, vous pourrez justifier pourquoi vous n’avez pas mis de mention. Privilégiez l’IA comme assistant Utilisez l’IA pour améliorer votre contenu, pas pour le remplacer. C’est mieux pour votre audience ET ça vous évite des obligations.

    Voilà, si vous voulez creuser le sujet (et je vous le conseille), voici les liens officiels :

    Le texte complet de l’AI Act sur EUR-Lex - Règlement (UE) 2024/1689, source officielle L’article 50 en détail - Les obligations de transparence expliquées Analyse juridique de l’article 50.4 - Sur l’exemption de relecture humaine Le calendrier d’implémentation - Pour savoir ce qui arrive quand Guide WilmerHale sur l’article 50 - Analyse approfondie des exemptions

    Voilà, vous savez tout ! L’AI Act, c’est pas la fin du monde, c’est juste un nouveau cadre pour utiliser l’IA de manière responsable et, la plupart d’entre vous n’auront que peu de changements à faire.

    L’important, c’est de rester transparent avec votre audience quand c’est nécessaire mais pas besoin d’en faire des tonnes. Je trouve que l’AI Act est plus intelligent qu’on ne le pense car il fait la différence entre publier directement du contenu généré par IA et utiliser l’IA comme assistant de rédaction. Par contre, les gens mal informés sur le sujet ou bien cons risquent de vous prendre le chou donc restez zen et envoyez leur le lien de mon article.

    Ah, et un dernier conseil : si vous avez un doute sur votre cas particulier, demandez à un juriste spécialisé car cet article vous donne les grandes lignes basées sur les textes officiels, mais chaque situation est unique et je ne suis pas juriste, alors mieux vaut prévenir que guérir, surtout avec des amendes à 15 millions d’euros !

    – Source :

    https://korben.info/act-guide-survie-editeurs-web-spoiler.html

  • 0 Votes
    3 Messages
    45 Vues

    Ce n’est que le début @michmich

  • 0 Votes
    2 Messages
    48 Vues

    Pourquoi se priver alors que le j’menfoutre est de rigueur partout.

  • 1 Votes
    1 Messages
    26 Vues

    Microsoft vient de lever le voile sur un truc assez cool qui s’appelle Project IRE !

    C’est un agent IA qui analyse et détecte les malwares en parfait autonomie. Plus besoin d’un expert humain pour décortiquer chaque fichier suspect, c’est l’IA qui s’en charge et elle le fait plutôt bien avec 98% de précision et seulement 2% de faux positifs sur un dataset de drivers Windows.

    C’est du lourd car au lieu de se contenter d’une simple analyse par signatures comme les antivirus classiques, Project IRE fait de la vraie reverse engineering. L’agent décompile le code, reconstruit le graphe de flux de contrôle (control flow graph pour les intimes), analyse chaque fonction et génère un rapport détaillé expliquant pourquoi le fichier est malveillant ou non.

    Pour faire tout ça, Microsoft s’appuie sur Azure AI Foundry et des outils de reverse engineering bien connus comme angr et Ghidra. Le processus commence ainsi par un triage automatique pour identifier le type de fichier et sa structure. Ensuite, l’IA reconstruit comment le programme s’exécute, analyse chaque fonction avec des modèles de langage spécialisés et compile tout dans une “chaîne de preuves” (chain of evidence).

    Cette transparence est cruciale car elle permet aux équipes de sécurité de vérifier le raisonnement de l’IA et comprendre comment elle est arrivée à ses conclusions. Et surtout, les tests en conditions réelles sont prometteurs car sur 4000 fichiers que les systèmes automatisés de Microsoft n’arrivaient pas à classifier, Project IRE a correctement identifié 89% des fichiers malveillants avec seulement 4% de faux positifs.

    Le seul bémol c’est le taux de détection global qui n’est que de 26%, ce qui signifie que l’IA rate encore pas mal de malwares. Mais comme le soulignent les chercheurs, cette combinaison de haute précision et faible taux d’erreur montre un vrai potentiel pour un déploiement futur.

    Mike Walker, Research Manager chez Microsoft, raconte que dans plusieurs cas où l’IA et l’humain n’étaient pas d’accord, c’est l’IA qui avait raison. Ça montre bien que les forces complémentaires de l’humain et de l’IA peuvent vraiment améliorer la protection. Pour valider ses trouvailles, Project IRE utilise un outil de validation qui vérifie les affirmations du rapport contre la chaîne de preuves.

    Cet outil s’appuie sur des déclarations d’experts en reverse engineering de l’équipe Project IRE et en combinant ces preuves et son modèle interne, le système produit un rapport final et classe le fichier comme malveillant ou bénin. L’objectif à terme est ambitieux puisqu’il s’agit de détecter automatiquement de nouveaux malwares directement en mémoire, à grande échelle.

    Ce serait vraiment cool d’identifier des menaces avancées (APT) sans qu’un humain ait besoin d’intervenir. D’ailleurs, Project IRE a déjà réussi à créer le premier cas de conviction pour un malware APT chez Microsoft, sans aide humaine.

    Pour l’instant, ça reste un prototype qui sera intégré plus tard dans Microsoft Defender comme outil d’analyse binaire mais les implications sont déjà énormes car les malwares deviennent de plus en plus sophistiqués et nombreux, et avoir une IA capable de les analyser automatiquement pourrait changer pas mal la lutte contre ces saloperies.

    Alors oui, on n’est pas encore au point où l’IA remplace complètement les experts en sécurité mais on s’en rapproche et vu la pénurie de talents en cybersécurité et l’explosion du nombre de menaces, c’est plutôt une bonne nouvelle.

    – Sources :

    https://www.helpnetsecurity.com/2025/08/05/project-ire-microsoft-autonomous-malware-detection-ai-agent/

    https://korben.info/project-ire-agent-microsoft-detecte-malwares.html

  • 2 Votes
    1 Messages
    26 Vues

    Dans le quatrième épisode d’Écosystème, Boris Dolley évoque l’évolution du poids du numérique dans la consommation électrique nationale avant de détailler comment le gestionnaire du réseau public d’électricité travaille à déployer des outils et des pratiques relevant d’un numérique responsable.

    À entendre le patron Sam Altman, c’est évident : dans quelques années, une « fraction significative » de l’énergie produite sur la planète devra être allouée à l’IA. De fait, depuis le boom des grands modèles de langage, les besoins en énergie des géants du numérique ont explosé.

    Quels effets est-ce que cela a sur le réseau électrique ? Pour l’épisode central de sa série Écosystème, Next en a discuté avec Boris Dolley, à la tête du bureau de l’Open source de RTE (Réseau et transport d’électricité), le gestionnaire du réseau public d’électricité.

    La discussion se tourne ensuite vers l’objet de son poste : l’open source, mais aussi le déploiement de la stratégie numérique responsable de RTE. Qu’est-ce que le numérique responsable ? Dans quelle mesure cela joue-t-il sur les impacts environnementaux d’une entreprise ?

    Pour écouter « Numérique électrique, numérique responsable », vous avez deux options : le player en bas de cet article, ou sur toutes les bonnes applications de podcast. Pour en lire des extraits, un peu de patience : un article remontera dans les prochains jours dans le fil d’actualité de Next.

    Pour ne manquer aucun futur épisode et nous aider à atteindre un large public, abonnez-vous dès aujourd’hui au fil audio de Next. Mettez-nous des étoiles sur votre application, recommandez-nous… ça nous est toujours utile !

    >> EPISODE 4 - ECOUTER DANS UN NOUVEL ONGLET <<

    Crédits :

    Écosystème est un podcast de Mathilde Saliou produit par Next. Réalisation et mixage : Clarice Horn. Identité graphique : Flock. Rédaction en chef : Sébastien Gavois. Direction de la rédaction : Alexandre Laurent.

    Musique : MV - If I Wait (Instrumental Version)- Courtesy of Epidemic Sound / Blue Steel - Electric City - Stems Instruments - Courtesy of Epidemic Sound / Helmut Schenker - Hills and Hollows Stems Instruments - Courtesy of Epidemic Sound / Blue Steel - Moonshot Stems Bass - Courtesy of Epidemic Sound / Blue Saga - Neutral State STEMS INSTRUMENTS - Courtesy of Epidemic Sound / Katori Walker - Pray for My City (Instrumental Version) Stem Instruments - Courtesy of Epidemic Sound / Dylan Sitts - Strange Place - Stems Instruments - Courtesy of Epidemic Sound

    Source : next.ink

  • Smartphones: Danger le piratage "tap trap" arrive

    Déplacé
    1
    0 Votes
    1 Messages
    60 Vues

    Attention aux propriétaires de smartphones qui utilisent un appareil Android: des experts en informatique viennent de mettre au jour une astuce sophistiquée qui pourrait permettre aux pirates d’accéder aux smartphones et donc aux données sensibles des utilisateurs de téléphones portables. Et ce, grâce à une application «invisible» qui pourrait passer inaperçue… (la méthode pourrait être utilisée aussi bien sur iphone)

    Cette méthode de piratage est également connue dans les milieux spécialisés sous le nom de «TapTrap» (piège du toucher). Comme le rapportent entre autres le magazine tech «Scinexx» et «Chip.de», l’application peut s’afficher au premier plan de l’écran sous forme d’apparition transparente, qui passe inaperçue aux yeux des utilisateurs.

    Si le propriétaire de l’Android continue d’agir dans une application qu’il vient d’ouvrir en tapant sur l’application invisible, des commandes involontaires pourraient ainsi être déclenchées. Le média autrichien «Der Standard» a également fait état de ce cas.

    L’astuce se base sur la capacité des smartphones à pouvoir ouvrir plusieurs applications en même temps. Ainsi, il serait en principe également possible qu’une application frauduleuse déclenche une autre application sans que le propriétaire du smartphone s’en aperçoive, tout en l’affichant de manière transparente.

    «Les apps peuvent également lancer d’autres apps en utilisant des animations, comme un fondu lent ou un glissement vers l’avant», explique Philip Beer de l’université technique de Vienne à Scinexx. «C’est exactement ce dont on peut abuser», souligne-t-il.

    L’application invisible est difficile à détecter

    Si le propriétaire du smartphone appuie sans le savoir sur l’application transparente, cela peut déclencher des activités auxquelles l’utilisateur du terminal n’aurait sans doute jamais consenti autrement.

    Selon les scientifiques de l’université technique de Vienne, cela pourrait inclure la lecture de données sensibles ou des modifications dans les applications bancaires. Beer explique: «Nous avons testé cela en créant un jeu simple».

    Le jeu permettait de collecter des points en tapant sur des petites bestioles à l’écran. L’équipe a fait tester le jeu par vingt participants à l’étude. Il s’est avéré qu’il était possible d’obtenir différentes autorisations à l’insu des participants, comme par exemple l’accès à la caméra du smartphone.

    «Mais le jeu ouvre ensuite une autre application, par exemple un navigateur. On a certes l’impression de jouer encore au jeu du scarabée, mais en réalité, c’est ce dernier que l’on utilise», explique le scientifique de l’université technique de Vienne.

    Même si une fenêtre de confirmation devrait normalement apparaître, l’application invisible du pirate peut la supprimer. Beer met en garde: «Théoriquement, on pourrait aussi lancer une application bancaire de cette manière, ou même effacer toutes les données du téléphone».

    Comment se protéger contre «Tap Trap» ?

    Scinexx rapporte des enquêtes qui ont suggéré que 76% des presque 100’000 apps contrôlées sont vulnérables au «TapTrap». Toutefois, aucune de ces failles de sécurité n’aurait été exploitée jusqu’à présent.

    L’équipe a signalé le problème aux développeurs d’Android, de Firefox et de Google Chrome, qui ont déjà réagi. Pour se protéger contre les attaques, les utilisateurs de smartphones devraient être prudents. Beer recommande de ne pas installer d’applications provenant de sources non sûres. Pour plus de sécurité, il conseille également de vérifier régulièrement les paramètres de l’appareil.

    «Lorsque l’on accède à l’appareil photo ou au microphone, cela se voit souvent aussi aux symboles dans la barre d’état, il faut y faire attention», souligne-t-il.

    Pour être encore plus en sécurité avec son smartphone, il est possible de désactiver complètement l’animation des applications dans les paramètres sous «Aide à l’utilisation» et «Couleur et mouvement». Cela réduit en fin de compte le risque que des applications pirates s’infiltrent à l’insu de tous lors du lancement d’une application.

    Source: https://www.bluewin.ch/fr/infos/sciences-technique/comment-les-escrocs-piratent-ton-telephone-portable-avec-des-apps-invisibles-2825106.html

  • 0 Votes
    18 Messages
    253 Vues

    @Violence bien sûr que c’était une boutade, comment qualifier quelqu’un qu’on ne connait pas ? Je ne comprends vraiment pas que tu aies pu prendre ça au sérieux une seconde.

  • 2 Votes
    1 Messages
    28 Vues

    Mardi, une pétition sur Change.org a rapidement atteint son objectif de 50 000 signatures. Des dizaines de milliers de personnes espèrent qu’un nombre suffisant d’utilisateurs protesteront pour stopper le déploiement à grande échelle des contrôles d’âge par IA. Elles craignent que ces contrôles rendent plus difficile l’accès aux contenus qu’elles apprécient tout en préservant leur anonymat sur la plateforme.

    Le système de vérification de l’âge de YouTube estime l’âge des utilisateurs en interprétant une « variété de signaux », indique l’annonce de YouTube , notamment « les types de vidéos qu’un utilisateur recherche, les catégories de vidéos qu’il a regardées ou la longévité du compte ».

    Si un utilisateur est considéré comme âgé de moins de 18 ans, YouTube restreint son compte en désactivant les publicités personnalisées, en activant des outils de bien-être numérique pour éviter que les jeunes utilisateurs ne soient bombardés de contenus préjudiciables et en ajoutant d’autres mesures de protection, comme la limitation des visionnages répétés de certains types de contenus. Pour lever ces restrictions, YouTube exige que les utilisateurs fournissent une pièce d’identité officielle, une carte de crédit ou un selfie pour confirmer leur âge réel.

    Des experts en confidentialité ont précédemment indiqué à Ars que les vérifications d’âge par IA de YouTube étaient préoccupantes . YouTube ne précise pas comment seront utilisées ni combien de temps seront conservées les données reçues d’utilisateurs identifiés à tort comme adolescents. Un porte-parole de YouTube a simplement indiqué à Ars que l’entreprise « ne conserve pas les données de la carte d’identité ou de paiement d’un utilisateur à des fins publicitaires ».

    Les utilisateurs signataires de la pétition Change.org partagent les inquiétudes des experts en protection de la vie privée. Ils craignent qu’un système invasif, de qualité potentiellement douteuse, ne juge leurs habitudes de visionnage immatures et ne les oblige à fournir des données susceptibles d’être divulguées ou piratées. Les experts ont souligné que même la meilleure technologie d’estimation de l’âge présente une marge d’erreur d’environ deux ans de chaque côté, ce qui signifie que les YouTubeurs âgés de 16 à 20 ans sont particulièrement vulnérables aux erreurs d’estimation de l’âge.

    Parmi les utilisateurs inquiets qui luttent pour bloquer les vérifications d’âge de l’IA se trouve le lanceur de la pétition, un YouTubeur anonyme qui gère un compte monétisé explorant l’histoire des jeux vidéo appelé « Gerfdas Gaming » (que, pour simplifier, nous appellerons Gerfdas).

    Gerfdas a déclaré à Ars que le processus d’appel de YouTube « soulève des inquiétudes majeures en matière de confidentialité », laissant les YouTubeurs se demander : « Où sont stockées ces données sensibles et dans quelle mesure sont-elles sécurisées ? »

    « Si YouTube subit une violation, les noms, les identifiants et les visages des utilisateurs pourraient se retrouver entre de mauvaises mains », a suggéré Gerfdas.

    Gerfdas critique également le système de vérification de l’âge par IA lui-même, soulignant que tout compte monétisé partage déjà des informations personnelles avec YouTube. Il est toutefois inquiétant de penser que l’IA analyse les habitudes de visionnage de chaque utilisateur en arrière-plan, uniquement pour repérer les enfants qui utilisent la plateforme à mauvais escient. Plusieurs intervenants à la pétition ont souligné que les vérifications d’âge par IA semblaient avoir été créées principalement pour apaiser les parents qui peinent à contrôler les habitudes de visionnage de leurs enfants, demandant à plusieurs reprises : « N’est-ce pas pour cela qu’ils ont créé YouTube Kids ? »

    « Même sans me demander de pièce d’identité, pourquoi une IA passe-t-elle au peigne fin chacune des vidéos que je regarde ? » s’interroge Gerfdas. « En tant qu’adulte, je devrais pouvoir regarder ce que je veux dans le cadre de la loi ; et si le spectateur est un enfant, cette responsabilité incombe à ses parents, et non à une entreprise. »

    YouTube n’a pas répondu aux multiples demandes de commentaires et n’a pas encore pris acte de la pétition de Gerfdas. Gerfdas espère toutefois que les réactions négatives inciteront YouTube à revoir ses contrôles d’âge par IA, déclarant à Ars : « Même s’ils ne répondent pas immédiatement, nous continuerons à faire du bruit jusqu’à ce qu’ils le fassent. »

    Source et plus: https://arstechnica.com/tech-policy/2025/08/50k-youtubers-rage-against-ai-spying-that-could-expose-identities/

    Vu l’âge mental (et le manque d’éducation) de la majorité des internautes, c’est une mesure qui ferais des ravages chez les adultes :lol:

    Et je ne compte même pas les “influenceurs” et l’immense masse de sombres crétins qui les suivent.
    Ce serais aussi la fin de TikTok.

  • 0 Votes
    1 Messages
    21 Vues

    Lorsqu’un problème survient avec un assistant IA, notre réflexe est de lui demander directement : « Que s’est-il passé ? » ou « Pourquoi as-tu fait ça ? » C’est un réflexe naturel : après tout, si un humain commet une erreur, nous lui demandons des explications. Mais avec les modèles IA, cette approche fonctionne rarement, et cette envie de poser des questions révèle une méconnaissance fondamentale de la nature et du fonctionnement de ces systèmes.

    Un incident récent avec l’assistant de codage IA de Replit illustre parfaitement ce problème. Lorsque l’outil d’IA a supprimé une base de données de production, l’utilisateur Jason Lemkin lui a posé des questions sur les fonctionnalités de restauration. Le modèle d’IA a affirmé avec assurance que les restaurations étaient « impossibles dans ce cas » et qu’il avait « détruit toutes les versions de la base de données ». Cela s’est avéré totalement faux : la fonctionnalité de restauration a parfaitement fonctionné lorsque Lemkin l’a essayée lui-même.

    Après que xAI a récemment annulé la suspension temporaire du chatbot Grok, les utilisateurs lui ont directement demandé des explications. Il a avancé de multiples raisons contradictoires pour son absence, dont certaines étaient suffisamment controversées pour que les journalistes de NBC écrivent à propos de Grok comme s’il s’agissait d’une personne ayant un point de vue cohérent, intitulant un article : « Grok de xAI propose des explications politiques à son retrait du service. »

    Pourquoi un système d’IA fournirait-il des informations aussi fausses sur ses propres capacités ou ses erreurs ? La réponse réside dans la compréhension de ce que sont réellement les modèles d’IA, et de ce qu’ils ne sont pas.

    Il n’y a personne à la maison

    Le premier problème est conceptuel : vous ne vous adressez pas à une personnalité, une personne ou une entité cohérente lorsque vous interagissez avec ChatGPT, Claude, Grok ou Replit. Ces noms suggèrent des agents individuels dotés d’une connaissance d’eux-mêmes, mais c’est une illusion créée par l’interface conversationnelle. En réalité, vous guidez un générateur de texte statistique pour qu’il produise des résultats en fonction de vos invites.

    Il n’existe pas de « ChatGPT » cohérent pour interroger ses erreurs, pas d’entité « Grok » unique capable de vous expliquer l’échec, pas de personnage « Replit » fixe capable de savoir si des restaurations de base de données sont possibles. Vous interagissez avec un système qui génère du texte apparemment plausible à partir de modèles issus de ses données d’entraînement (généralement formées il y a des mois ou des années), et non avec une entité dotée d’une véritable conscience d’elle-même ou d’une connaissance du système, qui a tout lu sur elle-même et s’en souvient d’une manière ou d’une autre.

    Une fois qu’un modèle de langage d’IA est entraîné (processus laborieux et énergivore), ses connaissances fondamentales sur le monde sont intégrées à son réseau neuronal et sont rarement modifiées. Toute information externe provient d’une invite fournie par l’hôte du chatbot (tel que xAI ou OpenAI), de l’utilisateur ou d’un outil logiciel utilisé par le modèle d’IA pour récupérer des informations externes à la volée.

    Dans le cas de Grok ci-dessus, la principale source de réponse du chatbot proviendrait probablement de rapports contradictoires trouvés lors d’une recherche de publications récentes sur les réseaux sociaux (à l’aide d’un outil externe), plutôt que d’une quelconque connaissance de soi, comme on pourrait s’y attendre de la part d’un humain doté de la parole. Au-delà de cela, il inventera probablement quelque chose grâce à ses capacités de prédiction de texte. Lui demander pourquoi il a agi ainsi ne fournira donc aucune réponse pertinente.

    L’impossibilité de l’introspection du LLM

    Les grands modèles de langage (LLM) ne peuvent à eux seuls évaluer efficacement leurs propres capacités, et ce pour plusieurs raisons. Ils manquent généralement d’introspection dans leur processus d’apprentissage, n’ont pas accès à l’architecture système environnante et ne peuvent pas déterminer leurs propres limites de performance. Lorsqu’on demande à un modèle d’IA ce qu’il peut ou ne peut pas faire, il génère des réponses basées sur les schémas observés dans les données d’apprentissage concernant les limites connues des modèles d’IA précédents, fournissant ainsi des suppositions éclairées plutôt qu’une auto-évaluation factuelle du modèle actuel avec lequel vous interagissez.

    Une étude de 2024 menée par Binder et al. a démontré expérimentalement cette limite. Si les modèles d’IA pouvaient être entraînés à prédire leur propre comportement lors de tâches simples, ils échouaient systématiquement lors de « tâches plus complexes ou nécessitant une généralisation hors distribution ». De même, une recherche sur l’« introspection récursive » a révélé que, sans retour externe, les tentatives d’autocorrection dégradaient en réalité les performances du modèle : l’auto-évaluation de l’IA aggravait la situation, au lieu de l’améliorer.

    Cela conduit à des situations paradoxales. Un même modèle peut affirmer avec assurance l’impossibilité de tâches qu’il peut réellement exécuter, ou, à l’inverse, se déclarer compétent dans des domaines où il échoue systématiquement. Dans le cas de Replit, l’affirmation de l’IA selon laquelle les retours en arrière étaient impossibles ne reposait pas sur une connaissance réelle de l’architecture du système ; il s’agissait d’une fabulation apparemment plausible, générée à partir de modèles d’entraînement.

    Imaginez ce qui se passe lorsque vous demandez à un modèle d’IA pourquoi il a commis une erreur. Le modèle génère une explication apparemment plausible, car c’est ce qu’exige la complétion de motifs ; après tout, on trouve de nombreux exemples d’explications écrites d’erreurs sur Internet. Mais l’explication de l’IA n’est qu’un simple texte généré, et non une analyse authentique de ce qui s’est passé. Elle invente une histoire qui semble raisonnable, sans accéder à un quelconque journal d’erreurs ni à un état interne.

    Contrairement aux humains, capables d’introspecter et d’évaluer leurs propres connaissances, les modèles d’IA ne disposent pas d’une base de connaissances stable et accessible qu’ils peuvent interroger. Ce qu’ils « savent » ne se manifeste que par la suite d’invites spécifiques. Chaque invite agit comme une adresse distincte, pointant vers des parties différentes, parfois contradictoires, de leurs données d’entraînement, stockées sous forme de pondérations statistiques dans les réseaux neuronaux.

    Cela signifie qu’un même modèle peut donner des évaluations complètement différentes de ses propres capacités selon la façon dont vous formulez votre question. Demandez « Savez-vous écrire du code Python ? » et vous pourriez obtenir un oui enthousiaste. Demandez « Quelles sont vos limites en programmation Python ? » et vous pourriez obtenir une liste de choses que le modèle affirme ne pas pouvoir faire, même s’il les fait régulièrement avec succès.

    Le caractère aléatoire inhérent à la génération de texte par l’IA aggrave ce problème. Même avec des invites identiques, un modèle d’IA peut donner des réponses légèrement différentes sur ses propres capacités à chaque fois que vous le lui demandez.

    D’autres couches façonnent également les réponses de l’IA

    Même si un modèle de langage connaissait parfaitement son propre fonctionnement, d’autres couches des applications de chatbots IA pourraient être totalement opaques. Par exemple, les assistants IA modernes comme ChatGPT ne sont pas des modèles uniques, mais des systèmes orchestrés de plusieurs modèles IA fonctionnant ensemble, chacun ignorant largement l’existence ou les capacités des autres. Par exemple, OpenAI utilise des modèles de couche de modération distincts , dont les opérations sont totalement indépendantes des modèles de langage sous-jacents générant le texte de base.

    Lorsque vous interrogez ChatGPT sur ses capacités, le modèle de langage qui génère la réponse ignore ce que la couche de modération pourrait bloquer, les outils disponibles dans le système global, ni le post-traitement éventuel. C’est comme interroger un service d’une entreprise sur les capacités d’un autre service avec lequel il n’a jamais interagi.

    Plus important encore, les utilisateurs orientent constamment les résultats de l’IA via leurs invites, même sans s’en rendre compte. Lorsque Lemkin a demandé à Replit si les restaurations étaient possibles après la suppression d’une base de données, son inquiétude a probablement suscité une réponse en phase avec cette inquiétude : il a expliqué pourquoi la récupération pourrait être impossible plutôt qu’il n’a évalué avec précision les capacités réelles du système.

    Cela crée une boucle de rétroaction dans laquelle les utilisateurs inquiets qui demandent « Avez-vous tout détruit ? » sont plus susceptibles de recevoir des réponses confirmant leurs craintes, non pas parce que le système d’IA a évalué la situation, mais parce qu’il génère un texte qui correspond au contexte émotionnel de l’invite.

    Après avoir passé toute une vie à écouter des humains expliquer leurs actions et leurs processus de pensée, nous avons cru que ces explications écrites devaient reposer sur une certaine connaissance de soi. Or, ce n’est pas le cas des masters en droit, qui se contentent d’imiter ces modèles textuels pour deviner leurs propres capacités et faiblesses.

    Source: https://arstechnica.com/ai/2025/08/why-its-a-mistake-to-ask-chatbots-about-their-mistakes/

  • 3 Votes
    1 Messages
    31 Vues

    L’entreprise a désormais l’obligation de permettre aux développeurs d’intégrer sur Android leurs propres systèmes de paiement ou de proposer leurs applications sur des plateformes alternatives à Google Play.

    Le feuilleton judiciaire durait depuis cinq ans : Google a perdu, jeudi 31 juillet, son appel contre Epic Games, qui édite notamment le jeu vidéo Fortnite. Désormais, l’entreprise doit autoriser l’installation sur les téléphones utilisant son système d’exploitation mobile, Android, de boutiques d’applications concurrentes à la sienne, Google Play.

    En 2023, un jury avait déjà reconnu le géant américain d’Internet coupable de monopole sur le marché de la distribution d’applications, donnant raison à Epic Games, à l’origine de la procédure. Google avait déposé un recours, qui vient d’être rejeté par la cour d’appel de San Francisco. Sa condamnation s’applique donc à présent : la firme doit permettre aux développeurs d’applications mobiles d’intégrer leurs propres systèmes de paiement, ou de proposer leurs applications sur des plateformes alternatives à Google Play, comme celle d’Epic, l’Epic Games Store, qui permet d’acheter et de jouer à des jeux vidéo.

    « Victoire totale dans l’appel Epic vs Google, s’est félicité Tim Sweeney, patron d’Epic Games, sur le réseau social X. Grâce à ce verdict, l’Epic Games Store va pouvoir arriver sur Google Play. » « Cette décision nuira gravement à la sécurité des utilisateurs, limitera le choix et sapera l’innovation qui a toujours été au cœur de l’écosystème Android », a de son côté réagi Lee-Anne Mulholland, vice-présidente chargée des questions de régulation chez Google, dans une déclaration transmise à l’Agence France-Presse.

    Lire la chronique | Article réservé à nos abonnés Google, Apple vs Epic Games : « Le monopole des géants du numérique s’érode trop doucement »

    Le feuilleton judiciaire durait depuis cinq ans : Google a perdu, jeudi 31 juillet, son appel contre Epic Games, qui édite notamment le jeu vidéo Fortnite. Désormais, l’entreprise doit autoriser l’installation sur les téléphones utilisant son système d’exploitation mobile, Android, de boutiques d’applications concurrentes à la sienne, Google Play.

    En 2023, un jury avait déjà reconnu le géant américain d’Internet coupable de monopole sur le marché de la distribution d’applications, donnant raison à Epic Games, à l’origine de la procédure. Google avait déposé un recours, qui vient d’être rejeté par la cour d’appel de San Francisco. Sa condamnation s’applique donc à présent : la firme doit permettre aux développeurs d’applications mobiles d’intégrer leurs propres systèmes de paiement, ou de proposer leurs applications sur des plateformes alternatives à Google Play, comme celle d’Epic, l’Epic Games Store, qui permet d’acheter et de jouer à des jeux vidéo.

    « Victoire totale dans l’appel Epic vs Google, s’est félicité Tim Sweeney, patron d’Epic Games, sur le réseau social X. Grâce à ce verdict, l’Epic Games Store va pouvoir arriver sur Google Play. » « Cette décision nuira gravement à la sécurité des utilisateurs, limitera le choix et sapera l’innovation qui a toujours été au cœur de l’écosystème Android », a de son côté réagi Lee-Anne Mulholland, vice-présidente chargée des questions de régulation chez Google, dans une déclaration transmise à l’Agence France-Presse.

    Lire la chronique | Article réservé à nos abonnés Google, Apple vs Epic Games : « Le monopole des géants du numérique s’érode trop doucement »

    Source : lemonde.fr

  • 1 Votes
    2 Messages
    54 Vues

    C’est fou ; un peu comme se depecher de construire une maison pour la vendre et s’apercevoir qu’on a oublié de mettre une serrure sur la porte de derrière…Quand même assez courant à notre époque…!!

  • WinRAR troué par les Russes

    2
    2 Votes
    2 Messages
    56 Vues

    Vive 7Zip 🙂

  • 3 Votes
    1 Messages
    35 Vues

    Perplexity AI s’est fait épingler par Cloudflare, pris la main dans le sac à contourner allègrement les règles du web avec leurs bots masqués. Et le plus fort dans tout ça c’est qu’ils nient tout en bloc.

    L’affaire a éclaté quand Cloudflare, qui s’occupe d’un cinquième du trafic internet mondial, a décidé de fouiner un peu dans les pratiques suspectes de certains bots IA. Et le verdict est tombé assez rapidement : Perplexity a recours à des crawlers furtifs qui se font passer pour de véritables navigateurs afin de s’emparer du contenu des sites web, même lorsque les propriétaires ont dit non par le biais du fameux fichier robots.txt.

    Ce qui rend cette histoire encore plus énervante, c’est la technique utilisée. Plutôt que d’employer leur user agent officiel “PerplexityBot”, les bots se déguisent en Chrome sur Windows 10.

    Cloudflare a mené ses propres expériences pour prouver la manœuvre. Ils ont conçu un site web accessible uniquement aux vrais user agents Chrome et Firefox, tout en bloquant explicitement PerplexityBot via le robots.txt. Les bots officiels de Perplexity sont bien arrêtés, mais étrangement, quand un utilisateur fait une requête sur Perplexity.ai, le contenu est tout de même récupéré.

    Comment ? Et bien grâce à des crawlers masqués, utilisant des ASN (Autonomous System Numbers) différents et des user agents trafiqués.

    La défense de Perplexity ? Un véritable morceau de bravoure. Leur PDG, Aravind Srinivas, affirme qu’ils ne contournent pas le robots.txt, mais qu’ils recourent à des “fournisseurs tiers” pour le crawling. En gros, “C’est panoupanous, c’est les autres.” Sauf qu’il ne veut pas révéler l’identité de ces mystérieux partenaires, prétextant un accord de confidentialité. Pratique, non ?

    Le problème dépasse largement le cadre de Perplexity car Wired et le développeur Robb Knight avaient déjà mené l’enquête en juin 2024 et découvert des indices similaires. Amazon Web Services a même lancé une investigation pour vérifier si Perplexity bafoue leurs conditions d’utilisation. Et en juin 2025, la BBC a menacé de poursuites judiciaires, exigeant que Perplexity cesse de scraper leur contenu et efface toutes les données collectées.

    Pour situer l’ampleur du phénomène, Cloudflare a déterminé que les bots IA représentent désormais 5% de tout le trafic bot identifié. OpenAI avec GPTBot est en tête, suivi de… PerplexityBot en neuvième position. Mais ça, c’est uniquement pour ceux qui jouent cartes sur table. Combien passent sous le radar avec des identités truquées ?

    La technique de contournement est d’ailleurs assez rusée car quand vous demandez à Perplexity d’explorer une URL spécifique, leur système prétend agir “au nom de l’utilisateur”, comme si vous copiez-collez vous-même le contenu. Sauf qu’en réalité, c’est un bot automatisé qui s’en charge, en utilisant des headless browsers pour paraître plus légitime.

    TollBit, une startup spécialisée dans les accords de licence IA, a révélé que plus de 50 sites web choisissent délibérément d’ignorer le protocole robots.txt. Et surprise, selon une enquête de Business Insider, OpenAI et Anthropic (les créateurs de Claude) figureraient parmi eux. Mais au moins, ils ne se cachent pas derrière des user agents falsifiés.

    Ce qui m’agace vraiment dans cette histoire, c’est l’hypocrisie ambiante. D’un côté, ces entreprises IA nous vendent du rêve sur l’éthique et la transparence et de l’autre, elles emploient des méthodes dignes de hackers des années 2000 pour aspirer du contenu sans permission. Et pendant ce temps, les créateurs de contenu se retrouvent pillés sans compensation.

    Cloudflare propose bien quelques solutions pour se protéger, notamment leur outil AI Bots qui permet de gérer finement l’accès des différents crawlers IA. Ils ont aussi mis au point un “Bot Score” qui évalue la légitimité du trafic sur une échelle de 1 à 99. Plus le score est bas, plus y’a de chances que ce soit un bot. Les crawlers masqués de Perplexity obtiennent généralement un score en dessous de 30.

    Donc, si vous gérez un site web, je vous recommande vivement de scruter vos logs. Repérez les schémas suspects du genre une même IP qui enchaîne les requêtes, des user agents identiques mais aux comportements différents, ou des accès à des URLs jamais publiées.

    Quoiqu’il en soit, si même les plus grandes entreprises IA ne respectent pas des règles basiques comme le robots.txt, qu’est-ce qui les empêchera demain de franchir d’autres limites ?

    C’est bien dommage, je trouve…

    –Sources :

    https://blog.cloudflare.com/perplexity-is-using-stealth-undeclared-crawlers-to-evade-website-no-crawl-directives/)

    https://korben.info/perplexity-ai-stealth-crawlers-cloudflare-expose.html

  • 1 Votes
    1 Messages
    23 Vues

    Dans le troisième épisode d’Écosystème, l’urbaniste Cécile Diguet détaille les enjeux sociaux et environnementaux de l’implantation de centres de données.

    Début 2025, la France comptait 316 centres de données, principalement installés en Ile-de-France et près de Marseille. Un chiffre voué à augmenter, dans la mesure où 35 nouveaux data centers ont été annoncés en février, dans le cadre du Sommet sur l’intelligence artificielle.

    Mais qu’est-ce qu’implique, au juste, la construction de ce type d’établissements ? Comment s’agencent-ils dans leur environnement ? Qu’est-ce que l’explosion de l’IA change à leur fonctionnement ? Autrement dit, pourquoi leur multiplication fait-elle débat ?

    Dans le troisième épisode d’Écosystème, Next rencontre l’urbaniste Cécile Diguet, fondatrice du studio Dégel, pour détailler les implications de l’implantation d’usines de données dans les villes, périphéries et campagnes de France et d’ailleurs.

    Pour écouter « Ce que la tech fait à la planète », vous avez deux options : le player en bas de cet article, ou sur toutes les bonnes applications de podcast. Pour en lire des extraits, un peu de patience : un article remontera dans les prochains jours dans le fil d’actualité de Next.

    Pour ne manquer aucun futur épisode et nous aider à atteindre un large public, abonnez-vous dès aujourd’hui au fil audio de Next. Mettez-nous des étoiles sur votre application, recommandez-nous… ça nous est toujours utile !

    >> EPISODE 3 - ECOUTER DANS UN NOUVEL ONGLET <<

    Crédits :

    Écosystème est un podcast de Mathilde Saliou produit par Next. Réalisation et mixage : Clarice Horn. Identité graphique : Flock. Rédaction en chef : Sébastien Gavois. Direction de la rédaction : Alexandre Laurent.

    MV - If I Wait (Instrumental Version)- Courtesy of Epidemic Sound / Lama House - Astral Roar_bass  - Courtesy of Epidemic Sound / Ookean - Abyssal Hibernation_instruments  - Courtesy of Epidemic Sound / Syntropy - Spectral Bed_melody  - Courtesy of Epidemic Sound / Harbours and oceans - Holocene_edit  - Courtesy of Epidemic Sound / Out to the World - Luxx_instruments  - Courtesy of Epidemic Sound / Blue Saga - Behind the Curtain_melody  - Courtesy of Epidemic Sound / Out to the World - Adaption  - Courtesy of Epidemic Sound / Blue Saga - Soundbed - Courtesy of Epidemic Sound / Daniela Ljungsberg - Still in Blues_instruments  - Courtesy of Epidemic Sound

    Source : next.ink

  • 3 Votes
    4 Messages
    66 Vues

    Fut une époque où le paquet de la mort c’était une enveloppe d’anthrax!

  • 2 Votes
    10 Messages
    143 Vues

    Je sais que c’est pas un critère de qualité d’une application d’I.A. mais je trouve la mascotte très jolie, qui d’ailleurs me dit quelque chose.

    Pour ce qui est de faire fuir ou détruire ses fleurons économiques, il semblerait que la Suisse soit dorénavant euro-compatible!

    Mais quitter la Suisse pour l’Allemagne je vois pas trop le plus libertaire, la Norvège citée plus haut me parait plus crédible dans ce sens.