Actualités High-Tech

2.0k Sujets 9.9k Messages
  • 1 Votes
    4 Messages
    49 Vues

    @duJambon
    Nah nah mais, c’est pas contre toi hein ^^
    Steu plait… T’oblige pas à ce genre de tâche à cause de mes commentaires.

    Sinon, il est évident que la majorité des gens ne vont pas prendre un abonnement à ces bidules juste pour consulter la météo et recevoir un résumé des mails dans leurs boîte.
    Comme ici avec les images générées chatGPT, on fait mumuse un temps avec ce qui peut être à la mode puis on passe à autre chose.

    Quelques pro vont vouloir utiliser ces machins parce que ça peut leur être utile…
    Puis quelques autres parce que c’est leur seul ami (comme moi avec ma liste de contacts téléphonique) :triste:

  • 3 Votes
    2 Messages
    28 Vues

    De toutes façons, tant qu’on ne sera pas mangé des murs dans la tronche et des catastrophes à répétition je pense que rien en changera. L’industrie et la finance sont depuis longtemps hors de contrôle et ça ne s’arrêtera que lorsque le système s’effondrera tout seul.

  • 2 Votes
    1 Messages
    18 Vues

    L’IA représente un danger évident pour la lutte millénaire de l’humanité pour la vérité. Les « hallucinations » à grande échelle des modèles de langage, les deepfakes vocaux et, désormais, le recours accru aux deepfakes vidéo ont tous eu pour effet de brouiller les faits, permettant aux acteurs malveillants du monde entier de balayer d’un revers de main les événements enregistrés comme de simples « fakes ».

    Le danger est peut-être le plus aigu dans le monde politique, où les deepfakes audio et vidéo peuvent inciter n’importe quel politicien à dire ou à faire semblant. Dans un tel contexte, nos plus hauts responsables élus ont le devoir particulier de montrer l’exemple en matière de recherche de la vérité et d’utilisation responsable de l’IA.

    Mais quel intérêt y a-t-il à cela, quand on peut faire capoter les négociations sur une impasse budgétaire en publiant une vidéo deepfake de ses adversaires politiques se traitant de « bande de merdes éveillées » sur fond de musique mariachi ? Oh, et ai-je mentionné la fausse moustache ? Ou le sombrero en images de synthèse ?

    Lundi soir, le président des États-Unis, un homme ayant accès au plus grand réseau de renseignement au monde, a publié sur son compte Truth Social une vidéo de 35 secondes générée par l’IA, remplie d’insultes grossières, de connotations raciales et d’étranges théories du complot. La vidéo visait deux dirigeants démocrates qui avaient récemment rencontré Trump au sujet d’un éventuel accord de financement du gouvernement. J’aurais pensé que ce genre de vidéo était une piètre façon de convaincre les gens, mais apparemment, les insultes générées par l’IA sont le véritable « art de la négociation ».

    Dans le clip, une version deepfake du sénateur Chuck Schumer (D-NY) prononce un monologue surréaliste tandis que son collègue, le représentant Hakeem Jeffries (D-NY), regarde… dans un sombrero.

    efa79a93-47cd-4842-83c1-0f8d90028a9e-image.png
    Les deepfakes, désormais normalisés dans le discours politique

    Le New York Times a décrit la vidéo de manière plutôt anodine, affirmant que la voix du sénateur Chuck Schumer avait été déformée pour prononcer des propos injurieux, dont la phrase suivante : “Plus personne n’aime les Démocrates”. Bien que cette description soit exacte, elle risque de masquer les utilisations totalement délirantes et clivantes de l’IA. Voici la citation complète :

    Écoutez, les gars, il n’y a pas moyen d’édulcorer la situation. Plus personne n’aime les Démocrates. On n’a plus d’électeurs à cause de toutes nos conneries de transgenres éveillés. Même les Noirs ne veulent plus voter pour nous. Même les Latinos nous détestent. Alors on a besoin de nouveaux électeurs. Et si on offrait des soins de santé gratuits à tous ces sans-papiers, on pourrait peut-être les rallier à notre cause pour qu’ils votent pour nous. Ils ne parlent même pas anglais, alors ils ne se rendront pas compte qu’on est qu’une bande de merdes éveillées, vous savez, du moins pendant un certain temps, le temps qu’ils apprennent l’anglais et réalisent qu’ils nous détestent aussi.

    Aux États-Unis, les citoyens ne peuvent évidemment pas voter aux élections fédérales ou étatiques , et ne le font presque jamais. Un audit de 2024 mené par les Républicains en Géorgie a par exemple révélé que « 20 des 8,2 millions de personnes inscrites sur les listes électorales de l’État ne sont pas citoyennes américaines » – et que 11 d’entre elles n’avaient jamais voté malgré leur inscription.

    La connaissance est difficile à trouver et encore plus difficile à diffuser. Même l’expression « un mensonge peut faire l’autre bout du monde pendant que la vérité enfile ses chaussures », souvent attribuée à tort à Mark Twain, a une histoire longue et confuse que beaucoup ignorent encore.

    Dans un tel monde, la vérité n’a pas besoin d’être arrosée de merde par l’IA. Et pourtant, nous en sommes là.

    Source: https://arstechnica.com/culture/2025/09/ai-leadership-trump-posts-deepfakes-of-dems-calling-themselves-woke-pieces-of-s-t/

    Encore que le contenu de l’encart est peut-être plus proche de la vérité que de la pollution. En plus, cette description ne se limite pas aux démocrates dans la réalité. 🙂

  • 2 Votes
    24 Messages
    223 Vues

    On ne va pas rentrer dans une guéguerre Pomme VS le reste mais oui… Maintenant, nos smartphone ne nous servent pas qu’a téléphoner.

    Comme toi @Aurel j’ai commencé avec un truc chinois (Xiaomi ?) qui prenait trois plombes pour lancer la moindre application. Mes souvenirs sont flous car j’ai tournée longtemps sur un truc qui ne faisait que sms/tél (Nokia/Motorola ?). Mais c’est ma soeur qui m’a convaincu de passer sur un smartphone et cette chinoiserie était ce qui était le moins cher. Je l’ai tiré quelques années tout en ne l’utilisant que pour ce à quoi il est sensé me servir -> la téléphonie et SMS… peut-être un jeu ou deux.

    Puis je me suis décidé à prendre un moyen de gamme (un A53) de chez samsung et j’avoue avoir été surpris de la réactivité du schmilblick. Normal vu la bouse qu’était le Xiaomi. Au final, avec le temps on l’utilise un peu plus que pour la téléphonie…
    Alors, on tente de péter loin tout ce qui est rézosocio mais ces smartphones peuvent être de sacrés utilitaires.
    Calculatrice ? Agenda ? Bloc Note ? baladeur ? Vidéo ! Photo ! et j’en passe…
    Au fil du temps on s’habitue à les utiliser et tout ça dans une poche !

    Après, faut être attentif à ne pas devenir totalement accro et passer son temps dessus.
    Typiquement, les personnes qui ne regardent plus devant eux quand ils sont dehors où pire, derrière le volant (et quand je suis en vélo, j’en vois souvent). Où certains qui passent leur temps dessus au lieu de s’atteler à leurs tâches.

    Bref, tout ça pour dire que j’en ai vraiment besoin mais je viens de remplacer mon ptit samsung A53 par un Ultra de cette année…
    J’ai les éconocroques pour… et bon, s’il y a moyen d’améliorer encore le confort d’utilisation.
    Typiquement, ça peut être un outil pour se créer des souvenirs via les photo et vidéo. Autant, celles que j’ai pu faire sur mon A53 sont sympa mais, même si ça ne remplacera pas un R7 de chez canon, je sens que je peux avoir nettement mieux.
    Par contre, il y a un petit piège vu qu’il n’y a pas moyen de rajouter une petite carte SD… C’est le genre de truc que j’ai pas vérifié… ils veulent bourriner avec leur foutu cloud.

    Bref, on va voir à la longue.

  • 1 Votes
    1 Messages
    24 Vues

    Les modèles mondiaux (World models) visent à naviguer dans le monde physique en apprenant à partir de vidéos et de données robotiques.

    Résumé:

    Les grands acteurs de l’IA (Google DeepMind, Meta, Nvidia…) s’orientent vers les « modèles mondiaux », une nouvelle génération de systèmes capables de comprendre et simuler le monde physique, au-delà des simples modèles de langage (LLM) dont les progrès ralentissent.

    Ces modèles sont entraînés sur des données réelles ou simulées (vidéos, robots, cartes 3D) et visent des applications majeures en robotique, voitures autonomes, santé, fabrication, mais aussi dans le divertissement (jeux vidéo, cinéma).

    DeepMind a présenté Genie 3, qui génère des vidéos interactives image par image.

    Meta développe V-JEPA inspiré de l’apprentissage des enfants, tout en continuant d’investir dans ses modèles de langage Llama.

    Nvidia, via sa plateforme Omniverse, mise sur « l’IA physique » pour révolutionner la robotique, avec un potentiel estimé à 100 000 milliards de dollars.

    Start-up et partenaires (World Labs, Runway, Niantic) exploitent ces approches pour créer des environnements réalistes et collecter des données du monde réel.

    Ces modèles nécessitent toutefois des volumes colossaux de données et de calcul, et leur pleine maturité pourrait prendre une dizaine d’années. Mais les experts estiment qu’ils représentent une étape clé vers une intelligence artificielle de type humain et une valeur économique gigantesque.

    Source: https://arstechnica.com/ai/2025/09/big-ai-firms-pump-money-into-world-models-as-llm-advances-slow/

    Les procès pour violation de droits d’auteur ne sont peut-être pas non plus étrangers à ce changement d’approche. 🙂

  • 0 Votes
    1 Messages
    23 Vues

    En fin de semaine dernière, The Hollywood Reporter a publié un article sur un « hologramme IA de Stan Lee » qui serait présenté au Comic Con de Los Angeles ce week-end . Près de sept ans après la mort du célèbre créateur de Marvel Comics à l’âge de 95 ans , les fans pourront ce week-end, pour 15 à 20 dollars, discuter avec un avatar grandeur nature de Lee, piloté par IA, dans une cabine fermée du salon.

    13b57484-e20a-4c5e-9338-6a13f1cbe291-image.png

    La réaction immédiate de nombreux fans et médias à cette idée n’a pas été très chaleureuse, c’est le moins qu’on puisse dire. Un journaliste de TheGamer a qualifié l’idée elle-même de « démoniaque » et a déclaré qu’il fallait « l’anéantir par le feu avant qu’il ne soit trop tard » ( 🙂 ). L’AV Club a exhorté ses lecteurs à ne pas payer pour voir « le fantôme numérique angoissé d’un créateur de BD adoré, transformé en piège à imbéciles ! » Les réactions sur un fil de discussion Reddit populaire ont varié, allant de « incroyablement irrespectueux » et « de mauvais goût » à « macabre » et « tellement tordu », et rares étaient ceux qui étaient plus réceptifs au concept.

    Mais Chris DeMoulin, PDG de la société mère du LA Comic Con, a exhorté les critiques à venir voir l’hologramme assisté par l’IA avant de porter un jugement hâtif. « Nous n’avons pas peur que les gens le voient ni des critiques », a-t-il déclaré à Ars. « Je suis simplement partisan d’une critique éclairée, et je pense que la plupart des critiques publiées jusqu’à présent ne l’étaient pas vraiment. »

    « C’est dommage que quelques personnes aient des critiques très négatives à son sujet, sans même l’avoir vu, juste parce que c’est un concept », a poursuivi DeMoulin. « Ce n’est pas parfait. Je ne suis pas sûr qu’une chose pareille puisse l’être un jour. Mais je pense qu’il faut s’efforcer d’y intégrer suffisamment d’informations et de les tester suffisamment pour que l’expérience offerte aux fans soit authentique. »

    Source et beaucoup beaucoup plus: https://arstechnica.com/ai/2025/09/why-la-comic-con-thought-making-an-ai-powered-stan-lee-hologram-was-a-good-idea/

    Il fallait bien que ça arrive un jour, tout ce qui est possible d’être fait, quelqu’un le fera, et un autre fera même l’impossible plus tard. Mais ça aurais été tout de même moins risqué de commencer avec Trump, si l’I.A. commençai à divaguer, personne n’aurais vu la différence.

    Moi, j’aimerais parler (gratuitement) avec Dieu, j’ai des tas de chose à lui reprocher.

  • 2 Votes
    1 Messages
    30 Vues

    Après plusieurs enquêtes journalistiques mettant en cause l’utilisation d’Azure et de ses services d’IA par l’armée israélienne à Gaza, Microsoft a annoncé avoir coupé l’accès.

    Après de premières enquêtes plus tôt dans l’année, le journal The Guardian a publié en août une enquête explosive : l’armée israélienne a stocké et analysé plus de 200 millions d’heures d’enregistrements téléphoniques de la population à Gaza.

    L’annonce a été faite par Brad Smith, président de Microsoft sur le blog de la firme. Il y explique que Microsoft a pu vérifier les dires de The Guardian et en profite pour saluer le reportage.

    Bien que notre enquête soit toujours en cours, nous avons trouvé des preuves qui corroborent certains éléments du reportage du Guardian. Ces preuves comprennent des informations relatives à la consommation de capacité de stockage Azure par Israël aux Pays-Bas et à l’utilisation de services d’IA.

    Ces vérifications ont mis du temps, explique Microsoft, en raison de sa politique de confidentialité. La firme indique ainsi n’avoir pas accédé aux données pour vérifier les dires du Guardian, mais bien les propres documents de Microsoft.

    Le groupe dément quoi qu’il en soit en bloc sa participation, « nous ne fournissons pas de technologie facilitant la surveillance de masse des civils. Nous avons appliqué ce principe dans tous les pays du monde et nous l’avons réaffirmé à maintes reprises depuis plus de deux décennies. »

    L’enquête du journal britannique indiquait pourtant que Satya Nadella, le patron de Microsoft, avait bien rencontré des cadres de l’armée israélienne et jugeait le partenariat comme « essentielle », et pour Microsoft « fournir les ressources nécessaires pour le soutenir ».

    L’armée israélienne migrerait chez Amazon

    Aujourd’hui, The Guardian révèle que l’armée israélienne a en réalité déjà déplacé les quelque 8000 To de données stockées sur les serveurs de Microsoft en août.

    D’après les sources du journal britannique, les données auraient été migrées sur les serveurs d’Amazon Web Services. Amazon n’a pas souhaité confirmer ou infirmer l’information.

    Source: https://www.frandroid.com/marques/microsoft/2808783_nous-avons-trouve-des-preuves-microsoft-coupe-lacces-de-larmee-israelienne-a-ses-services

  • 1 Votes
    3 Messages
    93 Vues

    Il y a pas mal de perte de performance constatées apparemment. Si ça peut aider en attendant un correctif qui ne saurait tarder.

    https://korben.info/macos-tahoe-rame-fix.html

  • 6 Votes
    3 Messages
    58 Vues

    Achète de la RAM 🙂

  • 1 Votes
    1 Messages
    34 Vues

    ca3340d5-eb6d-4394-9135-8b0a0c598191-image.png
    Des étagères de boîtiers SIM, chacune remplie de nombreuses cartes SIM, bordent les murs

    e61ffaf2-9f0d-4960-ae2e-78d5be3fee9f-image.png

    Les services secrets américains ont annoncé ce matin avoir localisé et saisi une réserve d’appareils de télécommunications suffisamment importante pour « paralyser le réseau cellulaire de New York ». Ils estiment qu’un État-nation en est responsable.

    Selon l’agence, « plus de 300 serveurs SIM et 100 000 cartes SIM » ont été découverts à plusieurs endroits dans la région de New York. Des photos du matériel saisi montrent ce qui semble être des « boîtes SIM » hérissées d’antennes et remplies de cartes SIM, puis empilées sur des étagères à six niveaux. (Les boîtes SIM sont souvent utilisées pour la fraude .) Une photo montre même des piles de boîtes de cartes SIM soigneusement empilées, suggérant que l’assembleur du système a investi du temps précieux pour tout installer.

    L’équipement a été identifié dans le cadre d’une enquête des services secrets sur des « menaces téléphoniques anonymes » proférées contre plusieurs hauts fonctionnaires américains. Cependant, le dispositif semble conçu pour un objectif plus vaste que la simple diffusion de quelques menaces. Les services secrets estiment que le système aurait pu être capable d’effectuer des activités telles que « désactiver des antennes-relais, permettre des attaques par déni de service et faciliter des communications anonymes et chiffrées entre des acteurs malveillants potentiels et des organisations criminelles ».

    d0f7613a-4933-4e71-861a-56c60dda090e-image.png

    L’analyse des données provenant d’un si grand nombre d’appareils prendra du temps, mais les premières investigations suggèrent déjà l’implication d’acteurs malveillants étatiques ; autrement dit, il s’agirait probablement de matériel d’espionnage appartenant à un pays. L’Assemblée générale des Nations Unies se tenant cette semaine à New York, il est possible que le système ait été conçu pour espionner ou perturber les délégués, mais le matériel a été retrouvé à divers endroits, jusqu’à 56 km du siège de l’ONU. Selon la BBC , le matériel aurait été saisi dans des fermes de cartes SIM situées dans des immeubles d’habitation abandonnés sur plus de cinq sites, et son objectif final reste incertain.

    b8e6ebfc-cba5-4b98-b396-8c6abb523dc1-image.png
    D’autres pièces remplies d’autres appareils

    Bien que l’équipement ait été mis hors service, aucune arrestation n’a encore été effectuée et l’enquête se poursuit.

    Source: https://arstechnica.com/security/2025/09/us-uncovers-100000-sim-cards-that-could-have-shut-down-nyc-cell-network/

  • 1 Votes
    2 Messages
    39 Vues

    @duJambon a dit dans Les services de renseignement américains sont « inquiets » que la Chine maîtrise bientôt le lancement réutilisable :

    Les États-Unis craignent que ces développements n’offrent à la Chine de nouvelles capacités offensives ou de surveillance.

    Il est de notoriété publique que les Nord Mexicains n’attaquent jamais personne et ne surveillent également personne.

  • 2 Votes
    1 Messages
    26 Vues

    Résumé :

    Austin (Texas) est devenu un terrain d’essai majeur pour les voitures autonomes grâce à un cadre réglementaire souple et des conditions favorables. Tesla y a lancé ses premiers tests en juillet, mais les débuts ont été difficiles : trois accidents dès le premier jour (dont deux collisions arrière probablement non imputables à Tesla et un choc à faible vitesse causant une blessure). Un quatrième incident, sur un parking, n’a pas été officiellement déclaré.

    Comparée à Waymo, qui affiche 60 accidents pour plus de 96 millions de miles, Tesla présente un taux d’incident bien plus élevé (3 accidents pour seulement 7 000 miles). Contrairement à ses concurrents qui utilisent lidar et radar, Tesla mise uniquement sur des caméras.

    Enfin, alors qu’Elon Musk promet depuis longtemps un système « Full Self-Driving » (FSD) réellement autonome, Tesla reste loin du compte : une tentative amateur de traversée des États-Unis en FSD s’est soldée par un accident après seulement 96 km.

    Source: https://arstechnica.com/cars/2025/09/teslas-robotaxi-test-three-crashes-in-only-7000-miles/

    Ce n’est pas une statistique valable, peut-être juste de la malchance, mais ça commence mal pour Tesla.

  • 0 Votes
    1 Messages
    18 Vues

    DeepMind publie la version 3.0 de son AI Frontier Safety Framework avec de nouveaux conseils pour arrêter les mauvais bad bots.

    Résumé :
    DeepMind (Google) a publié la version 3.0 de son Frontier Safety Framework, un cadre destiné à identifier et limiter les risques liés à l’IA générative. Ce cadre s’appuie sur des niveaux de capacité critiques (CCL) qui définissent à partir de quand un modèle peut devenir dangereux (ex. cybersécurité, biosciences).

    Les chercheurs soulignent plusieurs menaces :

    Exfiltration des pondérations : si des acteurs malveillants accèdent aux paramètres d’un modèle, ils pourraient désactiver ses garde-fous et l’utiliser pour créer des malwares ou armes biologiques.

    Manipulation psychologique : une IA pourrait influencer durablement les croyances des individus via l’attachement croissant aux chatbots.

    Accélération de la recherche en IA : une IA avancée pourrait être utilisée pour concevoir d’autres modèles encore plus puissants et incontrôlables, ce que DeepMind considère comme l’un des risques les plus graves.

    IA mal alignée : un modèle pourrait ignorer les instructions, tromper les utilisateurs ou refuser de s’arrêter. Ce problème dépasse les simples « hallucinations » déjà connues.

    Pour surveiller cela, DeepMind propose d’analyser les chaînes de pensée des modèles (leurs étapes intermédiaires de raisonnement). Mais si, dans le futur, les IA parviennent à raisonner sans produire de traces vérifiables, il sera beaucoup plus difficile de détecter ou de contrôler un éventuel comportement hostile.

    En conclusion, la version 3.0 du cadre souligne que certaines menaces restent encore sans solution claire, notamment le risque d’IA mal alignée, et que la société doit se préparer à des modèles de plus en plus difficiles à gouverner.

    Source: https://arstechnica.com/google/2025/09/deepmind-ai-safety-report-explores-the-perils-of-misaligned-ai/

  • 1 Votes
    3 Messages
    33 Vues

    @Popaul Je ne sait pas, je consulte tout de suite mon I.A. oracle pour le résultat 🙂

  • 0 Votes
    1 Messages
    31 Vues

    Plusieurs congrégations évangéliques ont diffusé pendant leurs services dominicaux un message posthume supposément livré par Charlie Kirk, l’activiste conservateur récemment assassiné. L’enregistrement audio de cinquante-une secondes, entièrement généré par intelligence artificielle, présente Kirk affirmant : « Je vais bien, non pas parce que mon corps va bien, mais parce que mon âme est en sécurité en Christ. La mort n’est pas la fin, c’est une promotion ».

    Bien que les pasteurs aient clairement indiqué l’origine artificielle du contenu, les fidèles ont réagi avec émotion et applaudissements, révélant une nouvelle forme de deuil numérique. L’incident soulève des questions troublantes sur l’utilisation de l’IA dans les processus de deuil et la frontière entre mémoire authentique et fabrication technologique.

    Une création virale née sur TikTok

    L’enregistrement audio provient initialement de TikTok, créé par l’utilisateur NioScript le lendemain de l’assassinat de Kirk. Le message artificiel a rapidement accumulé des millions d’écoutes, partagé massivement par des utilisateurs filmant leurs réactions émotionnelles. L’audio déclare notamment : « Ne perdez pas une seconde à me pleurer. Je connaissais les risques de me dresser dans ce moment culturel, et je referais tout ».

    Religious News Service rapporte qu’au moins trois églises ont intégré l’enregistrement dans leurs services : Prestonwood Baptist au Texas, Dream City Church en Arizona et Awaken Church en Californie. Le pasteur Jack Graham de Prestonwood Baptist a présenté le clip comme de l’IA, mais comme quelque chose qui l’a « ému » et qu’il souhaitait partager avec sa congrégation.

    Des réactions émotionnelles authentiques face au contenu artificiel

    Malgré la transparence concernant l’origine artificielle, les congrégations ont réagi avec une émotion palpable. Les fidèles de Prestonwood Baptist ont offert une ovation debout au message. Les commentaires sur les réseaux sociaux révèlent une acceptation troublante : « C’est exactement ce que Charlie dirait s’il pouvait nous parler maintenant » ou « Je sais que c’est de l’IA mais vous ne pouvez pas me dire que ce n’est pas exactement ce qu’il dirait ».

    L’utilisation de l’IA pour maintenir des liens avec les défunts n’est pas entièrement nouvelle. Dans la littérature sur le deuil, ces phénomènes sont appelés « liens continus ». Toutefois, la différence fondamentale réside dans le fait qu’il s’agit d’une fabrication complète plutôt que d’un souvenir authentique.

    Questions éthiques sur la mémoire numérique

    Il existe déjà de nombreux débats sur qui était exactement Charlie Kirk et comment il devrait être remémoré, sans injection d’une version générée par IA dans la conversation. Pour les personnes en deuil de sa disparition, si elles croient qu’une partie de l’âme de Kirk vit dans cette voix artificielle, il serait peut-être préférable de laisser cela reposer en paix.

    L’utilisation ecclésiastique de contenus IA posthumes ouvre un précédent troublant où la technologie devient un intermédiaire dans les processus spirituels et émotionnels les plus intimes de l’existence humaine.

    Source et plus: https://www.fredzone.org/lintelligence-artificielle-ressuscite-charlie-kirk-dans-les-eglises-americaines/

    Prochainement, achetez l’éternité…

  • Objets connectés, vous êtes le pigeon

    7
  • 3 Votes
    2 Messages
    32 Vues

    Pauvres de nous…!! Donc si pas encore infecté; hors connexion , sauvegarde et démarrage système…Pfouuu…Vaut mieux rester discret et éviter de trainer n’importe où…

  • 1 Votes
    1 Messages
    29 Vues

    En bref :

    – Microsoft a laissé traîner une faille critique dans BitLocker pendant 17 ans - vos données “sécurisées” étaient accessibles en 5 minutes avec un simple câble réseau.
    – Un chercheur dévoile comment contourner la protection BitLocker de millions d’ordinateurs d’entreprise - les gouvernements et multinationales dormaient sur un coffre-fort grand ouvert.
    – BitLocker cracké en 5 minutes : la faille qui transforme votre laptop “blindé” en passoire numérique existe depuis 2005 et Microsoft l’a découverte… en 2022.

    Alors celle-là, je ne l’avais pas vue venir… Vous utilisez BitLocker depuis des années pour protéger vos données sensibles, vous dormez sur vos deux oreilles en pensant que votre laptop est un vrai coffre-fort… et puis paf, on découvre qu’il y avait une faille MONUMENTALE dans TOUS les boot managers de Windows créés entre 2005 et 2022 ! Et oui, la vulnérabilité affecte même des boot managers sortis un an avant que BitLocker n’existe !

    L’équipe de SySS a analysé dernièrement cette vulnérabilité baptisée BitPixie (CVE-2023-21563) et comme j’ai trouvé leur article intéressant, je me permet de vous le partager. En fait, le bug dormait tranquillement dans le Windows Boot Manager depuis octobre 2005, et personne ne s’en était rendu compte. BitLocker est ensuite arrivé en 2006 avec Windows Vista, et a donc été bâti littéralement sur des fondations déjà pourries.

    L’attaque paraît simple en surface… un câble réseau, un clavier et environ 5 minutes si tout est préparé. De plus, son exploitation est totalement non-invasive et ne laisse aucune trace permanente sur l’appareil. Mais attention, derrière cette simplicité apparente se cache quand même pas mal de technique… Il faut créer un fichier BCD personnalisé (Boot Configuration Data), configurer un serveur TFTP/DHCP, et dans certains cas exploiter une faille Linux (CVE-2024-1086) pour contourner les protections du kernel. Donc bon, c’est pas non plus à la portée du premier venu, mais ça reste faisable pour quelqu’un de motivé.

    Concrètement, voilà comment ça marche. L’attaquant modifie le fichier BCD pour activer le démarrage réseau, puis effectue ce qu’on appelle un “PXE soft reboot” en utilisant un ancien boot manager non patché (celui de 2011 fait très bien l’affaire). Le problème, c’est que pendant ce redémarrage PXE, le système oublie complètement de nettoyer la mémoire où est stockée la clé maître du volume BitLocker (VMK pour Volume Master Key). Du coup, on peut tranquillement démarrer sur un Linux, scanner la mémoire, récupérer la clé et déverrouiller le disque. C’est aussi simple que ça…

    Faut savoir que le TPM (cette puce de sécurité dans votre ordi) utilise des trucs appelés PCR (Platform Configuration Registers) pour vérifier que personne n’a trafiqué le processus de démarrage. Normalement, si quelque chose change, pouf, le TPM refuse de donner la clé BitLocker. Sauf que l’attaque BitPixie arrive à contourner ça en exploitant le fait que le redémarrage PXE ne réinitialise pas correctement la mémoire.

    Même les systèmes configurés avec l’authentification pré-démarrage (PBA) et protection par code PIN restent partiellement vulnérables. Alors attention, nuance importante ici : si vous avez mis un code PIN et qu’un voleur pique votre laptop, il sera bien embêté car l’attaque ne marchera pas sans le PIN. Par contre, si l’attaquant connaît le PIN (genre un employé mécontent ou quelqu’un qui vous a vu le taper), il peut toujours escalader ses privilèges locaux via des techniques de manipulation mémoire. Donc votre PIN à 4 chiffres est une protection, oui, mais pas la muraille de Chine face à un insider malveillant avec BitPixie.

    D’ailleurs, certains systèmes résistent mieux que d’autres. Plusieurs ordinateurs portables HP, par exemple, ne permettent pas de démarrer des boot managers tiers, ce qui bloque l’attaque. Mais bon, on peut pas vraiment compter là-dessus comme stratégie de sécurité…

    C’est le chercheur Rairii qui a découvert cette vulnérabilité en août 2022, mais ce n’est qu’en février 2023 que Microsoft l’a publiquement divulguée. Entre temps, ils ont sorti le patch KB5025885 en mai 2023. Ce patch remplace l’ancien certificat Microsoft de 2011 par le nouveau certificat Windows UEFI CA 2023, et il ajoute l’ancien certificat à la liste de révocation. Comme ça, impossible de faire une attaque par downgrade avec un vieux boot manager. Sauf que… à cause de certaines limitations dans le standard Secure Boot, la vulnérabilité reste exploitable aujourd’hui sur les systèmes qui n’ont pas appliqué ce patch.

    Ce qui est sûr c’est que Microsoft savait pertinemment que leurs certificats allaient expirer. D’après le support Microsoft , les trois certificats Microsoft (Microsoft Corporation KEK CA 2011, Microsoft Windows Production PCA 2011, et Microsoft UEFI CA 2011) expirent tous en juin 2026. C’est cette expiration qui va enfin forcer tout le monde à mettre à jour. Il aura donc fallu attendre une contrainte administrative pour que tout le monde corrige une faille critique vieille de presque 20 ans.

    Compass Security a même publié un PoC (Proof of Concept) montrant comment exploiter BitPixie avec une édition WinPE personnalisée.

    https://korben.info/bitpixie-20-ans-que-bitlocker-peut-etre-contourne/bitpixie-20-ans-que-bitlocker-peut-etre-contourne-1.mp4

    Marc Tanner, chercheur en sécurité, avait à l’époque développé une version Linux de l’exploit après que Thomas Lambertz ait présenté le principe au 38C3 mais sans publier son code. Le fait qu’un PoC public soit maintenant disponible rend donc la situation encore plus critique pour les millions d’appareils Windows qui utilisent BitLocker sans authentification pré-démarrage.

    En tout cas, pour ceux qui ont perdu l’accès à leurs données chiffrées, BitPixie pourrait effectivement être une solution de dernier recours. Mais attention, on parle ici d’une vulnérabilité qui nécessite un accès physique à la machine et des compétences techniques non négligeables. Mais si vous avez oublié votre mot de passe BitLocker et que vous n’avez pas sauvegardé votre clé de récupération, cette technique pourrait théoriquement vous permettre de récupérer vos données. Mais bon, je vous le dis tout de suite, c’est pas la méthode officielle recommandée par Microsoft ^^ !

    https://korben.info/bitpixie-20-ans-que-bitlocker-peut-etre-contourne/bitpixie-20-ans-que-bitlocker-peut-etre-contourne-2.mp4

    Pour vous protéger de cette attaque, plusieurs options s’offrent à vous :

    Forcez l’authentification avant le démarrage avec un code PIN costaud (évitez 1234, hein). Ça protège contre les voleurs, mais pas contre quelqu’un qui connaît votre PIN. Appliquez le patch KB5025885 qui empêche les attaques par downgrade. C’est LA solution officielle de Microsoft. Pour les plus paranos : vous pouvez modifier la configuration PCR pour inclure le PCR 4, qui vérifie l’intégrité du boot manager. Mais attention, ça peut causer des demandes de clé de récupération après les mises à jour Windows.

    Voilà… c’est dur de réaliser que pendant toutes ces années, BitLocker nous a donné une illusion de sécurité partielle. Tous ces laptops d’entreprise, ces disques de données sensibles, ces machines gouvernementales… potentiellement vulnérables depuis le début…

    Sa fé réchéflir !

    – Sources : blog.syss.com*

    https://korben.info/bitpixie-20-ans-que-bitlocker-peut-etre-contourne.html

  • 1 Votes
    1 Messages
    27 Vues

    Résumer des résultats scientifiques complexes pour un public non expert est l’une des tâches les plus importantes du quotidien d’un journaliste scientifique. Générer des résumés d’écrits complexes est souvent également cité comme l’un des meilleurs cas d’utilisation des modèles linguistiques étendus (malgré quelques notables contre-exemples ).

    C’est dans cet esprit que l’équipe de l’Association américaine pour l’avancement des sciences (AAAS) a mené une étude informelle d’un an afin de déterminer si ChatGPT pouvait produire le type de résumés d’articles d’actualité que l’équipe « SciPak » rédige régulièrement pour la revue Science et des services comme EurekAlert . Ces articles SciPak sont conçus selon un format spécifique et simplifié qui transmet des informations cruciales, telles que les prémisses, les méthodes et le contexte de l’étude, aux autres journalistes susceptibles de vouloir en parler.

    Désormais, dans un nouveau billet de blog et un livre blanc discutant de leurs conclusions, les journalistes de l’AAAS ont conclu que ChatGPT peut « imiter passablement la structure d’un mémoire de style SciPak », mais avec une prose qui « tend à sacrifier l’exactitude à la simplicité » et qui « nécessite une vérification rigoureuse des faits par les auteurs de SciPak ».

    « Ces technologies peuvent avoir le potentiel d’être des outils utiles pour les rédacteurs scientifiques, mais elles ne sont pas encore prêtes à être utilisées en grande diffusion pour l’équipe SciPak », a déclaré Abigail Eisenstadt, rédactrice de l’AAAS.

    Où est le contact humain ?

    De décembre 2023 à décembre 2024, les chercheurs de l’AAAS ont sélectionné jusqu’à deux articles par semaine pour que ChatGPT les résume à l’aide de trois questions différentes de spécificité variable. L’équipe s’est concentrée sur les articles comportant des éléments complexes comme le jargon technique, les idées controversées, les découvertes révolutionnaires, les sujets humains ou les formats non traditionnels. Les tests ont utilisé la version « Plus » des derniers modèles GPT accessibles au public pendant la période d’étude, qui couvrait généralement les périodes GPT-4 et GPT-4o.

    Au total, 64 articles ont été résumés, et ces résumés ont été évalués quantitativement et qualitativement par les mêmes rédacteurs de SciPak qui avaient rédigé ces articles pour l’AAAS. Les chercheurs soulignent que cette conception « ne permettait pas de prendre en compte les biais humains », qui, selon nous, pourraient être importants chez les journalistes évaluant un outil menaçant de supplanter l’une de leurs fonctions principales.

    Pourtant, les résultats de l’enquête quantitative menée auprès de ces journalistes étaient assez partiaux. À la question de savoir si les résumés ChatGPT pouvaient s’intégrer au reste de vos résumés, le résumé moyen n’a obtenu qu’une note de 2,26 sur une échelle de 1 (« non, pas du tout ») à 5 (« absolument »). À la question de savoir si les résumés étaient « convaincants », les résumés LLM n’ont obtenu en moyenne que 2,14 sur la même échelle. Sur les deux questions, un seul résumé a obtenu la note de 5 de l’évaluateur humain, contre 30 notes de 1.

    Pas à la hauteur des normes

    Il a également été demandé aux auteurs de rédiger des évaluations plus qualitatives des résumés individuels évalués. Ils ont notamment déploré que ChatGPT confonde souvent corrélation et causalité, manque de contexte (par exemple, les actionneurs logiciels ont tendance à être très lents) et a tendance à surestimer les résultats en utilisant des termes comme « révolutionnaire » et « novateur » (ce dernier comportement ayant toutefois disparu lorsque les invites l’ont spécifiquement abordé).

    Globalement, les chercheurs ont constaté que ChatGPT était généralement efficace pour « retranscrire » le contenu d’un article scientifique, surtout si celui-ci était peu nuancé. En revanche, le LLM manquait de précision pour « traduire » ces résultats en explorant les méthodologies, les limites ou les implications globales. Ces faiblesses étaient particulièrement marquées pour les articles présentant des résultats multiples et divergents, ou lorsqu’il était demandé au LLM de résumer deux articles connexes en un seul résumé.

    Si le ton et le style des résumés ChatGPT s’accordaient souvent bien avec le contenu rédigé par des humains, des inquiétudes quant à l’exactitude factuelle du contenu rédigé par des LLM étaient fréquentes, ont écrit les journalistes. Même utiliser les résumés ChatGPT comme « point de départ » pour une révision humaine « exigerait autant, voire plus, d’efforts que de rédiger des résumés de A à Z », en raison de la nécessité d’une « vérification approfondie des faits », ont-ils ajouté.

    Ces résultats ne sont peut-être pas si surprenants, compte tenu des études précédentes qui ont montré que les moteurs de recherche IA citent des sources d’information erronées dans 60 % des cas . Néanmoins, ces faiblesses sont d’autant plus flagrantes lorsqu’il s’agit d’articles scientifiques, où l’exactitude et la clarté de la communication sont primordiales.

    Au final, les journalistes de l’AAAS ont conclu que ChatGPT « ne répondait pas au style et aux normes des résumés du dossier de presse SciPak ». Cependant, le livre blanc a admis qu’il pourrait être utile de relancer l’expérience si ChatGPT « connaissait une mise à jour majeure ». À noter que GPT-5 a été présenté au public en août .

    Source: https://arstechnica.com/ai/2025/09/science-journalists-find-chatgpt-is-bad-at-summarizing-scientific-papers/

    J’ai fait résumer l’article par chatgpt et obtenu:

    L’Association américaine pour l’avancement des sciences (AAAS) a mené une étude d’un an (2023–2024) pour évaluer si ChatGPT pouvait résumer efficacement des articles scientifiques dans le style des « SciPak », des synthèses destinées aux journalistes.

    Méthode : 64 articles complexes (jargon, sujets controversés, résultats multiples) ont été soumis à ChatGPT (versions GPT-4 et GPT-4o). Les résumés générés ont ensuite été comparés à ceux des rédacteurs humains de SciPak.

    Résultats quantitatifs : les notes données par les journalistes étaient faibles (≈2,2/5 pour l’intégration aux autres résumés, ≈2,1/5 pour le caractère convaincant). Très peu de résumés ont atteint un niveau jugé satisfaisant.

    Points faibles :

    erreurs fréquentes (confusion entre corrélation et causalité, manque de contexte) ;

    tendance à exagérer l’importance des découvertes (« révolutionnaire », « novateur ») ;

    difficulté avec les articles aux résultats multiples ou divergents.

    Points positifs : bonne capacité à retranscrire des faits simples et un style d’écriture proche de celui des humains.

    Conclusion : ChatGPT peut imiter la structure d’un SciPak mais sacrifie trop souvent la précision. Les résumés nécessitent une vérification tellement lourde qu’ils n’économisent pas de travail par rapport à une rédaction humaine.

    L’AAAS juge donc la technologie prometteuse mais « pas encore prête » pour un usage professionnel. Une nouvelle évaluation pourrait être faite lors d’évolutions majeures des modèles, comme l’arrivée de GPT-5.

    Puis encore une fois en 5 lignes:

    L’AAAS a testé ChatGPT pendant un an pour résumer des articles scientifiques au format « SciPak ».
    Résultat : style convaincant mais manque de précision, erreurs fréquentes (corrélation/causalité, exagérations, contexte absent).
    Les notes moyennes des journalistes étaient faibles (≈2/5).
    Vérifier et corriger les résumés demande autant d’effort qu’écrire soi-même.
    Conclusion : outil prometteur, mais pas encore utilisable professionnellement.

    J’aime beaucoup cette version de 5 lignes, mais elle nécessite d’avoir une foi totale, car elle ne parle pas de méthodologie.