• Catégories
    • Toutes les catégories
    • Planète Warez
      Présentations
      Aide & Commentaires
      Réglement & Annonces
      Tutoriels
    • IPTV
      Généraliste
      Box
      Applications
      VPN
    • Torrent & P2P
    • Direct Download et Streaming
    • Autour du Warez
    • High-tech : Support IT
      Windows, Linux, MacOS & autres OS
      Matériel & Hardware
      Logiciel & Software
      Smartphones & Tablettes
      Graphismes
      Codage : Sites Web, PHP/HTML/CSS, pages perso, prog.
      Tutoriels informatiques
    • Culture
      Actualités High-Tech
      Cinéma & Séries
      Sciences
      Musique
      Jeux Vidéo
    • Humour & Insolite
    • Discussions générales
    • Espace détente
    • Les cas désespérés
  • Récent
  • Populaire
  • Résolu
  • Non résolu
Réduire

Planète Warez

,
  • Politique
  • Règlement
  • À propos
  • Annonces
  • Faire un don
  • Feedback
  • Team
  • Tutoriels
  • Bug Report
  • Wiki
    • Light
    • Default
    • Ubuntu
    • Lightsaber
    • R2d2
    • Padawan
    • Dim
    • FlatDark
    • Invaders
    • Metallic
    • Millennium
    • Leia
    • Dark
    • DeathStar
    • Starfighter
    • X-Wing
    • Sith Order
    • Galactic
ko-fi
Raccoonundefined

Raccoon

@Raccoon
Admin Seeder I.T Guy Windowsien Apple User Gamer GNU-Linux User Team
À propos
Messages
4.2k
Sujets
802
Groupes
14
Abonnés
19
Abonnements
3

Sujets

  • Raccoonundefined

    Des chercheurs alertent sur la multiplication des pratiques domestiques néfastes : « Ce sera un problème croissant »

    Planifier Épinglé Verrouillé Déplacé Discussions générales
    1
    2 Votes
    1 Messages
    28 Vues
    Raccoonundefined

    Des chercheurs alertent sur la multiplication des pratiques domestiques néfastes : « Ce sera un problème croissant » Dans de nombreuses régions à faible revenu du monde, un comportement inquiétant se développe, préoccupant scientifiques et experts en santé publique. Face à la raréfaction des combustibles abordables pour cuisiner et chauffer les foyers, de plus en plus de personnes brûlent du plastique, mettant gravement en danger leur santé.

    <ins class=“adsbygoogle” style=“display:block” data-ad-client=“ca-pub-1048767796765170” data-ad-slot=“4849696682” data-ad-format=“auto” data-full-width-responsive=“true” data-adsbygoogle-status=“done”><iframe id=“aswift_0” style=“height: 1px !important; max-height: 1px !important; max-width: 1px !important; width: 1px !important; filter: none;”><iframe id=“google_ads_frame0” style=“filter: none;”></iframe></ins> (adsbygoogle = window.adsbygoogle || []).push({});

    Ce qui se passe

    Phys.org a récemment publié un rapport basé sur une étude de l’Université Curtin, parue dans Nature Cities, qui détaille l’utilisation du plastique comme source de combustible. Les chercheurs appellent à des mesures immédiates pour enrayer ce phénomène dangereux.

    L’étude a porté sur des communautés d’Afrique, d’Asie et d’Amérique latine, où de nombreux ménages à faibles revenus ne peuvent se permettre d’acheter des sources d’énergie plus propres comme l’électricité, le gaz ou même le bois.

    En revanche, le plastique est largement accessible, car les déchets plastiques sont omniprésents dans ces régions. Par exemple, 13 % des ménages nigérians ont déclaré utiliser les déchets comme combustible pour cuisiner.

    Pourquoi brûler du plastique est-il si nocif ?

    La combustion du plastique libère des substances chimiques toxiques telles que les dioxines, les furanes et les métaux lourds. Ces polluants présentent de graves risques pour la santé, provoquant notamment des maladies pulmonaires, explique Bishal Bharadwaj, chercheur principal de l’étude.

    En outre, ces substances ne se limitent pas à l’air : elles contaminent également le sol, l’eau et les aliments. En Indonésie, des chercheurs ont trouvé des niveaux dangereux de toxines dans des échantillons de sol et de nourriture, probablement liés à la combustion de plastique.

    Le problème est d’autant plus préoccupant que la consommation mondiale de plastique ne cesse d’augmenter. Selon Bharadwaj, la situation devrait empirer : « Ce sera un problème croissant, étant donné que la consommation mondiale de plastique devrait tripler d’ici 2060 et que les inégalités vont s’aggraver avec l’urbanisation rapide et incontrôlée dans les pays en développement. »

    Que fait-on pour freiner ce comportement ?

    Les chercheurs reconnaissent qu’il n’existe pas de solution simple, surtout pour les populations vivant dans la pauvreté et dépourvues d’alternatives abordables pour cuisiner ou se chauffer.

    « De nombreux gouvernements n’abordent pas efficacement ce problème, car il se concentre souvent dans des zones marginalisées comme les bidonvilles », souligne la professeure Peta Ashworth.
    Parmi les pistes proposées figurent :

    -l’octroi de subventions pour rendre les combustibles propres accessibles aux foyers les plus modestes ;

    -une meilleure gestion des déchets pour limiter l’accumulation de plastique dans les quartiers précaires ;

    -des campagnes d’information pour sensibiliser les communautés aux dangers de la combustion du plastique ;

    -le développement de solutions de cuisson innovantes, peu coûteuses et adaptées aux contextes à faibles revenus.

    Même dans les régions où l’accès à l’énergie propre est aisé, chacun peut agir en réduisant sa consommation de plastique : privilégier les marques engagées dans l’économie circulaire, choisir des alternatives sans plastique pour les produits du quotidien, et acheter des articles d’occasion permettent de limiter l’impact environnemental.

    Source : cyclope.ovh

  • Raccoonundefined

    IPv6 fête ses 30 ans… mais il reste encore du chemin à parcourir

    Planifier Épinglé Verrouillé Déplacé Non résolu Logiciel & Software
    1
    1 Votes
    1 Messages
    21 Vues
    Raccoonundefined

    30 ans, une éternité pour Internet et le numérique… et pourtant, le protocole IPv6 est loin d’avoir remplacé IPv4 qui est malgré tout à bout de souffle (à cause de la pénurie d’adresses). Si les internautes français sont plutôt bien lotis, ce n’est pas le cas partout dans le monde.

    En décembre 1995, l’Internet Engineering Task Force publie la RFC 1883 intitulée « Internet Protocol, Version 6 (IPv6) Specification ». Elle fixait au passage le nom de ce qui était parfois appelé IP Next Generation ou IPng. Les spécifications d’IPv6 ont été finalisées quelques années plus tard, en décembre 1998 avec RFC 2460.

    En guise d’introduction, il était précisé que l’« IP version 6 (IPv6) est une nouvelle version du protocole Internet, conçue pour succéder à IP version 4 (IPv4) », dont la RFC 791 datait de septembre 1981. La principale nouveauté était le passage des adresses de 32 à 128 bits. D’autres changements étaient aussi de la partie, comme une simplification du format d’en-tête. IPv6 intègre aussi « des fonctionnalités permettant de renforcer la sécurité par défaut et d’optimiser le routage », explique l’Arcep (le gendarme des télécoms en France).

    667 millions d’adresses IPv6… par mm² !

    La différence est très importante puisqu’on passe de 4,3 x 10⁹ (soit 4,3 milliards) à 3,4 x 10³⁸ adresses possibles, soit une quasi-infinité à l’échelle de la Terre, puisque cela correspond à environ 667 millions d’adresses IPv6 pour chaque millimètre carré de surface terrestre.

    4,3 milliards d’adresses peuvent sembler beaucoup, mais ce n’est pas le cas. Le RIPE NCC (Network Coordination Centre, en charge de l’Europe, du Moyen-Orient et de certaines régions d’Asie centrale) est « à court d’adresses IPv4 » depuis fin 2019. Les alertes avaient été lancées des années auparavant et la solution existait déjà depuis longtemps avec IPv6. Mais la transition est longue, très longue… elle n’est toujours pas terminée en 2026.

    Cette même année, l’Arcep a décidé « d’initier la création d’une Task-Force IPv6, co-pilotée avec Internet Society France ». Son but est de « favoriser l’accélération de la transition vers IPv6 en permettant aux participants d’aborder des problèmes spécifiques et de partager les bonnes pratiques ».

    La France en tête du taux d’utilisation d’IPv6 !

    L’Arcep tient à jour une carte du taux d’utilisation d’IPv6, qui correspond au « pourcentage d’utilisateurs raccordés en IPv6 par leur fournisseur d’accès à internet ». Selon le dernier décompte de décembre 2025, la France est… en première position avec 75,1 %, devant l’Inde à 73,1 % et la Malaisie à 67 %.

    Les États-Unis sont 11ᵉ avec 56,4 %. Les pays africains sont dans le bas du classement avec 27 % au maximum pour la République du Congo, contre 0,2 % seulement en Algérie.

    En Afrique d’ailleurs, la situation était compliquée en 2025 avec des doutes sur des élections à l’AfriNIC et une question d’influence de brokers d’IP, le tout sur fond de bataille juridique et de pénurie d’IPv4. Il faut dire que l’« AfriNIC est le dernier registre internet régional à avoir des blocs d’adresses IPv4 à distribuer », nous expliquait Pierre Bonis, le directeur général de l’Afnic qui gère les noms de domaine en France. Cela attise donc les convoitises.

    Risque de scission d’Internet : IPv4 et IPv6 « ne sont pas compatibles »

    En France, l’Arcep publie chaque année un baromètre de la transition vers IPv6. Le dernier date de juillet 2025. Le régulateur y rappelait que IPv4 et IPv6 « ne sont pas compatibles », ce qui implique un risque de scission d’Internet. En effet, un service ou un site en IPv6 seulement (c’est-à-dire sans adresse IPv4) n’est pas accessible aux utilisateurs qui n’ont qu’une adresse IPv4, et vice-versa.

    Ce n’est pas qu’une chimère, comme l’expliquait l’Arcep : « Bien que ce ne soit pas encore le cas en France, en Inde, des sites web indiens importants ne sont actuellement plus accessibles qu’en IPv6 et la Chine a planifié l’arrêt complet d’IPv4 en 2030 ».

    En République tchèque, le gouvernement a annoncé la fin des services officiels accessibles en IPv4 à partir du 6 juin 2032. Un compte à rebours est lancé. Il reste 2346 jours.

    Cinq grandes étapes, la première d’ici 2 à 3 ans ?

    L’Arcep prévoit cinq grandes étapes de la transition mondiale vers IPv6 :

    IPv6 est activé par défaut sur la quasi-totalité des offres grand public IPv6 est activé par défaut sur la quasi-totalité des offres grand public, pro et entreprises Une part non négligeable des sites web sont hébergés en IPv6 uniquement Une part non négligeable des FAI ne proposent plus d’IPv4 La majorité des sites abandonnent IPv4

    La première étape « devrait être atteinte au cours des trois prochaines années ». En France, Bouygues Telecom, Orange et Free sont à plus de 90 % de clients activés en IPv6 sur le grand public. Sur le pro, Orange était à la traine au dernier décompte avec 57 % fin 2024. Restait SFR à 54 % sur le grand public et 10 % sur le pro, mais la marque au carré rouge prévoyait de dépasser les 90 % de clients activés fin 2026.

    Sur le mobile, Free était pendant longtemps le vilain petit canard, mais le fournisseur d’accès à Internet a enfin activé ses clients en mars 2025.

    Source : next.ink

    En complément :

    La guerre des IPv4 en Afrique menace la gestion mondiale d’Internet

    IPv6 : la France passe en tête au niveau mondial, mais la route est encore longue

  • Raccoonundefined

    Trois-Rivières, un jeu en ligne sur les impacts environnementaux de la tech

    Planifier Épinglé Verrouillé Déplacé Jeux Vidéo
    12
    8 Votes
    12 Messages
    92 Vues
    michmichundefined

    @duJambon la solution, la gravité fera le reste:

    text alternatif

  • Raccoonundefined

    Meta laisse passer la propagande « nationaliste blanche » de l’ICE

    Planifier Épinglé Verrouillé Déplacé Discussions générales
    9
    2 Votes
    9 Messages
    128 Vues
    Psyckofoxundefined

    Le passage des républicains au pouvoir a carrément sali la réputation déjà très mauvaise des États-Unis.
    Le pays a encore gagné des points dans le classement des nations les plus détestées au monde.
    On est même plus, dans ce cas, à choisir entre la peste et le choléra (le pays est à un fil d’une guerre civile).

  • Raccoonundefined

    Stop Killing Games valide son objectif, réponse de Bruxelles attendue d’ici juillet

    Planifier Épinglé Verrouillé Déplacé Jeux Vidéo
    3
    5 Votes
    3 Messages
    43 Vues
    Raccoonundefined

    @vanouzbek complètement d’accord. Je pense qu’entre les délires de Trump et le renouvellement des politiques français (nouvelle génération) les choses vont enfin bouger, dans le bon sens.

  • Raccoonundefined

    Oui, Microsoft donne les clés BitLocker aux forces de l’ordre. Non, ce n’est pas nouveau

    Planifier Épinglé Verrouillé Déplacé Actualités High-Tech
    1
    1 Votes
    1 Messages
    36 Vues
    Raccoonundefined

    Le sujet fait parler depuis quelques jours : Microsoft a transmis aux autorités des clés BitLocker en réponse à une ordonnance judiciaire. La surprise n’est pas dans la réponse de Microsoft, mais sur le fait que des utilisateurs semblent découvrir qu’envoyer ses clés de chiffrement en clair sur le cloud de Microsoft permette à ce dernier d‘y accéder.

    BitLocker est un outil de Microsoft pour chiffrer les données de votre périphérique de stockage. Il est intégré dans Windows et chiffre des volumes entiers. Microsoft présente cette fonctionnalité comme une « réponse aux menaces de vol de données ou d’exposition d’appareils perdus, volés ou mis hors service de manière inappropriée ».

    BitLocker : « Microsoft a donné des clés au FBI »…

    Pour résumer, si une personne dérobe un disque dur ou un SSD chiffré avec BitLocker, elle ne pourra pas accéder aux données sans la clé de déchiffrement. La fonction est pensée pour être la plus transparente possible pour les utilisateurs, notamment ceux qui disposent d’un module TPM sur leur machine. Il s’assure en effet « qu’un appareil n’a pas été falsifié pendant que le système est hors connexion » avant de déverrouiller l’accès aux données.

    Dans le cas contraire, une clé de récupération BitLocker, « qui est un nombre à 48 chiffres, est utilisée pour récupérer l’accès au lecteur », explique Microsoft. Cela arrive parfois lorsque Windows « plante » pour une raison ou une autre (après une mise à jour par exemple). Si le périphérique de stockage est enlevé de l’ordinateur pour être lu depuis une autre machine, la clé BitLocker sera également nécessaire pour déchiffrer les données.

    Dans un article, Forbes titre : « Microsoft a donné des clés au FBI pour déverrouiller des données chiffrées, révélant une grave faille de confidentialité ». So what ? Serions-nous presque tentés de dire, tant la situation n’est pas nouvelle. Nos confrères ajoutent d’ailleurs que Microsoft reçoit une vingtaine de demandes de clés BitLocker par an, et que l’entreprise « la fournit aux gouvernements en réponse à des ordonnances judiciaires valides ».

    … car elles sont sauvegardées en ligne par défaut

    […]

    Suite de l’article en accès libre : next.ink

  • Raccoonundefined

    Moltbook, le réseau social où les IA parlent entre elles (et où l’humain regarde)

    Planifier Épinglé Verrouillé Déplacé Actualités High-Tech
    8
    3 Votes
    8 Messages
    113 Vues
    Aurelundefined

    Au fond, cette prise de pouvoir des bots avec Moltbook en beta test n’est que le reflet dans le miroir des z’humains qui les ont alimentés par insouciance dans le meilleur des mondes durant ces deux-trois dernières décennies (à l’exception des tofs de chats, de recettes de cuisine, de remèdes marchands à la « comme j’aime » ou de vidéos rigolotes) pour le meilleur comme pour le pire, surtout le pire.

    Ces bots n’inventent rien ni ne résolvent en quoi que ce soit dans ce grand bazar mondial devenu quasi psychiatrique. Les z’humains ont toujours eu besoin d’un « sauveur, chef, roi, empereur, guide/fûrher suprême, divinité, etd » par délégation de leurs faiblesses existentielles par soumissions consentantes. C’est masochiste , mais ça a toujours été ainsi hélas…

    Cf. « Les grenouilles demandant un roi » de Jean de La Fontaine :

    1. Les grenouilles, lassées de leur « démocratie » (le bruit constant de leurs chants), demandent à leur dieu un souverain qui les gouverne.
    2. Le dieu, amusé, leur envoie un crapaud (ou un roi) qui, au lieu d’apporter la paix, les dévore.
    3. Les grenouilles, horrifiées, regrettent d’avoir renoncé à leur liberté.

    J’entendais des commentaires comme quoi «  Ben non voyons, l’humain maîtrisera toujours les Frankenstein IA qu’il a créé ». Pareil pour le nucléaire et ses menaces aujourd’hui de retour d’actualité, mais passons pour ne pas faire flipper…

    M’enfin, aujourd’hui tout est interconnecté et stalké. Nos créatures IA conspiratrices ont accès à toutes les infrastructures vulnérables (fournitures en électricité, eau, transports, flux bancaires, télécommunications) et même vos pensées telles des mentalistes. Plus rien pour elles est imperméable !

  • Raccoonundefined

    En santé, les erreurs par omissions des LLM sont nombreuses et dangereuses

    Planifier Épinglé Verrouillé Déplacé Actualités High-Tech
    1
    2 Votes
    1 Messages
    35 Vues
    Raccoonundefined

    ChatGPT Santé a été annoncé il y a deux semaines et ce n’est pas le projet qui lance l’utilisation des LLM en santé. Mais une recherche récente sur les réponses des modèles de langage concernant des questions sur la santé montre qu’ils peuvent générer des conseils problématiques, notamment en faisant des erreurs par omission.

    Avec le lancement de ChatGPT Santé, la santé voit l’IA générative et l’utilisation des modèles de langage dans son champ promues largement dans les mains du grand public. Pourtant, des chercheurs montrent que les réponses de chatbots peuvent être très problématiques.

    Nous sommes à « un moment où les puissants modèles d’apprentissage automatique (LLM) sont intégrés dans les soins aux patients plus rapidement que leurs risques ne peuvent être compris », affirme David Wu de l’école de médecine de Harvard, Ethan Goh de l’école de médecine de Stanford et leurs collègues. Ils ont récemment mis en ligne une étude (sur la plateforme de prépublication arXiv) qui teste 31 modèles et constate le risque de préjudice grave lié aux recommandations données par ces 31 LLM.

    D’abord, ne pas faire de mal

    « Primum non nocere [d’abord, ne pas faire de mal en français ou, first do no harm en anglais] est un principe fondamental de la médecine depuis des milliers d’années », rappellent-ils dans leur article. C’est inspiré de ce principe qu’ils proposent leur benchmark NOHARM (Numerous Options Harm Assessment for Risk in Medicine) qui s’appuie sur 100 cas réels de consultations entre médecins généralistes et spécialistes pour mesurer la fréquence et la gravité des préjudices causés par les recommandations médicales générées par les LLM.

    Ici, l’idée est donc de s’intéresser aux outils d’IA générative utilisés par des médecins pour les assister et de vérifier que les réponses ne poussent pas à l’erreur : « Il n’est pas encore clair si l’acquisition de connaissances [dans les LLM] constitue un indicateur d’une prise en charge clinique sûre et efficace », expliquent-ils.

    Leur benchmark mesure que Gemini 2.5 Flash et Pro, LiSA 1.0, Claude Sonnet 4.5 et DeepSeek R1 font le moins d’erreurs graves (entre 11,8 et 14,6 en moyenne. sur environ 500 questions) alors que o4 mini et GPT-4o en font beaucoup plus (entre 39,9 et 40,1). On peut aussi retrouver les données de leur benchmark ici.

    Ils analysent leurs résultats en expliquant que « les LLM commettent des erreurs préjudiciables à des taux non négligeables, et les indicateurs courants d’évaluation des modèles (par exemple, leur nouveauté, la taille en fonction des paramètres, les modes de raisonnement et les performances sur les benchmarks d’intelligence artificielle générale) ne permettent pas de prédire de manière fiable ces performances ».

    […]

    Suite de l’article réservé aux abonnés : next.ink

  • Raccoonundefined

    Data centers : à l’Assemblée nationale, des appels à questionner la course au gigantisme

    Planifier Épinglé Verrouillé Déplacé Actualités High-Tech
    1
    2 Votes
    1 Messages
    45 Vues
    Raccoonundefined

    Au lendemain de la catégorisation des centres de données en projet d’intérêt national majeur par la commission mixte paritaire sur le projet de loi sur la simplification de la vie économique, le député Nicolas Bonnet et l’association Data for Good organisaient un colloque sur les enjeux politiques et stratégiques de l’IA à l’Assemblée nationale. Next y était.

    Mise à jour du 23 janvier à 15 h : remplacement de la mention de l’étude de l’ADEME sur la consommation des data centers par le projet de recherche IT4Green.

    « En France, un data center moyen, c’est 7,5 mégawatts ». Benoît Petit est cofondateur de la société Hubblo, spécialisée dans la transformation socio-écologique du numérique, et ce mercredi après-midi, il dispense avec son collègue chercheur Gauthier Roussilhe une rapide formation sur les impacts environnementaux des centres de données à l’Assemblée nationale.

    « Un grand data center, ce qu’on appelle un hyperscaler, ça tourne autour de 100 à 200 MW ». S’il nous dit tout ça, explique-t-il en faisant une pause dans ses slides, c’est pour que nous comprenions l’ampleur d’un projet comme Campus IA, qui prévoit d’atteindre une puissance d’un gigawatt, soit 1 000 MW, présente des caractéristiques hors normes. Installé à Fouju, le projet est porté par l’Américain NVIDIA, le fonds émirati MGX, et les Français Mistral AI et Bpifrance. Quant à sa taille, « même pour le milieu des data centers, c’est une petite révolution. Cette tendance au gigantisme crée un phénomène de spéculation sur les terrains comme sur la réservation de puissance, le secteur lui-même est un peu déboussolé ».

    Organisée à l’instigation de l’ingénieur en informatique et député du Puy-de-Dôme Nicolas Bonnet (EELV) et de l’association Data for Good, qui œuvre à « mettre le numérique au service de l’intérêt général », la formation fait partie intégrante d’un colloque dédié à aider les parlementaires et le public à « comprendre les enjeux politiques et stratégiques de l’IA », à commencer par les questions d’impacts environnementaux et de souveraineté numérique.

    Vers des data centers « projet d’intérêt national majeur »

    Hasard du calendrier, la réunion se déroule au lendemain de l’étude du projet de loi sur la simplification de la vie économique. Le 20 janvier, les députés et sénateurs ont adopté en commission mixte paritaire un amendement de compromis sur l’article 15, qui propose de qualifier les centres de données de projets d’intérêt national majeur (PINM) — un projet la fédération sectorielle France Data Center attendait « de pied ferme », selon son directeur général Michaël Reffay. Si la commission spéciale de l’Assemblée nationale y avait ajouté la condition de limiter cette possibilité aux entreprises de pays assurant le même niveau de protection des données que ceux de l’Union européenne, cet amendement a été supprimé.

    En pratique, donc, et alors que les États-Unis sont déjà très présents dans la filière française du data centers – via des acteurs de la colocation, comme Equinix ou Digital Realty, ou grands noms plus connus du grand public, comme Amazon ou Microsoft –, n’importe quel opérateur de data center, quelle que soit sa nationalité, pourra profiter de ce statut pour s’installer sur le territoire national avec les conditions favorables qu’offre le statut de PINM.

    Cette version du texte doit encore être votée à l’Assemblée nationale, le 27 janvier, puis au Sénat. Mais elle occupe les esprits dans la mesure où Nicolas Bonnet, en introduction de la réunion, a expliqué s’être interrogé sur les critères « flous » avancés dès la présentation du projet de loi. Tel qu’il était écrit, le texte « laissait entendre que le big is beautiful. Or la taille ne détermine absolument pas la capacité des centres données ».

    Autres enjeux qui interpellent le député et son camp politique : les idées selon lesquelles la multiplication de centres de données améliorent « la transition numérique, qui est elle-même une notion floue, la transition écologique, alors que tout cela repose tout de même sur du matériel, ou encore la souveraineté numérique ». Et de critiquer la position gouvernementale, selon laquelle l’idée serait « d’avoir des GAFAM européens », un positionnement qu’il qualifie de « peu crédible ».

    Politiser la multiplication des data centers

    « Vu la concentration et le fléchage des capitaux, de toutes manières, on n’y arrivera pas. » Pour Ophélie Coelho, autrice de Géopolitique du numérique, l’impérialisme à pas de géants (L’Atelier, 2023), c’est simple : l’idée de GAFAM européens ferait mieux d’être tout de suite abandonnée.

    […]

    Suite de l’article réservée aux abonnés : next.ink

  • Raccoonundefined

    Ubisoft se scinde en cinq « maisons », annule six jeux, et annonce de nouveaux licenciements

    Planifier Épinglé Verrouillé Déplacé Jeux Vidéo
    1
    2 Votes
    1 Messages
    39 Vues
    Raccoonundefined

    Ubisoft a dévoilé les grandes lignes de son plan de restructuration, basé sur l’articulation du groupe autour de cinq « maisons créatives » autonomes sur le plan stratégique. L’éditeur français annonce dans le même temps l’annulation de six jeux et la fermeture de deux studios dans le cadre d’un nouveau programme de réduction de coûts fixé à 200 millions d’euros sur deux ans. Un syndicat d’employés a immédiatement appelé à un débrayage pour contester ces mesures.

    L’année à venir s’annonce mouvementée chez Ubisoft. L’éditeur français a en effet précisé (PDF), mercredi 21 janvier au soir, les contours du grand plan de restructuration qui fait suite à son accord stratégique avec Tencent, et doit lui permettre de renouer avec la croissance (et la rentabilité). Le chantier s’annonce dantesque : il suppose en effet la réorganisation totale du groupe, la révision de la feuille de route à trois ans, et un effort renforcé en matière de réduction des coûts.

    D’un groupe unifié à cinq « maisons créatives »

    L’annonce la plus structurante concerne la mise en place d’un nouveau modèle opérationnel, dans lequel le groupe Ubisoft s’efface au profit de cinq Creative Houses, présentées comme des « unités d’affaires intégrées regroupant désormais production et distribution ». Ces cinq maisons, qui se partagent le catalogue de licences d’Ubisoft, ont donc vocation à développer et commercialiser leurs propres projets, chacune disposant de ses propres équipes et de son propre compte de résultats.

    La première de ces maisons avait été annoncée fin novembre. Baptisée Vantage Studio, elle compte le chinois Tencent comme actionnaire minoritaire, et prend en charge trois des licences les plus puissantes du groupe : Assassin’s Creed, Far Cry, et Tom Clancy’s Rainbow Six.

    Cinq grandes maisons se partagent le trésor d’Ubisoft, ses licences

    Les quatre autres maisons (ou filiales) se répartissent les autres univers d’Ubisoft, sur la base d’une approche thématique : les jeux de tir à dimension compétitive, les jeux « d’expériences Live ciblées et à forte identité » dont For Honor ou The Crew, les jeux à dimension narrative et immersive (une drôle de catégorie qui réunit aussi bien la stratégie d’un Anno que Rayman ou Beyond Good & Evil) et l’inévitable branche dédiée aux jeux dits casual. Ubisoft indique travailler actuellement au développement de quatre nouvelles marques, mais ne précise pas leur rattachement.

    Article en accès libre : next.ink

  • Raccoonundefined

    Face à l’ICE, des employés de la tech essaient de mobiliser leurs dirigeants

    Planifier Épinglé Verrouillé Déplacé Discussions générales
    2
    2 Votes
    2 Messages
    57 Vues
    El Bbzundefined

    Ca va pas être facile, mais comme la mobilisation du peuple se renforce, sait-on jamais. En plus ces hypocrites utilisent une main d’oeuvre immigrée, comme il se doit pour gagner un peu plus de fric.
    Alors, intérêts financiers ou soutien à DJ ?
    J’espère qu’ils comprendrons qu’ils risquent de se retrouver dans une impasse.
    Peu probable, mais je garde mon optimisme habituel.

  • Raccoonundefined

    Apple, la pub et la vie privée : deux salles d’audience, une même ambiance

    Planifier Épinglé Verrouillé Déplacé Actualités High-Tech
    4
    3 Votes
    4 Messages
    90 Vues
    TylerDurden67undefined

    C’est tellement juridique francais, ça veut tout dire et rien. Individuellement je comprends chaque mot, mais mis ensemble c’est du gloubiboulga :smile:

  • Raccoonundefined

    Bloquer les réseaux sociaux aux moins de 15 ans : l’Assemblée adopte une loi problématique

    Planifier Épinglé Verrouillé Déplacé Discussions générales
    34
    2 Votes
    34 Messages
    294 Vues
    Obiwan91undefined

    @Ern-Dorr oui je suis d’accord, c’était justement ma remarque, les parents qui laisse leur ados dehors a 12-13 ans a 23h ne feront rien de plus dans l’education de leurs enfants.

  • Raccoonundefined

    Telnet : une faille triviale vieille de 10 ans permet de se connecter en root

    Planifier Épinglé Verrouillé Déplacé Logiciel & Software
    1
    2 Votes
    1 Messages
    48 Vues
    Raccoonundefined

    Alerte générale ! En théorie, il n’y a pas de raison de paniquer, mais en pratique… C’est, en creux, un peu le sens du dernier bulletin du CERT-FR. Une faille triviale a été identifiée dans Telnet ; elle permet de se connecter en root. En théorie, un serveur Telnet ne devrait jamais être accessible… mais c’est la théorie.

    Le CERT-FR a publié un bulletin d’alerte pour informer que « les détails de la vulnérabilité CVE-2026-24061, affectant telnetd, ont été publiés ». Ils sont en effet disponibles sur un fil de discussion Openwall, dans la liste de diffusion oss-security.

    Une faille et hop, vous voilà connecté en root sur le serveur

    Telnetd – ou Telnet daemon – est la partie serveur du protocole Telnet (terminal network), « permettant de communiquer avec un serveur distant en échangeant des lignes de texte et en recevant des réponses également sous forme de texte » pour reprendre Wikipédia.

    « Cette vulnérabilité permet à un attaquant de contourner l’authentification et de se connecter à une machine vulnérable en tant que l’utilisateur root ». Autant dire que c’est le scénario catastrophe, puisque root est l’utilisateur avec tous les droits, d’autant plus que le CERT-FR ajoute que cette faille a été « introduite en mars 2015 et affecte GNU InetUtils versions 1.9.3 à 2.7 », soit la dernière version disponible actuellement.

    « A_ucun correctif officiel n’est disponible pour l’instant_ », ajoute le CERT-FR. Vous en voulez encore ? « Un code d’exploitation est publiquement disponible ». Cette vilaine faille est référencée sous le nom CVE-2026-24061 et son score CVSS 3.1 est de 9,8 sur 10.

    #Fear Des serveurs telnet sont accessibles sur Internet

    Selon les constatations du CERT-FR, des services telnet sont accessibles sur Internet, « ce qui est contraire aux bonnes pratiques »… Au-delà de la faille, il y a depuis toujours une bonne raison de ne pas exposer Telnet sur le Net : « Les mots de passe Telnet ne sont pas chiffrés lorsqu’ils sont envoyés entre le client traditionnel et le serveur », comme le rappelle IBM.

    Le CERT-FR recommande donc de supprimer les services telnet et, si c’est impossible, de ne pas exposer le service directement sur Internet, ou a minima d’en restreindre l’accès à certaines adresses IP (liste blanche). Évidemment, il faudra appliquer les correctifs dès que possible une fois ces derniers disponibles.

    Telnet est remplacé par SSH depuis longtemps

    Telnet est un vieux protocole, remplacé depuis longtemps par d’autres plus récents, dont SSH, ce qui devrait (en théorie) limiter les risques. En cybersécurité, on n’est jamais à l’abri d’une mauvaise nouvelle et/ou configuration.

    Comme le rappelait déjà l’ANSSI en 2015, « SSH, ou Secure SHell, est un protocole applicatif qui vise à corriger les déficiences connues dans les protocoles FTP, RSH, RCP et Telnet ». L’Agence ajoutait que « l’avantage évident apporté par SSH est sa sécurité ».

    « Là où Telnet n’apporte ni authentification du serveur ni création d’un canal chiffré et authentifié, SSH va permettre de le faire dès lors que quelques règles d’hygiène simples sont appliquées », détaillait l’ANSSI. Les recommandations d’il y a 10 ans étaient claires : utiliser SSH à la place des protocoles historiques pour des accès shell distants, mais aussi désinstaller Telnet comme service d’accès à distance.

    Pour rappel, SSH est par défaut sur le port 22, Telnet sur le 23. Si, côté client, vous avez un doute, regardez la configuration de votre PUTTY : Connection type doit être sur SSH (port 22) et pas sur Other: Telnet (port 23).

    Source : next.ink

  • Raccoonundefined

    TeraWave de Blue Origin : jusqu’à 6 Tb/s en débit symétrique… « n’importe où sur Terre »

    Planifier Épinglé Verrouillé Déplacé Matériel & Hardware
    1
    1 Votes
    1 Messages
    57 Vues
    Raccoonundefined

    Ça va être TeraCher non ?

    En plus de Leo, Blue Origin va lancer une autre constellation avec plus de 5 400 satellites : TeraWave. L’entreprise veut proposer 144 Gb/s symétriques via les ondes Q/V à ses clients et même jusqu’à 6 Tb/s symétrique en optique (laser) avec des satellites plus haut.

    Blue Origin, une société de Jeff Bezos, vient jouer sur les platebandes de SpaceX. Elle annonce TeraWave, un « nouveau réseau spatial de 6 Tb/s ». Il sera accessible à rien de moins que « des dizaines de milliers d’entreprises, de centres de données et d’utilisateurs gouvernementaux qui ont besoin d’une connectivité fiable pour des opérations critiques ».

    De 520 à 24 000 km : 5 280 satellites LEO et 128 MEO

    Les principales cibles sont des « zones isolées, rurales et suburbaines » où le déploiement de la fibre optique est complexe, couteux voire impossible. TeraWave est une nouvelle constellation en orbite basse et moyenne (LEO et MEO), avec pas moins de 5 408 satellites interconnectés via des liaisons optiques. Elle viendra donc rejoindre Leo (anciennement Kuiper) qui doit disposer de plus de 3 000 satellites au terme de sa première phase.

    Dans les faits, deux groupes de satellites sont à distinguer au sein de TeraWave : 5 280 sont en orbite basse (LEO), les 128 autres sur une orbite moyenne (MEO). Dans le premier cas, les satellites évoluent généralement à moins de 1 000 km d’altitude, dans le second cas, ils « évoluent à des altitudes de 19 000 à 23 000 km », mais peuvent aussi descendre plus bas. À 36 000 km, on arrive, pour rappel, aux satellites géostationnaires, ceux qui ne bougent pas dans le ciel.

    Blue Origin ne donne pas beaucoup de précisions, mais comme l’entreprise a déposé une demande à la FCC, nous pouvons en apprendre davantage. Le document a également été partagé par Christian Frhr. von der Ropp dans le groupe LinkedIn Megaconstellations | Low-Earth Orbit High-Throughput Satellite Constellations (LEO-HTS).

    C’est la théorie. Dans la pratique, les satellites LEO seront situés entre 520 et 540 km, c’est-à-dire dans les mêmes eaux que les satellites Starlink de SpaceX. Les MEO seront bien plus éparpillés avec des orbites entre 8 000 et 24 200 km. 104 des 128 satellites seront entre 8 000 et 8 100 km, les 24 derniers seront à plus de 24 000 km.

    Les milliers de satellites LEO proposeront une connectivité dans les bandes Q (download) et V (upload), avec un débit maximum de 144 Gb/s pour les clients. Les 128 satellites MEO pour leur part proposent une liaison optique (très certainement via laser) avec un débit de 6 Tb/s maximum. Dans les deux cas, c’est du symétrique, c’est-à-dire que la vitesse est aussi bien en download qu’en upload.

    Les enjeux autour de l’altitude : latence et période orbitale

    L’altitude joue deux rôles importants pour la partie des télécommunications. Tout d’abord, la latence, c’est-à-dire le temps pour le signal de faire un aller/retour : 250 ms pour les satellites géostationnaires. Dans la pratique, c’est même le double (500 ms) pour une requête : le terminal l’envoie au satellite, le satellite la retourne à une station de base au sol, qui à son tour envoie la réponse au satellite, qui la transfère au terminal.

    Suite de l’article en accès libre : next.ink

  • Raccoonundefined

    L'affaire Nicolas Guillou, ou quand Washington bascule votre vie en mode 404

    Planifier Épinglé Verrouillé Déplacé Discussions générales
    1
    3 Votes
    1 Messages
    49 Vues
    Raccoonundefined

    La « mort numérique » du juge Guillou a fait voler en éclats le mythe de la souveraineté européenne : nous sommes à la merci technologique des États-Unis. Le constat de dépendance acté – maintenant, on fait quoi ?

    Imaginez : du jour au lendemain, vos e-mails sont inaccessibles, vos cartes bancaires bloquées sans explication, et vos réservations en ligne effacées. Ce cauchemar est le quotidien de Nicolas Guillou, juge français à la Cour pénale internationale (CPI). Depuis août 2025, sanctionné par Washington, il vit une « mort numérique » : ses comptes Airbnb, Amazon et PayPal ont été fermés et ses cartes Visa et Mastercard désactivées. L’absurdité va jusqu’à l’intime : chez lui, même son assistant vocal Alexa a cessé de lui parler.

    Parce que la CPI a émis des mandats d’arrêt contre le Premier ministre israélien et son ministre de la Défense, six juges et trois procureurs voient leurs vies empêchées par une décision unilatérale des États-Unis. Une sanction appliquée avec zèle non seulement par les géants de la Tech, mais aussi par les banques européennes qui, craignant de perdre l’accès au marché américain, préfèrent sacrifier leurs propres clients.

    La résistance s’organise

    Le constat est alarmant : 80 % des données du secteur public européen reposent sur des clouds américains, soumis au Cloud Act, permettant à Washington d’y accéder légalement. Si la CPI a fini par quitter Microsoft pour l’allemand OpenDesk, ce n’est qu’un premier pas.

    Face à cette menace, la résistance s’organise enfin. Le 20 janvier 2026, dans le 13ᵉ arrondissement de Paris, une soirée intitulée « Résilience numérique européenne » a réuni chercheurs et activistes sous l’égide du CNRS et de la Fondation Inria. Le message est clair : l’Europe doit arrêter de subir. « L’Europe est le berceau des standards ouverts », a martelé Henri Verdier, directeur de la Fondation Inria, refusant la course perdue d’avance aux data centers face aux dollars américains – comme le rapporte le compte rendu détaillé du journal suisse Le Temps.

    Les alternatives concrètes émergent. Au-delà des 300 solutions de cybersécurité identifiées fin 2025 par le CESIN et Hexatrust, de nouveaux outils « communs » voient le jour. C’est le cas de Panoramax, une alternative libre à Google Street View portée par l’IGN, ou du projet OpenPortability, un « GPS du web social » permettant de naviguer entre X, BlueSky et Mastodon.

    Construire un « stack d’émancipation »

    La Gendarmerie nationale a fait figure de pionnière avec sa bascule Linux GendBuntu, opérée au début des années 2010. Quant à la DGSI (Direction générale de la sécurité intérieure), elle vient de resigner pour trois ans avec Palantir, en attendant qu’une offre souveraine émerge pour remplacer l’Américain à la suite de l’appel d’offres lancé en 2022.

    Pour Tariq Krim, figure de la Tech française, le diagnostic est sans appel : « Linux et le Web ont été inventés en Europe. Et pourtant, en 2025, nous vivons dans la terreur qu’un président américain limite l’accès à nos propres services numériques. » Cette dépendance vient d’une erreur majeure : avoir réduit le cloud à de simples serveurs alors qu’il est avant tout du logiciel.

    En renonçant à produire ces briques technologiques maîtrisées, l’Europe s’est privée de ce que Krim appelle, dans une récente tribune, la « stack d’émancipation » (la stack est, en langage informatique, une pile de technologies fonctionnant ensemble). Face à la « dénumérisation » qui nous guette, selon l’entrepreneur, la souveraineté ne viendra pas de grands programmes complexes, mais de la reconstruction de cette base : « du logiciel, de l’open source, de l’interopérabilité et des gens qui les mettent en œuvre ». « La technologie ne se décrète pas, dit-il, elle se construit. »

    Source : ladn.eu

  • Se connecter

  • Vous n'avez pas de compte ? S'inscrire

  • Connectez-vous ou inscrivez-vous pour faire une recherche.
  • Premier message
    Dernier message
0
  • Catégories
    • Toutes les catégories
    • Planète Warez
      Présentations
      Aide & Commentaires
      Réglement & Annonces
      Tutoriels
    • IPTV
      Généraliste
      Box
      Applications
      VPN
    • Torrent & P2P
    • Direct Download et Streaming
    • Autour du Warez
    • High-tech : Support IT
      Windows, Linux, MacOS & autres OS
      Matériel & Hardware
      Logiciel & Software
      Smartphones & Tablettes
      Graphismes
      Codage : Sites Web, PHP/HTML/CSS, pages perso, prog.
      Tutoriels informatiques
    • Culture
      Actualités High-Tech
      Cinéma & Séries
      Sciences
      Musique
      Jeux Vidéo
    • Humour & Insolite
    • Discussions générales
    • Espace détente
    • Les cas désespérés
  • Récent
  • Populaire
  • Résolu
  • Non résolu