Aller directement au contenu
  • 3 Votes
    1 Messages
    25 Vues

    [image: dell-xps-13-design-2-1200x901.jpeg]

    Depuis près d’un an, Linux a droit à un vrai regain d’intérêt comme alternative face à Windows. À mesure que des mises à jour de Windows frustraient les utilisateurs, et à mesure que Linux était de plus en plus performant pour le jeu vidéo, de plus en plus d’utilisateurs se sont détournés du système de Microsoft.

    C’est un nouveau signe positif qui touche ce jeudi 7 mai 2026 l’écosystème Linux. Deux marques de PC majeures, Dell et Lenovo, ont annoncé avoir rejoint le Linux Vendor Firmware Service (LVFS) en tant que « Premier Sponsors ».

    Une installation facilitée de Linux

    Il s’agit d’un soutien financier notable de la part des deux fabricants pour améliorer le support des appareils par Linux.

    Le Linux Vendor Firmware Service facilite l’installation et la mise à jour de pilotes, notamment sur les environnements utilisant Gnome Software, la boutique d’applications sous Gnome.

    [image: image-13.png]

    Avec ce sponsoring, Dell et Lenovo se joignent à Framework et Red Hat qui participaient déjà au financement du projet.

    LVFS revêt une importance stratégique pour Dell, car il lui permet de fournir des mises à jour de micrologiciel sécurisées et conformes aux normes, même si l’entreprise choisit de ne pas utiliser une image préinstallée en usine.

    En marge de cette annonce, le projet LVFS a annoncé avoir dépassé les 145 millions de mises à jour de firmware déployées de la part de plus d’une centaine de fabricants d’appareils, accessoires, périphériques ou composants.


    – Source :

    https://www.frandroid.com/marques/dell/3092171_dell-et-lenovo-passent-une-nouvelle-etape-pour-soutenir-linux-face-a-windows

  • 1 Votes
    7 Messages
    96 Vues

    bonjour, je vais déjà rechercher des infos sur ce truc, si je bricole le système, j’y vais toujours avec prudences, on a vite fait de tout casser sur Linux. Puis, j’ai des sauvegardes et sauvegardes sur la sauvegarde…

  • 5 Votes
    1 Messages
    39 Vues

    [image: skraper.png?w=1838&ssl=1]

    SKRAPER est un logiciel de scraping pour le retrogaming qui utilise la base de données ScreenScraper.fr pour récupérer métadonnées et médias de jeux, permettant d’obtenir une librairie de jeux parfaitement organisée avec logos, screenshots, flyers et informations vérifiées.

    Une borne d’arcade ou une console retrogaming, c’est bien. Une librairie de jeux avec des infos précises, des logos propres, des screenshots en haute résolution et des flyers originaux, c’est mieux. Skraper répond exactement à ce besoin en connectant les frontends de retrogaming à la base de données massive de ScreenScraper.fr, qui contient des centaines de milliers de médias et informations pour plus de 200 systèmes différents.

    Le logiciel supporte nativement EmulationStation via RecalBox et Retropie, mais il peut aussi remplir les listes de jeux et images de LaunchBox plus précisément et plus rapidement que LaunchBox lui-même. D’autres frontends comme MAME/MAMEUI seront bientôt supportés. Le point fort : le scraping est extrêmement rapide grâce à l’utilisation massive du multithreading et d’un cache local, ce qui réduit la bande passante et accélère le processus.

    Skraper propose un assistant de configuration en 5 étapes pour être opérationnel en quelques minutes. Les paramètres sont nombreux et permettent un réglage fin par système si nécessaire. On peut choisir exactement quelles infos récupérer : synopsis, genres, classifications, nombre de joueurs, notes, mais aussi logos, screenshots, flyers, boîtes 3D, SteamGrid, vidéos et même manuels.

    • Scraping ultra-rapide avec multithreading et cache local
    • Plus de 200 systèmes supportés (centaines de milliers de médias)
    • Supporte EmulationStation, RecalBox, Retropie, LaunchBox
    • Médias optimisés : logos, screenshots, flyers, boîtes 3D, SteamGrid
    • Informations vérifiées : synopsis, genres, classifications, joueurs, notes
    • User-mix pour composer des images complexes via JSON
    • Hash computation : média sauvegardé une fois, lié plusieurs fois
    • Base de données ScreenScraper.fr (communauté active)

    Le cache local est un atout majeur : on peut tester autant de configurations que voulu sans retélécharger les médias. Une fois téléchargés, ils sont disponibles localement pour tous les scrapes suivants. Le stockage des médias est optimisé grâce au calcul de hash : un même média n’est sauvegardé qu’une fois mais peut être lié à plusieurs jeux, économisant l’espace disque.

    La fonction User-mix permet des compositions d’images complexes en utilisant des fichiers de définition JSON avec preview instantané. On peut créer ses propres mixes XML pour positionner, redimensionner, faire pivoter, appliquer des filtres de couleur et projeter images, textes ou sous-mixes, avec ou sans transparence. C’est particulièrement puissant pour créer des visuels personnalisés pour chaque système ou chaque jeu.

    Skraper existe grâce à la communauté de ScreenScraper.fr où de nombreuses personnes collectent, trient, arrangent et partagent informations et images jour après jour. En utilisant Skraper, on permet à la base de données d’enregistrer anonymement et automatiquement les noms et checksums des roms/jeux. Ces données collectées peuvent ensuite être validées et intégrées dans la base, améliorant la ressource pour tous.

    Le logiciel est actuellement en version bêta publique disponible uniquement pour Windows. Linux et macOS sont prévus mais nécessitent de la patience. Sur Windows, il faut installer le framework .NET. Sur Linux et macOS, il faudra le package mono-complete.

    Skraper est l’outil indispensable pour quiconque veut une librairie retrogaming propre et complète sans passer des heures à chercher et renommer manuellement chaque média. Connectez, lancez le scraping, profitez.

    À retenir : Skraper transforme n’importe quelle collection de roms en librairie retrogaming professionnelle avec logos, screenshots et infos vérifiées. Gratuit, rapide, et propulsé par la communauté ScreenScraper.fr.


    – Sources :

    https://www.skraper.net

    https://mondary.design/2026/04/skraper-le-scraper-ultime-pour-une-librairie-retrogaming-impeccable/

  • 3 Votes
    4 Messages
    51 Vues

    Je me suis installé NetData il y a peu pour monitoré mon serveur Linux, je vais peut-être le virer pour cet outil.

  • 4 Votes
    2 Messages
    74 Vues

    C’était et c’est toujours fluide avec Xorg chez moi, par contre mes outils d’automatisations et mes raccourcis globaux ne fonctionnent toujours pas correctement avec Wayland.

  • Présentation Toubten

    Présentations science-fiction linux généalogie
    3
    0 Votes
    3 Messages
    29 Vues

    Put…n un jeune 🤣🤣🤣 bienvenue.

  • 7 Votes
    5 Messages
    80 Vues

    Bonjour, @Violence Tu as raison pour une production, entreprise ou autre. Mais là, moi, je parle plutôt pour les particuliers et je ne parle que pour Debian. J’ai testé Ubuntu à une période et j’avoue je suis revenu a Debian.

  • 3 Votes
    6 Messages
    152 Vues

    @Raccoon a dit:

    j’ai posé la question à une IA

    C’est vrai que j’ai vu ça surtout au niveau de la puissance de calcul, qui évidement va devoir tapiner pour l’I.A. aussi. undefined

  • 6 Votes
    10 Messages
    228 Vues

    Je ne suis pas trop utilisateur pour le gaming, par contre pour la fonction IA local avec Ollama et Dockers, c’est pas mal.

  • 5 Votes
    1 Messages
    77 Vues

    [image: 1775731322502-59a75018-559c-43e8-a908-ee7b8bb7d48f-image-resized.jpeg]

    J’adore Nextcloud, ça fait plein de choses et quand on doit gérer une équipe c’est vraiment pratique. Mais franchement des fois je ne comprends pas que ça soit aussi lourd et lent. Ils devraient s’inspirer de la philosophie d’Opencloud

    La promesse : légèreté et rapidité avant tout

    Opencloud se positionne comme une alternative minimaliste et rapide aux solutions de stockage cloud auto-hébergées. Contrairement à Nextcloud qui propose une suite complète d’outils (emails, tâches, contacts, notes), Opencloud se concentre sur l’essentiel : la gestion de fichiers.
    Et sur ce point précis, la différence est bluffante.

    Une navigation instantanée

    La première impression est saisissante : aucun temps de chargement perceptible. La navigation entre les dossiers est instantanée, les menus s’affichent sans délai, et l’ouverture des fichiers est quasi immédiate.

    Pour comprendre l’écart de performance, la comparaison avec Nextcloud (même optimisé) est édifiante :

    • Sur Nextcloud : chaque clic entraîne un temps de chargement visible
    • Sur Opencloud : l’interface réagit comme une application native

    Cette fluidité s’explique par une architecture technique différente : Opencloud gère l’organisation des dossiers via des métadonnées, sans base de données. C’est la même philosophie que les sites statiques, qui privilégient la rapidité au détriment de certaines fonctionnalités avancées.

    Gestion des fichiers : une expérience desktop

    Copier-coller natif

    Opencloud brille par sa gestion intuitive des fichiers, qui rappelle l’expérience d’un explorateur de fichiers classique :

    • Sélection multiple avec Shift + clic
    • Copier-coller avec Ctrl+C / Ctrl+V ou clic droit
    • Couper-coller pour déplacer des fichiers
    • Drag & drop ultra-réactif

    Les opérations de glisser-déposer fonctionnent sans friction, même avec des fichiers volumineux (700 Mo dans le test). Pas besoin de viser une zone spécifique : vous déposez le fichier n’importe où dans l’interface et il se charge immédiatement.

    Comparaison avec Nextcloud

    Sur Nextcloud, ces mêmes opérations sont plus lourdes :

    • Le clic droit natif du navigateur n’offre pas de fonctionnalités avancées
    • Pour copier ou déplacer un fichier, il faut passer par un menu qui ouvre une fenêtre de sélection
    • Le drag & drop nécessite de viser précisément la zone de dépôt
    • Chaque action s’accompagne d’un temps de chargement

    Recherche plain-texte native

    Une fonctionnalité particulièrement appréciable : la recherche dans le contenu des fichiers est activée par défaut.

    Comment ça fonctionne

    Créez un fichier Markdown, ajoutez-y du contenu, et lancez une recherche sur un mot présent dans le document : Opencloud retrouve immédiatement le fichier concerné. La recherche ne se limite pas aux noms de fichiers, elle indexe le contenu textuel.

    L’écart avec Nextcloud

    Sur Nextcloud, cette fonctionnalité existe mais n’est pas activée par défaut :

    • Elle nécessite une configuration manuelle
    • L’activation consomme davantage de RAM
    • Sans cette configuration, la recherche se limite aux noms de fichiers

    Édition collaborative avec Collabora

    Opencloud intègre Collabora Online (basé sur LibreOffice), permettant l’édition collaborative de documents bureautiques.

    Fonctionnalités testées

    • Création de documents texte, tableurs, présentations
    • Édition en temps réel avec plusieurs utilisateurs
    • Prévisualisation Markdown (code à gauche, rendu à droite)
    • Partage via lien public avec mot de passe optionnel
    • Permissions granulaires (lecture seule ou modification)

    Édition collaborative en pratique

    Le test montre deux utilisateurs travaillant simultanément sur le même document :

    • Indication visuelle des utilisateurs connectés
    • Synchronisation fluide des modifications
    • Possibilité de “prendre la main” pour éditer

    Cette fonctionnalité n’est pas exclusive à Opencloud (Nextcloud propose également Collabora), mais son intégration est fluide et l’expérience reste rapide.

    Espaces partagés : gestion centralisée

    Opencloud permet de créer des espaces partagés qui n’appartiennent pas à un utilisateur spécifique mais à l’organisation. C’est l’équivalent des drives partagés sur d’autres plateformes cloud.

    Configuration des espaces

    • Création d’espaces thématiques (Marketing, RH, etc.)
    • Attribution de membres avec permissions
    • Définition de quotas de stockage par espace
    • Personnalisation de l’image de l’espace

    Cette approche permet d’éviter qu’un seul utilisateur monopolise l’espace de stockage et facilite la gestion collaborative.

    Synchronisation desktop

    Un client de synchronisation est disponible pour Mac (et probablement Windows/Linux), offrant une synchronisation bidirectionnelle entre le cloud et le système local.

    Fonctionnalités de synchronisation

    • Synchronisation sélective des espaces
    • Choix des dossiers à synchroniser
    • Gestion des espaces partagés et personnels
    • Synchronisation en temps réel

    L’application se présente sous forme de plugin système, permettant de choisir précisément quels espaces synchroniser localement.

    Quelques limitations

    Le projet étant relativement récent, quelques effets de bord subsistent dans l’expérience de synchronisation. Rien de bloquant, mais l’outil continue d’évoluer.

    Stockage objet S3

    Opencloud supporte nativement le stockage S3-compatible, permettant une architecture optimisée en termes de coûts :

    • Serveur VPS pour l’application
    • Stockage des fichiers sur un bucket S3 externe

    Avantages de cette approche

    Le stockage objet coûte généralement moins cher que le stockage sur VPS. Cette séparation permet de dimensionner le serveur applicatif en fonction des besoins de calcul, tout en externalisant le stockage sur une infrastructure dédiée (AWS S3, Scaleway, OVH Object Storage, etc.).

    Compatibilité CalDAV/CardDAV

    Bien qu’Opencloud ne propose pas nativement de gestion de calendriers et contacts, il est compatible avec Radicale, un serveur CalDAV/CardDAV dédié.

    Fonctionnement

    • Installation de Radicale en parallèle d’Opencloud
    • Utilisation des identifiants Opencloud pour l’authentification
    • Génération d’URLs CalDAV pour synchronisation avec clients externes
    • Gestion centralisée des utilisateurs

    Cette approche modulaire permet de compléter les fonctionnalités d’Opencloud sans alourdir le système principal.

    Magasin d’applications

    Un store d’applications commence à émerger, bien que beaucoup plus limité que celui de Nextcloud.

    Applications disponibles

    • Positionnement de photos sur carte
    • Draw.io pour les diagrammes
    • Quelques extensions supplémentaires en cours de développement

    Le catalogue reste modeste, mais c’est cohérent avec la philosophie du projet : rester léger et focalisé sur l’essentiel.

    Installation et déploiement

    Opencloud propose plusieurs méthodes d’installation :

    Docker Compose (recommandé)

    La méthode officiellement supportée, offrant la meilleure expérience de déploiement et de maintenance.

    Docker standard

    Version conteneurisée classique pour ceux qui préfèrent une approche Docker traditionnelle.

    Bare metal

    Installation directe sur le système, possible mais non recommandée officiellement. Contrairement à certains projets où le bare metal est privilégié, Opencloud favorise clairement Docker.

    Temps d’installation

    L’installation est décrite comme rapide : 10 minutes suffisent pour avoir une instance fonctionnelle, sans configuration complexe de cache, de limites PHP ou de génération d’aperçus (contrairement à Nextcloud qui nécessite ces optimisations).

    Contexte du projet : un fork d’ownCloud Infinite Scale

    Origines

    Opencloud n’est pas un projet parti de zéro. Il s’agit d’un fork d’ownCloud Infinite Scale, créé par d’anciens membres de cette équipe qui ont quitté le projet pour des raisons diverses (discutées sur Reddit pour ceux qui veulent creuser).

    Implications

    • Base de code éprouvée
    • Architecture déjà mature sur certains aspects
    • Communauté en construction
    • Évolution rapide du projet

    Le projet est donc relativement récent en tant qu’entité indépendante, mais il ne part pas de rien techniquement.

    Best-of-breed vs tout-en-un : quelle approche choisir ?

    L’approche Nextcloud (tout-en-un)

    • Avantages : interface unifiée, un seul outil à gérer, écosystème riche
    • Inconvénients : lourdeur, temps de chargement, complexité croissante

    L’approche Opencloud (best-of-breed)

    • Avantages : légèreté, rapidité, chaque outil excellent dans son domaine
    • Inconvénients : multiplication des outils, gestion de plusieurs services

    La philosophie d’Opencloud consiste à se concentrer sur la gestion de fichiers et à laisser d’autres outils spécialisés (comme Radicale pour les calendriers) gérer les autres besoins.

    Alternative à explorer : CopyParty

    Dans le même esprit de légèreté, CopyParty représente une autre alternative ultra-rapide pour la gestion de fichiers, avec une approche encore plus minimaliste qu’Opencloud.

    Pour qui est fait Opencloud ?

    Cas d’usage idéaux

    • Besoin prioritaire de gestion de fichiers rapide et fluide
    • Équipes nécessitant des espaces partagés avec quotas
    • Utilisateurs frustrés par la lourdeur de Nextcloud
    • Infrastructures où la rapidité prime sur l’exhaustivité fonctionnelle

    Quand préférer Nextcloud

    • Besoin d’une suite complète (emails, tâches, notes, etc.)
    • Préférence pour un écosystème tout-en-un
    • Dépendance à des applications spécifiques du store Nextcloud
    • Besoin de fonctionnalités avancées de groupware

    Verdict

    Opencloud ne remplace pas Nextcloud sur tous les aspects, mais il excelle dans son domaine de prédilection : la gestion de fichiers rapide et efficace. Si vous cherchez avant tout un outil de partage et de synchronisation de fichiers qui ne vous fasse pas sentir que vous naviguez sur un paquebot, Opencloud mérite clairement votre attention.

    La rapidité d’installation, l’absence de configuration complexe, et surtout la fluidité d’utilisation au quotidien en font une option très séduisante pour qui privilégie la simplicité et la performance à l’exhaustivité fonctionnelle.

    Points forts

    • Rapidité et fluidité exceptionnelles
    • Gestion de fichiers intuitive (copier-coller, drag & drop)
    • Recherche plain-texte native
    • Installation simple et rapide
    • Support S3 natif
    • Espaces partagés avec quotas

    Points d’attention

    • Fonctionnalités limitées à la gestion de fichiers
    • Magasin d’applications encore restreint
    • Projet relativement récent
    • Nécessite des outils complémentaires pour certains usages (calendrier, contacts)

    – Sources :

    https://opencloud.eu/en

    https://docs.opencloud.eu/docs/admin/getting-started/

    https://www.stackgui.de/lab/opencloud-alternative-ultra-rapide-a-nextcloud/

    –> Perso, je n’ai pas testé, je partage. Je sais juste que c’est un Fork d’ownCloud, créé par les devs originaux après leur départ et que si Nextcloud te gonfle avec sa lourdeur PHP et ses 47 tables MySQL (merci Korben), ça peut être une bonne solution alternative.

  • 3 Votes
    9 Messages
    247 Vues

    Sudo Mac command :

    https://ss64.com/mac/sudo.html

    [image: 1770811733911-db0c307b-e8a5-4f93-9c92-c5d4ef02faa8-live-long-amp-prosper.jpg] 

  • 2 Votes
    1 Messages
    60 Vues

    [image: VoidLink-1024x683.png]

    En bref:
    (Résumé généré automatiquement par IA)

    – VoidLink est un nouveau framework de malware Linux découvert par Check Point Research, conçu spécifiquement pour infiltrer de façon furtive les environnements cloud et conteneurs (AWS, Azure, Google Cloud, Kubernetes…).

    – Il dispose d’une architecture modulaire avec plus de 30 plugins, permettant aux attaquants d’adapter ses capacités (furtivité, mouvement latéral, collecte d’identifiants) selon l’environnement ciblé.

    – Sa communication chiffrée et son intégration profonde dans le système le rendent très difficile à détecter, ce qui pose une nouvelle menace aux infrastructures cloud basées sur Linux.

    Check Point Research révèle l’existence de VoidLink, un cadre malveillant Linux de nouvelle génération, conçu pour infiltrer des environnements cloud et des infrastructures conteneurisées. Développé en Zig et doté de capacités noyau, de greffons et de communications chiffrées, il vise l’accès furtif et durable aux charges de travail critiques hébergées sur AWS, Azure, Google Cloud, Alibaba Cloud et Tencent Cloud.

    Les plates-formes Linux et les architectures Kubernetes concentrent désormais les données applicatives, les secrets d’authentification et les accès aux chaînes d’approvisionnement logicielles. Cette concentration technique transforme chaque nœud de calcul et chaque poste d’ingénierie en point d’entrée convoité pour des acteurs capables d’opérer dans la durée sans perturber les environnements de production.

    VoidLink repose sur une architecture complète de commande et de contrôle composée d’un chargeur en deux étapes, d’un implant principal et d’un serveur central piloté par une console Web. L’implant, écrit en Zig, intègre un cœur de communication et d’orchestration auquel viennent se greffer des modules chargés en mémoire à la demande. L’opérateur peut générer de nouvelles charges utiles depuis l’interface graphique, ajuster les paramètres de communication et déployer des greffons ciblés sur chaque machine compromise. L’ensemble constitue une plate-forme opérationnelle unifiée, comparable aux cadres de post-exploitation du monde Windows, mais entièrement adaptée à Linux et aux environnements cloud.

    Il détecte les grands fournisseurs de cloud et Kubernetes

    La console regroupe les fonctions de gestion des implants, de terminal distant, de génération de charges et d’administration des modules. Elle organise les opérations en domaines comme la reconnaissance, la persistance, la collecte d’identifiants, le déplacement latéral et l’effacement de traces, ce qui permet une conduite industrialisée des opérations malveillantes sur des parcs de serveurs et de conteneurs.

    Dès son déploiement, VoidLink interroge l’environnement hôte pour identifier le fournisseur de cloud sous-jacent, avec une prise en charge native de AWS, Google Cloud, Azure, Alibaba Cloud et Tencent Cloud. Il exploite ensuite les interfaces de métadonnées propres à chaque plate-forme pour collecter des informations sur l’instance compromise, ses rôles et ses autorisations. Le même mécanisme permet de déterminer si le code s’exécute dans un conteneur Docker ou dans un pod Kubernetes, afin d’adapter les stratégies d’escalade et de propagation.

    Des modules spécialisés automatisent la recherche de failles de configuration, l’extraction de secrets et les tentatives de sortie de conteneur vers l’hôte sous-jacent. Cette logique transforme une simple compromission applicative en accès potentiel à l’ensemble d’un cluster ou d’un compte cloud.

    Une furtivité pilotée par la détection des outils de sécurité

    VoidLink intègre un moteur d’évaluation du risque qui inventorie les solutions de détection Linux, les mécanismes de durcissement du noyau et les outils de supervision présents sur la machine. À partir de ces éléments, l’implant calcule un profil d’exposition et ajuste le comportement de ses modules, par exemple en ralentissant un balayage de ports ou en fragmentant une exfiltration lorsque la surveillance est élevée. Cette adaptation automatique constitue un élément central de sa stratégie de discrétion.

    Le dispositif est complété par des techniques de chiffrement du code à l’exécution, par des vérifications d’intégrité et par une autodestruction en cas de tentative d’analyse ou de modification. Ces mécanismes visent à réduire la visibilité du code en mémoire et à compliquer toute investigation.

    Des modules noyau et eBPF pour masquer l’activité du maliciel

    Pour se dissimuler, VoidLink s’appuie sur une famille de composants de type rootkit adaptés aux différentes versions du noyau Linux. Selon la configuration de l’hôte, il peut utiliser des détournements du chargeur dynamique via LD_PRELOAD, des modules noyau LKM ou des programmes eBPF pour intercepter et filtrer les appels sensibles. Ces techniques permettent de cacher les processus, les fichiers et les sockets réseau liés à l’implant, tout en masquant les composants de dissimulation eux-mêmes.

    L’implant ajuste également ses intervalles de communication en fonction de l’activité du système, en tenant compte de la charge, du trafic réseau et des périodes de faible usage, afin de se fondre dans le bruit normal de la plate-forme.

    La collecte de secrets vise les ingénieurs cloud

    Les greffons fournis par défaut couvrent la collecte de clés SSH, d’identifiants Git, de jetons d’interface de programmation applicative, de mots de passe stockés en mémoire et de secrets présents dans les variables d’environnement ou les trousseaux système. Des modules dédiés aux navigateurs extraient également des cookies et des informations d’authentification. Cette orientation montre un intérêt marqué pour les postes de développeurs et d’administrateurs qui pilotent les déploiements cloud.

    En parallèle, des fonctions de tunnel, de transfert de fichiers, de ver SSH et de persistance via cron, systemd ou le chargeur dynamique facilitent la propagation contrôlée et l’ancrage à long terme dans les environnements compromis.

    L’émergence d’un cadre aussi complet que VoidLink confirme que les infrastructures Linux, les grappes Kubernetes et les comptes cloud sont désormais des cibles de choix pour des opérations d’espionnage et de compromission de chaînes d’approvisionnement. La combinaison entre reconnaissance automatisée, furtivité adaptative et modules noyau réduit fortement les fenêtres de détection et augmente les coûts de réponse à incident pour les organisations.


    – Source :

    https://itsocial.fr/cybersecurite/cybersecurite-actualites/voidlink-un-nouveau-maliciel-linux-cible-les-environnements-cloud-et-conteneurs/

  • 1 Votes
    4 Messages
    329 Vues

    Alternative intéressante. Il faut reconnaître que la gestion Portainer sur smartphone est une vraie tannée, il faut zoomer pour cliquer au bon endroit, puis dézoomer pour voir plus large…
    Ce qui pourrait m’empêcher de basculer, outre le problème des droits que tu mentionnes, c’est la confiance. En effet, ce type d’app nécessite un accès étendu au socket Docker, droit sensible que je n’accorde sur sur des outils répandus, reconnus et donc supposés fiables. C’est le cas pour Portainer, est-ce aussi le cas pour Arcane ?

  • 0 Votes
    1 Messages
    68 Vues

    Emmabuntüs, une distribution spécialisée dans le matériel reconditionné pour lui redonner une seconde vie, a reçu une évolution majeure. Cette Debian Edition 6 est basée sur la version 13.2 de Debian (Trixie) et reçoit en tant que telle toutes les évolutions importantes de cette dernière. La version 5 était basée sur Debian 12.1 à sa sortie.

    Sans surprise, la nouvelle édition reste axée sur la légèreté. La session par défaut utilise Xfce 4.20. Pas question de GNOME ou KDE ici, à moins de l’installer spécifiquement. Pour le matériel plus ancien, LXQt 2.1 est également présent, avec une consommation de ressources encore plus réduite. Précisons quand même qu’avec une base Debian 13.2, la nouvelle Emmabuntüs ne peut plus être installée que sur des machines 64 bits. La version 5 reste disponible.

    [image: Capture-decran-2025-12-18-a-11.54.40-1024x550.jpg]

    La Debian Edition 6 se concentre largement sur les questions d’accessibilité. De nombreuses options ont été ajoutées, disponibles dans une interface dédiée. On y trouve ainsi le support des synthétiseurs vocaux MBROLA et Piper, la synthèse vocale pendant la navigation, la prise en charge de trois profils Orca, un bip sonore pour l’insertion des clés USB, l’arrivée de LIOS (Linux-Intelligent-OCR-Solution). On trouve aussi de multiples scripts, notamment pour installer Index Braille et Wine, afficher le niveau de batterie de l’ordinateur ou encore pour simplifier les mises à jour du système.

    L’ensemble des nouveautés peut être consulté depuis le site officiel. Comme toujours, la nouvelle version est fournie sous forme d’image ISO.

    Source : next.ink

  • 1 Votes
    5 Messages
    167 Vues

    @El-Bbz a dit dans Linus Torvalds réhabilite l'écran bleu de la mort de Windows et explose un mythe : « Une grande partie de ces problèmes ne sont en réalité pas dus à des bugs logiciels... mais à un matériel peu fiable » :

    combien peuvent dire qu’ils les ont lus

    Je peux le dire, et j’ai ensuite réglé le soucis de la limite des 137g avec l’outil nLite comme un grand. undefined

  • 2 Votes
    1 Messages
    66 Vues

    Le Steam Deck, Proton et la lassitude envers Windows des catalyseurs de cette montée en puissance

    L’ascension de Linux dans l’univers du gaming n’a jamais été aussi spectaculaire. Le mois de novembre marque un tournant décisif : selon les données de Steam Hardware & Software Survey, la part d’utilisateurs Linux sur Steam a atteint un niveau record, propulsée par une combinaison de facteurs techniques, stratégiques et culturels. Ce qui ressemblait autrefois à un marché de niche se transforme aujourd’hui en un véritable pilier d’adoption pour l’OS libre, à la faveur d’une accélération continue depuis le lancement du Steam Deck et l’amélioration fulgurante des technologies d’émulation et de compatibilité.

    La plupart des passionnés de technologie ont déjà entendu parler du Steam Deck, voire en possèdent un, et ont peut-être même installé des distributions Linux basées sur SteamOS telles que Bazzite ou Chimera. La réaction négative, certes modeste mais croissante, contre les exigences matérielles strictes et les mises à niveau forcées de Windows 11 est peut-être devenue évidente dans la dernière enquête Steam Hardware & Software Survey, qui montre un record historique de 3,20 % pour Linux.

    Ce chiffre représente une augmentation de 0,15 % en seulement un mois, ce qui est assez impressionnant si l’on considère que pendant des années, l’utilisation de Steam Linux était inférieure ou à peine supérieure à 1 %. Le lancement du Steam Deck en 2022 a naturellement fait grimper ce chiffre, mais la communauté des joueurs semble se rallier aux dérivés de SteamOS, puisque cette famille de systèmes d’exploitation détenait une part de marché de 1,9 % en 2023, de 3,05 % en 2025 et de 3,20 % actuellement. GamingOnLinux a mis à jour son nouveau graphique de distribution dont voici un aperçu ci-dessous.

    Bien que la Steam Deck soit un produit valable en soi, il n’est pas difficile d’imaginer que l’essor de Linux s’explique en partie par les manigances de Windows 11, telles que les mises à jour qui endommagent les machines, une expérience utilisateur truffée de notifications et de pop-ups, l’intégration forcée de Copilot et OneDrive et, bien sûr, la mise à niveau forcée depuis Windows 10.

    [image: a]

    Un pic historique : Linux dépasse un nouveau seuil symbolique

    Le rapport mensuel publié via la Steam Hardware & Software Survey donne le ton : la part d’utilisateurs Linux progresse encore et atteint un niveau jamais vu. Cette hausse s’inscrit dans une tendance désormais structurelle. Le Steam Deck, motorisé par SteamOS (une distribution Arch Linux modifiée), constitue aujourd’hui l’un des principaux moteurs d’adoption, et son succès redéfinit la place de Linux dans l’écosystème gaming.

    Ce dynamisme se reflète dans deux éléments clés. D’abord, la plateforme semble désormais s’être imposée comme une alternative crédible pour les joueurs en quête d’indépendance face au modèle Windows. Ensuite, la croissance ne dépend plus uniquement des passionnés historiques du libre : elle attire un public nouveau, parfois peu technophile, mais séduit par la simplicité du Steam Deck et la stabilité proposée.

    Steam Deck : catalyseur, évangélisateur et laboratoire technologique

    Il est impossible de comprendre cette progression sans examiner le rôle central du Steam Deck. Valve a réussi un mouvement que peu anticipaient : faire de Linux non pas un « OS pour power users » mais un environnement préconfiguré, sans friction, où Proton — la couche de compatibilité basée sur Wine — exécute la quasi-totalité des jeux Windows avec un niveau de performance souvent comparable, voire supérieur.

    Le Deck agit alors comme une forme d’évangélisation douce. L’utilisateur lambda découvre qu’il joue en réalité sous Linux. Il découvre ensuite qu’il peut basculer en « mode bureau », profiter d’une distribution complète, installer flatpaks, développeurs, IDE, applications professionnelles… Le gaming devient alors la porte d’entrée vers un usage élargi.

    Pour l’industrie IT, ce phénomène représente un cas d’école en matière d’adoption technologique : un produit matériel a réussi à embarquer un OS libre au cœur d’un usage de masse.

    Steam Machine pour assurer la continuité ?

    Près de quatre ans après que la Steam Deck ait révolutionné le monde du jeu portable, Valve s’apprête à commercialiser du matériel fonctionnant sous SteamOS, conçu pour les téléviseurs de salon, voire pour remplacer les PC de bureau dédiés au jeu. Baptisés simplement Steam Machine et Steam Controller, ces deux produits, dont la commercialisation est prévue début 2026, sont « optimisés pour le jeu sur Steam et conçus pour permettre aux joueurs de tirer encore davantage parti de leur bibliothèque Steam », a déclaré Valve dans un communiqué de presse.

    La fiche technique de la Steam Machine partagée par Valve mentionne un processeur AMD Zen 4 à six cœurs « semi-personnalisé » cadencé à 4,8 GHz, ainsi qu’un processeur graphique AMD RDNA3 avec 28 unités de calcul. La carte mère comprendra 16 Go de RAM DDR5 et 8 Go supplémentaires de VRAM DDR6 dédiée pour le GPU. Le nouveau matériel sera disponible en deux configurations avec 512 Go ou 2 To de « stockage SSD » non spécifié, mais Valve n’a pas encore communiqué les prix.

    Ces puces et ces chiffres suggèrent que la Steam Machine aura à peu près la même puissance qu’un PC de jeu de bureau de milieu de gamme d’il y a quelques années. Mais Valve affirme que sa « Machine » — qu’elle classe comme « plus de 6 fois plus puissante que la Steam Deck » — est suffisamment puissante pour prendre en charge le ray tracing et/ou les jeux en 4K à 60 images par seconde grâce à l’upscaling FSR.

    La nouvelle Steam Machine s’éloigne résolument du concept hybride console/PC pour embrasser pleinement son identité de mini-ordinateur surpuissant. Les tests préliminaires et les données publiées indiquent une architecture basée sur un APU de dernière génération, capable de délivrer une puissance brute que la Steam Deck ne peut tout simplement pas approcher. La promesse est ambitieuse : offrir une machine taillée pour du 1440p fluide, voire du 4K raisonnable, le tout dans un châssis compact rappelant les meilleurs mini-PC du marché.

    Valve a également revu son approche thermique. L’objectif n’est plus seulement de miniaturiser, mais de garantir un fonctionnement stable en charge prolongée. La firme insiste sur un refroidissement silencieux, un argument que les joueurs de salon attendent depuis longtemps sur un hardware PC. L’idée est simple : offrir l’expérience console sans renoncer à la liberté PC.

    <iframe width=“640” height=“390” src=“

    ” frameborder=“0” allowfullscreen=“”></iframe>

    D’autres statistiques intéressantes : hardware, répartition des cœurs, cartes graphiques

    Du côté matériel, les processeurs AMD poursuivent leur progression constante face à Intel. AMD détient désormais 43,56 % du marché des processeurs pour jeux vidéo, contre 56,44 % pour Team Blue. À l’exception d’un seul mois, la part de marché des processeurs Intel n’a cessé de reculer depuis près d’un an et ne montre aucun signe de ralentissement.

    La répartition des cœurs de processeurs est également intéressante. Au cours du seul mois dernier, les processeurs dotés de 8 cœurs physiques ou plus ont enregistré une hausse combinée de 1,18 % (sous Windows, du moins), ce qui signifie que les joueurs achètent ou mettent à niveau leurs machines à un rythme assez rapide, et que les consommateurs optent principalement pour des systèmes AMD.

    En ce qui concerne les cartes graphiques pour jeux vidéo, des évolutions surprenantes ont été observées. La RTX 5070 est désormais le GPU Blackwell le plus courant parmi les systèmes étudiés, avec une hausse de 0,33 % pour atteindre 2,12 % du parc total. Cela représente environ autant d’utilisateurs que ceux de la RTX 5060 et de la RTX 5060 Ti réunis, ce qui n’est pas l’évolution à laquelle nous nous attendions compte tenu du rythme apparent d’adoption de la RTX 5060.

    La RTX 5060 a augmenté sa part de 0,30 % pour atteindre 1,54 % des systèmes étudiés. Parallèlement, la RTX 5070 Ti a enregistré une augmentation de 0,19 % de sa part pour atteindre 1,09 % du parc, tandis que la RTX 5080 a augmenté de 0,14 % pour atteindre 0,96 %.

    La défiance envers Windows 11 nourrit une migration technologique

    L’évolution du marché ne peut être lue uniquement à travers Steam et Valve. Une partie de la hausse observée est aussi alimentée par le recul de Windows 11 auprès d’une frange du public PC. L’inflation des exigences matérielles, les contraintes de sécurité, la multiplication des services connectés et l’omniprésence des fonctionnalités basées sur l’IA créent un malaise perceptible.

    De nombreux joueurs expérimentés expriment une forme de lassitude face à la direction prise par Microsoft. Linux apparaît alors, pour la première fois, comme une alternative solide, moderne et performante. Ce changement culturel s’inscrit dans une dynamique plus large de recherche d’indépendance numérique et de souveraineté logicielle.

    La situation est telle que, tandis Microsoft pousse son écosystème vers une nouvelle ère dominée par l’IA agentique, [près de 500 millions d’utilisateurs refusent de migrer vers Windows 11(https://windows.developpez.com/actu/378126)

    Suite de l’article réservée aux abonnés : developpez.com

  • 2 Votes
    4 Messages
    117 Vues

    Ça me semblerait quand même très gros pour être plus qu’un effet d’annonce, désamorcé ensuite, comme bien d’autres.
    Puis c’est pas cohérent avec America First! pour le coup, business avant tout.

    En revanche, je pense que TRUMP et son administration pourraient avoir (eu ?) une utilisation bien à eux du Cloud Act dans le cadre du business justement.
    https://www.lemagit.fr/definition/CLOUD-Act

  • 3 Votes
    8 Messages
    338 Vues

    @Psyckofox Alors, bonne nouvelle, la PS5 est en voie de l’être aussi, des clefs ont fuité récemment.

    https://korben.info/ps5-bootrom-keys-fuite-jailbreak-non-patchable.html

  • 2 Votes
    1 Messages
    96 Vues

    [image: X11-wayland.webp]

    Dans le monde Linux, on entend parler des serveurs graphiques X11 et Wayland depuis longtemps. Mais de quoi s’agit-il exactement ? À quoi sert un serveur graphique ? Quelles sont les promesses de Wayland et pourquoi la migration prend autant de temps ? Nous vous proposons d’y voir plus clair.

    Présentons les deux protagonistes de notre sujet. D’un côté, le X Window System. Sa première version date de 1984, en tant que projet développé au sein du MIT. Il a été essentiellement pensé à une époque où l’on trouvait des serveurs informatiques puissants et des clients légers, d’où son appellation de serveur, qui lui est resté.

    On le connait mieux aujourd’hui sous son nom de X11. L’appellation vient de la onzième version de X, sortie en 1987. Ce fut la première révision à être considérée comme stable et pleinement opérationnelle. Et oui, techniquement, on utilise cette onzième version depuis 35 ans. Mais dans la pratique, les évolutions ont été continues.

    De l’autre côté, on a Wayland. Beaucoup plus récent, le projet a été lancé en 2008 par Kristian Hogsberg, développeur chez Red Hat. Objectif, proposer un protocole moderne et gagnant sur toute la ligne : plus sécurisé, plus efficace et surtout plus simple. Une base neuve, capable d’exploiter beaucoup mieux le matériel qui avait largement évolué et de se débarrasser des vieilles assises de X11.

    Qu’est-ce qu’un serveur graphique ?

    Penchons-nous maintenant sur ce qu’est un serveur graphique (ou d’affichage), le rôle que tient ce composant et ses principaux attributs.

    Commençons par le commencement. Sur un système de type Unix, dès que vous voyez quelque chose s’afficher à l’écran au sein d’une interface graphique, c’est que le serveur d’affichage est impliqué. Ce composant crucial est chargé de dessiner les fenêtres à l’écran et de gérer toutes les interactions qui s’y rapportent, ainsi que la composition de l’ensemble (assemblage des fenêtres). Il est une interface entre l’utilisateur, l’interface et le matériel lié. Il va d’ailleurs plus loin que le seul aspect graphique, puisqu’il s’occupe également des entrées de la souris et du clavier.

    Au départ, l’architecture graphique était monolithique. Le serveur d’affichage devait avoir un accès complet, direct et exclusif à la carte graphique. Dans ce contexte, les pilotes – qui gèrent toute l’exploitation du matériel – étaient placés en espace utilisateur, sans accès direct au noyau. Une approche a priori sécurisée, mais qui s’est progressivement révélée peu efficace dans de nombreux scénarios. Toute la logique critique de l’affichage se retrouvait gérée par un composant unique qui embarquait tous les pilotes nécessaires.

    Plusieurs composants sont donc apparus avec le temps pour répartir ce fonctionnement et répondre aux problématiques. D’abord le DRM, ou Direct Rendering Manager. En tant que sous-système du noyau Linux, il gère les accès au GPU. Il tient un rôle d’arbitre : il s’occupe avant tout de distribuer les ressources graphiques aux applications, gère la mémoire ainsi que la sécurité. Grâce à lui, les applications ont pu obtenir un accès direct au GPU (sans passer par X) et l’exploiter, avec une hausse majeure des performances.

    [image: Fedora-2025-09-12-10-29-30-1024x640.png]

    Fedora a été la première distribution majeure à passer sur Wayland par défaut

    Quelque part dans le noyau

    Le KMS, ou Kernel Mode Setting, est un autre sous-système du noyau Linux. C’est à lui que revient la gestion de la résolution de l’écran, sa fréquence de rafraichissement, la profondeur des couleurs, etc. Il a permis de déplacer la logique de la « configuration de mode » de l’espace utilisateurs vers le noyau, avec plusieurs bénéfices importants. C’est grâce au KMS par exemple que la console a pu basculer en haute résolution dès le démarrage de la machine.

    DRM et KMS s’utilisent à travers une bibliothèque (libdrm), qui expose des fonctions standardisées (et documentées) aux applications. L’arrivée de ces deux composants a été une étape majeure, avec une séparation nette entre la logique matérielle de bas niveau et celle d’affichage haut niveau, avec notamment tout l’applicatif, y compris le serveur graphique.

    Au-dessus de DRM et KMS, on trouve un autre composant, important lui aussi, mais en espace utilisateur cette fois : Mesa. Si vous utilisez Linux, ce nom vous est peut-être familier. C’est une implémentation open source des API graphiques standard de l’industrie, comme OpenGL et Vulkan.

    Prenons un exemple pour schématiser le fonctionnement général. Un jeu a des scènes 3D à faire afficher à l’écran. Il est conçu pour Vulkan et décrit donc ces scènes à l’API correspondante. Ces requêtes sont adressées à Mesa, qui s’occupe de traduire ces requêtes de haut niveau en instructions plus bas niveau, compréhensibles par le matériel. Ces instructions sont alors transmises au pilote DRM du noyau, qui les exécute sur le GPU.

    Pourquoi un successeur à X11 ?

    Si l’on se replace dans le contexte des jeunes années de X11, il n’était question que d’architecture client-serveur. Dans cette optique, X11 avait d’ailleurs été développé pour le réseau, avec certaines caractéristiques spécifiques. Par exemple, nulle obligation que le serveur X fonctionne sur la machine la plus puissante. Selon les cas, on pouvait faire tourner le serveur X sur un poste léger, et le client X sur un gros serveur.

    Ce fonctionnement, ainsi que d’autres aspects tenant à des choix faits il y a plusieurs décennies, ont alimenté la réflexion qui a mené à Wayland. En matière d’efficacité d’abord, ce modèle client-serveur devenait un poids sur les machines plus récentes : le serveur et le client étant situés sur le même ordinateur, tout ce qui touche au réseau est inutile dans de nombreux cas. Les couches de communication et de multiples étapes intermédiaires (notamment codage/décodage) devenaient superflues et se payaient par une latence.

    En outre, X11 est un vieux projet, avec une partie héritée dans le code de plus en plus importante. Ses capacités ont été augmentées par d’innombrables ajouts, extensions et patchs en une énorme base plus difficile à entretenir. Un immense patchwork qui a rendu les développements plus complexes au fur et à mesure que les besoins changeaient.

    L’ensemble a abouti à un pipeline de traitement peu adapté aux applications et matériels modernes. Il n’a par exemple pas été conçu pour des écrans avec de hautes fréquences de rafraichissement et un rendu sans déchirement (tear-free). Pour ce dernier problème, il a fallu recourir à des solutions spécifiques et complexes, avec une synchronisation verticale forcée, qui a introduit elle-même de nouveaux problèmes dans certaines situations, comme un « bégaiement » de l’image (le fameux stuterring).

    [image: image-95-1024x576.png]

    Ubuntu 25.10 avec GNOME 49 intègre toujours X11

    Que propose Wayland ?

    L’idée qui a mené à Wayland était de proposer un fonctionnement simple, sécurisé et plus efficace. Le tout en partant d’une page blanche.

    Le plus gros changement réside dans la conception : le serveur d’affichage, le gestionnaire de fenêtres et le compositeur sont en fait un seul et même processus, le compositeur Wayland. Dans ce modèle, le compositeur gère l’intégralité des opérations liées à l’affichage. Il reçoit ainsi les évènements d’entrées (clavier, souris, tablettes graphiques…), gère les surfaces (fenêtres), assemble l’image finale et communique avec le noyau (via DRM et KMS, toujours là) pour afficher l’ensemble. C’est vers le compositeur Wayland que les applications se tournent pour présenter un objet à l’écran.

    La sécurité est un autre changement radical, puisque Wayland impose une isolation stricte entre les clients, et donc les applications. Ces dernières ne peuvent ainsi voir que leurs propres fenêtres. Elles ne peuvent en outre recevoir les évènements d’entrées que si elles ont le focus, c’est-à-dire quand elles sont au premier plan, pour éviter qu’elles espionnent d’autres applications (ce qui vaut aussi pour les enregistreurs de frappe et les logiciels espions). De plus, elles ne peuvent pas décider où placer les fenêtres, c’est Wayland qui le fait.

    L’une des grandes promesses de Wayland, c’est son approche moderne du matériel. De nombreuses caractéristiques sont nativement prises en compte. Beaucoup plus à l’aise avec les configurations multi-écrans, il gère mieux les hautes définitions (HiDPI). Il prend nativement en charge la mise à l’échelle fractionnée (125 ou 150 % par exemple), les taux de rafraichissement différents selon les écrans, les écrans tactiles et les gestes multi-touch.

    Wayland est un protocole, pas un logiciel

    Wayland est une spécification de protocole, pas un logiciel unique comme l’est X11. Il ne s’agit donc pas d’un composant standardisé auquel tous les autres peuvent se référer en tant que tel. C’est encore une différence fondamentale avec X11, puisque la responsabilité de fournir un environnement de bureau complet est déplacée vers chaque compositeur qui implémente cette spécification Wayland.

    Si l’on prend les deux environnements de bureau les plus utilisés, GNOME et KDE, cette responsabilité est confiée respectivement à Mutter et KWin. Et c’est ici que les problèmes peuvent commencer, car cette approche engendre une fragmentation. Si vous souhaitez développer une application, il ne suffit pas en effet de dire « elle est compatible Wayland ». Il faut s’assurer qu’elle fonctionne correctement avec Mutter, KWin ou n’importe quel compositeur qui a implémenté Wayland. Or, ces implémentations ne sont pas identiques. Il existe des variations autour des extensions présentes et des subtilités dans la mise en application.

    Ce qui nous fait entrer de plain-pied dans la grande question : pourquoi l’adoption de Wayland est-elle aussi lente ?

    Un nombre incalculable de problèmes

    Dire que la transition de X11 vers Wayland a été complexe relève de l’euphémisme. On savait qu’une rupture aussi radicale dans l’approche n’aurait pas que de joyeuses conséquences. En outre, Wayland a ses propres problèmes, et certaines promesses n’ont qu’en partie été tenues.

    Le modèle de sécurité entraine ainsi une grande cassure. L’isolation stricte des clients a des conséquences majeures sur les fonctionnalités, notamment d’accessibilité. Les lecteurs d’écran, à destination des personnes aveugles ou malvoyantes, ne pouvaient plus fonctionner. Il en allait de même avec les outils de partage ou d’enregistrement d’écran (Discord, OBS…), de bureau à distance (VNC, RDP…), les raccourcis clavier globaux ou encore les outils d’automatisation (Autokey…).

    Il a donc fallu tout repenser. C’est là qu’entrent en piste deux composants clés : PipeWire pour l’audio et les portails de bureau XDG pour le graphique. Ces derniers sont des API de haut niveau auxquelles les applications s’adressent pour demander certaines actions, comme accéder à l’écran pour le partager. Ils agissent comme des portails sécurisés pour concentrer les demandes. Le traitement lui-même est confié à PipeWire. Celui-ci a été pensé initialement comme le successeur de PulseAudio et de Jack, mais son rôle a été étendu pour gérer les flux vidéo.

    Si PipeWire est un framework utilisable en tant que tel, les portails XDG dépendent des environnements. On trouve par exemple xdg-desktop-portal-kde et xdg-desktop-portal-gnome, respectivement pour KDE et GNOME. Il faut donc que les applications fassent appel à ces composants pour faire leurs demandes.

    Cette immense cassure explique déjà en bonne partie pourquoi il a fallu des années avant que des fonctions considérées comme élémentaires avec X11 soient disponibles avec Wayland. Embrayons avec un autre facteur-clé de cette lenteur dans la transition : NVIDIA.

    NVIDIA, l’élément (très) perturbateur

    Si vous êtes utilisateur de Linux, vous savez peut-être que posséder un GPU NVIDIA peut être synonyme de galère, notamment à cause des pilotes. Pour une expérience complète, notamment avec les jeux, il est presque obligatoire d’utiliser le pilote propriétaire fourni par l’entreprise. Problème, celle-ci avait une vision précise de comment les choses devaient être organisées.

    Historiquement, la pile graphique Linux s’est organisée autour d’une API : Generic Buffer Manager, ou GBM. Cette interface est responsable de l’allocation et de la gestion des tampons graphiques en mémoire. NVIDIA ne l’a pas entendu de cette oreille et a tenté de pousser sa propre API, EGLStreams. À l’implémentation des compositeurs Wayland, il fallait ainsi ajouter des chemins de traitement dédiés à NVIDIA. Ce code spécifique a été source de retards et de bugs. Après des années de pression de la communauté, l’entreprise a finalement cédé et implémenté le support de GBM.

    Ce n’était pas le seul problème. Un autre conflit existe et n’est toujours pas résolu : la bataille entre les synchronisations implicite et explicite. Historiquement (encore une fois), la synchronisation sous Linux est implicite : le pilote du noyau s’en charge et s’assure qu’une opération de lecture sur un tampon graphique ne se déclenche qu’une fois que l’opération d’écriture précédente est finie. Ce modèle a le gros avantage de simplifier le développement d’applications, mais il peut manquer d’efficacité, car le pilote ne connait pas les « intentions » de l’application. AMD et Intel ont bâti leurs pilotes open source sur ce modèle.

    Dans la synchronisation explicite, c’est à l’application ou l’API graphique (comme Vulkan) d’indiquer quand une opération est terminée. La méthode a pour inconvénient de reporter cette charge sur les développeurs d’applications, dont la tâche devient plus complexe. En revanche, le parallélisme et les performances sont meilleurs. NVIDIA a choisi ce modèle pour son pilote open source. La solution n’est apparue qu’au printemps 2024 sous la forme d’un protocole de synchronisation explicite pour Wayland.

    Linus Torvalds avait eu en 2012 sa façon bien à lui de dire tout le bien qu’il pensait de NVIDIA avec un doigt d’honneur devenu célèbre. Si le problème à l’époque n’était pas directement lié (il était alors question des puces Tegra), il préfigurait ce qu’allait être la relation entre l’entreprise et le monde du libre pour de nombreuses années.

    XWayland, le pont entre les deux mondes

    Vous avez peut-être là aussi croisé ce nom : XWayland. Ce composant a vite eu un rôle critique au sein des distributions Linux, car il assure la compatibilité en permettant aux applications X11 de fonctionner sur Wayland. Comment ? En fournissant un serveur X11 complet, qui s’exécute comme un client Wayland.

    On comprend vite l’intérêt. Toutes les applications ne sont pas encore prêtes pour Wayland et certaines ne fonctionnent qu’avec X11. Lorsqu’une telle application est lancée, elle se connecte à XWayland, qui traduit les requêtes pour les envoyer au compositeur Wayland.

    Il n’est donc pas question d’une simple couche d’émulation temporaire, mais bien d’un composant en soi, devenu la pierre angulaire de toute la stratégie de transition. Elle a cependant des limites, car ce modèle encapsulé peut créer des incompatibilités dans la communication entre les applications X11 et Wayland, sur des opérations très basiques comme le copier-coller ou le glisser-déposer. Ses performances sont moins bonnes, certaines fonctions peuvent être inaccessibles et des problèmes de sécurité spécifiques à X11 sont toujours là.

    La transition étant loin d’être terminée, XWayland restera en place encore longtemps. C’est d’ailleurs à cause de son importance cruciale que les grandes décisions actuelles de transition plus complète vers Wayland épargnent XWayland. Par exemple, l’équipe de développement de GNOME a annoncé que la version 49 de l’environnement commencerait à supprimer tout le code lié à X11, mais cette décision ne s’étend pas à XWayland. L’équipe a depuis changé d’avis, se laissant un peu plus de temps pour supprimer ce code.

    Notez que de nombreuses distributions utilisent des sessions Wayland par défaut depuis plusieurs années. Certaines permettent cependant un autre type de session depuis l’écran de connexion, dont X11. Avec le retrait du code, cette capacité disparaitra complètement.

    [image: Debian-2025-09-12-10-18-11-1024x640.png]

    Debian 13 permet toujours de choisir une session X11

    Et aujourd’hui alors ?

    Aujourd’hui, la transition est irréversible. Depuis l’année dernière notamment, des étapes majeures se sont enchainées, aboutissant aux décisions récentes autour de Wayland et du gommage progressif de X11 dans le code. XWayland va rester en place et assurer la compatibilité des applications n’ayant pas fait encore le voyage. Les raisons peuvent être multiples, comme un manque de moyens face à l’ampleur du travail, ou un abandon partiel ou complet du projet. Qu’il s’agisse de Fedora, Ubuntu ou encore Red Hat, tous ont annoncé des plans pour déprécier X11 plus ou moins rapidement.

    X11 est désormais dans un quasi-état de maintenance. Très peu de nouveautés sont ajoutées, car l’essentiel du travail se fait sur Wayland. D’ailleurs, une bonne partie des personnes qui travaillaient sur X11 sont aujourd’hui sur Wayland.

    Mais la transition aura été particulièrement longue. L’explication est multifactorielle, comme on l’a vu : NVIDIA a été un élément perturbateur majeur, le modèle de sécurité de Wayland a nécessité la réécriture complète de nombreux éléments et il a fallu du temps pour que des fonctions élémentaires soient de retour. De manière générale, si Wayland n’est pas exempt de défauts, il représente définitivement l’avenir de la pile graphique sur Linux. Et s’il doit durer aussi longtemps que X11, il restera en place plusieurs décennies.

    La plupart des gros problèmes liés à Wayland sont aujourd’hui réglés, le dernier gros point à traiter étant la gestion de la synchronisation explicite au sein des compositeurs. Les prochaines années seront consacrées au polissage, à l’accompagnement des applications « récalcitrantes » ou encore à la création de fonctions manquantes, comme une véritable suite d’outils pour l’accessibilité. Il faudra également que les extensions les plus courantes de Wayland continuent leur standardisation afin de gommer les différences entre les environnements de bureau.

    Source : next.ink

  • 2 Votes
    2 Messages
    127 Vues

    Sont loin d’être cons les mecs. Ils profitent de l’engouement et de la crédulité des Windowsiens sous win10 voulant passer à Linux undefined