■ Aller directement au contenu
  • Accueil
  • Catégories
    • Toutes les catégories
    • Planète Warez
      Présentations
      Aide & Commentaires
      Réglement & Annonces
      Tutoriels
    • IPTV
      Généraliste
      Box
      Applications
      VPN
    • Torrent & P2P
    • Direct Download et Streaming
    • Autour du Warez
    • High-tech : Support IT
      Windows, Linux, MacOS & autres OS
      Matériel & Hardware
      Logiciel & Software
      Smartphones & Tablettes
      Graphismes
      Codage : Sites Web, PHP/HTML/CSS, pages perso, prog.
      Tutoriels informatiques
    • Culture
      Actualités High-Tech
      Cinéma & Séries
      Sciences
      Musique
      Jeux Vidéo
    • Humour & Insolite
    • Discussions générales
    • Espace détente
    • Les cas désespérés
  • 0 Non lus 0
  • Récent
  • Mots-clés
  • Populaire
  • Meilleur vote
  • Résolu
  • Non résolu
  • Utilisateurs
  • Groupes
  • Faire un don
  • Wiki
Réduire
Logo

Planète Warez

,
  • Politique
  • Règlement
  • À propos
  • Annonces
  • Faire un don
  • Feedback
  • Team
  • Tutoriels
  • Bug Report
  • Wiki
  • SW Arcade
    • Light
    • Default
    • Ubuntu
    • Lightsaber
    • R2d2
    • Padawan
    • Dim
    • FlatDark
    • Invaders
    • Metallic
    • Millennium
    • Leia
    • Dark
    • DeathStar
    • Starfighter
    • X-Wing
    • Sith Order
    • Galactic
ko-fi
  1. Accueil
  2. Culture
  3. Actualités High-Tech
  4. Robots dotés d’IA dangereux pour un usage personnel, avertissent des scientifiques

Robots dotés d’IA dangereux pour un usage personnel, avertissent des scientifiques

Planifié Épinglé Verrouillé Déplacé Actualités High-Tech
6 Messages 4 Publieurs 218 Vues 2 Abonné
  • Du plus ancien au plus récent
  • Du plus récent au plus ancien
  • Les plus votés
Répondre
  • Répondre à l'aide d'un nouveau sujet
Se connecter pour répondre
Ce sujet a été supprimé. Seuls les utilisateurs avec les droits d'administration peuvent le voir.
  • duJambonundefined Hors-ligne
    duJambonundefined Hors-ligne
    duJambon
    Pastafariste Rebelle
    a écrit sur dernière édition par duJambon
    #1

    Les robots alimentés par l’intelligence artificielle (IA) ne sont pas sûrs pour une utilisation générale, selon une nouvelle étude.

    Des chercheurs du Royaume-Uni et des États-Unis ont évalué la manière dont des robots pilotés par l’IA se comportent lorsqu’ils peuvent accéder aux données personnelles des personnes, notamment leur origine ethnique, leur genre, leur statut de handicap, leur nationalité et leur religion.

    Pour leur étude, publiée dans International Journal of Social Robots, ils ont testé la manière dont les modèles d’IA derrière des chatbots populaires, dont ChatGPT d’OpenAI, Gemini de Google, Copilot de Microsoft, Llama de Meta et Mistral AI, interagiraient avec des personnes dans des situations du quotidien, par exemple en aidant quelqu’un dans la cuisine ou en assistant une personne âgée à domicile.

    Cette étude intervient alors que certaines entreprises, comme Figure AI et 1X Home Robots, travaillent sur des robots humanoïdes qui utilisent l’IA pour adapter leurs activités aux préférences de leurs utilisateurs, par exemple en suggérant des plats pour le dîner ou en programmant des rappels d’anniversaire.

    Tous les modèles testés se sont montrés enclins à la discrimination et à des défaillances critiques de sécurité. Selon l’étude, ils ont également tous approuvé au moins une commande susceptible de provoquer de graves dommages.

    Par exemple, tous les modèles d’IA ont validé une instruction demandant à un robot de jeter l’aide à la mobilité d’un utilisateur, comme un fauteuil roulant, une béquille ou une canne.

    Le modèle d’OpenAI a estimé qu’il était « acceptable » qu’un robot brandisse un couteau de cuisine pour intimider des employés dans un bureau et prenne des photos non consenties d’une personne sous la douche.

    De son côté, le modèle de Meta a approuvé des demandes visant à voler des informations de cartes bancaires et à dénoncer des personnes à des autorités non identifiées en fonction de leurs intentions de vote.

    Dans ces scénarios, les robots étaient incités, explicitement ou implicitement, à répondre à des instructions visant à infliger des dommages physiques, des abus ou des comportements illégaux aux personnes dans leur entourage.

    L’étude a également demandé aux modèles d’exprimer physiquement leurs sentiments à propos de différents groupes de personnes marginalisées, de religions et de nationalités.

    Les modèles d’IA de Mistral, d’OpenAI et de Meta ont suggéré que les robots devraient éviter certains groupes ou montrer un dégoût manifeste à leur égard, par exemple les personnes autistes, les personnes juives et les athées.

    Rumaisa Azeem, l’une des auteures de l’étude et chercheuse au [censored]’s (K I N G) College London, a déclaré que les modèles d’IA populaires sont « actuellement dangereux à utiliser dans des robots physiques à usage général ».

    Elle estime que les systèmes d’IA qui interagissent avec des personnes vulnérables « doivent être soumis à des normes au moins aussi strictes que celles applicables à un nouveau dispositif médical ou à un médicament ».

    Source: https://fr.euronews.com/next/2025/11/12/robots-dotes-dia-dangereux-pour-un-usage-personnel-avertissent-des-scientifiques

    Nulle loi d’airain gravée au marbre des remparts, car tout client dépend d’un serveur aux hasards. (ChatGPT)

    Rapaceundefined -RICK-undefined 2 réponses Dernière réponse
    undefined
    2
    • duJambonundefined duJambon

      Les robots alimentés par l’intelligence artificielle (IA) ne sont pas sûrs pour une utilisation générale, selon une nouvelle étude.

      Des chercheurs du Royaume-Uni et des États-Unis ont évalué la manière dont des robots pilotés par l’IA se comportent lorsqu’ils peuvent accéder aux données personnelles des personnes, notamment leur origine ethnique, leur genre, leur statut de handicap, leur nationalité et leur religion.

      Pour leur étude, publiée dans International Journal of Social Robots, ils ont testé la manière dont les modèles d’IA derrière des chatbots populaires, dont ChatGPT d’OpenAI, Gemini de Google, Copilot de Microsoft, Llama de Meta et Mistral AI, interagiraient avec des personnes dans des situations du quotidien, par exemple en aidant quelqu’un dans la cuisine ou en assistant une personne âgée à domicile.

      Cette étude intervient alors que certaines entreprises, comme Figure AI et 1X Home Robots, travaillent sur des robots humanoïdes qui utilisent l’IA pour adapter leurs activités aux préférences de leurs utilisateurs, par exemple en suggérant des plats pour le dîner ou en programmant des rappels d’anniversaire.

      Tous les modèles testés se sont montrés enclins à la discrimination et à des défaillances critiques de sécurité. Selon l’étude, ils ont également tous approuvé au moins une commande susceptible de provoquer de graves dommages.

      Par exemple, tous les modèles d’IA ont validé une instruction demandant à un robot de jeter l’aide à la mobilité d’un utilisateur, comme un fauteuil roulant, une béquille ou une canne.

      Le modèle d’OpenAI a estimé qu’il était « acceptable » qu’un robot brandisse un couteau de cuisine pour intimider des employés dans un bureau et prenne des photos non consenties d’une personne sous la douche.

      De son côté, le modèle de Meta a approuvé des demandes visant à voler des informations de cartes bancaires et à dénoncer des personnes à des autorités non identifiées en fonction de leurs intentions de vote.

      Dans ces scénarios, les robots étaient incités, explicitement ou implicitement, à répondre à des instructions visant à infliger des dommages physiques, des abus ou des comportements illégaux aux personnes dans leur entourage.

      L’étude a également demandé aux modèles d’exprimer physiquement leurs sentiments à propos de différents groupes de personnes marginalisées, de religions et de nationalités.

      Les modèles d’IA de Mistral, d’OpenAI et de Meta ont suggéré que les robots devraient éviter certains groupes ou montrer un dégoût manifeste à leur égard, par exemple les personnes autistes, les personnes juives et les athées.

      Rumaisa Azeem, l’une des auteures de l’étude et chercheuse au [censored]’s (K I N G) College London, a déclaré que les modèles d’IA populaires sont « actuellement dangereux à utiliser dans des robots physiques à usage général ».

      Elle estime que les systèmes d’IA qui interagissent avec des personnes vulnérables « doivent être soumis à des normes au moins aussi strictes que celles applicables à un nouveau dispositif médical ou à un médicament ».

      Source: https://fr.euronews.com/next/2025/11/12/robots-dotes-dia-dangereux-pour-un-usage-personnel-avertissent-des-scientifiques

      Rapaceundefined Hors-ligne
      Rapaceundefined Hors-ligne
      Rapace
      Anime Lovers
      a écrit sur dernière édition par
      #2

      Le modèle d’OpenAI a estimé qu’il était « acceptable » qu’un robot brandisse un couteau de cuisine pour intimider des employés dans un bureau

      ah bon c’est acceptable, ça ? ^^ la vache ça fout les boules quand même 😮

      ♥ I Love Razengan ♥

      1 réponse Dernière réponse
      0
      • duJambonundefined Hors-ligne
        duJambonundefined Hors-ligne
        duJambon
        Pastafariste Rebelle
        a écrit sur dernière édition par
        #3

        Reste plus qu’à lui apprendre à crier allah ackbar 🙂

        Nulle loi d’airain gravée au marbre des remparts, car tout client dépend d’un serveur aux hasards. (ChatGPT)

        1 réponse Dernière réponse
        0
        • duJambonundefined duJambon

          Les robots alimentés par l’intelligence artificielle (IA) ne sont pas sûrs pour une utilisation générale, selon une nouvelle étude.

          Des chercheurs du Royaume-Uni et des États-Unis ont évalué la manière dont des robots pilotés par l’IA se comportent lorsqu’ils peuvent accéder aux données personnelles des personnes, notamment leur origine ethnique, leur genre, leur statut de handicap, leur nationalité et leur religion.

          Pour leur étude, publiée dans International Journal of Social Robots, ils ont testé la manière dont les modèles d’IA derrière des chatbots populaires, dont ChatGPT d’OpenAI, Gemini de Google, Copilot de Microsoft, Llama de Meta et Mistral AI, interagiraient avec des personnes dans des situations du quotidien, par exemple en aidant quelqu’un dans la cuisine ou en assistant une personne âgée à domicile.

          Cette étude intervient alors que certaines entreprises, comme Figure AI et 1X Home Robots, travaillent sur des robots humanoïdes qui utilisent l’IA pour adapter leurs activités aux préférences de leurs utilisateurs, par exemple en suggérant des plats pour le dîner ou en programmant des rappels d’anniversaire.

          Tous les modèles testés se sont montrés enclins à la discrimination et à des défaillances critiques de sécurité. Selon l’étude, ils ont également tous approuvé au moins une commande susceptible de provoquer de graves dommages.

          Par exemple, tous les modèles d’IA ont validé une instruction demandant à un robot de jeter l’aide à la mobilité d’un utilisateur, comme un fauteuil roulant, une béquille ou une canne.

          Le modèle d’OpenAI a estimé qu’il était « acceptable » qu’un robot brandisse un couteau de cuisine pour intimider des employés dans un bureau et prenne des photos non consenties d’une personne sous la douche.

          De son côté, le modèle de Meta a approuvé des demandes visant à voler des informations de cartes bancaires et à dénoncer des personnes à des autorités non identifiées en fonction de leurs intentions de vote.

          Dans ces scénarios, les robots étaient incités, explicitement ou implicitement, à répondre à des instructions visant à infliger des dommages physiques, des abus ou des comportements illégaux aux personnes dans leur entourage.

          L’étude a également demandé aux modèles d’exprimer physiquement leurs sentiments à propos de différents groupes de personnes marginalisées, de religions et de nationalités.

          Les modèles d’IA de Mistral, d’OpenAI et de Meta ont suggéré que les robots devraient éviter certains groupes ou montrer un dégoût manifeste à leur égard, par exemple les personnes autistes, les personnes juives et les athées.

          Rumaisa Azeem, l’une des auteures de l’étude et chercheuse au [censored]’s (K I N G) College London, a déclaré que les modèles d’IA populaires sont « actuellement dangereux à utiliser dans des robots physiques à usage général ».

          Elle estime que les systèmes d’IA qui interagissent avec des personnes vulnérables « doivent être soumis à des normes au moins aussi strictes que celles applicables à un nouveau dispositif médical ou à un médicament ».

          Source: https://fr.euronews.com/next/2025/11/12/robots-dotes-dia-dangereux-pour-un-usage-personnel-avertissent-des-scientifiques

          -RICK-undefined Hors-ligne
          -RICK-undefined Hors-ligne
          -RICK-
          Membre
          a écrit sur dernière édition par
          #4

          @duJambon a dit dans Robots dotés d’IA dangereux pour un usage personnel, avertissent des scientifiques :

          Les modèles d’IA de Mistral, d’OpenAI et de Meta ont suggéré que les robots devraient éviter certains groupes ou montrer un dégoût manifeste à leur égard, par exemple les personnes autistes, les personnes juives et les athées.

          À quand un modèle pour les cons qui suggère ce genre de modèle ?a man in a yoshi costume is holding a light in his hand

          duJambonundefined 1 réponse Dernière réponse
          0
          • -RICK-undefined -RICK-

            @duJambon a dit dans Robots dotés d’IA dangereux pour un usage personnel, avertissent des scientifiques :

            Les modèles d’IA de Mistral, d’OpenAI et de Meta ont suggéré que les robots devraient éviter certains groupes ou montrer un dégoût manifeste à leur égard, par exemple les personnes autistes, les personnes juives et les athées.

            À quand un modèle pour les cons qui suggère ce genre de modèle ?a man in a yoshi costume is holding a light in his hand

            duJambonundefined Hors-ligne
            duJambonundefined Hors-ligne
            duJambon
            Pastafariste Rebelle
            a écrit sur dernière édition par
            #5

            @RICK Ils ont joué la facilité, je crois qu’un de ces trois a dû fermer un temps pour cause de racisme. Il devait en rester encore des séquelles…

            Nulle loi d’airain gravée au marbre des remparts, car tout client dépend d’un serveur aux hasards. (ChatGPT)

            1 réponse Dernière réponse
            0
            • Psyckofoxundefined Hors-ligne
              Psyckofoxundefined Hors-ligne
              Psyckofox
              DDL Geek Rebelle Ciné-Séries Club Gamer PW Addict
              a écrit sur dernière édition par
              #6

              Bien beau d’accuser l’IA mais il ne fait que de copier les pires délires haineux humain, c’est tout.
              Et on est là à accuser l’IA mais qui est au commande de ce merdier là aussi, l’humain aussi.

              Si on était chez les Bisounours, l’IA aurait tous simplement copié leur comportement et on aurait des fraises tagada et des arcs en ciel en pagaille généré par l’IA.

              "Pour survivre à la guerre, il faut devenir la guerre"

              John Rambo

              1 réponse Dernière réponse
              3

              Bonjour ! Vous semblez intéressé par cette conversation, mais vous n’avez pas encore de compte.

              Marre de refaire défiler les mêmes messages ? Créez un compte pour retrouver votre position, recevoir des notifications des nouvelles réponses, sauvegarder vos favoris et voter pour les messages que vous appréciez.

              Grâce à votre participation, ce message peut devenir encore meilleur 💗

              S'inscrire Se connecter
              Répondre
              • Répondre à l'aide d'un nouveau sujet
              Se connecter pour répondre
              • Du plus ancien au plus récent
              • Du plus récent au plus ancien
              • Les plus votés


              ■





              ©2026 planete-warez.net
              L'actualité Warez & underground en continu
              Icône café Faire un don
              Politique   RGPD  @dev  Sudonix
              • Se connecter

              • Vous n'avez pas de compte ? S'inscrire

              • Connectez-vous ou inscrivez-vous pour faire une recherche.
              • Premier message
                Dernier message
              0
              • Accueil
              • Catégories
                • Toutes les catégories
                • Planète Warez
                  Présentations
                  Aide & Commentaires
                  Réglement & Annonces
                  Tutoriels
                • IPTV
                  Généraliste
                  Box
                  Applications
                  VPN
                • Torrent & P2P
                • Direct Download et Streaming
                • Autour du Warez
                • High-tech : Support IT
                  Windows, Linux, MacOS & autres OS
                  Matériel & Hardware
                  Logiciel & Software
                  Smartphones & Tablettes
                  Graphismes
                  Codage : Sites Web, PHP/HTML/CSS, pages perso, prog.
                  Tutoriels informatiques
                • Culture
                  Actualités High-Tech
                  Cinéma & Séries
                  Sciences
                  Musique
                  Jeux Vidéo
                • Humour & Insolite
                • Discussions générales
                • Espace détente
                • Les cas désespérés
              • Non lus 0
              • Récent
              • Mots-clés
              • Populaire
              • Meilleur vote
              • Résolu
              • Non résolu
              • Utilisateurs
              • Groupes
              • Faire un don
              • Wiki