• 6 Votes
    1 Messages
    27 Vues

    Sinon voici des préfix CHATGPT à utiliser pour optimiser son utilisation 😉
    ça mériterait son propre topic 😉

    Si vous utilisez ChatGPT régulièrement, vous avez certainement remarqué que les réponses varient considérablement en fonction de la façon dont vous posez votre question. Mais peu de gens exploitent pleinement le potentiel des préfixes structurés pour transformer radicalement la qualité et le format des réponses.

    Ces préfixes ne sont pas des commandes magiques, mais plutôt des instructions explicites en langage naturel. En cadrant précisément votre attente dès le début de votre prompt, vous guidez le modèle vers le type de raisonnement, le format et le niveau de détail souhaités. C’est une forme de prompt engineering accessible à tous.

    À noter : L’efficacité de ces préfixes peut varier selon le contexte, la complexité de votre question et la formulation globale de votre prompt. L’essentiel est d’expérimenter pour trouver ce qui fonctionne le mieux dans votre cas d’usage spécifique.

    Reformater les réponses pour obtenir le format exact

    /ELI5 : Explique de manière très simple et accessible (Explain Like I’m 5)
    Idéal quand un concept vous semble complexe et que vous souhaitez une explication élémentaire.
    Exemple : /ELI5: Comment fonctionne la théorie des cordes ?

    /FORMAT AS : Impose un format spécifique (tableau, JSON, etc.)
    Exemple : /FORMAT AS JSON: Liste les monnaies du monde

    /CHECKLIST : Transforme la réponse en liste à cocher
    Exemple : /CHECKLIST: Préparation d’un départ à la retraite d’un collègue

    /EXEC SUMMARY : Présente un résumé, idéal pour un rapport professionnel et structuré
    Exemple : /EXEC SUMMARY: Tendances du ecommerce français en 2025

    /COMPARE : Place deux ou plusieurs éléments côte à côte pour faciliter la comparaison
    Exemple : /COMPARE: Symfony vs Laravel en framework PHP

    /STEP-BY-STEP : Décompose en étapes claires et séquencées permettant de suivre un processus du début à la fin de manière logique
    Exemple : /STEP-BY-STEP: Comment créer un post Instagram viral ?

    /TLDL : Résume en quelques lignes essentielles (Too long, didn’t listen)
    Exemple : /TLDL: Explique la formation des trous noirs

    /SCHEMA : Génère un plan structuré ou un modèle afin de visualiser l’architecture d’une idée
    Exemple : /SCHEMA: Structure du process de mise en stock d’un article

    /BRIEFLY : Force une réponse très concise
    Exemple : /BRIEFLY: Résume ce concept

    /BEGIN WITH ou /END WITH : Force un début ou une fin spécifique
    Exemple : /BEGIN WITH: “Bonjour” / END WITH: “Cordialement”

    Pousser la réflexion plus loin

    Face à des questions techniques ou stratégiques, ChatGPT peut parfois proposer des réponses trop rapides ou manquant de profondeur. Ces commandes obligent le modèle à ralentir, à décomposer son raisonnement et à vérifier lui-même la solidité de ses conclusions.

    /SWOT : Produit une analyse forces/faiblesses/opportunités/menaces.
    Exemple : /SWOT: Créer une boutique Shopify dans la niche des produits écologiques pour bébés

    /METRICS MODE : Exprime les réponses avec mesures et indicateurs.
    Exemple : /METRICS MODE: Analyse la rentabilité d’un passage de 35h à 32h dans une startup de 15 personnes

    /CHAIN OF THOUGHT : L’IA expose chaque étape de sa logique en affichant le raisonnement intermédiaire.
    Exemple : /CHAIN OF THOUGHT: Un investissement de 50k€ en SEO ou en publicité Meta pour un site e-commerce ?

    /FIRST PRINCIPLES : Permet une analyse rigoureuse en remontant aux bases.
    Exemple : /FIRST PRINCIPLES: Pourquoi les batteries lithium-ion dominent-elles le marché des véhicules électriques ?

    /PARALLEL LENSES : Examine une question sous plusieurs angles.
    Exemple : /PARALLEL LENSES: L’impact de l’intelligence artificielle sur le métier de développeur web - vision optimiste, réaliste et pessimiste

    /EVAL-SELF : L’IA évalue sa propre réponse de manière critique.
    Exemple : /EVAL-SELF: Ton analyse précédente sur les cryptomonnaies contenait-elle des biais ou approximations ?

    /PITFALLS : Identifie les erreurs et les pièges possibles.
    Exemple : /PITFALLS: Je veux automatiser entièrement le service client par IA - quels problèmes vais-je rencontrer ?

    /SYSTEMATIC BIAS CHECK : Assure une analyse objective et impartiale.
    Exemple : /SYSTEMATIC BIAS CHECK: Réexamine ton analyse sur le travail à distance - as-tu favorisé un point de vue ?

    /DELIBERATE THINKING : Etabli un raisonnement réfléchi convenant bien aux cas complexes.
    Exemple : /DELIBERATE THINKING: Faut-il migrer notre stack technique de WordPress vers Next.js sachant qu’on a 200 pages de contenu et 3 plugins métiers ?

    /REFLECTIVE MODE : Questionne la qualité de l’analyse fournie.
    Exemple : /REFLECTIVE MODE: Mon argumentaire de vente pour convaincre un client B2B est-il vraiment solide ou repose-t-il sur des suppositions ?

    Personnaliser le ton et le registre

    Un même contenu doit souvent être présenté différemment selon qu’il s’adresse à un expert technique, un débutant ou un décideur en entreprise. Ces préfixes permettent d’ajuster automatiquement le niveau de langage, la complexité et le ton employé.

    /ACT AS : Fait endosser un rôle précis à ChatGPT.
    Exemple : /ACT AS: DRH d’une scale-up tech - Rédige un email annonçant une réorganisation interne

    /ROLE: TASK: FORMAT: : Combine rôle, tâche et format souhaité.
    Exemple : /ROLE: Expert SEO TASK: Auditer la stratégie de contenu de ce blog FORMAT: Tableau avec scoring de 1 à 10

    /TONE : Change le ton (formel, technique, accessible, etc.).
    Exemple : /TONE: Professionnel mais bienveillant - Explique à un client pourquoi son projet va dépasser le budget initial

    /JARGON : Utilise un vocabulaire technique destiné aux experts du domaine.
    Exemple : /JARGON: Explique l’optimisation des Core Web Vitals via le lazy loading et le code splitting

    /AUDIENCE : Adapte la réponse à un public défini afin de calibrer la complexité selon les connaissances du lecteur.
    Exemple : /AUDIENCE: Dirigeants non-techniques - Explique pourquoi migrer vers une architecture cloud-native

    /DEV MODE : Adopte un style développeur, focus sur le code.
    Exemple : /DEV MODE: Corrige cette fuite mémoire dans mon hook React useEffect

    /PM MODE : Adopte une posture de chef de projet avec planning, ressources et échéances.
    Exemple : /PM MODE: Planifie la refonte complète d’une app mobile avec 2 devs frontend, 1 backend et 1 designer

    /REWRITE AS : Reformule et transpose le contenu dans un style ou registre spécifique.
    Exemple : /REWRITE AS: Post LinkedIn accrocheur - Transforme mon article technique sur le serverless

    /MULTI-PERSPECTIVE : Explore un sujet sous plusieurs angles et points de vue différents.
    Exemple : /MULTI-PERSPECTIVE: Implémenter l’authentification biométrique - point de vue sécurité, UX et coût de développement

    Éviter les réponses hors sujet

    Il arrive que ChatGPT s’écarte du sujet initial ou généralise trop rapidement. Ces commandes établissent des limites claires pour garder la conversation focalisée sur ce qui vous intéresse vraiment.

    /GUARDRAIL : Impose des limites strictes pour maintenir un périmètre de réponse précis.
    Exemple : /GUARDRAIL: Compare uniquement les performances techniques de React et Vue, ignore l’écosystème et la popularité

    /NO AUTOPILOT : Force une réflexion approfondie en interdisant les réponses automatiques et superficielles.
    Exemple : /NO AUTOPILOT: Pourquoi mon taux de conversion e-commerce stagne à 1.2% - analyse approfondie sans généralités

    /CONTEXT STACK : Maintient en mémoire plusieurs couches de contexte issues des échanges précédents.
    Exemple : /CONTEXT STACK: En tenant compte de mon budget de 10k€, mes 2 devs juniors et le délai de 3 mois qu’on a évoqués

    Conclusion

    Ces commandes constituent un ensemble d’outils puissants pour transformer votre utilisation de ChatGPT. Bien qu’elles ne soient pas officiellement documentées, elles représentent une évolution naturelle dans la manière dont les utilisateurs interagissent avec les modèles d’IA avancés.

    La clé est d’expérimenter progressivement avec ces préfixes pour identifier ceux qui correspondent le mieux à votre flux de travail. Chacun aura ses préférences, et c’est à travers l’usage régulier que vous découvrirez les combinaisons les plus efficaces pour vos besoins spécifiques.

    – Source : https://blog.shevarezo.fr/post/2025/12/10/astuces-meilleures-reponses-chatgpt

  • 3 Votes
    76 Messages
    4k Vues

    @Violence merci pour l’info, j’ai retiré par précaution mais bon après je n’ai rien a cacher non plus 🙂

  • 3 Votes
    35 Messages
    2k Vues

    8b208957-03c0-41e6-a4bc-dca7384bea6c-image.png

    Mix de Kiss et le sourire de Jack Nicholson en Joker 😁 :mouhaha:

  • 1 Votes
    7 Messages
    552 Vues

    Le premier modèle d’IA de classe GPT-4 que tout le monde peut télécharger est arrivé : Llama 405B

    Dans le monde de l’IA, il y a un buzz dans l’air à propos d’un nouveau modèle de langage d’IA publié mardi par Meta : Llama 3.1 405B . La raison? C’est potentiellement la première fois que n’importe qui peut télécharger classe GPT-4 gratuitement un grand modèle de langage (LLM) de et l’exécuter sur son propre matériel. Vous aurez toujours besoin d’un matériel costaud : Meta indique qu’il peut fonctionner sur un “nœud de serveur unique”, ce qui n’est pas un équipement de qualité PC de bureau. Mais il s’agit d’un tir provocateur de la part des fournisseurs de modèles d’IA « fermés » tels qu’OpenAI et Anthropic.

    Quels que soient les points de référence, les premières rumeurs dans la rue (après la fuite du modèle sur 4chan hier) semblent correspondre à l’affirmation selon laquelle 405B est à peu près équivalent à GPT-4. Il a fallu beaucoup de temps et de formation coûteuse en informatique pour y parvenir – et de l’argent, dont le géant des médias sociaux a beaucoup à dépenser. Meta a entraîné le modèle 405B sur plus de 15 000 milliards de jetons de données d’entraînement extraits du Web (puis analysés, filtrés et annotés par Llama 2), en utilisant plus de 16 000 H100 GPU

    Source et plus: https://arstechnica.com/information-technology/2024/07/the-first-gpt-4-class-ai-model-anyone-can-download-has-arrived-llama-405b/

  • 0 Votes
    3 Messages
    229 Vues

    Ha ben je comprends mieux pourquoi ça ne fonctionnait pas hier ! Et dire qu’on m’a accusé d’avoir mal formulé ma question 🙄

  • 2 Votes
    2 Messages
    227 Vues

    Merde du coup, ils ont enregistré quand je leur ai demandé un poème sur Hitler :ahah:

  • 1 Votes
    5 Messages
    344 Vues

    Si chatgpt gere les post on va plus être beaucoup sur le forum :fbi:

  • 2 Votes
    2 Messages
    191 Vues

    pour moi c’est un outil qui est tres bien pour les étudiants un peu comme une calculatrice

    bientot le brevet pour gépeté : https://www.presse-citron.net/le-sigle-gpt-sera-bientot-une-propriete-privee/

  • 1 Votes
    2 Messages
    285 Vues

    y’en avait déjà sur breached avant que ça ferme

  • 3 Votes
    4 Messages
    389 Vues

    ChatGPT comme keygen, fallait y penser :hehe:

  • 1 Votes
    1 Messages
    152 Vues

    Hello

    Je m’intéresse à la robotique de temps à autre sans être ultra assidu et il y a quelque temps j’avais découvert Ameca sur PW de la société Engineered Arts qui était déjà assez oufissime et il s’avère qu’ils viennent de l’intégrer à Chat GPT et le résultat est impressionnant.

    Engineered Arts montre comment le robot humanoïde se comporte lors d’une discussion. À chaque question de l’interlocuteur humain, le robot marque une très courte pause avant d’énoncer une réponse qui mêle les mots avec des expressions appropriées du visage. On retrouve les clignements rapides des yeux et toutes les petites expressions du visage qui viennent renforcer les émotions liées aux réponses.

    Les développeurs d’Ameca ont utilisé GPT-3, l’IA d’OpenAI pour les réponses, mais aussi pour y associer les expressions appropriées. L’équipe a également essayé d’utiliser la dernière version GPT-4 pour améliorer encore les résultats. Le temps de traitement plus long avait pour effet de rendre le robot moins réactif et donc la discussion moins spontanée. Dès novembre dernier, la société avait fait parler Ameca grâce à un synthétiseur qui dictait les réponses fournies par GPT3. Les expressions du visage restaient alors basiques.

    Dans les faits, le robot humanoïde répond effectivement quasi naturellement aux questions, comme si on posait soi-même des questions à ChatGPT, mais le plus intéressant, c’est évidemment d’observer son regard, sa moue et ses mouvements de la tête. Selon les questions, le robot exprime le dégoût ou la tristesse, et c’est ChatGPT qui se charge de transmettre le type d’émotion à exprimer. Comme lorsqu’on lui demande quel a été le jour le plus triste de sa vie, et qu’elle répond que c’est le jour où elle a pris conscience qu’elle « ne connaîtrait jamais quelque chose comme le véritable amour« , et c’est une « chose déprimante« . Mais Ameca précise : « Cela a façonné qui je suis maintenant et m’a fait apprécier encore plus les moments de proximité. »

    SOURCE 1, SOURCE2

  • 3 Votes
    3 Messages
    240 Vues

    @michmich c’est d’ailleurs le mot officiel, j’ai eu un goupil comme ça, sauf que l’écran était plus petit

  • 1 Votes
    4 Messages
    279 Vues

    c’est le début de la fin

  • 0 Votes
    1 Messages
    136 Vues

    Microsoft n’a pas tardé à tirer profit de GPT-4, la dernière version du modèle linguistique sur lequel repose le chatbot d’OpenAI, le populaire ChatGPT. L’éditeur logiciel l’a intégré dans Copilot, nouvel outil conçu pour aider les utilisateurs à rédiger des documents, des e-mails ou même des présentations PowerPoint à partir de documents Word qui lui seraient soumis.

    Cet assistant sera disponible pour la suite bureautique Microsoft 365 (ex-Office). «Copilot est une toute nouvelle façon de travailler», a mis en avant jeudi le géant de Redmond, qui indique qu’il le testait auprès de 20 clients. «Nous partagerons davantage d’informations sur les prix et les détails dans les mois à venir.»

    Microsoft réplique ainsi à Google, qui a annoncé en début de semaine l’intégration de l’IA dans ses services Google Cloud et Google Workspace, notamment dans Gmail, Docs, Sheets et Meet.

    La firme dirigée par Satya Nadella a profité d’un autre espace privilégié pour exploiter GPT-4. Elle a introduit des suggestions d’écriture alimentées par l’IA sur LinkedIn, réseau professionnel qui lui appartient. Les clients de sa version payante pourront se contenter de donner des faits en vrac de leur parcours, l’outil se chargeant de mettre le tout sous une forme attrayante. «En faisant le gros du travail pour vous, l’outil vous fait gagner du temps et de l’énergie tout en conservant votre voix et votre style uniques», assure la société.

    La voracité en puissance de calcul de ces nouveaux outils d’intelligence artificielle a contraint Microsoft à appliquer des mesures de restriction dans ses différentes équipes de développement, selon TheInformation. Et la pénurie de matériel affecte même des clients de Microsoft y accédant via son service cloud Azure. Sans compter que GPT-4 est devenu une fonctionnalité à part entière du moteur de recherche Bing, Microsoft ayant commencé à renoncer à exiger des utilisateurs qu’ils passent par une liste d’attente pour y accéder via bing.com/new.

    Source: https://www.20min.ch/fr/story/microsoft-dote-sa-suite-office-dun-compagnon-dope-a-lia-791141417314

  • 0 Votes
    10 Messages
    462 Vues

    @Violence c’est foutu, on est en plein dedans et y’en aura partout maintenant

  • 1 Votes
    1 Messages
    162 Vues

    Les choses bougent à la vitesse de l’éclair dans AI Land. Vendredi, un développeur de logiciels nommé Georgi Gerganov a créé un outil appelé “llama.cpp” qui peut exécuter le nouveau modèle de langage d’IA de classe GPT-3 de Meta, LLaMA , localement sur un ordinateur portable Mac et aussi sous Windows également. Ensuite, quelqu’un l’a montré en cours d’exécution sur un téléphone Pixel 6, puis est venu un Raspberry Pi (bien que fonctionnant très lentement).

    Ce qui arrivera la semaine prochaine, personne ne le sait.

    Depuis le lancement de ChatGPT, certaines personnes ont été frustrées par les limites intégrées du modèle d’IA qui l’empêchent de discuter de sujets qu’OpenAI a jugés sensibles. Ainsi a commencé le rêve - dans certains milieux - d’un grand modèle de langage open source (LLM) que n’importe qui pourrait exécuter localement sans censure et sans payer de frais d’API à OpenAI.

    Des solutions open source existent (comme GPT-J), mais elles nécessitent beaucoup de RAM GPU et d’espace de stockage. D’autres alternatives open source ne pourraient pas se vanter de performances de niveau GPT-3 sur du matériel grand public facilement disponible.

    LLaMA, un LLM disponible dans des tailles de paramètres allant de 7B à 65B (c’est-à-dire “Bilions” en Anglais, comme dans “milliards de paramètres”, qui sont des nombres à virgule flottante stockés dans des matrices qui représentent ce que le modèle “sait”). LLaMA a fait une affirmation captivante : que ses modèles de plus petite taille pourraient correspondre au GPT-3 d’OpenAI , le modèle fondamental qui alimente ChatGPT, dans la qualité et la vitesse de sa sortie. Il n’y avait qu’un seul problème - Meta a publié le code open source LLaMA, mais il a réservé les données (les “connaissances” formées stockées dans un réseau de neurones) pour les chercheurs qualifiés uniquement.

    Les restrictions de Meta sur LLaMA n’ont pas duré longtemps, car le 2 mars, quelqu’un a divulgué les données LLaMA sur BitTorrent. Depuis lors, il y a eu une explosion de développement autour de LLaMA. Le chercheur indépendant en intelligence artificielle Simon Willison a comparé cette situation à une sortie de Stable Diffusion, un modèle de synthèse d’images open source lancé en août dernier (https://planete-warez.net/topic/3147/ia-stable-diffusion-ui-l-ia-auto-hébergée-pour-créer-des-images). Voici ce qu’il a écrit dans un article sur son blog :

    J’ai l’impression que cet événement de Stable Diffusion en août a déclenché toute une nouvelle vague d’intérêt pour l’IA générative, qui a ensuite été poussée à l’extrême par la sortie de ChatGPT fin novembre.

    Ce moment de diffusion stable se reproduit en ce moment, pour les grands modèles de langage, la technologie derrière ChatGPT elle-même. Ce matin, j’ai exécuté pour la première fois un modèle de langage de classe GPT-3 sur mon ordinateur portable personnel !

    Les trucs d’IA étaient déjà bizarres. C’est sur le point de devenir beaucoup plus bizarre.

    En règle générale, l’exécution de GPT-3 nécessite plusieurs A100 (de plus, les données de GPT-3 ne sont pas publiques), mais LLaMA a fait des vagues, car il pouvait fonctionner sur un seul GPU grand public costaud. Et maintenant, avec des optimisations qui réduisent la taille du modèle à l’aide d’une technique appelée quantification, LLaMA peut fonctionner sur un Mac M1 ou un GPU grand public Nvidia moindre.

    Les choses évoluent si vite qu’il est parfois difficile de suivre les derniers développements. (En ce qui concerne le rythme de progression de l’IA, un collègue journaliste de l’IA a déclaré à Ars : "C’est comme ces vidéos de chiens où vous renversez une caisse de balles de tennis dessus. [Ils] ne savent pas où chasser en premier et se perdent dans la confusion. ")

    Par exemple, voici une liste d’événements notables liés à LLaMA basée sur une chronologie que Willison a présentée dans un commentaire de Hacker News :

    24 février 2023 : Meta AI annonce LLaMA. 2 mars 2023 : Quelqu’un divulgue les modèles LLaMA via BitTorrent. 10 mars 2023 : Georgi Gerganov crée llama.cpp , qui peut fonctionner sur un Mac M1. 11 mars 2023 : Artem Andreenko exécute LLaMA 7B (lentement) sur un Raspberry Pi 4 , 4 Go de RAM, 10 sec/token. 12 mars 2023 : LLaMA 7B exécuté sur NPX, un outil d’exécution node.js. 13 mars 2023 : quelqu’un fait fonctionner llama.cpp sur un téléphone Pixel 6 , également très lentement. 13 mars 2023 : Stanford lance Alpaca 7B d’OpenAI text-davinci-003 mais fonctionne sur un matériel beaucoup moins puissant.

    Après avoir obtenu nous-mêmes les données LLaMA, nous avons suivi les instructions de Willison et avons fait fonctionner la version des paramètres 7B sur un Macbook Air M1, et elle fonctionne à une vitesse raisonnable. Vous l’appelez comme un script sur la ligne de commande avec une invite, et LLaMA fait de son mieux pour le terminer de manière raisonnable.

    329bbdd1-3dc7-474f-b41e-9a434a8aa8e9-image.png
    Une capture d’écran de LLaMA 7B en action sur un MacBook Air exécutant llama.cpp.

    Reste la question de savoir dans quelle mesure la quantification affecte la qualité de la sortie. Lors de nos tests, LLaMA 7B réduit à la quantification 4 bits était très impressionnant pour fonctionner sur un MacBook Air, mais toujours pas à la hauteur de ce que vous pourriez attendre de ChatGPT. Il est tout à fait possible que de meilleures techniques d’incitation génèrent de meilleurs résultats.

    De plus, les optimisations et les ajustements sont rapides lorsque tout le monde a la main sur le code et les données, même si LLaMA est toujours aux prises avec des assez restrictives conditions d’utilisation La sortie d’Alpaca aujourd’hui par Stanford prouve qu’un réglage fin (entraînement supplémentaire avec un objectif spécifique en tête) peut améliorer les performances, et il est encore tôt après la sortie de LLaMA.

    Au moment d’écrire ces lignes, l’exécution de LLaMA sur un Mac reste un exercice assez technique. Vous devez installer Python et Xcode et être familiarisé avec le travail en ligne de commande. Willison a de bonnes instructions étape par étape pour tous ceux qui souhaitent l’essayer. Mais cela pourrait bientôt changer à mesure que les développeurs continuent de coder.

    Quant aux implications d’avoir cette technologie dans la nature, personne ne le sait encore. Alors que certains s’inquiètent de l’impact de l’IA en tant qu’outil de spam et de désinformation, Willison déclare : “Cela ne sera pas inventé, donc je pense que notre priorité devrait être de trouver les moyens les plus constructifs possibles de l’utiliser.”

    À l’heure actuelle, notre seule garantie est que les choses vont changer rapidement.

    Source: https://arstechnica.com/information-technology/2023/03/you-can-now-run-a-gpt-3-level-ai-model-on-your-laptop-phone-and-raspberry-pi/

  • 0 Votes
    2 Messages
    166 Vues

    La créature ressemble à son créateur… Tant qu’il est sur un même site physique, on peut toujours le débrancher… Comme je l’ai dit sur un autre post “C’est à quelle date que Skynet prend le contrôle déjà?”

  • 2 Votes
    4 Messages
    291 Vues

    @Aurel a dit dans Les hackers détournent déjà ChatGPT pour développer des logiciels malveillants :

    P.S. Ce post juste pour maintenir mon compte actif car j’ai lu quelque part que sans participation dans un délai donné, il serait inactif. @Raccoon

    Euh tout simplement non @Aurel 🙂

  • 1 Votes
    4 Messages
    267 Vues
    ChatGPT : le virage lucratif d’OpenAI, le laboratoire qui voulait “protéger l’humanité”

    Fondée pour “protéger l’humanité contre les dangers de l’IA”, et concurrencer le cerveau humain, l’organisation de recherche s’est peu à peu débarrassée de ses garde-fous éthiques et philantropiques.

    Combien étaient-ils à croire en OpenAI, ce jour-là ? Nous sommes en mai 2019, lors de l’enregistrement de StrictlyVC, une émission consacrée à la Silicon Valley. Devant un public d’initiés, Sam Altman, le président de l’entreprise, s’empêtre. Encore méconnue, sa structure, qui veut construire la première IA aussi intelligente que l’homme, vient de passer “à but lucratif”. Un tournant. Mais pour l’heure, OpenAI “n’a jamais généré de revenu” et n’a “aucune idée de comment faire”, confesse Altman. Il ajoute : “On demandera à notre IA”. Ses auditeurs rient. Etait-il sérieux ?

    Trois ans et demi plus tard, les machines d’OpenAI n’ont pas atteint un tel niveau. Mais l’entreprise a réussi à concevoir un système intelligent, en mesure d’écrire de sommaires mais convaincants discours, pitchs ou poésies. En test gratuit depuis fin 2022, ChatGPT a déjà acquis plusieurs millions d’utilisateurs, et devrait intégrer Bing, le moteur de recherche de Microsoft. Son équivalent pour l’image, Dall-E 2, fait patienter un million de clients sur liste d’attente. Les abonnements à ces outils devraient rapporter un milliard de dollars en 2024, selon l’organisation qui, à ses débuts, se voulait… philanthropique.

    Source: https://www.lexpress.fr/economie/high-tech/chatgpt-le-virage-lucratif-dopenai-le-laboratoire-qui-voulait-proteger-lhumanite-FERMX5QNMVFLRFE3A45T3JF7KU/