Sciences

498 Sujets 2.2k Messages
  • 3 Votes
    2 Messages
    63 Vues

    Passionnant

  • 1 Votes
    1 Messages
    20 Vues

    La géométrie utilisée fait allusion au calcul 1 500 ans avant les Européens.

    51a9893e-a394-483a-887e-81ee95533454-image.png

    Même lorsqu’une culture laisse derrière elle de nombreuses traces écrites, il peut être difficile de comprendre sa connaissance de la technologie et du monde naturel. Les documents écrits sont souvent partiels et les auteurs peuvent ignorer certaines technologies ou les considérer simplement comme banales. C’est pourquoi le monde antique peut encore offrir des surprises comme le mécanisme d’Anticythère, un ancien ordinateur mécanique qui mettait en valeur les connaissances des Grecs en mathématiques, en astronomie et en technologie mécanique nécessaire pour les relier.

    Il a fallu plusieurs années après la découverte pour comprendre la véritable nature du mécanisme d’Anticythère. Et maintenant, quelque chose de similaire s’est produit pour les Babyloniens. Des tablettes d’argile, conservées au British Museum depuis des décennies, montrent que cette culture était capable d’utiliser une géométrie sophistiquée pour suivre l’orbite de Jupiter, en s’appuyant sur des méthodes qui, d’une certaine manière, préfigurent le développement du calcul des siècles plus tard.

    Nous savions déjà que les Babyloniens suivaient les orbites de divers corps. Il existe environ 450 tablettes écrites décrivant les méthodes et les calculs que nous connaissons, et elles datent de 400 à 50 avant notre ère. La plupart de ceux qui décrivent comment calculer le mouvement orbital, selon les mots de Mathieu Ossendrijver de l’Université Humboldt, “peuvent être représentés sous forme d’organigrammes”. Selon la situation, ils décrivent une série d’additions, de soustractions et de multiplications qui pourraient vous indiquer où se trouverait un corps donné.

    (Pour compliquer les choses, l’astronomie babylonienne fonctionnait en base 60, ce qui conduit à une notation très étrangère.)

    Les Babyloniens avaient une compréhension des concepts géométriques – Ossendrijver les qualifie de « très courants dans le corpus mathématique babylonien » – mais aucun d’entre eux n’apparaissait dans leurs calculs astronomiques connus.

    Au British Museum, cependant, il a trouvé une tablette qui n’avait pas été formellement décrite et qui contenait des parties de la procédure de suivi de Jupiter. Combiné avec d’autres tablettes, il commence avec le premier lever matinal de Jupiter, le suit à travers son apparent mouvement rétrograde et se termine par son dernier coucher visible au crépuscule. Encore une fois, c’est une question de procédure. Différentes sections sont utilisées pour prédire l’apparence de la planète sur différents segments de son orbite.

    Ossendrijver a repris la procédure de calcul des 120 premiers jours et a montré que le calcul de son déplacement quotidien dans le temps produit un trapèze. Dans ce cas, la forme était en grande partie un rectangle mais avec sa face supérieure inclinée vers le bas au fil du temps en deux segments distincts. Une série d’autres tablettes traitaient explicitement les calculs comme produisant un trapèze.

    f47a51a6-ae71-466c-9d54-5346dc0e3704-image.png
    Le trapèze utilisé pour calculer les 120 premiers jours de l’orbite de Jupiter. La ligne rouge divise la première forme en deux zones égales.

    Les choses deviennent intéressantes dans la procédure suivante, qui est utilisée pour calculer le moment où Jupiter atteint le point médian dans la première moitié de cette étape de son mouvement. Cette procédure consistait à prendre la moitié gauche du trapèze et à la diviser en deux morceaux de surface égale. L’emplacement de la ligne de démarcation (étiquetée vc ci -dessus) produit alors la réponse. Comme le décrit Ossendrijver, “Ils ont calculé le moment où Jupiter parcourait la moitié de cette distance en divisant le trapèze en deux plus petits, de surface idéalement égale.”

    Comprendre cela nécessitait évidemment une géométrie sophistiquée. Les érudits européens n’ont développé des méthodes similaires qu’au 14e siècle, lorsqu’elles ont été utilisées à Oxford. Les Grecs utilisaient la géométrie pour certains travaux astronomiques, mais cela impliquait des calculs de l’espace réel. Les Babyloniens travaillent ici dans un espace temps-vitesse abstrait.

    Il est également frappant de constater que cette approche générale est similaire à certains aspects du calcul. Là, l’aire sous une courbe est calculée en créant mathématiquement un nombre infini de petites figures géométriques et en additionnant leurs aires. Rien n’indique que les Babyloniens étaient sur le point de faire ce saut intellectuel étant donné qu’ils n’ont divisé cette forme qu’à quelques reprises. Mais cela montre qu’ils ont reconnu la valeur de l’approche générale.

    Source: https://arstechnica.com/science/2016/01/babylonians-tracked-jupiter-with-sophisticated-geometrical-math/?itm_source=parsely-api

  • 3 Votes
    1 Messages
    28 Vues

    Les scientifiques ont du mal à définir la conscience, l’IA ou autre.

    07e45532-b56f-4c6d-9b68-34c9e823d88a-image.png

    Les progrès de l’intelligence artificielle rendent de plus en plus difficile la distinction entre les comportements uniquement humains et ceux qui peuvent être reproduits par des machines. Si l’intelligence artificielle générale (AGI) arrivait en force – une intelligence artificielle qui surpasse l’intelligence humaine – la frontière entre les capacités humaines et informatiques diminuerait entièrement.

    Ces derniers mois, une part importante de la bande passante journalistique a été consacrée à ce sujet potentiellement dystopique. Si les machines AGI développent la capacité d’expérimenter consciemment la vie, les considérations morales et juridiques que nous devrons leur accorder deviendront rapidement lourdes. Ils auront des sentiments à prendre en compte, des pensées à partager, des désirs intrinsèques et peut-être des droits fondamentaux en tant qu’êtres nouvellement créés. D’un autre côté, si l’IA ne développe pas la conscience – mais simplement la capacité de nous surpasser dans toutes les situations imaginables – nous pourrions nous retrouver soumis à une entité largement supérieure mais sociopathe.

    Aucun des deux futurs potentiels ne semble si confortable, et tous deux nécessitent une réponse à des questions exceptionnellement hallucinantes : qu’est-ce que la conscience exactement ? Et cela restera-t-il un trait biologique, ou pourrait-il finalement être partagé par les dispositifs AGI que nous avons créés ?

    La conscience dans les ordinateurs de Von Neumann

    Pour qu’un ordinateur puisse expérimenter le vaste répertoire d’états internes accessible aux êtres humains, son matériel doit probablement fonctionner un peu comme un cerveau humain. Les cerveaux humains sont des « appareils » analogiques extrêmement économes en énergie, capables de niveaux élevés de traitement parallèle.

    Les ordinateurs modernes, basés sur l’architecture Von Neumann , ne sont rien de tout cela : ce sont des machines numériques énergivores et composées principalement de circuits en série.

    Les puces informatiques de Von Neumann séparent physiquement la mémoire du traitement, ce qui nécessite que les informations soient récupérées de la mémoire avant que les calculs puissent être effectués. « Les ordinateurs classiques de Von Neumann ont une séparation entre la mémoire et le traitement. Les instructions et les données sont stockées dans la mémoire et le processeur les récupère autant qu’il le peut en parallèle, puis calcule les chiffres et remet les données en mémoire », explique Stephen Deiss, un ingénieur neuromorphique à la retraite de l’UC. San Diego.

    Cette restriction sur la quantité d’informations pouvant être transférée dans un laps de temps spécifique (et la limite qu’elle impose à la vitesse de traitement) est appelée le goulot d’étranglement de Von Neumann . Le goulot d’étranglement de Von Neumann empêche nos ordinateurs actuels d’égaler, voire de s’approcher, la capacité de traitement d’un cerveau humain. Pour cette raison, de nombreux experts pensent que la conscience dans les ordinateurs modernes est très improbable.

    La conscience dans les ordinateurs neuromorphiques

    Les informaticiens développent activement des puces informatiques neuromorphiques qui échappent aux restrictions de traitement des ordinateurs de Von Neumann en se rapprochant de l’architecture des neurones. Certains d’entre eux combinent des unités de stockage mémoire et de traitement sur une seule puce. D’autres utilisent des éléments de traitement spécialisés de faible puissance, tels que des memristors, un type de transistor qui « se souvient » des états de tension passés, pour augmenter l’efficacité. Les puces neuromorphiques imitent le câblage parallèle du cerveau et ses faibles besoins en énergie.

    “Un dispositif de calcul en mémoire, qui inclut des éléments tels que des ordinateurs neuromorphiques, utilise la physique réelle du matériel pour effectuer le calcul”, explique Deiss, faisant référence aux memristors. “Les éléments de traitement sont les éléments de mémoire.”

    Si la technologie neuromorphique peut être développée au niveau nécessaire pour reproduire l’activité neuronale, les ordinateurs neuromorphiques pourraient avoir un plus grand potentiel pour expérimenter la vie consciemment plutôt que de simplement calculer intelligemment. "Si jamais nous atteignons le niveau de complexité de traitement qu’un cerveau humain peut atteindre, alors nous pourrons pointer du doigt [les ordinateurs neuromorphiques] et dire : “Cela fonctionne exactement comme un cerveau - peut-être qu’il ressent les choses comme nous ressentons les choses”. », dit Deiss.

    Pourtant, même dans un avenir rempli de matériel informatique de type cérébral et de décors propices à la conscience artificielle, une grande question demeure : comment saurons-nous si nos systèmes AGI éprouvent ou non de la tristesse, de l’espoir et le sentiment exquis de tomber dans l’oubli ? l’amour ou s’ils ont juste l’air de vivre ces choses ?

    Comment saurons-nous un jour ce qui se passe dans l’esprit d’une machine ?

    Une corne d’abondance de théories de la conscience

    Il n’y a qu’une seule façon de le savoir : en identifiant empiriquement comment la conscience fonctionne dans les formes de vie organiques et en développant une méthode par laquelle nous pouvons la reconnaître de manière cohérente. Nous devons comprendre la conscience en nous-mêmes avant d’avoir le moindre espoir de reconnaître sa présence dans des systèmes artificiels. Ainsi, avant de plonger profondément dans les conséquences complexes du silicium sensible et d’envisager un avenir rempli d’ordinateurs conscients, nous devons résoudre une question ancienne : qu’est-ce que la conscience et qui la possède ?

    Au cours des dernières décennies, les neuroscientifiques ont arraché cette question millénaire à l’emprise des philosophes, reconnaissant que le lien entre l’activité neuronale et l’expérience consciente est incontestable. Il existe des dizaines de théories neuroscientifiques de la conscience (TdC), si nombreuses en fait qu’un effort concerté est en cours pour réduire la liste à un petit nombre gérable. Nous n’en discuterons que trois ici : la théorie de l’information intégrée, la théorie de l’espace de travail neuronal global et la théorie des schémas d’attention.

    Selon la théorie de l’information intégrée (IIT), une ToC développée par Giulio Toloni , directeur du Wisconsin Institute of Sleep and Consciousness à l’UW Madison, la clé de la conscience réside dans la quantité d’informations intégrées d’un système, c’est-à-dire dans la manière dont ses composants communiquent entre eux. via des réseaux de neurones ou de transistors. Un système avec un niveau élevé d’informations intégrées est conscient ; un système avec peu d’informations intégrées ne l’est pas.

    Christof Koch , chercheur émérite à l’Allen Institute for Brain Science à Seattle, Washington, et partisan de l’IIT, explique que le cerveau humain possède un niveau élevé d’informations intégrées en raison du câblage parallèle étendu de ses réseaux neuronaux. Les informations peuvent voyager simultanément par plusieurs voies neuronales, ce qui augmente la capacité de traitement du cerveau. Les ordinateurs modernes, soumis au goulot d’étranglement de Von Neumann, sont principalement composés de circuits en série, de sorte qu’un niveau comparable de traitement de l’information est impossible à obtenir.

    La théorie des schémas d’attention (AST) , développée par Michael Graziano, professeur de psychologie et de neurosciences à Princeton, propose un point de vue différent : notre cerveau crée un modèle de ce à quoi nous prêtons attention, appelé « schéma d’attention ». Ce modèle, comme une maquette d’avion, est une représentation. Un modèle réduit d’avion ne comprend pas de cabine entièrement équipée ni de cockpit fonctionnel. De même, le schéma d’attention de notre propre conscience est une approximation : un modèle mental de ce à quoi notre esprit prête attention et de la manière dont nous le vivons.

    AST propose que, malgré ses limites, notre schéma d’attention est si convaincant que nous avons tendance à en déduire à tort que la conscience est quelque chose de mystique, quelque chose de « plus que » la matière. En réalité, nous n’avons accès qu’à cette représentation de notre esprit – et non à notre esprit lui-même – et nous ne pouvons donc pas comprendre directement comment notre esprit fonctionne, tout comme un modèle réduit d’avion ne peut pas reproduire l’expérience de voler.

    La théorie globale de l’espace de travail neuronal (GNWT), fondée par Bernard Baars , chercheur affilié en neurobiologie théorique à l’Institut des neurosciences de l’UC San Diego, propose que les informations que notre cerveau détermine comme suffisamment importantes soient placées de manière sélective et temporaire dans un espace de travail central au sein de notre cerveau (analogue à une salle de cinéma) pour que nous puissions y prêter attention. Les informations auxquelles nous n’avons pas besoin de prêter attention consciemment sont stockées dans des zones connectées mais séparées (analogues aux coulisses).

    « L’idée de base [du GTNO] est assez simple. À un moment donné, seul un sous-ensemble d’informations inconscientes est sélectionné par les réseaux attentionnels, et cette sélection sert à connecter les modules de traitement inconscients à un « espace de travail global ». Quel que soit le contenu présent dans l’espace de travail, il est vécu consciemment à ce moment-là », explique Michael Pitts, professeur de psychologie au Reed College dans l’Oregon.

    Malgré des approches disparates, l’IIT, le GTNO et l’AST partagent un objectif commun : élucider empiriquement la relation complexe entre le tissu cérébral et l’expérience de la vie. Une fois que les neuroscientifiques auront compris comment les réseaux neuronaux produisent la conscience, ces connaissances pourront être utilisées pour comprendre les expériences conscientes – ou leur absence – dans les réseaux inorganiques.

    La conscience informatique n’est-elle qu’un rêve éveillé futuriste ?

    Selon l’IIT, la conscience dans nos ordinateurs actuels est carrément impossible. Le battage médiatique autour de la conscience artificielle ne sert à rien. Le matériel est le matériel. Peu importe à quel point une machine est brillante pour jouer aux échecs, au Go, au Texas hold’em ou à Scotland Yard , en fin de compte, elle ne sait pas qu’elle a gagné une partie et elle n’a pas non plus ressenti les montagnes russes émotionnelles de la compétition. Selon les mots de Koch, « il n’a absolument rien vécu ».

    “Il ne suffit pas d’observer un système d’IA de l’extérieur et de se demander s’il est conscient en fonction de son comportement”, explique Koch. « Il faut regarder sous le capot. Une machine de Turing qui semble penser n’est pas consciente. »

    Selon l’IIT, l’incapacité d’une machine à « être quelque chose » qui s’éprouve elle-même en relation avec le monde extérieur réside clairement dans son pouvoir causal limité. Le pouvoir causal est défini comme la capacité d’un système à utiliser son état passé pour influencer son état présent et à utiliser son état présent pour influencer son état futur. Plus un système peut s’influencer lui-même, plus il possède un pouvoir causal. Les neuroscientifiques utilisent la variable « phi » pour représenter la quantité de puissance causale au sein d’un système, et elle est mesurée en analysant les connexions auto-influencées entre les composants du circuit.

    Les processeurs informatiques modernes ne disposent tout simplement pas du nombre requis de connexions internes auto-influencées pour atteindre la valeur seuil d’informations intégrées requise pour que l’expérience se produise. Contrairement au cerveau humain, qui contient environ 86 milliards de neurones et 100 000 milliards de connexions entre eux, un ordinateur contient beaucoup moins de connexions en boucle ou auto-influencées. Un ordinateur peut se comporter avec une intelligence extraordinaire – même une intelligence qui dépasse celle des humains – mais cela n’équivaut pas à une capacité à exercer un effet sur lui-même : être conscient.

    « Une manière populaire de résumer l’IIT est de proposer qu’un système est conscient lorsque l’ensemble (l’intégration de l’information) est plus que la somme de ses parties », explique Pitts. « L’IIT se concentre davantage sur la façon dont un système est organisé et sur la façon dont il s’affecte lui-même que sur ce qu’il fait. Selon l’IIT, deux systèmes peuvent avoir le même comportement d’entrée-sortie, mais selon la manière dont le système est organisé, l’un peut être conscient tandis que l’autre ne l’est pas.

    Contrairement à la grande majorité des TdC, qui sont des théories fonctionnalistes computationnelles qui supposent que la conscience peut être réduite aux composants physiques qui la produisent, « l’IIT commence par la conscience et remonte jusqu’au substrat physique de la conscience. L’IIT ne commence pas avec un système physique, comme un cerveau ou une machine, et ne suppose pas qu’il peut être suffisamment réduit pour nous conduire à la source de la conscience », explique Koch.

    En raison de cette prémisse, l’IIT ne s’inscrit parfaitement dans aucune des théories philosophiques traditionnelles de l’esprit, telles que le matérialisme, le dualisme, l’idéalisme ou le panpsychisme. « C’est le défi lorsque vous rencontrez deux mille ans d’«ismes». Elles sont enseignées dans toutes les écoles de philosophie et dans tous les livres, et elles sont très bien établies, mais elles relèvent toutes de la philosophie. L’IIT ne correspond à aucune [philosophie de l’esprit] », dit Koch.

    Malgré le cadre théorique convaincant de l’IIT, certains neuroscientifiques remettent en question la structure de la théorie. L’IIT est fondé sur cinq axiomes considérés comme infailliblement vrais par les partisans de la théorie. Pitts explique : « Certaines personnes ont un problème avec la façon dont l’IIT démarre parce qu’il s’agit d’une théorie ambitieuse qui fait des affirmations audacieuses. Au lieu de prendre des données et d’élaborer une théorie, cela part des premiers principes. Il présente cinq axiomes qui doivent être vrais pour toute expérience consciente. Ensuite, il utilise ces axiomes pour dériver des postulats pouvant conduire à des prédictions.

    « L’une des critiques que certains chercheurs font à l’égard de l’IIT », ajoute Pitts, « est qu’il est impossible d’obtenir un résultat expérimental qui remette en question le cœur de la théorie, car les axiomes sont conçus pour être un point de départ universellement vrai. C’est trop flexible ; ce n’est pas falsifiable, diraient certains.

    Même si l’IIT prédit que les ordinateurs artificiellement intelligents ne possèdent pas le « quelque chose » supplémentaire requis pour la conscience (à savoir le pouvoir causal), il n’écarte pas la perspective d’approcher rapidement des machines hautement intelligentes – des systèmes AGI qui surpasseront les humains dans leurs capacités de calcul. Il s’agit d’une distinction cruciale que nous ne devons pas oublier de faire, prévient Koch, alors que nous évaluons la meilleure façon d’inaugurer un avenir rempli de robots AGI : « Il y a une différence entre l’intelligence et la conscience. »

    La conscience informatique est-elle une réalité inévitable ?

    De l’autre côté de la médaille de la conscience neuroscientifique se trouvent les théories fonctionnalistes computationnelles, telles que la théorie des schémas d’attention et la théorie de l’espace de travail neuronal global. Les deux ToC considèrent la conscience artificielle comme inévitable. En fait, AST suggère que nous sommes nous-mêmes des machines qui croient à tort que nous sommes conscients. La conscience est simplement le résultat de calculs ; la source de ces calculs (cerveau ou machine) n’a pas d’importance tant qu’ils se produisent d’une manière spécifiée.

    La conscience machine semble suffisamment inévitable à certains chercheurs pour décider de vérifier si elle existe déjà. En août 2023, Patrick Butlin , chercheur à l’Université d’Oxford, et Robert Long , associé de recherche au Center of AI Safety de San Francisco, ont publié un article préimprimé sur arXiv.org intitulé « Consciousness in Artificial Intelligence : Insights from la science de la conscience . » Butlin, Long et 18 collaborateurs ont évalué six des théories fonctionnalistes computationnelles les plus importantes de la conscience et ont dressé une liste de propriétés d’indicateurs de conscience, propriétés nécessaires à l’apparition de la conscience chez les humains. Ils ont ensuite recherché des preuves de ces propriétés d’indicateurs dans les systèmes d’IA.

    Butlin, Long et leurs collaborateurs sont arrivés à la conclusion suivante : « Notre analyse suggère qu’aucun système d’IA actuel n’est conscient, mais suggère également qu’il n’y a pas d’obstacles techniques évidents à la construction de systèmes d’IA qui satisfont à ces indicateurs. »

    Les partisans de l’AST et du GTNO sont à l’aise avec la conclusion de Butlin et Long. Graziano explique que « l’AST repose sur l’hypothèse que les gens sont des machines biologiques. Tout ce qu’un cerveau sait de lui-même découle nécessairement des informations contenues dans ce cerveau. Nous pensons avoir la conscience – nous en sommes certains – parce que le cerveau construit des modèles de soi, ou des ensembles d’informations, qui se décrivent de cette manière. Si le cerveau ne construisait pas ces modèles, nous ne saurions rien de la conscience. Construisez un système artificiel avec les mêmes structures d’information en lui-même, et il aura les mêmes croyances et certitudes. Il devrait être possible (et beaucoup y travaillent) de construire une IA qui se pense également consciente et pense que les autres sont conscients.

    La confiance de Graziano dans l’éventualité d’une conscience de l’IA provient des deux principes fondamentaux de l’AST. Premièrement, « les informations qui sortent d’un cerveau doivent se trouver dans ce cerveau », et deuxièmement, « les modèles du cerveau ne sont jamais précis ». En utilisant ces deux principes comme point de départ, Graziano écrit qu’il n’y a pas de « marge de manœuvre » : la seule explication logique et méthodique de la conscience est qu’elle prend naissance dans le cerveau et qu’elle est, comme tout ce qui prend naissance dans le cerveau, une approximation de la conscience. réalité.

    Koch n’est pas d’accord. Selon l’IIT, l’expérience subjective de la dégustation d’une pomme ne peut pas être reproduite par un ordinateur en raison de sa capacité limitée à exercer une influence sur lui-même : « l’effet » de conscience ne peut pas se produire. “Ce n’est pas parce que quelque chose est une réplique parfaite d’un cerveau humain que la conscience en émergera”, explique Koch. “Il y a une différence entre la simulation d’une chose et la chose elle-même.” Même si les ordinateurs du futur deviennent aussi complexes que les cerveaux (en termes de circuits internes auto-influençant), la conscience ne sera pas automatiquement produite. Le niveau d’informations intégrées dans un cerveau simulé ne correspondra pas nécessairement à celui d’informations intégrées dans un cerveau réel.

    AST réfute cet argument en affirmant que l’expérience subjective évoquée par l’IIT (et d’autres théories de la conscience) n’est rien de plus qu’un schéma mental – une illusion convaincante. En réalité, nous ne ressentons rien subjectivement lorsque nous mangeons une pomme ; notre cerveau nous convainc que nous le faisons. De la même manière, l’intelligence artificielle pourra bientôt se convaincre, grâce à une représentation interne d’une pomme en train de manger, qu’elle a goûté un Honeycrisp rouge vif, croquant et juteux.

    “La conscience est une propriété que nous attribuons aux autres et à nous-mêmes, et nous le faisons parce qu’elle constitue un moyen utile de prédire le comportement”, explique Graziano. « AST propose que le cerveau construise un modèle, ou une représentation simplifiée, d’un état attentionnel. Nous donnons un sens à cet état d’attention en lui attribuant une conscience. En conséquence, nous acquérons une meilleure capacité à prédire nous-mêmes ou les autres.

    Parce que l’AST et le GTNO affirment qu’il n’y a rien de « spécial » dans la conscience – c’est juste le résultat final d’une séquence de calculs – tous deux soutiennent que les ordinateurs sont tout aussi susceptibles de faire l’expérience de la vie que nous.
    Butlin fait écho à ce point de vue en déclarant : « Je pense qu’il est probable que des systèmes d’IA seront bientôt construits avec de nombreuses propriétés d’indicateur et que ces systèmes seront des candidats beaucoup plus sérieux à la conscience que tous ceux qui existent actuellement. Ces systèmes ne seront probablement toujours pas conscients, mais ils rendront très urgentes les questions difficiles concernant la conscience.

    Est-il possible d’unifier les théories de la conscience ?

    Il existe une surabondance de ToC au sein de la communauté des neurosciences. Tant que ce groupe complexe de théories disparates ne sera pas unifié de manière cohérente ou réduit à une seule théorie correspondant aux résultats expérimentaux, nous n’aurons pas de moyen précis d’identifier la conscience machine. Pour lancer le processus de réduction, la Templeton World Charity Foundation (TWCF) finance une série de collaborations contradictoires destinées à accroître la communication entre les chercheurs en conscience et à réduire les écarts entre les ToC. Ce travail est impératif et urgent si nous voulons comprendre la conscience humaine avant que les ordinateurs ne soient suffisamment complexes pour potentiellement l’acquérir eux-mêmes.

    Michael Pitts rappelle l’attention médiatique entourant la conférence de l’Association pour l’étude scientifique de la conscience à New York en juin 2023. Pitts et ses collègues, Liad Mudrik de l’Université de Tel Aviv et Lucia Melloni de l’Institut Max Planck, ont présenté les premiers résultats de l’étude. première collaboration contradictoire qu’ils ont conçue pour tester rigoureusement deux théories neuroscientifiques de la conscience de premier plan : la théorie de l’information intégrée et la théorie de l’espace de travail neuronal global.

    « Nous avons présenté nos premiers résultats lors d’une conférence à New York l’été dernier, et la presse a eu une mauvaise impression. Leur idée était « c’est une théorie contre une autre », ou « l’un va gagner et l’autre va perdre », mais ce n’est pas ainsi que cela fonctionne », a déclaré Pitts. L’accent mis par les médias sur la nature conflictuelle des collaborations alimente la perception selon laquelle la recherche sur la conscience est décousue et incohérente.

    Pitts et ses collègues en sont aux premiers stades de réflexion sur un concept appelé Unification sélective, dans l’espoir que des théories disparates de la conscience pourront finalement être combinées en une seule ToC empiriquement solide : « L’idée de l’Unification sélective est que nous pouvons sélectionner soigneusement certains aspects des théories. qui sont étayés par des données et les unifient en une seule théorie », explique Pitts.

    En utilisant les résultats des collaborations contradictoires actuelles et futures, il espère éliminer les parties des ToC qui ne correspondent pas aux données expérimentales. Des éléments spécifiques des théories qui survivent au billot, théorise-t-il, peuvent ensuite être combinés dans une nouvelle ToC avec des prédictions qui s’alignent sur les preuves expérimentales. Pitts déclare : « Nous ne voulons pas combiner les théories à la manière de Frankenstein, mais d’une manière où nous conservons des éléments cohérents et abandonnons les éléments qui sont contestés expérimentalement. »

    Koch, bien que tout aussi déterminé à tester les ToC, ne croit pas qu’il soit possible de combiner certains éléments de plusieurs théories de la conscience. Il dit : « Ce sont simplement des animaux fondamentalement différents. Vous ne pouvez pas les écraser ensemble. Ils pourraient tous deux avoir tort, mais ils ne peuvent pas tous les deux avoir raison.

    Se préparer à l’AGI, conscient ou non

    Les débats sur la nature de la conscience et sur la question de savoir si l’AGI connaîtra finalement la vie comme nous ne seront probablement pas résolus de sitôt. Pourtant, les progrès technologiques nous propulsent à une vitesse vertigineuse vers un avenir rempli de machines qui, à tous égards et à toutes fins, se comporteront comme nous. Comment s’y préparer ?

    Koch propose que nous fassions un effort pour accroître l’intelligence humaine afin de compenser l’écart imminent entre les cerveaux organiques et artificiels. Conscientes ou inconscientes, les futures IA seront bien plus intelligentes que nous. Pourquoi ne pas consacrer certaines ressources technologiques à l’augmentation de l’intelligence humaine aux côtés de l’intelligence artificielle ?

    Graziano suggère que nous nous préparions à une IA consciente en considérant de manière préventive la sociopathie de l’IA . La généralisation de l’AGI entraînera une influence et une puissance accrues de l’ordinateur. Si l’IA développe une intelligence extrême sans apprendre simultanément à naviguer dans les complexités des normes sociales humaines, nous pourrions avoir sous la main des machines sociopathes qui choisiront de nous tuer au lieu de travailler avec nous.

    « La plupart des gens se concentrent sur la conscience comme une affaire privée et interne. Mais cela joue également un rôle central dans l’interaction sociale humaine », explique Graziano. « Nous nous reconnaissons comme des êtres conscients, et cela nous permet de nous traiter d’une certaine manière. Lorsque cette capacité commence à faiblir, un comportement antisocial apparaît. C’est à ce moment-là que les gens commencent à s’entre-tuer.

    « Si nous voulons que l’IA soit prosociale, nous pourrions lui donner les mécanismes qui rendent les gens prosociaux », suggère Graziano.

    Koch propose une dernière suggestion : plutôt que de se démener pour faire face à l’inévitable supériorité de l’AGI et aux ambiguïtés qui en résultent en termes de conscience informatique potentielle, il conseille de réglementer l’IA dès maintenant. « Nous devrions mettre des garde-fous à l’IA, comme c’est le cas dans l’UE – c’est la seule chose que nous pouvons faire. AGI arrivera très bientôt. Nous verrons comment nous nous en sortirons, pour le meilleur ou pour le pire.

    Lindsey Laughlin est une écrivaine scientifique et journaliste indépendante qui vit à Portland, dans l’Oregon, avec son mari et ses quatre enfants. Elle a obtenu sa licence à l’UC Davis avec une spécialisation en physique, neurosciences et philosophie.

    Source: https://arstechnica.com/science/2024/07/could-ais-become-conscious-right-now-we-have-no-way-to-tell/

    Edit: Le titre à été changé dans l’article d’origine

  • Espace: Le domaine privé Italien, s'y met aussi

    1
    0 Votes
    1 Messages
    26 Vues

    Une start-up italienne teste une petite fusée. Le constructeur de fusées italien Sidereus Space Dynamics a achevé le premier test du système intégré de sa fusée EOS, rapporte European Spaceflight . Ce test a eu lieu dimanche et a abouti à un tir du moteur principal kérosène/oxygène liquide MR-5 de la fusée pendant environ 11 secondes. La fusée EOS est une conception nouvelle, utilisant une architecture à un seul étage en orbite, le propulseur réutilisable revenant sur Terre depuis l’orbite pour être récupéré sous un parafoil. La fusée mesure moins de 4,2 mètres de haut et sera capable de transporter environ 29 livres (13 kilogrammes) de charge utile en orbite terrestre basse.

    931cc5dd-22bd-4f2f-9f46-aaf9dfee3890-image.png

    Une opération Lean … Après avoir terminé les tests intégrés au sol, la société effectuera les premiers vols d’essai EOS à basse altitude. Fondée en 2019, Sidereus a levé 6,6 millions d’euros (7,1 millions de dollars) pour financer le développement de la fusée EOS. Bien que cela ne représente qu’une fraction du financement que d’autres startups européennes comme Isar Aerospace, MaiaSpace et Orbex ont attiré, le PDG de Sidereus, Mattia Barbarossa, a déjà déclaré que la société avait l’intention de « remodeler les vols spatiaux en une fraction du temps et avec un coût limité ». ressources." (soumis par EllPeaTea et Ken the Bin)

    Source: https://europeanspaceflight.com/sidereus-space-dynamics-complete-integrated-static-fire-test/

  • 0 Votes
    4 Messages
    97 Vues

    @duJambon OK ça marche

  • 1 Votes
    18 Messages
    299 Vues

    @Popaul a dit dans Selon une étude japonaise, le fromage serait bon pour la santé mentale :

    je ne me suis jamais habitué au gout des chèvres…

    Ça dépend de ce que tu fais avec elles… 😉

  • 1 Votes
    2 Messages
    47 Vues

    En même temps surpasser les étudiants de premier cycle, on est pas dans l’exploit non plus, hein!

  • 4 Votes
    1 Messages
    58 Vues

    72ec432e-f916-454e-a5f7-8fd1261cc7df-image.png

    D’un diamètre de 100 mètres, voici Kamo’Oalewa

    25d13698-1011-4aae-9388-e83963c5932c-image.png

    Son orbite est assez particulière

    d68db783-163f-40ee-a07f-54b628084c15-image.png

    Elle proviendrait d’un impact ayant également provoqué le cratère lunaire de Giordano Bruno

    4307af27-ff06-4d63-b692-fd638b56863c-image.png

    La chine à annoncé vouloir explorer Kamo’Oalewa en 2025

    Source et vidéo: https://www.20min.ch/fr/video/espace-la-terre-aurait-une-2eme-lune-et-tout-le-monde-sen-fout-103137500

  • 0 Votes
    1 Messages
    40 Vues

    Au cours de l’essai du moteur, la fusée s’est détachée de la rampe de lancement en raison d’un problème structurel dans la fixation entre la fusée et la rampe, a indiqué la société chinoise Space Pioneer dans un communiqué. La fusée s’est écrasée dans les montagnes près de la ville chinoise de Gongyi, où se déroulait l’essai. Aucun blessé n’est à déplorer.

    Space Pioneer, connue en Chine sous le nom de Tianbing Technology, a déclaré qu’elle allait résoudre le problème et programmer un nouvel essai dès que possible.

    Des images de la fusée décollant involontairement peuvent être vues sur les réseaux sociaux, de même que le crash, avec une grosse boule de feu se formant dans un terrain montagneux.

    Source et vidéo: https://www.7sur7.be/monde/une-fusee-decolle-par-erreur-et-explose-en-plein-vol-en-chine~a0b02fab/

  • 1 Votes
    1 Messages
    34 Vues

    Un fabricant australien de panneaux solaires a développé un concept de centrale solaire modulaire préfabriqué en usine. Sa particularité est de pouvoir être installé dans des zones régulièrement exposées aux ouragans. La société en question vient d’ailleurs de remporter un appel d’offres pour un projet à Porto Rico.

    Un parc solaire de 69 MW

    Basée à Mascot, en Nouvelle-Galles-du-Sud (Australie), la société 5B a récemment évoqué son nouveau concept baptisé Maverick. Il est ici question d’une centrale solaire modulaire qui se déploie comme un accordéon. Dans un communiqué de presse publié le 12 juin 2024, 5B a affirmé avoir remporté un appel d’offres pour une installation à Jobos (Porto Rico), un parc solaire de 69 MW. La centrale en question comportera 1 392 panneaux, répartis en blocs accordéons de 90 panneaux formant des angles de dix degrés et délivrant entre 48 et 50 kW.

    5B assure un rendement énergétique par unité de surface jusqu’à 98 % supérieur à celui des systèmes conventionnels avec trackers solaires. Ainsi, les modules permettront une production d’énergie plus importante, notamment grâce aux inclinaisons opposées des panneaux solaires (est-ouest). En outre, « l’assemblage des modules, le câblage, les connexions et les tests sont effectués dans notre usine plutôt que sur le terrain. Il s’agit d’un changement radical par rapport à la manière dont les technologies solaires conventionnelles sont conçues, assemblées, achetées et construites », explique 5B.

    Un parc solaire de 69 MW

    Basée à Mascot, en Nouvelle-Galles-du-Sud (Australie), la société 5B a récemment évoqué son nouveau concept baptisé Maverick. Il est ici question d’une centrale solaire modulaire qui se déploie comme un accordéon. Dans un communiqué de presse publié le 12 juin 2024, 5B a affirmé avoir remporté un appel d’offres pour une installation à Jobos (Porto Rico), un parc solaire de 69 MW. La centrale en question comportera 1 392 panneaux, répartis en blocs accordéons de 90 panneaux formant des angles de dix degrés et délivrant entre 48 et 50 kW.

    5B assure un rendement énergétique par unité de surface jusqu’à 98 % supérieur à celui des systèmes conventionnels avec trackers solaires. Ainsi, les modules permettront une production d’énergie plus importante, notamment grâce aux inclinaisons opposées des panneaux solaires (est-ouest). En outre, « l’assemblage des modules, le câblage, les connexions et les tests sont effectués dans notre usine plutôt que sur le terrain.Il s’agit d’un changement radical par rapport à la manière dont les technologies solaires conventionnelles sont conçues, assemblées, achetées et construites », explique 5B.

    Modularité et résistance aux vents

    Outre son efficacité, le concept Maverick se distingue par un autre aspect : sa résistance à des vents pouvant atteindre 267 km/h. Le but est ici de permettre à l’installation de survivre aux tempêtes tropicales et surtout aux ouragans. Cela a été possible par la mise au point d’un système de tendeur à vis pour un maintien au sol à toute épreuve.

    Citons également le codé modulaire du système. En effet, les blocs de panneaux de la centrale peuvent être facilement désinstallés simplement en les repliant. Cela signifie que l’installation est tout aussi facile et nécessite l’intervention de seulement trois personnes à un rythme de 1 MW par semaine. Par ailleurs, il n’est pas question de creuser des tranchées de câbles. Ainsi, le système Maverick peut représenter une solution idéale de production d’énergie temporaire, par exemple dans des lieux touchés par une catastrophe.

    Enfin, 5B a indiqué que sa première installation à Porto Rico devrait voir le jour d’ici la fin de l’année 2024. En charge de la gestion de la future station, le responsable de AES Corporation, un fournisseur d’électricité américain, a affirmé qu’il s’agit ici d’une solution pouvant améliorer la fiabilité, maximiser l’utilisation des terres, et tendre vers un réseau énergétique plus résilient et plus vert.

    Source: https://sciencepost.fr/centrale-solaire-en-accordeon-resiste-vents-plus-de-250-km-h/

  • Pilotage automatique et dilemme moral

    6
    1 Votes
    6 Messages
    100 Vues

    @duJambon Tant qu’une IA ne se posera pas de questions spontanément (et c’est pas demain la veille) on ne pourra pas parler d’intelligence artificielle.
    Et puis regarde la consommation énergétique et le temps et le nombre d’exemple pour apprendre à une IA à reconnaitre un chat. Un enfant en bas âge le fait pour une quarantaine de watts à partir du 2è chat vu 😉 !

  • Les vols habités vers Mars, compromis

    1
    3 Votes
    1 Messages
    32 Vues

    Un astronaute qui fait un aller-retour vers Mars peut être récompensé par un insigne honneur unique sous la forme d’une « maladie rénale cosmique », ce qui est bien moins amusant qu’il n’y paraît. Selon de nouvelles recherches, les conditions vécues par les voyageurs interplanétaires peuvent radicalement modifier la structure et la fonction des reins, une exposition prolongée à la microgravité et aux rayonnements spatiaux produisant des dommages irréversibles à cet organe vital.

    “Pour mettre les choses en perspective, un an dans la station spatiale équivaut à la même dose de rayonnement qu’un travailleur d’une centrale nucléaire est autorisé en toute sécurité pendant cinq ans”, a déclaré l’auteur de l’étude, le Dr Keith Siew , à IFLScience. Cependant, même sur l’ISS, les astronautes restent en orbite terrestre basse (LEO) et continuent donc d’être protégés contre le champ magnétique terrestre contre le rayonnement cosmique galactique (GCR).

    Jusqu’à présent, les seuls humains à avoir été pleinement exposés au GCR sont les 24 individus qui se sont rendus sur la Lune dans le cadre des missions Apollo, mais ces voyages aller-retour n’ont jamais duré plus de 12 jours. En revanche, une visite sur Mars nécessitera probablement plusieurs années dans l’espace lointain, ce qui représente beaucoup plus de rayonnement.

    “Lors des missions dans l’espace lointain, personne n’a même envisagé que le rein pourrait être endommagé par les radiations, bien qu’il soit l’un des organes les plus radiosensibles”, explique Siew.

    Dans leur étude, les chercheurs ont analysé la fonction rénale et les biomarqueurs de 66 astronautes et examiné les reins de rongeurs ayant voyagé vers l’ISS. Ils ont également mené un certain nombre d’expériences conçues pour imiter les effets des voyages spatiaux sur de longues distances, en bombardant des souris et des rats avec la dose équivalente de rayonnement qu’un astronaute recevrait lors d’un voyage de plusieurs années sur Mars .

    Les résultats ont révélé un « remodelage » significatif du rein après moins d’un mois dans l’espace, avec un élément clé connu sous le nom de tube contourné distal devenant plus court en raison de la microgravité et des radiations . Cela entraîne à son tour une perte « progressive et irréversible » de la fonction rénale, même si l’impact exact que cela aurait sur une mission vers Mars reste flou.

    « Le rein est un organe qui répond tardivement, donc on ne voit rien d’anormal jusqu’à bien plus tard. Vous pouvez perdre 75 pour cent de votre fonction avant de réellement commencer à voir les symptômes appropriés et à décliner », explique Siew. En conséquence, les astronautes peuvent « se sentir parfaitement normaux » tout au long d’une mission, pour ensuite souffrir d’une insuffisance rénale catastrophique après leur retour sur Terre.

    «C’est comme si vous faisiez de l’hypertension et que votre cœur était endommagé, puis qu’un jour vous aviez une crise cardiaque», explique Siew.

    Aussi terrible que cela puisse paraître pour l’humain dans la combinaison spatiale, si les effets sont retardés suffisamment longtemps, cela ne nuira peut-être pas à la mission elle-même. Les calculs rénaux sont cependant plus préoccupants, car ils sont jusqu’à 14 fois plus fréquents lors des vols spatiaux que sur Terre et peuvent mettre les astronautes hors de combat à des moments critiques.

    Jusqu’à présent, le risque accru de calculs rénaux dans l’espace était largement attribué à la déminéralisation osseuse due à la microgravité. Pourtant, les analyses métaboliques des chercheurs suggèrent que la perte de la fonction rénale pourrait également être en partie responsable. « Vous ne pouvez pas résoudre ce problème en essayant simplement de réparer les os. Vous devez également envisager de réparer le rein », explique Siew.

    Malgré la gravité de ces découvertes, les chercheurs soulignent que leurs modèles pourraient ne pas représenter avec précision les effets des vols spatiaux, car ils ont infligé à leurs rongeurs jusqu’à deux ans et demi de GCR en courtes rafales de seulement 45 minutes. On ne sait pas encore si l’impact de cette exposition aiguë correspond ou non à l’exposition chronique à laquelle sont confrontés les voyageurs interplanétaires.

    « Il est fort possible que nous observions des effets de radiations aiguës auxquels vous ne seriez pas vraiment exposé », explique Siew. « Ce que nous envisageons pourrait donc être en réalité moins nocif que ce qui va réellement se produire. Ou il se pourrait que nous surestimions les dégâts », dit-il, ajoutant qu’une exposition prolongée à des doses plus faibles pourrait équivaloir à « la mort par mille coupures de papier ».

    Commentant ces résultats dans un communiqué , l’auteur principal de l’étude, le professeur Stephen B. Walsh, a déclaré que « si vous planifiez une mission spatiale, les reins comptent vraiment. Vous ne pouvez pas les protéger des radiations galactiques en utilisant un blindage, mais à mesure que nous en apprendrons davantage sur la biologie rénale, il sera peut-être possible de développer des mesures technologiques ou pharmaceutiques pour faciliter les voyages spatiaux prolongés.

    “Tous les médicaments développés pour les astronautes pourraient également être bénéfiques ici sur Terre, par exemple en permettant aux reins des patients atteints de cancer de tolérer des doses plus élevées de radiothérapie, les reins étant l’un des facteurs limitants à cet égard.”

    L’étude a été publiée dans la revue Nature Communications.

    Source: https://www.iflscience.com/new-threat-emerges-for-mars-bound-astronauts-74775

  • Multiplication des débris spatiaux retrouvés sur terre

    2
    3 Votes
    2 Messages
    33 Vues

    Ca promet pour l’ISS… :blase:

  • 4 Votes
    4 Messages
    53 Vues

    @duJambon a dit dans Le téléscope James Web fait un retour sur les piliers de la création. Et ça décoiffe encore plus :

    J’ai l’impression de voir les 3 dragons de Breath of the Wild s’envoler en même temps dans le ciel. :gamer:

  • 0 Votes
    1 Messages
    38 Vues
    Les astronautes de l’ISS qui sétaient réfugiés dans le Boeing Starliner et d’autres vaisseaux spatiaux de retour dans la station après la rupture d’un satellite le 26 juin

    05e5620d-31f5-4a7f-9f83-be5c25ca5d67-image.png
    La capsule spatiale Starliner de Boeing s’est amarrée à la Station spatiale internationale. (Crédit image : ESA)

    Neuf astronautes de la station spatiale se sont brièvement déplacés vers leur vaisseau spatial de retour amarré mercredi soir (26 juin) alors qu’un satellite s’est brisé en orbite terrestre basse.

    L’équipage de l’Expédition 71 à bord de la Station spatiale internationale (ISS) s’est rendu à bord de ses trois vaisseaux spatiaux, dont le Boeing Starliner , peu après 21 heures HAE (0200 GMT), selon une brève mise à jour de la NASA sur X, anciennement connue sous le nom de Twitter. Comme l’ISS suit un fuseau horaire identique à GMT , selon l’ Agence spatiale européenne , les astronautes étaient probablement en période de sommeil lorsque l’incident s’est produit.

    La procédure était une “mesure de précaution”, ont ajouté les responsables de la NASA, précisant que l’équipage n’est resté dans leur vaisseau spatial qu’environ une heure avant d’être “autorisé à quitter leur vaisseau spatial et que la station reprenne ses opérations normales”.

    La NASA n’a pas précisé quel satellite était associé à l’incident, mais la société de surveillance par satellite et de détection de collisions LeoLabs a identifié un “événement générateur de débris” le soir même. “Les premières indications indiquent qu’un vaisseau spatial russe non opérationnel, Resurs-P1 [ou] SATNO 39186, a libéré un certain nombre de fragments”, a écrit la société sur X.

    L’US Space Command a également signalé l’événement Resurs-P1, affirmant sur X que plus de 100 morceaux de débris traçables avaient été générés. L’armée a déclaré qu’elle “n’avait observé aucune menace immédiate et qu’elle continuait à mener des évaluations de routine”. (Une conjonction fait référence à une approche rapprochée de deux objets en orbite l’un par rapport à l’autre.)

    Resurs-P1 a été lancé le 25 juin 2013 et a fonctionné jusqu’en décembre 2021, soit au-delà de sa durée de vie prévue, selon RussianSpaceWeb . Le satellite d’observation de la Terre a été utilisé pour des applications allant de la défense à la surveillance des situations d’urgence en passant par l’agriculture, selon la NASA .

    Source: https://www.space.com/iss-astronauts-shelter-return-spacecraft-satellite-breakup

  • 1 Votes
    6 Messages
    83 Vues

    Kim Jong-un aurait fait une proposition au 1/10 ème du prix, laquelle n’aurait pas été retenue à cause d’arguments purement sectaires. :mouhaha:

  • 2 Votes
    4 Messages
    299 Vues

    J’étais totalement passé à côté, beau travail @duJambon et merci.

  • 2 Votes
    2 Messages
    62 Vues

    CV impressionnant !!

  • 3 Votes
    5 Messages
    104 Vues

    On en parle aussi dans les romans de La Trilogie de Mars de Kim Stanley Robinson…
    https://fr.wikipedia.org/wiki/La_Trilogie_de_Mars

  • 2 Votes
    1 Messages
    26 Vues

    La NASA a annoncé vendredi qu’elle attribuerait des contrats à sept sociétés, dont SpaceX et Blue Origin, pour étudier comment transporter à moindre coût des échantillons de roches de Mars vers la Terre.

    L’agence spatiale a lancé un appel à l’industrie en avril pour proposer des idées sur la façon de restituer les roches de Mars sur Terre pour moins de 11 milliards de dollars et, avant 2040, sur le coût et le calendrier du plan existant de la NASA pour le retour d’échantillons sur Mars (MSR). Un porte-parole de la NASA a déclaré à Ars que l’agence avait reçu 48 réponses à l’appel d’offres et sélectionné sept entreprises pour mener des études plus détaillées.

    Chaque entreprise recevra jusqu’à 1,5 million de dollars pour ses études de 90 jours. Cinq des entreprises choisies par la NASA figurent parmi les grands donneurs d’ordre de l’agence, et leur inclusion dans les contrats d’étude n’est pas une surprise. Deux autres gagnants sont des petites entreprises.

    Le retour d’échantillons sur Mars est la plus haute priorité de la division des sciences planétaires de la NASA. Le rover Perseverance actuellement sur Mars rassemble plusieurs dizaines de spécimens de poudre de roche, de sol et d’air martien dans des tubes en titane en forme de cigare pour un éventuel retour sur Terre.

    “Mars Sample Return sera l’une des missions les plus complexes jamais entreprises par la NASA, et il est essentiel que nous la menions plus rapidement, avec moins de risques et à moindre coût”, a déclaré Bill Nelson, administrateur de la NASA. «Je suis ravi de voir la vision présentée par ces entreprises, centres et partenaires alors que nous recherchons des idées nouvelles, passionnantes et innovantes pour découvrir les grands secrets cosmiques de la planète rouge.»

    Qui est concerné ?

    Lockheed Martin, la seule entreprise à avoir construit un vaisseau spatial capable d’atterrir avec succès sur Mars , réalisera « des études de conception de mission rapide pour Mars Sample Return », selon la NASA. Northrop Grumman a également remporté un contrat pour sa proposition : “Échanges de propulsion MAV (Mars Ascent Vehicle) à TRL élevé (niveau de préparation technologique) et conception de concepts pour la conception de missions rapides MSR”.

    Ces deux sociétés étaient partenaires dans le développement du Mars Ascent Vehicle à combustible solide pour la mission Mars Sample Return existante de la NASA. Le MAV est la fusée qui propulsera la capsule contenant les spécimens de roches de la surface de Mars vers l’espace pour commencer le voyage de retour sur Terre, qui durera des mois. L’implication de Lockheed Martin et de Northrop Grumman dans le programme Mars de la NASA, ainsi que la portée de l’étude suggérée dans la proposition de Northrop, suggèrent qu’ils proposeront d’appliquer les capacités existantes pour résoudre le programme de retour d’échantillons sur Mars.

    Aerojet Rocketdyne, mieux connu en tant que fournisseur de propulsion de fusée, étudiera un véhicule d’ascension de Mars à carburant liquide haute performance en utilisant ce qu’il dit être « des technologies de propulsion hautement fiables et matures, pour améliorer l’abordabilité et le calendrier du programme ».

    SpaceX, une entreprise ayant une vision à long terme pour Mars, a également obtenu un financement de la NASA pour un contrat d’étude. Sa proposition d’étude était intitulée “Activer le retour d’échantillons sur Mars avec Starship”. SpaceX conçoit déjà la fusée Starship à financement privé en pensant aux missions sur Mars, et Elon Musk, le fondateur de la société, a prédit que Starship atterrirait sur Mars d’ici la fin de la décennie.

    Musk a déjà manqué les prévisions de calendrier avec Starship, et un atterrissage sur la planète rouge avant la fin des années 2020 semble toujours improbable. Cependant, la fusée géante pourrait permettre la livraison vers Mars et le retour éventuel de dizaines de tonnes de fret. Un vol d’essai réussi de Starship cette semaine a prouvé que SpaceX progressait vers cet objectif. Il reste néanmoins un long chemin à parcourir.

    Blue Origin, la société spatiale de Jeff Bezos, recevra également un financement pour une étude intitulée « Leveraging Artemis for Mars Sample Return ».

    SpaceX et Blue Origin ont chacun des contrats de plusieurs milliards de dollars avec la NASA pour développer Starship et l’atterrisseur Blue Moon en tant que vaisseau spatial à capacité humaine pour transporter les astronautes vers et depuis la surface lunaire dans le cadre du programme Artemis.

    Deux autres petites entreprises, Quantum Space et Whittinghill Aerospace, réaliseront également des études pour la NASA.

    Quantum, qui se décrit comme une entreprise d’infrastructure spatiale, a été fondée en 2021 par l’entrepreneur Kam Ghaffarian, qui a également fondé Intuitive Machines et Axiom Space . Aucun détail n’est connu sur la portée de son étude, connue sous le nom de « Quantum Anchor Leg Mars Sample Return Study ». Peut-être que la « jambe d’ancrage » fait référence à l’étape finale du retour des échantillons sur Terre, comme l’ancre dans une course de relais.

    Whittinghill Aerospace, basée en Californie, ne compte qu’une poignée d’employés. Il réalisera une étude de conception rapide pour un véhicule d’ascension vers Mars à un seul étage, a indiqué la NASA.

    Boeing ne figurait pas sur la liste des gagnants du contrat, qui a poussé à utiliser le système de lancement spatial très coûteux de la NASA pour effectuer la mission Mars Sample Return avec un seul lancement. Bien entendu, Boeing construit la majeure partie de la fusée SLS. La plupart des autres concepts de retour d’échantillons nécessitent plusieurs lancements.

    Parallèlement aux sept contrats industriels, les centres de la NASA, le Jet Propulsion Laboratory (JPL) et le Laboratoire de physique appliquée (APL) de l’Université Johns Hopkins réaliseront également des études sur la manière de mener à bien la mission Mars Sample Return à un coût plus abordable.

    Le JPL est le principal centre chargé de gérer le concept existant de la NASA pour Mars Sample Return en partenariat avec l’Agence spatiale européenne. Cependant, la croissance des coûts et les retards ont incité les responsables de la NASA à décider en avril d’adopter une approche différente.

    Nicola Fox, chef de la direction scientifique de la NASA, a déclaré en avril qu’elle espérait que des concepts « prêts à l’emploi » permettraient à l’agence de ramener les échantillons sur Terre dans les années 2030 plutôt qu’en 2040 ou plus tard. “C’est sans aucun doute un objectif très ambitieux”, a-t-elle déclaré. “Nous allons devoir rechercher de nouvelles possibilités de conception très innovantes et ne rien négliger.”

    La NASA utilisera les résultats de ces 10 études pour élaborer une nouvelle approche pour le retour d’échantillons sur Mars plus tard cette année. Très probablement, l’architecture finalement choisie par la NASA mélangera divers éléments de l’industrie, des centres de la NASA et de l’Agence spatiale européenne, qui reste un partenaire engagé sur Mars Sample Return avec l’Earth Return Orbiter.

    Source: https://arstechnica.com/space/2024/06/nasa-is-commissioning-10-studies-on-mars-sample-return-most-are-commercial/