Le problème corps-esprit : l'énigme insaisissable de l'humanité

Le problème corps-esprit : l'énigme insaisissable de l'humanité


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Qu'est-ce que l'univers ? D'où vient-il? Existe-t-il encore lorsque nous mourons ? Créons-nous l'univers, ou nous crée-t-il ? Ces questions se rapportent toutes à ce qui est devenu connu sous le nom de problème corps-esprit - un terme décrivant les anciens méandres philosophiques de toute relation qui pourrait exister entre la conscience et la mécanique du corps physique. Afin de comprendre la relation entre les pensées et les actions de l'homme, et comment les ancêtres de l'humanité ont abordé ces questions éculées, on peut consulter les ésotéristes et les magiciens cérémoniels du début du 20e siècle et leurs tentatives pour répondre aux questions.

Relation entre l'esprit et le corps

Un article de 2001 publié par le Département de psychologie, Université de Californie, Santa Barbara, intitulé La psychologie évolutionniste et le cerveau a révélé que bien que le problème corps-esprit ait des origines anciennes, les questions qu'il suscite ont eu une influence dans les sciences modernes de la sociobiologie, de l'informatique, de la psychologie évolutionniste et des neurosciences. Toute théorie scientifique de la conscience doit expliquer comment les différents états du cerveau peuvent générer électrochimiquement une conscience subjective, ce qui est devenu le « problème difficile » de la conscience. Les neurobiologistes, les neuropsychologues, les neuropsychiatres et les neurophilosophes étudient tous les neurosciences et la philosophie de l'esprit à la recherche de signes indiquant que la conscience est générée par nos systèmes biologiques complexes, mais ces approches empiriques supposent que l'esprit et le corps « s'affectent » ; mais le problème corps-esprit soutient que l'esprit et le corps pourraient être de nature fondamentalement différente.

Représentation de la conscience au XVIIe siècle par Robert Fludd, un médecin anglais paracelsien. ( Domaine public )

Historiquement, la raison pour laquelle tant d'écoles de pensée concernant le problème corps-esprit ont existé, était essentiellement due à l'absence d'un point empiriquement mesurable dans l'espace-temps où l'esprit et le corps peuvent être dits s'unir. C'est-à-dire, il n'y a nulle part mesurable ou tangible qu'un observateur puisse dire : ”.

Certains des esprits les plus pointus de l'histoire ont tenté de résoudre ce problème et trois approches générales ont été proposées ; parallélisme moniste, dualiste et psychophysique. Selon l'érudit Jaegwon Kim dans son livre Survenance et esprit , 1993) le monisme propose que toute essence, substance et réalité unifiée soit une seule chose, inséparable, et qu'il y ait trois sous-catégories.


Le problème corps-esprit : l'énigme insaisissable de l'humanité - Histoire

Au-delà du problème corps-esprit :Nouveaux paradigmes dans la science de la conscience

11 septembre 2008, Nations Unies, New York

Un symposium international des Nations Unies mettant en vedette

Au cours de la dernière décennie, un nombre croissant de médecins et de neuroscientifiques ont cherché à découvrir la relation complexe entre l'esprit, le cerveau et la conscience alors qu'ils continuent à rechercher une perspective plus complète sur le "soi" et le fonctionnement de l'esprit humain. Bien qu'il reste beaucoup à faire, leurs découvertes à ce jour ont jeté une lumière plus holistique sur notre compréhension de l'insaisissable problème corps-esprit. Rejoignez notre panel d'experts renommés alors qu'ils expliquent comment les nouveaux paradigmes alimentés par les dernières recherches scientifiques commencent à modifier fondamentalement la façon dont nous percevons et nous rapportons au monde physique.

Le symposium sera également l'occasion du lancement officiel de Le Projet de Conscience Humaine&mdasha collaboration multidisciplinaire de scientifiques et de médecins internationaux qui ont uni leurs forces pour rechercher la nature de la conscience et sa relation avec le cerveau. Dirigé par le Dr Sam Parnia, le Human Consciousness Project mènera les premières études multicentriques à grande échelle au monde dans les principaux centres médicaux américains et européens sur la relation entre l'esprit et le cerveau pendant la mort clinique. Les résultats de ces études peuvent non seulement révolutionner les soins médicaux des patients gravement malades et l'étude scientifique de l'esprit et du cerveau, mais peuvent également avoir de profondes implications universelles pour notre compréhension de la mort et de ce qui se passe lorsque nous mourons.

En tant qu'êtres humains, nous sommes intrinsèquement motivés par la quête de comprendre et d'attribuer un sens à notre existence, à notre environnement et aux événements qui façonnent et influencent nos vies. L'essor de chaque grande civilisation à travers l'histoire et le fil de découverte et de progrès qui les traverse sont peut-être le plus grand témoignage de ce désir inextinguible de sens et de but.

Avant l'âge de raison, le mysticisme et la révélation constituaient la principale source de connaissance et de sagesse dans le monde occidental. Avec l'avènement des Lumières, cependant, un schisme apparaîtrait entre la compréhension des réalités physiques à travers la pensée religieuse et la volonté de comprendre l'univers matériel à travers le raisonnement empirique. Bien que la tension entre ces approches contrastées ait pris de nombreuses formes différentes depuis lors, elle s'est essentiellement poursuivie à ce jour.

L'un des obstacles à la réconciliation de ces positions dichotomiques a été le manque relatif de données scientifiques fiables pour expliquer la nature du « soi » et le phénomène de la conscience. D'où vient, par exemple, l'origine du « soi » ? Notre conscience a-t-elle une réalité objective, ou est-elle purement un épiphénomène de nos processus neurobiologiques ? Et est-il en effet plausible de parler d'un esprit atemporel, non localisé, qui existe indépendamment du corps physique ?


Le dualisme cartésien existe en ce sens que, comme les grands penseurs Platon et Aristote qui l'avaient précédé, il convenait qu'il devrait y avoir une certaine uniformité quant à la façon dont l'univers était régulé. Aristote était un penseur qui s'intéressait davantage aux concepts métaphysiques, tandis que Platon la pensée était davantage basée sur des principes concrets du monde naturel. Alors qu'Aristote décrivait les niveaux de réalité, Platon s'est concentré sur des sujets tels que la façon dont on peut être une personne vertueuse, et donc « bonne » .

Pascal était mathématicien, il s'est donc évidemment concentré donc beaucoup plus sur la réalité physique et les principes concrets et empiriques. Il dit : "Mais dans l'esprit intuitif les principes sont d'usage courant et sont devant les yeux de tout le monde" (Pascal, 1660, p. 1). Quand on est éveillé, que fait-on ? Cette notion que la conscience n'est pas prise en compte, ou la persistance de la mémoire, est importante car on cherche à savoir ce qui sous-tend le noyau de ces deux auteurs. Descartes a très probablement utilisé des moyens plus indirects de philosopher.

Pendant ce temps, Pascal aurait été délibérément direct et ouvert, en mathématicien qui s'est appuyé sur sa connaissance des sciences pour en tirer ses conclusions. Les différences entre Descartes et Pascal sont vastes, principalement parce que Pascal était avant tout un scientifique dans son cœur. . Descartes était cependant dans son essence un penseur et un logicien de la plus haute qualité. Cela ne veut pas dire que Pascal n'aurait pas pu être aussi un penseur profond, mais plutôt, il pensait profondément aux choses d'une manière très mathématiquement logique et formelle.

Descartes était le type de philosophe qui pouvait faire passer de vagues abstractions comme s'il s'agissait de principes concrets. Descartes et Pascal différaient sur la façon dont ils considéraient l'esprit et le corps. Alors que Descartes pensait que l'esprit était séparé du corps, Pascal aurait certainement soutenu que l'esprit faisait partie du corps physique. Par exemple, si l'on était paralysé à partir du cou, Descartes pourrait affirmer que l'esprit serait toujours intact. De même, une personne pourrait être inconsciente mais ses ondes cérébrales pourraient toujours fonctionner.

D'un autre côté, la personne qui argumenterait contre le dualiste&mdash dans ce cas, Pascal&mdash serait capable de faire facilement l'inverse de cet argument. Quelqu'un pourrait être en état de mort cérébrale mais rester physiquement en vie grâce à un respirateur artificiel. Dans ce cas, il semblerait que l'esprit et le corps seraient définitivement connectés. Ainsi, Pascal expliquerait certainement ici pourquoi l'esprit et le corps sont très certainement connectés.


L'esprit et le corps sont donc incompatibles et clairement distincts l'un de l'autre. Descartes croyait que la connexion entre le corps et l'esprit avait lieu au niveau de la glande pinéale située dans le cerveau. Il a proposé que l'esprit reçoive les données via les nerfs de toutes les parties du corps pour produire une conscience sensorielle. L'unité du corps et de l'esprit consiste en une interaction causale entre l'esprit et le corps. Descartes a accepté le fait que : "Chacun sent qu'il est une seule personne avec à la fois le corps et la pensée si liés par nature que la pensée peut déplacer le corps et ressentir les choses qui lui arrivent".

Il croyait que l'esprit avait des qualités qui les distinguaient du corps. L'esprit n'était pas physique et existerait même si le corps n'était pas là. Il a déclaré que la nature de l'esprit était de penser et que la nature du corps était de s'étendre en longueur, en largeur et en profondeur. Il déclare en outre que l'esprit peut imaginer ce qu'il a précédemment perçu. Il ne peut pas imaginer ce que les yeux physiques n'ont pas vu. Il a également fait la distinction entre le pouvoir de comprendre et le pouvoir d'imaginer de l'esprit.

Il a soutenu que lorsque l'esprit le comprend d'une certaine manière, se tourne vers lui-même et inspecte l'une des idées qui sont en lui, mais lorsqu'il imagine, il se tourne vers le corps et regarde quelque chose dans le corps, qui est conforme à une idée comprise par le l'esprit et perçu par les sens. Si le corps existe, c'est ainsi que l'imagination se produit. Descartes a soutenu qu'il n'était pas le corps, qui a une forme déterminable, un emplacement définissable. Grâce à la perception de la cire, il a conclu que lorsque la cire est fondue, elle perd sa forme, son goût, sa couleur, sa forme et sa taille, mais ce qui reste est toujours de la cire.

Le corps est donc, mais le corps n'était pas lui. Il déclare en outre que les corps ne sont pas correctement perçus par les sens ou par la faculté d'imagination, mais par l'intellect seul.


Pendant que nous vous avons.

. nous avons besoin de votre aide. Confronter les nombreux défis du COVID-19&mdash du médical à l'économique, du social au politique&mdash exige toute la clarté morale et délibérative que nous pouvons rassembler. Dans Penser en cas de pandémie, nous avons organisé les derniers arguments de médecins et d'épidémiologistes, de philosophes et d'économistes, de juristes et d'historiens, d'activistes et de citoyens, alors qu'ils pensent non seulement à ce moment mais au-delà. Bien que beaucoup de choses restent incertaines, Revue de Boston&rsquos la responsabilité envers la raison publique est certaine. C'est pourquoi vous ne voyez jamais de paywall ou de publicités. Cela signifie également que nous comptons sur vous, nos lecteurs, pour nous soutenir. Si vous aimez ce que vous lisez ici, engagez votre contribution pour qu'elle reste gratuite pour tous en faisant un don déductible des impôts.


L'énigme des dingos

Les dingos ressemblent à des chiens, mais les évolutionnistes disent qu'ils ne le sont pas. Pat Shipman écrit : « Sans aucun doute, la plupart des gens en dehors de l'Australie voient d'abord un dingo et pensent, comme moi, 'C'est un chien.' »[1] Un dingo ressemble à un chien, agit comme un chien et court comme un chien. Mais ce n'est pas un chien – c'est du moins ce que dit Pat Lee Shipman dans son Scientifique américain l'article de couverture du magazine, « The Elusive Dingo. »[2] De quoi s'agit-il donc et pourquoi est-il l'un des rares mammifères placentaires sur un continent rempli de marsupiaux ?

Lorsque Charles Darwin a visité l'Australie en 1836, il a vu de première main l'ambiguïté de l'origine du dingo. Il écrivit en 1868 ce qui suit, qui exprime sa confusion immédiate quant à l'origine de cet animal :

En Australie, le dingo est à la fois domestiqué et sauvage bien que cet animal ait pu être introduit par l'homme, mais il doit être considéré comme une forme presque endémique, car ses restes ont été trouvés dans un état de conservation similaire et associés à des mammifères éteints.[ 3]

Brady Smith a fait remarquer que le « Dingo est une arrivée relativement récente en Australie, mais une grande partie de son origine et de ses ancêtres restent floues. C'est un sujet qui a suscité beaucoup d'intérêt et a troublé de nombreux scientifiques et historiens de la nature depuis que la créature ressemblant à un chien a été observée pour la première fois sur les côtes australiennes. [4]

Registre fossile des dingos

Néanmoins, les scientifiques ont un bon enregistrement fossile de son séjour dans son pays d'origine, l'Australie. On peut se demander, si l'origine de cette créature ressemblant à un chien a été bien documentée par des fossiles remontant à son origine, pourquoi reste-t-elle aujourd'hui une énigme ? De plus, pourquoi tant d'évolutionnistes pontifient-ils avec confiance sur l'évolution des oiseaux, des baleines, des singes et à peu près toutes les autres créatures ?

La réponse est qu'un manquer de de preuves fossiles permet beaucoup plus de liberté pour inventer des histoires justes sur l'évolution de tel ou tel animal. Pour les dingos, cependant, aucune preuve fossile de leur présence n'existe à l'extérieur de l'Australie, même si un nombre énorme de fossiles de dingos ont été localisés à l'intérieur le continent datant d'aussi loin que 4000 ans B.P. (avant présent).

Anatomiste et anthologue N.W.G. Macintosh a assez bien résumé la « situation après avoir échoué à trouver une réponse définitive [de leur origine] après des décennies d'études. aucune preuve de l'identification, de l'ascendance, de l'affinité, du lieu d'origine ou de l'heure précise d'arrivée de l'animal en Australie. »[6]

Histoire et hypothèses

Les premiers dingos ont été découverts en Australie, et ils ne montrent aucune preuve d'évolution dans les archives fossiles.[7] Pour cette raison, les scientifiques sont limités par les preuves fossiles. La situation limite les hypothèses sur son évolution à partir d'une créature primitive pré-dingo. Une théorie controversée prétend que les dingos descendent d'une meute de chiens amenés en Australie par certains de ses premiers visiteurs.[8] À moins qu'un grand nombre de chiens n'aient été amenés simultanément, un goulot d'étranglement génétique se serait produit. Cela aurait été un problème majeur pour la santé génétique des dingos. Cette théorie n'explique pas non plus les nombreux traits physiques et comportementaux uniques manifestés par les dingos aujourd'hui.

Certains ont noté que la date la plus ancienne de tout reste de chien en Asie du Sud-Est provient du Vietnam et remonte à environ 4 000 ans.[9] Mais émettre l'hypothèse que le dingo a évolué à partir d'un chien très différent d'un dingo soulève plus de questions qu'il n'en résout. D'après ce que nous savons, lorsque les ancêtres des dingos ont débarqué en Australie il y a environ 4 000 ans, les seuls mammifères placentaires sur le continent étaient des humains, des rats qui s'étaient échappés des navires des explorateurs et des chauves-souris qui y avaient vraisemblablement volé. Tous les autres mammifères indigènes australiens étaient des marsupiaux qui élevaient leurs petits dans une poche. Comme les humains, les dingos ont également dû être des envahisseurs, mais d'où ?[10] Aucune preuve pour savoir où et quand existe.

Remarque : ces images ne soulignent pas les nombreuses différences physiques entre les dingos et les chiens. De nombreux hybrides dingo/chien existent, dont ces photos peuvent être un exemple. Les illustrations ne précisent généralement pas s'il s'agit d'hybrides, ce qui est probablement le cas car la plupart des dingos vivant aujourd'hui sont des hybrides. Sans test génétique, cela ne peut pas être déterminé avec confiance.

Les nombreuses différences entre les chiens et les dingos

Les dingos et les chiens diffèrent à la fois par leur physiologie et leur comportement. Shipman les contraste dans son article. Ces différences ne sont pas absolues, notamment dues au métissage avec les chiens, mais certaines différences ressortent.[11] Les différences physiques incluent, contrairement à la plupart des races de chiens, le fait que les dingos ont un crâne large et aplati, un museau long et pointu, des oreilles dressées et une queue très touffue. Le corps du dingo est recouvert d'une fourrure courte, sableuse, jaunâtre ou brun rougeâtre avec des marques blanches. Le calendrier de reproduction annuel des dingos signifie qu'ils se reproduisent moins fréquemment que les chiens domestiques, dont la plupart se reproduisent 2 ou 3 fois par an.

Les dingos ont un odorat et une ouïe exceptionnellement aigus, même pour un canidé. Cela les rend extrêmement aptes à trouver de l'eau et des proies. Contrairement aux chiens, les dingos mangent tout ce qui est consommable, même s'il est à peine comestible, y compris les ordures et les déchets.

Ils sont également, contrairement à la plupart des chiens, très capables de tout escalader, des arbres aux rochers en passant par les clôtures et autres obstacles redoutables. Ils ont plus de flexibilité aux épaules et aux pattes que les chiens ou les loups. Cela les rend très habiles à ouvrir les loquets, les portes et autres dispositifs destinés à les confiner, à la consternation des Australiens. Contrairement à la plupart des chiens, les dingos creusent des tanières, souvent en agrandissant des terriers de lapins abandonnés, dans lesquels mettre bas leurs petits. Et comme les loups, les dingos mâles aident généralement à prendre soin des jeunes.

En ce qui concerne les différences de comportement, les dingos aboient rarement mais hurlent et gémissent fréquemment. Les chiens, en revanche, hurlent rarement, mais aboient souvent. Les chiots Dingo peuvent sembler extraordinairement attrayants en tant qu'animaux de compagnie, mais ils sont exceptionnellement difficiles à dresser et, contrairement aux chiens, ont peu de désir inné de plaire aux humains. Les dingos ne peuvent pas être « laissés seuls ou ils détruisent, par anxiété, les meubles, les portes, les appareils électroménagers, les fenêtres et tout ce qu'ils peuvent atteindre. Changer quoi que ce soit dans la maison, même allumer ou éteindre un ventilateur de plafond, provoque une grande détresse chez les dingos. »[12]

Et pourtant, malgré ces différences, les dingos sont génétiquement compatibles avec les chiens. Ils montrent une grande empressement à se reproduire avec des chiens domestiques, des loups, des coyotes, des chacals et des renards. En outre, certaines combinaisons génétiques de microsatellites « peuvent être utilisées pour estimer le degré d'hybridation dingo et chien de tout individu inconnu, mais il n'y a pas de trait unique qui dit « dingo » ou « chien domestique » sans ambiguïté », explique Shipman.[13]

Pour les évolutionnistes, les dingos sont une énigme. Cette histoire de cas illustre certains des problèmes que les évolutionnistes doivent affronter lorsque les preuves ne semblent pas soutenir la vision du monde darwinienne. La meilleure explication darwinienne (qui est très problématique) est probablement la supposition - sans preuve - que tous les dingos sont les descendants de certains chiens arrivés en Australie il y a 4 000 ans. Les archives fossiles sont cohérentes avec le point de vue de la création selon lequel les dingos ont été créés en tant que dingos et se sont quelque peu diversifiés depuis leur création il y a environ 6 000 ans.

[1] Navire, Pat Lee. 2020. "Le dingo insaisissable." Scientifique américain 108(5) :292-297, septembre-octobre, p. 293.

[2] « L'énigme du dingo : pas apprivoisé, pas sauvage, pas un chien. » Scientifique américain 108(5) : Couverture, septembre-octobre 2020.

[3] Charles Darwin. 1896. La variation des animaux et des plantes sous domestication. New York, NY : D. Appleton.

[4] Smith, Brady, (éd.). 2015. Le débat sur les dingos. Origines, comportement et conservation. Clayton, Australie (à Melbourne, Victoria) : CISRO Publishing.

[6] Macintosh, N.W.G., et al. 1975. L'origine du dingo : Une énigme. Dans: Les canidés sauvages : leur systématique, leur écologie comportementale et leur évolution (Edité par M.W. Fox), pp 87-106. New York, NY : Van Nostrand Reinhold, p. 87.

[7] Balme, Jane et al. 2018. De nouvelles dates sur les os de dingo de la grotte de Madura fournissent la plus ancienne preuve solide de l'arrivée de l'espèce en Australie. Rapports scientifiques 8(1):9933, 19 juillet.

[8] Ballard, J. William O et Laura A.B. Wilson. 2019. Le dingo australien : sauvage ou sauvage ? Frontières en zoologie 16(1):2 Jackson S.M., et al. 2017. Le chien capricieux : le chien ou dingo indigène australien est-il une espèce distincte ? Zootaxons 4317(2) :201-224, septembre.

[11] Purcell, Brad. 2010. Dingo. Collingwood, Victoria (Australie) : CSIRO Publishing (The Commonwealth Sscientifique et jeindustriel Rrecherche Oorganisation).

Le Dr Jerry Bergman a enseigné la biologie, la génétique, la chimie, la biochimie, l'anthropologie, la géologie et la microbiologie pendant plus de 40 ans dans plusieurs collèges et universités, dont la Bowling Green State University, le Medical College of Ohio, où il était associé de recherche en pathologie expérimentale, et L'Université de Tolède. Il est diplômé du Medical College of Ohio, de la Wayne State University de Detroit, de l'Université de Toledo et de la Bowling Green State University. Il a plus de 1 300 publications en 12 langues et 40 livres et monographies. Ses livres et manuels comprenant des chapitres dont il est l'auteur se trouvent dans plus de 1 500 bibliothèques universitaires dans 27 pays. Jusqu'à présent, plus de 80 000 exemplaires des 40 livres et monographies dont il est l'auteur ou le co-auteur sont imprimés. Pour plus d'articles du Dr Bergman, consultez son profil d'auteur.


Contenu

Antécédents familiaux Modifier

Von Neumann est né Neumann János Lajos dans une famille juive riche, acculturée et non pratiquante. En hongrois, le nom de famille vient en premier et ses prénoms sont équivalents à John Louis en anglais.

Von Neumann est né à Budapest, royaume de Hongrie, qui faisait alors partie de l'empire austro-hongrois. [5] [6] [7] Il était l'aîné de trois frères, ses deux frères et sœurs plus jeunes étaient Mihály (anglais : Michael von Neumann 1907-1989) et Miklós (Nicholas von Neumann, 1911-2011). [8] Son père, Neumann Miksa (Max von Neumann, 1873-1928) était un banquier, titulaire d'un doctorat en droit. Il avait déménagé à Budapest depuis Pécs à la fin des années 1880. [9] Le père et le grand-père de Miksa sont tous deux nés à Ond (maintenant partie de la ville de Szerencs), comté de Zemplén, au nord de la Hongrie. La mère de John était Kann Margit (anglais : Margaret Kann) [10] ses parents étaient Jakab Kann et Katalin Meisels de la famille Meisels. [11] Trois générations de la famille Kann vivaient dans des appartements spacieux au-dessus des bureaux Kann-Heller à Budapest. La famille de von Neumann occupait un appartement de 18 pièces au dernier étage. [12]

Le 20 février 1913, l'empereur François-Joseph éleva le père de Jean à la noblesse hongroise pour son service rendu à l'empire austro-hongrois. La famille Neumann acquiert ainsi l'appellation héréditaire Margittaï, signifiant "de Margitta" (aujourd'hui Marghita, Roumanie). La famille n'avait aucun lien avec la ville, l'appellation a été choisie en référence à Marguerite, tout comme leurs armoiries choisies représentant trois marguerites. Neumann János est devenu margittai Neumann János (John Neumann de Margitta), qu'il a ensuite changé en l'allemand Johann von Neumann. [13]

Enfant prodige Modifier

Von Neumann était un enfant prodige. Quand il avait six ans, il pouvait diviser deux nombres à huit chiffres dans sa tête [14] [15] et pouvait converser en grec ancien. Lorsque von Neumann, âgé de six ans, a surpris sa mère en train de regarder sans but, il lui a demandé: "Que calculez-vous?". [16]

Lorsqu'elles étaient jeunes, les gouvernantes enseignaient à von Neumann, à ses frères et à ses cousins. Max croyait que la connaissance des langues en plus du hongrois était essentielle, donc les enfants ont reçu des cours en anglais, français, allemand et italien. [17] À l'âge de huit ans, von Neumann était familier avec le calcul différentiel et intégral, [18] mais il s'intéressait particulièrement à l'histoire. Il a lu son chemin à travers les 46 volumes de Wilhelm Oncken Allgemeine Geschichte in Einzeldarstellungen. [19] Une copie était contenue dans une bibliothèque privée que Max avait achetée. L'une des pièces de l'appartement a été transformée en bibliothèque et en salle de lecture, avec des étagères du plafond au sol. [20]

Von Neumann est entré dans le luthérien Fasori Evangélikus Gimnázium en 1914. [21] Eugene Wigner avait un an d'avance sur von Neumann à l'école luthérienne et est rapidement devenu son ami. [22] C'était l'une des meilleures écoles de Budapest et faisait partie d'un système éducatif brillant conçu pour l'élite. Dans le système hongrois, les enfants recevaient toute leur éducation dans un seul gymnase. Le système scolaire hongrois a produit une génération réputée pour ses réalisations intellectuelles, qui comprenait Theodore von Kármán (né en 1881), George de Hevesy (né en 1885), Michael Polanyi (né en 1891), Leó Szilárd (né en 1898), Dennis Gabor (né en 1900) , Eugene Wigner (né en 1902), Edward Teller (né en 1908) et Paul Erdős (né en 1913). [23] Collectivement, ils étaient parfois connus comme "Les Martiens". [24]

Bien que Max ait insisté pour que von Neumann fréquente l'école au niveau scolaire approprié à son âge, il a accepté d'embaucher des tuteurs privés pour lui donner un enseignement avancé dans les domaines dans lesquels il avait fait preuve d'aptitudes. À l'âge de 15 ans, il a commencé à étudier le calcul avancé sous la direction du célèbre analyste Gábor Szegő. [22] Lors de leur première rencontre, Szegő a été tellement étonné par le talent mathématique du garçon qu'il a été amené aux larmes. [25] Certaines des solutions instantanées de von Neumann aux problèmes posés par Szegő en calcul sont esquissées sur la papeterie de son père et sont toujours exposées aux archives von Neumann à Budapest. [22] À l'âge de 19 ans, von Neumann avait publié deux articles mathématiques majeurs, dont le second donnait la définition moderne des nombres ordinaux, qui remplaçait la définition de Georg Cantor. [26] À la fin de son éducation au gymnase, von Neumann s'est assis pour et a gagné le Prix Eötvös, un prix national pour les mathématiques. [27]

Études universitaires Modifier

Selon son ami Theodore von Kármán, le père de von Neumann voulait que John le suive dans l'industrie et investisse ainsi son temps dans une entreprise plus financièrement utile que les mathématiques. En fait, son père a demandé à von Kármán de persuader son fils de ne pas prendre les mathématiques comme matière principale. [28] Von Neumann et son père ont décidé que le meilleur cheminement de carrière était de devenir ingénieur chimiste. Ce n'était pas quelque chose que von Neumann avait beaucoup de connaissances, il a donc été organisé pour lui de suivre un cours de chimie non diplômant de deux ans à l'Université de Berlin, après quoi il a passé l'examen d'entrée au prestigieux ETH Zurich. , [29] qu'il a passé en septembre 1923. [30] En même temps, von Neumann est également entré à l'Université Pázmány Péter de Budapest, [31] en tant que doctorat. candidat en mathématiques. Pour sa thèse, il a choisi de produire une axiomatisation de la théorie des ensembles de Cantor. [32] [33] Il a obtenu son diplôme d'ingénieur chimiste de l'ETH Zurich en 1926 (bien que Wigner dise que von Neumann n'a jamais été très attaché au sujet de la chimie), [34] et a réussi ses examens finaux pour son doctorat. en mathématiques en même temps que son diplôme en génie chimique, dont Wigner a écrit : « De toute évidence, une thèse de doctorat et un examen ne constituaient pas un effort appréciable. » [34] Il est allé alors à l'université de Göttingen sur une subvention de la Fondation Rockefeller pour étudier les mathématiques sous David Hilbert. [35]

L'habilitation de Von Neumann a été achevée le 13 décembre 1927, et il a commencé ses cours en tant que Privatdozent à l'Université de Berlin en 1928. [36] Il était le plus jeune élu Privatdozent dans l'histoire de l'université dans n'importe quelle matière. [37] À la fin de 1927, von Neumann avait publié 12 articles majeurs en mathématiques et à la fin de 1929, 32, un rythme de près d'un article majeur par mois. [38] Ses pouvoirs de rappel lui ont permis de mémoriser rapidement les pages des annuaires téléphoniques et d'y réciter les noms, adresses et numéros. [19] En 1929, il devient brièvement Privatdozent à l'Université de Hambourg, où les perspectives de devenir professeur titulaire étaient meilleures, [39] mais en octobre de cette année-là, une meilleure offre s'est présentée lorsqu'il a été invité à l'Université de Princeton. [40]

Le jour du Nouvel An en 1930, von Neumann épousa Marietta Kövesi, qui avait étudié l'économie à l'Université de Budapest. [40] Von Neumann et Marietta ont eu un enfant, une fille, Marina, née en 1935. Depuis 2021, Marina est un professeur distingué émérite d'administration des affaires et de politique publique à l'Université du Michigan. [41] Le couple a divorcé en 1937. En octobre 1938, von Neumann a épousé Klara Dan, qu'il avait rencontrée lors de ses derniers voyages à Budapest avant le déclenchement de la Seconde Guerre mondiale. [42]

Avant d'épouser Marietta, von Neumann a été baptisé catholique en 1930. [43] Le père de Von Neumann, Max, était décédé en 1929. Aucun membre de la famille ne s'était converti au christianisme du vivant de Max, mais tous l'ont fait par la suite. [44]

En 1933, il s'est vu offrir une chaire à vie à l'Institute for Advanced Study du New Jersey lorsque le projet de cette institution de nommer Hermann Weyl a échoué. [45] Il y est resté professeur de mathématiques jusqu'à sa mort, bien qu'il ait annoncé son intention de démissionner et de devenir professeur général à l'Université de Californie à Los Angeles. [46] Sa mère, ses frères et ses beaux-parents ont suivi von Neumann aux États-Unis en 1939. [47] Von Neumann a anglicisé son prénom en John, en gardant le nom de famille germano-aristocratique von Neumann. Ses frères ont changé les leurs en "Neumann" et "Vonneumann". [13] Von Neumann est devenu un citoyen naturalisé des États-Unis en 1937 et a essayé immédiatement de devenir un lieutenant dans le Corps de Réserve d'Officiers de l'armée américaine. Il a réussi les examens facilement mais a été rejeté en raison de son âge. [48] ​​Son analyse d'avant-guerre sur la façon dont la France tiendrait tête à l'Allemagne est souvent citée : "Oh, la France n'aura pas d'importance." [49]

Klara et John von Neumann étaient socialement actifs au sein de la communauté universitaire locale. [50] Sa maison en planches de bois blanches au 26 Westcott Road était l'une des plus grandes résidences privées de Princeton. [51] Il portait toujours des costumes formels. Il portait une fois une rayure en trois pièces en descendant le Grand Canyon à califourchon sur une mule. [52] Hilbert aurait demandé : « Je vous en prie, qui est le tailleur du candidat ? à l'examen de doctorat de von Neumann en 1926, car il n'avait jamais vu d'aussi beaux vêtements de soirée. [53]

Von Neumann a eu une passion de longue date pour l'histoire ancienne et était réputé pour ses connaissances historiques. Un professeur d'histoire byzantine à Princeton a dit un jour que von Neumann avait une plus grande expertise que lui en histoire byzantine. [54]

Von Neumann aimait manger et boire, sa femme, Klara, disait qu'il pouvait tout compter, sauf les calories. Il aimait le yiddish et l'humour « hors-couleur » (en particulier les limericks). [18] Il était non-fumeur. [55] À Princeton, il a reçu des plaintes pour avoir joué régulièrement de la musique de marche allemande extrêmement forte sur son phonographe, ce qui a distrait ceux des bureaux voisins, y compris Albert Einstein, de leur travail. [56] Von Neumann a fait certains de ses meilleurs travaux dans des environnements bruyants et chaotiques, et a une fois réprimandé sa femme pour avoir préparé une étude tranquille pour qu'il puisse y travailler. Il ne l'a jamais utilisé, préférant le salon du couple avec sa télévision jouant fort. [57] En dépit d'être un mauvais conducteur notoire, il aimait conduire, souvent en lisant un livre, provoquant de nombreuses arrestations ainsi que des accidents. Lorsque Cuthbert Hurd l'a embauché en tant que consultant pour IBM, Hurd a souvent payé discrètement les amendes pour ses contraventions. [58]

L'ami le plus proche de Von Neumann aux États-Unis était le mathématicien Stanislaw Ulam. Plus tard, un ami d'Ulam, Gian-Carlo Rota, a écrit : « Ils passaient des heures à bavarder et à rire, à échanger des blagues juives et à entrer et sortir du discours mathématique. Lorsque von Neumann était mourant à l'hôpital, à chaque visite d'Ulam, il se préparait avec une nouvelle collection de blagues pour lui remonter le moral. [59] Von Neumann croyait qu'une grande partie de sa pensée mathématique se produisait intuitivement, il s'endormait souvent avec un problème non résolu et connaissait la réponse au réveil. [57] Ulam a noté que la façon de penser de von Neumann pourrait ne pas être visuelle, mais plus auditive. [60]

Théorie des ensembles Modifier

L'axiomatisation des mathématiques, sur le modèle d'Euclide Éléments, avait atteint de nouveaux niveaux de rigueur et d'ampleur à la fin du XIXe siècle, notamment en arithmétique, grâce au schéma d'axiome de Richard Dedekind et Charles Sanders Peirce, et en géométrie, grâce aux axiomes de Hilbert. [61] Mais au début du 20ème siècle, les efforts pour fonder les mathématiques sur la théorie naïve des ensembles ont subi un revers en raison du paradoxe de Russell (sur l'ensemble de tous les ensembles qui ne s'appartiennent pas). [62] Le problème d'une axiomatisation adéquate de la théorie des ensembles a été résolu implicitement une vingtaine d'années plus tard par Ernst Zermelo et Abraham Fraenkel. La théorie des ensembles de Zermelo-Fraenkel a fourni une série de principes qui ont permis la construction des ensembles utilisés dans la pratique quotidienne des mathématiques, mais n'ont pas explicitement exclu la possibilité de l'existence d'un ensemble qui lui appartient. Dans sa thèse de doctorat de 1925, von Neumann a démontré deux techniques pour exclure de tels ensembles : le axiome de fondation et la notion de classer. [61]

L'axiome de fondation proposait que chaque ensemble puisse être construit de bas en haut dans une succession ordonnée d'étapes au moyen des principes de Zermelo et Fraenkel. Si un ensemble appartient à un autre, alors le premier doit nécessairement précéder le second dans la succession. Ceci exclut la possibilité d'un ensemble appartenant à lui-même. Pour démontrer que l'ajout de ce nouvel axiome aux autres n'a pas produit de contradictions, von Neumann a introduit une méthode de démonstration appelée la méthode des modèles internes, qui est devenu un instrument essentiel dans la théorie des ensembles. [61]

La seconde approche du problème des ensembles s'appartenant à eux-mêmes prend pour base la notion de classe, et définit un ensemble comme une classe qui appartient à d'autres classes, tandis qu'un classe appropriée est défini comme une classe qui n'appartient pas à d'autres classes. Dans l'approche de Zermelo-Fraenkel, les axiomes empêchent la construction d'un ensemble de tous les ensembles qui ne s'appartiennent pas. En revanche, selon l'approche de von Neumann, la classe de tous les ensembles qui ne s'appartiennent pas peut être construite, mais c'est un classe appropriée, pas un ensemble. [61]

Avec cette contribution de von Neumann, le système axiomatique de la théorie des ensembles a évité les contradictions des systèmes antérieurs et est devenu utilisable comme fondement des mathématiques, malgré l'absence d'une preuve de sa cohérence. La question suivante était de savoir s'il fournissait des réponses définitives à toutes les questions mathématiques qui pouvaient y être posées, ou s'il pouvait être amélioré en ajoutant des axiomes plus forts qui pourraient être utilisés pour prouver une classe plus large de théorèmes. Une réponse fortement négative à la question de savoir s'il était définitif arriva en septembre 1930 lors de la deuxième conférence historique sur l'épistémologie des sciences exactes de Königsberg, dans laquelle Kurt Gödel annonça son premier théorème d'incomplétude : les systèmes axiomatiques habituels sont incomplets, en ce sens que ils ne peuvent prouver toutes les vérités exprimables dans leur langue. De plus, toute extension cohérente de ces systèmes reste nécessairement incomplète. [63]

Moins d'un mois plus tard, von Neumann, qui avait participé à la Conférence, communiqua à Gödel une conséquence intéressante de son théorème : que les systèmes axiomatiques usuels sont incapables de démontrer leur propre cohérence. [63] Gödel avait déjà découvert cette conséquence, maintenant connue comme son deuxième théorème d'incomplétude et a envoyé à von Neumann une préimpression de son article contenant les deux théorèmes. [64] Von Neumann a reconnu la priorité de Gödel dans sa lettre suivante. [65] Il n'a jamais beaucoup pensé au "système américain de revendication de priorité personnelle pour tout". [66]

Paradoxe de Von Neumann Modifier

S'appuyant sur les travaux de Felix Hausdorff, Stefan Banach et Alfred Tarski ont prouvé en 1924 qu'étant donné une boule solide dans l'espace tridimensionnel, il existe une décomposition de la boule en un nombre fini de sous-ensembles disjoints qui peuvent être réassemblés de manière différente. pour céder deux copies identiques de la balle d'origine. Banach et Tarski ont prouvé qu'en utilisant des transformations isométriques, le résultat du démontage et du remontage d'une figure à deux dimensions aurait nécessairement la même aire que l'original. Cela rendrait impossible la création de deux carrés unitaires à partir d'un seul. Mais dans un article de 1929, [67] von Neumann a prouvé que les décompositions paradoxales pouvaient utiliser un groupe de transformations qui inclut comme sous-groupe un groupe libre avec deux générateurs. Le groupe des transformations préservant l'aire contient de tels sous-groupes, ce qui ouvre la possibilité d'effectuer des décompositions paradoxales en utilisant ces sous-groupes. La classe de groupes isolée par von Neumann dans ses travaux sur les décompositions de Banach-Tarski était très importante dans de nombreux domaines des mathématiques, y compris les travaux ultérieurs de von Neumann sur la théorie de la mesure (voir ci-dessous).

Théorie ergodique Modifier

Dans une série d'articles publiés en 1932, von Neumann a apporté des contributions fondamentales à la théorie ergodique, une branche des mathématiques qui implique les états de systèmes dynamiques avec une mesure invariante. [68] Des articles de 1932 sur la théorie ergodique, Paul Halmos a écrit que même "si von Neumann n'avait jamais rien fait d'autre, ils auraient été suffisants pour lui garantir l'immortalité mathématique". [69] À ce moment-là, von Neumann avait déjà écrit ses articles sur la théorie des opérateurs, et l'application de ce travail a contribué au théorème ergodique moyen de von Neumann. [69]

Théorie des opérateurs Modifier

Von Neumann a introduit l'étude des anneaux d'opérateurs, à travers les algèbres de von Neumann. Une algèbre de von Neumann est une *-algèbre d'opérateurs bornés sur un espace de Hilbert fermé dans la topologie des opérateurs faibles et contenant l'opérateur identité. [70] Le théorème bicommutant de von Neumann montre que la définition analytique est équivalente à une définition purement algébrique comme étant égale au bicommutant. [71] Von Neumann se lance en 1936, avec la collaboration partielle de F.J. Murray, dans l'étude générale de la classification des facteurs des algèbres de von Neumann. Les six articles majeurs dans lesquels il a développé cette théorie entre 1936 et 1940 « comptent parmi les chefs-d'œuvre de l'analyse au XXe siècle ».[3] L'intégrale directe a été introduite plus tard en 1949 par John von Neumann. [72]

Théorie de la mesure Modifier

En théorie de la mesure, le "problème de la mesure" pour un espace euclidien à n dimensions R m peut être énoncé comme : « existe-t-il une fonction ensembliste positive, normalisée, invariante et additive sur la classe de tous les sous-ensembles de R m ?" [69] Les travaux de Felix Hausdorff et Stefan Banach avaient laissé entendre que le problème de la mesure a une solution positive si m = 1 ou m = 2 et une solution négative (à cause du paradoxe de Banach-Tarski) dans tous les autres cas. Le travail de Von Neumann a soutenu que le « problème est essentiellement de caractère de théorie des groupes » : [69] l'existence d'une mesure pourrait être déterminée en examinant les propriétés du groupe de transformation de l'espace donné. La solution positive pour les espaces de dimension au plus deux, et la solution négative pour les dimensions supérieures, vient du fait que le groupe euclidien est un groupe résoluble pour la dimension au plus deux, et n'est pas résoluble pour les dimensions supérieures. "Ainsi, selon von Neumann, c'est le changement de groupe qui fait la différence, pas le changement d'espace." [69]

Dans un certain nombre d'articles de von Neumann, les méthodes d'argumentation qu'il a employées sont considérées comme encore plus significatives que les résultats. En prévision de son étude ultérieure de la théorie des dimensions dans les algèbres d'opérateurs, von Neumann a utilisé des résultats sur l'équivalence par décomposition finie et a reformulé le problème de la mesure en termes de fonctions. [73] Dans son article de 1936 sur la théorie de la mesure analytique, il a utilisé le théorème de Haar dans la solution du cinquième problème de Hilbert dans le cas des groupes compacts. [69] [74] En 1938, il reçoit le Prix Mémorial Bôcher pour ses travaux d'analyse. [75]

Géométrie Modifier

Von Neumann a fondé le domaine de la géométrie continue. [76] Il a suivi son travail de pionnier sur les anneaux d'opérateurs. En mathématiques, la géométrie continue est un substitut de la géométrie projective complexe, où au lieu de la dimension d'un sous-espace étant dans un ensemble discret 0, 1, . m, il peut s'agir d'un élément de l'intervalle unitaire [0,1]. Auparavant, Menger et Birkhoff avaient axiomatisé la géométrie projective complexe en fonction des propriétés de son réseau de sous-espaces linéaires. Von Neumann, à la suite de ses travaux sur les anneaux d'opérateurs, a affaibli ces axiomes pour décrire une classe plus large de réseaux, les géométries continues. Alors que les dimensions des sous-espaces des géométries projectives sont un ensemble discret (les entiers non négatifs), les dimensions des éléments d'une géométrie continue peuvent s'étendre de façon continue sur l'intervalle unitaire [0,1]. Von Neumann a été motivé par sa découverte des algèbres de von Neumann avec une fonction dimensionnelle prenant une gamme continue de dimensions, et le premier exemple d'une géométrie continue autre que l'espace projectif était les projections du facteur hyperfini de type II. [77] [78]

Théorie des réseaux Modifier

Entre 1937 et 1939, von Neumann a travaillé sur la théorie des réseaux, la théorie des ensembles partiellement ordonnés dans laquelle tous les deux éléments ont une plus grande borne inférieure et une moindre borne supérieure. Garrett Birkhoff écrit : « L'esprit brillant de John von Neumann a flambé sur la théorie des réseaux comme un météore ». [79]

Von Neumann a fourni une exploration abstraite de la dimension dans les réseaux topologiques modulaires complétés complétés (propriétés qui surviennent dans les réseaux de sous-espaces d'espaces de produits internes) : « La dimension est déterminée, jusqu'à une transformation linéaire positive, par les deux propriétés suivantes. Elle est conservée par des mappages de perspective ("perspectivités") et ordonné par inclusion. La partie la plus profonde de la preuve concerne l'équivalence de la perspectivité avec la "projectivité par décomposition" - dont un corollaire est la transitivité de la perspectivité." [79]

De plus, "[I]n le cas général, von Neumann a prouvé le théorème de représentation de base suivant. Tout réseau modulaire complété L ayant une "base" de m ≥ 4 éléments de perspective par paires, est isomorphe avec le réseau ℛ(R) de tous les idéaux-droits principaux d'un anneau régulier convenable R . Cette conclusion est le point culminant de 140 pages d'algèbre brillante et incisive impliquant des axiomes entièrement nouveaux. Quiconque souhaite avoir une impression inoubliable de la pointe du rasoir de l'esprit de von Neumann, doit simplement essayer de poursuivre cette chaîne de raisonnement exact pour lui-même - réalisant que souvent cinq pages de celui-ci ont été écrites avant le petit déjeuner, assis à une table à écrire dans le salon. en peignoir." [79]

Formulation mathématique de la mécanique quantique Modifier

Von Neumann a été le premier à établir un cadre mathématique rigoureux pour la mécanique quantique, connu sous le nom d'axiomes de Dirac-von Neumann, dans son travail de 1932 Fondements mathématiques de la mécanique quantique. [73] Après avoir achevé l'axiomatisation de la théorie des ensembles, il a commencé à affronter l'axiomatisation de la mécanique quantique. Il réalisa en 1926 qu'un état d'un système quantique pouvait être représenté par un point dans un espace de Hilbert (complexe) qui, en général, pouvait être de dimension infinie même pour une seule particule. Dans ce formalisme de la mécanique quantique, les grandeurs observables telles que la position ou la quantité de mouvement sont représentées comme des opérateurs linéaires agissant sur l'espace de Hilbert associé au système quantique. [80]

Les la physique de la mécanique quantique était ainsi réduite à la mathématiques des espaces de Hilbert et des opérateurs linéaires agissant sur eux. Par exemple, le principe d'incertitude, selon lequel la détermination de la position d'une particule empêche la détermination de sa quantité de mouvement et vice versa, se traduit par le non-commutativité des deux opérateurs correspondants. Cette nouvelle formulation mathématique incluait comme cas particuliers les formulations de Heisenberg et de Schrödinger. [80] Quand Heisenberg a été informé que von Neumann avait clarifié la différence entre un opérateur illimité qui était un opérateur auto-adjoint et un qui était simplement symétrique, Heisenberg a répondu « Eh ? Quelle est la différence ? » [81]

Le traitement abstrait de Von Neumann lui a également permis de confronter la question fondamentale du déterminisme par rapport au non-déterminisme, et dans le livre, il a présenté une preuve que les résultats statistiques de la mécanique quantique ne pouvaient pas être des moyennes d'un ensemble sous-jacent de "variables cachées" déterminées. comme en mécanique statistique classique. En 1935, Grete Hermann a publié un article faisant valoir que la preuve contenait une erreur conceptuelle et était donc invalide. [82] Le travail d'Hermann a été largement ignoré jusqu'à ce que John S. Bell ait présenté essentiellement le même argument en 1966. [83] En 2010, Jeffrey Bub a soutenu que Bell avait mal interprété la preuve de von Neumann et a souligné que la preuve, bien que non valable pour toutes les théories de variables cachées excluent un sous-ensemble bien défini et important. Bub suggère également que von Neumann était conscient de cette limitation et n'a pas prétendu que sa preuve excluait complètement les théories des variables cachées. [84] La validité de l'argument de Bub est, à son tour, contestée. [85] En tout cas, le théorème de Gleason de 1957 comble les lacunes de l'approche de von Neumann.

La preuve de Von Neumann a inauguré une ligne de recherche qui a finalement conduit, à travers le théorème de Bell et les expériences d'Alain Aspect en 1982, à la démonstration que la physique quantique nécessite soit un notion de réalité sensiblement différent de celui de la physique classique, ou doit inclure la non-localité en violation apparente de la relativité restreinte. [86]

Dans un chapitre de Les fondements mathématiques de la mécanique quantique, von Neumann a analysé en profondeur le soi-disant problème de mesure. Il a conclu que l'univers physique entier pouvait être soumis à la fonction d'onde universelle. Puisqu'il fallait quelque chose "en dehors du calcul" pour effondrer la fonction d'onde, von Neumann a conclu que l'effondrement était causé par la conscience de l'expérimentateur. Il a fait valoir que les mathématiques de la mécanique quantique permettent de placer l'effondrement de la fonction d'onde à n'importe quelle position de la chaîne causale, du dispositif de mesure à la "conscience subjective" de l'observateur humain. Bien que ce point de vue ait été accepté par Eugene Wigner, [87] l'interprétation de Von Neumann-Wigner n'a jamais été acceptée par la majorité des physiciens. [88] L'interprétation de Von Neumann-Wigner a été résumée comme suit : [89]

Les règles de la mécanique quantique sont correctes mais il n'y a qu'un seul système qui peut être traité avec la mécanique quantique, à savoir l'ensemble du monde matériel. Il existe des observateurs externes qui ne peuvent être traités au sein de la mécanique quantique, à savoir humains (et peut-être animaux) les esprits, qui effectuent des mesures sur le cerveau provoquant l'effondrement de la fonction d'onde. [89]

Bien que les théories de la mécanique quantique continuent d'évoluer, il existe un cadre de base pour le formalisme mathématique des problèmes de mécanique quantique sous-jacent à la plupart des approches qui remontent aux formalismes et techniques mathématiques utilisés pour la première fois par von Neumann. En d'autres termes, les discussions sur l'interprétation de la théorie et ses extensions sont désormais principalement menées sur la base d'hypothèses partagées sur les fondements mathématiques. [73]

Entropie de Von Neumann Modifier

L'entropie de Von Neumann est largement utilisée sous différentes formes (entropie conditionnelle, entropie relative, etc.) dans le cadre de la théorie de l'information quantique. [90] Les mesures d'intrication sont basées sur une quantité directement liée à l'entropie de von Neumann. Étant donné un ensemble statistique de systèmes de mécanique quantique de matrice densité ρ , il est donné par S ( ρ ) = − Tr ⁡ ( ρ ln ⁡ ρ ) . ( ho ln ho ).,> Bon nombre des mêmes mesures d'entropie dans la théorie de l'information classique peuvent également être généralisées au cas quantique, comme l'entropie Holevo et l'entropie quantique conditionnelle.

Information mutuelle quantique Modifier

La théorie de l'information quantique s'intéresse en grande partie à l'interprétation et aux utilisations de l'entropie de von Neumann. L'entropie de von Neumann est la pierre angulaire du développement de la théorie de l'information quantique, tandis que l'entropie de Shannon s'applique à la théorie de l'information classique. Ceci est considéré comme une anomalie historique, car l'entropie de Shannon aurait pu être découverte avant l'entropie de Von Neumann, étant donné l'application plus répandue de cette dernière à la théorie de l'information quantique. Mais Von Neumann découvrit d'abord l'entropie de von Neumann et l'appliqua aux questions de physique statistique. Des décennies plus tard, Shannon a développé une formule de théorie de l'information à utiliser dans la théorie de l'information classique et a demandé à von Neumann comment l'appeler. Von Neumann a dit de l'appeler entropie de Shannon, car il s'agissait d'un cas particulier d'entropie de von Neumann. [91]

Matrice de densité Modifier

Le formalisme des opérateurs de densité et des matrices a été introduit par von Neumann [92] en 1927 et indépendamment, mais moins systématiquement par Lev Landau [93] et Felix Bloch [94] en 1927 et 1946 respectivement. La matrice de densité est une autre façon de représenter l'état d'un système quantique, qui pourrait autrement être représenté à l'aide de la fonction d'onde. La matrice densité permet la résolution de certains problèmes dépendant du temps en mécanique quantique.

Schéma de mesure de Von Neumann Modifier

Le schéma de mesure de von Neumann, l'ancêtre de la théorie de la décohérence quantique, représente les mesures de manière projective en prenant en compte l'appareil de mesure qui est également traité comme un objet quantique. Le schéma de «mesure projective» introduit par von Neumann a conduit au développement des théories de la décohérence quantique. [95] [96]

Logique quantique Modifier

Von Neumann a d'abord proposé une logique quantique dans son traité de 1932 Fondements mathématiques de la mécanique quantique, où il a noté que les projections sur un espace de Hilbert peuvent être considérées comme des propositions sur des observables physiques. Le domaine de la logique quantique a ensuite été inauguré, dans un article célèbre de 1936 de von Neumann et Garrett Birkhoff, le premier ouvrage à introduire la logique quantique, [97] dans lequel von Neumann et Birkhoff ont d'abord prouvé que la mécanique quantique nécessite un calcul propositionnel sensiblement différent. de toutes les logiques classiques et a rigoureusement isolé une nouvelle structure algébrique pour la logique quantique. Le concept de création d'un calcul propositionnel pour la logique quantique a été décrit pour la première fois dans une courte section des travaux de von Neumann en 1932, mais en 1936, la nécessité du nouveau calcul propositionnel a été démontrée à travers plusieurs preuves. Par exemple, les photons ne peuvent pas traverser deux filtres successifs polarisés perpendiculairement (par exemple., horizontalement et verticalement), et donc, a fortiori, il ne peut pas passer si un troisième filtre polarisé en diagonale est ajouté aux deux autres, soit avant, soit après eux dans la succession, mais si le troisième filtre est ajouté entre les deux autres, les photons passeront bien. Ce fait expérimental est traduisible en logique comme le non-commutativité de conjonction ( A ∧ B ) ≠ ( B ∧ A ) . Il a également été démontré que les lois de distribution de la logique classique, P ∨ ( Q ∧ R ) = ( P ∨ Q ) ∧ ( P ∨ R ) et P ∧ ( Q ∨ R ) = ( P ∧ Q ) ∨ ( P ∧ R ) , ne sont pas valables pour la théorie quantique. [98]

La raison en est qu'une disjonction quantique, contrairement au cas de la disjonction classique, peut être vraie même lorsque les deux disjonctions sont fausses et ceci est à son tour attribuable au fait qu'il est fréquemment le cas en mécanique quantique qu'une paire de les alternatives sont sémantiquement déterminées, alors que chacun de ses membres est nécessairement indéterminé. Cette dernière propriété peut être illustrée par un exemple simple. Supposons que nous ayons affaire à des particules (comme des électrons) de spin semi-intégral (moment angulaire de spin) pour lesquelles il n'y a que deux valeurs possibles : positive ou négative. Ensuite, un principe d'indétermination établit que le spin, par rapport à deux directions différentes (par exemple, X et oui) résulte en une paire de quantités incompatibles. Supposons que l'État ?? d'un certain électron vérifie la proposition "le spin de l'électron dans le X direction est positive." Par le principe d'indétermination, la valeur du spin dans la direction oui sera totalement indéterminée pour ??. D'où, ?? ne peut vérifier ni la proposition "le spin dans la direction de oui est positif" ni la proposition "le spin dans la direction de oui est négatif." Néanmoins, la disjonction des propositions "le spin dans le sens de oui est positif ou le spin dans le sens de oui est négatif" doit être vrai pour ??. Dans le cas de la distribution, il est donc possible d'avoir une situation dans laquelle A ∧ ( B ∨ C ) = A ∧ 1 = A , tandis que ( A ∧ B ) ∨ ( A ∧ C ) = 0 ∨ 0 = 0 . [98]

Comme l'écrit Hilary Putnam, von Neumann a remplacé la logique classique par une logique construite en treillis orthomodulaires (isomorphe au treillis des sous-espaces de l'espace de Hilbert d'un système physique donné). [99]

Théorie des jeux Modifier

Von Neumann a fondé le domaine de la théorie des jeux en tant que discipline mathématique. [100] Il a prouvé son théorème du minimax en 1928. Il établit que dans les jeux à somme nulle avec une information parfaite (c'est-à-dire dans lesquels les joueurs connaissent à chaque fois tous les mouvements qui ont eu lieu jusqu'à présent), il existe une paire de stratégies pour les deux joueurs qui permet à chacun de minimiser ses pertes maximales. En examinant toutes les stratégies possibles, un joueur doit considérer toutes les réponses possibles de son adversaire. Le joueur joue alors la stratégie qui se traduira par la minimisation de sa perte maximale. [101]

De telles stratégies, qui minimisent la perte maximale pour chaque joueur, sont appelées optimales. Von Neumann a montré que leurs minimax sont égaux (en valeur absolue) et contraires (en signe). Il a amélioré et étendu le théorème minimax pour inclure des jeux impliquant des informations imparfaites et des jeux avec plus de deux joueurs, publiant ce résultat dans son 1944 Théorie des jeux et comportement économique, écrit avec Oskar Morgenstern. Morgenstern a écrit un article sur la théorie des jeux et a pensé qu'il le montrerait à von Neumann en raison de son intérêt pour le sujet. Il le lut et dit à Morgenstern qu'il devrait y mettre plus. Cela a été répété plusieurs fois, puis von Neumann est devenu co-auteur et l'article a fait 100 pages. Puis c'est devenu un livre. L'intérêt du public pour ce travail était tel que Le New York Times a publié une histoire en première page. [102] Dans ce livre, von Neumann a déclaré que la théorie économique avait besoin d'utiliser l'analyse fonctionnelle, en particulier les ensembles convexes et le théorème topologique du point fixe, plutôt que le calcul différentiel traditionnel, car l'opérateur maximum ne préservait pas les fonctions différentiables. [100]

Indépendamment, les travaux d'analyse fonctionnelle de Leonid Kantorovich sur l'économie mathématique ont également attiré l'attention sur la théorie de l'optimisation, la non différentiabilité et les réseaux vectoriels. Les techniques d'analyse fonctionnelle de Von Neumann - l'utilisation d'appariements de dualité d'espaces vectoriels réels pour représenter les prix et les quantités, l'utilisation d'hyperplans de support et de séparation et d'ensembles convexes, et la théorie du point fixe - ont été les principaux outils de l'économie mathématique depuis lors. [103]

Économie mathématique Modifier

Von Neumann a élevé le niveau intellectuel et mathématique de l'économie dans plusieurs publications influentes. Pour son modèle d'une économie en expansion, il a prouvé l'existence et l'unicité d'un équilibre en utilisant sa généralisation du théorème du point fixe de Brouwer. [100] Le modèle de Von Neumann d'une économie en expansion a considéré le crayon matriciel UNEB avec des matrices non négatives UNE et B von Neumann a cherché des vecteurs de probabilité p et q et un nombre positif ?? qui résoudrait l'équation de complémentarité

ainsi que deux systèmes d'inégalité exprimant l'efficacité économique. Dans ce modèle, le vecteur de probabilité (transposé) p représente les prix des marchandises tandis que le vecteur de probabilité q représente "l'intensité" à laquelle le processus de production se déroulerait. La solution unique ?? représente le facteur de croissance qui est 1 plus le taux de croissance de l'économie le taux de croissance est égal au taux d'intérêt. [104] [105]

Les résultats de Von Neumann ont été considérés comme un cas particulier de programmation linéaire, où son modèle n'utilise que des matrices non négatives. L'étude de son modèle d'une économie en expansion continue d'intéresser les économistes mathématiciens qui s'intéressent à l'économie computationnelle. [106] [107] [108] Cet article a été qualifié de plus grand article en économie mathématique par plusieurs auteurs, qui ont reconnu son introduction de théorèmes de point fixe, d'inégalités linéaires, de relâchement complémentaire et de dualité en point de selle.Dans les actes d'une conférence sur le modèle de croissance de von Neumann, Paul Samuelson a déclaré que de nombreux mathématiciens avaient développé des méthodes utiles aux économistes, mais que von Neumann était unique en ce qu'il avait apporté des contributions significatives à la théorie économique elle-même. [109]

Le célèbre article de 9 pages de Von Neumann a commencé comme une conférence à Princeton, puis est devenu un article en allemand qui a finalement été traduit en anglais. Son intérêt pour l'économie qui a conduit à cet article a commencé alors qu'il donnait des conférences à Berlin en 1928 et 1929. Il a passé ses étés chez lui à Budapest, tout comme l'économiste Nicholas Kaldor, et ils ont sympathisé. Kaldor a recommandé à von Neumann de lire un livre de l'économiste mathématicien Léon Walras. Von Neumann a trouvé quelques défauts dans le livre et les a corrigés, par exemple en remplaçant les équations par des inégalités. Il a remarqué que la théorie de l'équilibre général de Walras et la loi de Walras, qui conduisaient à des systèmes d'équations linéaires simultanées, pouvaient produire le résultat absurde que le profit pouvait être maximisé en produisant et en vendant une quantité négative d'un produit. Il a remplacé les équations par des inégalités, introduit des équilibres dynamiques, entre autres, et a finalement produit l'article. [110]

Programmation linéaire Modifier

S'appuyant sur ses résultats sur les jeux matriciels et sur son modèle d'économie en expansion, von Neumann inventa la théorie de la dualité en programmation linéaire lorsque George Dantzig décrivit ses travaux en quelques minutes, et qu'un von Neumann impatient lui demanda d'aller à l'essentiel. Dantzig a ensuite écouté abasourdi tandis que von Neumann a donné une conférence d'une heure sur les ensembles convexes, la théorie du point fixe et la dualité, conjecturant l'équivalence entre les jeux matriciels et la programmation linéaire. [111]

Plus tard, von Neumann a suggéré une nouvelle méthode de programmation linéaire, utilisant le système linéaire homogène de Paul Gordan (1873), qui a ensuite été popularisé par l'algorithme de Karmarkar. La méthode de Von Neumann utilisait un algorithme de pivotement entre simplexes, la décision de pivotement étant déterminée par un sous-problème des moindres carrés non négatif avec une contrainte de convexité (projection du vecteur zéro sur l'enveloppe convexe du simplexe actif). L'algorithme de Von Neumann a été la première méthode de point intérieur de programmation linéaire. [111]

Statistiques mathématiques Modifier

Von Neumann a apporté des contributions fondamentales à la statistique mathématique. En 1941, il a dérivé la distribution exacte du rapport du carré moyen des différences successives à la variance de l'échantillon pour les variables indépendantes et identiques normalement distribuées. [112] Ce rapport a été appliqué aux résidus des modèles de régression et est communément appelé statistique de Durbin-Watson [113] pour tester l'hypothèse nulle selon laquelle les erreurs sont indépendantes en série par rapport à l'alternative qu'elles suivent une autorégression stationnaire de premier ordre. [113]

Par la suite, Denis Sargan et Alok Bhargava ont étendu les résultats pour tester si les erreurs sur un modèle de régression suivent une marche aléatoire gaussienne (c'est à dire., possèdent une racine unitaire) contre l'alternative qu'ils sont une autorégression stationnaire du premier ordre. [114]

Dynamique des fluides Modifier

Von Neumann a apporté des contributions fondamentales dans le domaine de la dynamique des fluides.

Les contributions de Von Neumann à la dynamique des fluides comprenaient sa découverte de la solution d'écoulement classique aux ondes de choc [115] et la co-découverte (indépendamment de Yakov Borisovich Zel'dovich et Werner Döring) du modèle de détonation ZND des explosifs. [116] Au cours des années 1930, von Neumann est devenu une autorité sur les mathématiques des charges creuses. [117]

Plus tard avec Robert D. Richtmyer, von Neumann a développé un algorithme définissant viscosité artificielle qui a amélioré la compréhension des ondes de choc. Lorsque les ordinateurs ont résolu des problèmes hydrodynamiques ou aérodynamiques, ils ont essayé de placer trop de points de grille de calcul dans des régions de discontinuité marquée (ondes de choc). Les mathématiques de viscosité artificielle lissé la transition de choc sans sacrifier la physique de base. [118]

Von Neumann a rapidement appliqué la modélisation informatique sur le terrain, développant un logiciel pour ses recherches balistiques. Pendant la Seconde Guerre mondiale, il est arrivé un jour au bureau de R.H. Kent, le directeur du laboratoire de recherche balistique de l'armée américaine, avec un programme informatique qu'il avait créé pour calculer un modèle unidimensionnel de 100 molécules pour simuler une onde de choc. Von Neumann a ensuite donné un séminaire sur son programme informatique à un public qui comprenait son ami Theodore von Kármán. Après que von Neumann eut terminé, von Kármán a déclaré "Eh bien, Johnny, c'est très intéressant. Bien sûr, vous réalisez que Lagrange a également utilisé des modèles numériques pour simuler la mécanique du continu." Il était évident d'après le visage de von Neumann qu'il n'était pas au courant de la Mécanique analytique de Lagrange. [119]

Maîtrise des mathématiques Modifier

Stan Ulam, qui connaissait bien von Neumann, décrivait ainsi sa maîtrise des mathématiques : « La plupart des mathématiciens connaissent une méthode. Par exemple, Norbert Wiener maîtrisait les transformées de Fourier. Certains mathématiciens maîtrisent deux méthodes et pourraient vraiment impressionner quelqu'un qui ne connaît qu'une eux. John von Neumann maîtrisait trois méthodes. Il a poursuivi en expliquant que les trois méthodes étaient :

  1. Une facilité avec la manipulation symbolique des opérateurs linéaires
  2. Un sentiment intuitif pour la structure logique de toute nouvelle théorie mathématique
  3. Un sentiment intuitif pour la superstructure combinatoire de nouvelles théories. [120]

Edward Teller a écrit que "Personne ne connaît toute la science, pas même von Neumann. Mais en ce qui concerne les mathématiques, il a contribué à chaque partie, à l'exception de la théorie des nombres et de la topologie. C'est, je pense, quelque chose d'unique." [121]

On a demandé à Von Neumann d'écrire un essai pour le profane décrivant ce que sont les mathématiques, et a produit une belle analyse. Il a expliqué que les mathématiques chevauchent le monde entre l'empirique et le logique, arguant que la géométrie était à l'origine empirique, mais Euclide a construit une théorie logique et déductive. Cependant, a-t-il soutenu, il y a toujours le danger de s'éloigner trop du monde réel et de devenir un sophisme hors de propos. [122] [123] [124]

Projet Manhattan Modifier

À partir de la fin des années 1930, von Neumann a développé une expertise dans les explosions, des phénomènes difficiles à modéliser mathématiquement. Au cours de cette période, von Neumann était la principale autorité des mathématiques des charges creuses. Cela l'a conduit à un grand nombre de consultants militaires, principalement pour la Marine, qui à son tour ont conduit à son implication dans le projet Manhattan. L'implication comprenait de fréquents voyages en train vers les installations de recherche secrètes du projet au laboratoire de Los Alamos dans une partie reculée du Nouveau-Mexique. [31]

Von Neumann a apporté sa principale contribution à la bombe atomique dans le concept et la conception des lentilles explosives nécessaires pour comprimer le noyau de plutonium de l'arme Fat Man qui a ensuite été larguée sur Nagasaki. Bien que von Neumann n'ait pas été à l'origine du concept d'« implosion », il était l'un de ses partisans les plus persistants, encourageant son développement continu contre les instincts de nombre de ses collègues, qui pensaient qu'un tel dessein était impraticable. Il a également finalement eu l'idée d'utiliser des charges creuses plus puissantes et des matériaux moins fissiles pour augmenter considérablement la vitesse de « l'assemblage ». [125]

Lorsqu'il s'est avéré qu'il n'y aurait pas assez d'uranium-235 pour fabriquer plus d'une bombe, le projet de lentille implosive a été considérablement élargi et l'idée de von Neumann a été mise en œuvre. L'implosion était la seule méthode pouvant être utilisée avec le plutonium 239 disponible sur le site de Hanford. [126] Il a établi la conception des lentilles explosives requises, mais des inquiétudes subsistaient quant aux « effets de bord » et aux imperfections des explosifs. [127] Ses calculs ont montré que l'implosion fonctionnerait si elle ne s'écartait pas de plus de 5 % de la symétrie sphérique. [128] Après une série de tentatives infructueuses avec des modèles, cela a été réalisé par George Kistiakowsky, et la construction de la bombe Trinity a été achevée en juillet 1945. [129]

Lors d'une visite à Los Alamos en septembre 1944, von Neumann montra que l'augmentation de la pression due à la réflexion de l'onde de choc d'explosion par des objets solides était plus importante qu'on ne le croyait auparavant si l'angle d'incidence de l'onde de choc était compris entre 90° et un angle limite. En conséquence, il a été déterminé que l'efficacité d'une bombe atomique serait améliorée avec une détonation à quelques kilomètres au-dessus de la cible, plutôt qu'au niveau du sol. [130] [131]

Von Neumann, quatre autres scientifiques et divers militaires ont été inclus dans le comité de sélection des cibles chargé de choisir les villes japonaises d'Hiroshima et de Nagasaki comme premières cibles de la bombe atomique. Von Neumann a supervisé les calculs liés à la taille attendue des explosions de bombes, au nombre de morts estimé et à la distance au-dessus du sol à laquelle les bombes devraient exploser pour une propagation optimale des ondes de choc et donc un effet maximal. La capitale culturelle Kyoto, qui avait été épargnée par les bombardements infligés aux villes militairement importantes, était le premier choix de von Neumann, [132] une sélection appuyée par le chef du projet Manhattan, le général Leslie Groves. Cependant, cet objectif a été rejeté par le secrétaire à la Guerre Henry L. Stimson. [133]

Le 16 juillet 1945, von Neumann et de nombreux autres membres du personnel du projet Manhattan ont été les témoins oculaires du premier test d'explosion d'une bombe atomique, qui portait le nom de code Trinity. L'événement a été mené comme un test du dispositif de la méthode d'implosion, sur le champ de tir près de l'aérodrome militaire d'Alamogordo, à 56 km au sud-est de Socorro, au Nouveau-Mexique. Sur la base de sa seule observation, von Neumann a estimé que le test avait entraîné une explosion équivalente à 5 kilotonnes de TNT (21 TJ) mais Enrico Fermi a produit une estimation plus précise de 10 kilotonnes en laissant tomber des morceaux de papier déchiré au fur et à mesure que l'onde de choc passait. son emplacement et en regardant à quelle distance ils se sont dispersés. La puissance réelle de l'explosion était comprise entre 20 et 22 kilotonnes. [134] C'est dans les papiers de von Neumann de 1944 que l'expression « kilotonnes » apparaît pour la première fois. [135] Après la guerre, Robert Oppenheimer a remarqué que les physiciens impliqués dans le projet Manhattan avaient "connu le péché". La réponse de Von Neumann était que « parfois quelqu'un confesse un péché pour s'en attribuer le mérite ». [136]

Von Neumann a continué imperturbablement dans son travail et est devenu, avec Edward Teller, l'un de ceux qui ont soutenu le projet de bombe à hydrogène. Il a collaboré avec Klaus Fuchs sur le développement ultérieur de la bombe, et en 1946, les deux ont déposé un brevet secret sur "l'amélioration des méthodes et des moyens d'utilisation de l'énergie nucléaire", qui décrit un schéma d'utilisation d'une bombe à fission pour comprimer le combustible de fusion pour lancer le nucléaire la fusion. [137] Le brevet Fuchs-von Neumann utilisait l'implosion par rayonnement, mais pas de la même manière que celle utilisée dans ce qui est devenu la conception finale de la bombe à hydrogène, la conception Teller-Ulam. Leur travail a cependant été incorporé dans le plan "George" de l'opération Greenhouse, qui a été instructif pour tester les concepts qui sont entrés dans la conception finale. [138] Le travail de Fuchs-von Neumann a été transmis à l'Union soviétique par Fuchs dans le cadre de son espionnage nucléaire, mais il n'a pas été utilisé dans le développement indépendant des Soviétiques de la conception Teller-Ulam. L'historien Jeremy Bernstein a souligné qu'ironiquement, "John von Neumann et Klaus Fuchs, ont produit une invention brillante en 1946 qui aurait pu changer tout le cours du développement de la bombe à hydrogène, mais n'a été pleinement comprise qu'après que la bombe ait été fait avec succès." [138]

Pour ses services en temps de guerre, von Neumann a reçu le Navy Distinguished Civilian Service Award en juillet 1946 et la Médaille du mérite en octobre 1946. [139]

Commissariat à l'énergie atomique Modifier

En 1950, von Neumann est devenu consultant auprès du groupe d'évaluation des systèmes d'armes (WSEG), [140] dont la fonction était de conseiller les chefs d'état-major interarmées et le secrétaire à la Défense des États-Unis sur le développement et l'utilisation de nouvelles technologies. [141] Il est également devenu un conseiller du projet d'armes spéciales des forces armées (AFSWP), qui était responsable des aspects militaires sur les armes nucléaires. Au cours des deux années suivantes, il est devenu consultant auprès de la Central Intelligence Agency (CIA), membre de l'influent comité consultatif général de la Commission de l'énergie atomique, consultant auprès du nouveau laboratoire national Lawrence Livermore et membre du comité scientifique Groupe consultatif de l'armée de l'air des États-Unis. [140]

En 1955, von Neumann devient commissaire de l'AEC. Il a accepté ce poste et l'a utilisé pour poursuivre la production de bombes à hydrogène compactes adaptées à la livraison de missiles balistiques intercontinentaux (ICBM). Il s'est impliqué dans la correction de la grave pénurie de tritium et de lithium 6 nécessaire à ces armes compactes, et il s'est opposé à se contenter des missiles à portée intermédiaire que l'armée voulait. Il était catégorique sur le fait que les bombes H lancées au cœur du territoire ennemi par un ICBM seraient l'arme la plus efficace possible, et que l'imprécision relative du missile ne serait pas un problème avec une bombe H. Il a déclaré que les Russes construiraient probablement un système d'armes similaire, ce qui s'est avéré être le cas. [142] [143] Malgré son désaccord avec Oppenheimer sur la nécessité d'un programme accéléré pour développer la bombe à hydrogène, il a témoigné au nom de ce dernier lors de l'audience de sécurité d'Oppenheimer en 1954, au cours de laquelle il a affirmé qu'Oppenheimer était loyal et l'a félicité pour sa serviabilité une fois le programme lancé. [18]

Peu de temps avant sa mort d'un cancer, von Neumann a dirigé le comité ICBM top secret du gouvernement des États-Unis, qui se réunissait parfois chez lui. Son objectif était de décider de la faisabilité de la construction d'un ICBM suffisamment grand pour transporter une arme thermonucléaire. Von Neumann a longtemps soutenu que si les obstacles techniques étaient de taille, ils pourraient être surmontés à temps. Le SM-65 Atlas a passé son premier test entièrement fonctionnel en 1959, deux ans après sa mort. La faisabilité d'un ICBM devait autant aux ogives améliorées et plus petites qu'aux développements des fusées, et sa compréhension des premières rendait ses conseils inestimables. [144]

Destruction mutuelle assurée Modifier

Von Neumann est crédité du développement de la stratégie d'équilibre de la destruction mutuelle assurée (MAD). Il a également « remué ciel et terre » pour provoquer MAD. Son objectif était de développer rapidement des ICBM et les bombes à hydrogène compactes qu'ils pourraient livrer à l'URSS, et il savait que les Soviétiques faisaient un travail similaire parce que la CIA a interrogé des scientifiques allemands sur les fusées qui ont été autorisés à retourner en Allemagne, et von Neumann avait planté un douzaine de techniciens de la CIA. Les Soviétiques considéraient que les bombardiers seraient bientôt vulnérables, et ils partageaient l'opinion de von Neumann selon laquelle une bombe H dans un ICBM était le nec plus ultra des armes qu'ils croyaient que quiconque aurait la supériorité dans ces armes prendrait le contrôle du monde, sans nécessairement les utiliser. . [145] Il avait peur d'un « écart de missiles » et a pris plusieurs mesures supplémentaires pour atteindre son objectif de suivre les Soviétiques :

  • Il a modifié l'ENIAC en le rendant programmable, puis a écrit des programmes pour qu'il effectue les calculs de la bombe H vérifiant que la conception Teller-Ulam était réalisable et pour la développer davantage.
  • Par l'intermédiaire de la Commission de l'énergie atomique, il a promu le développement d'une bombe H compacte qui tiendrait dans un ICBM.
  • Il intervint personnellement pour accélérer la production de lithium-6 et de tritium nécessaires aux bombes compactes.
  • Il a fait démarrer plusieurs projets de missiles distincts, car il estimait que la concurrence combinée à la collaboration obtenait les meilleurs résultats. [146]

L'évaluation de Von Neumann selon laquelle les Soviétiques avaient une avance dans la technologie des missiles, considérée comme pessimiste à l'époque, s'est rapidement avérée correcte dans la crise Spoutnik. [147]

Von Neumann est entré au service du gouvernement principalement parce qu'il estimait que si la liberté et la civilisation devaient survivre, ce serait parce que les États-Unis triompheraient du totalitarisme du nazisme, du fascisme et du communisme soviétique. [52] Au cours d'une audience du comité sénatorial, il a décrit son idéologie politique comme "violemment anticommuniste et beaucoup plus militariste que la norme". Il a été cité en 1950 remarquant : « Si vous dites pourquoi ne pas bombarder [les Soviétiques] demain, je dis, pourquoi pas aujourd'hui ? Si vous dites aujourd'hui à cinq heures, je dis pourquoi pas une heure ? [148]

Le 15 février 1956, von Neumann a reçu la Médaille de la liberté des mains du président Dwight D. Eisenhower. Sa citation disait :

Le Dr von Neumann, dans une série de projets d'études scientifiques d'importance nationale majeure, a considérablement accru les progrès scientifiques de ce pays dans le domaine de l'armement. Grâce à son travail sur diverses missions hautement classifiées effectuées en dehors des limites continentales des États-Unis en conjonction avec des programmes internationaux d'une importance critique, le Dr von Neumann a résolu certains des problèmes techniques les plus difficiles de la défense nationale. [149]

Von Neumann était une figure fondatrice de l'informatique. [150] Von Neumann était l'inventeur, en 1945, de l'algorithme de tri par fusion, dans lequel les première et deuxième moitiés d'un tableau sont chacune triées de manière récursive puis fusionnées. [151] [152] Von Neumann a écrit le programme de tri de 23 pages pour l'EDVAC à l'encre. Sur la première page, on peut encore voir des traces de la phrase "TOP SECRET", qui a été écrite au crayon puis effacée. [152] Il a également travaillé sur la philosophie de l'intelligence artificielle avec Alan Turing lors de la visite de ce dernier à Princeton dans les années 1930. [153]

Le travail de Von Neumann sur la bombe à hydrogène s'est déroulé dans le domaine de l'informatique, où lui et Stanisław Ulam ont développé des simulations sur les ordinateurs numériques de von Neumann pour les calculs hydrodynamiques. Pendant ce temps, il a contribué au développement de la méthode de Monte Carlo, qui a permis d'approcher des solutions à des problèmes complexes à l'aide de nombres aléatoires. [154]

L'algorithme de Von Neumann pour simuler une pièce équitable avec une pièce biaisée est utilisé dans l'étape de "blanchiment logiciel" de certains générateurs de nombres aléatoires matériels. [155] Parce que l'utilisation de listes de nombres "vraiment" aléatoires était extrêmement lente, von Neumann a développé une forme de fabrication de nombres pseudo-aléatoires, en utilisant la méthode du carré moyen. Bien que cette méthode ait été critiquée comme étant grossière, von Neumann en était conscient : il l'a justifiée comme étant plus rapide que toute autre méthode à sa disposition, écrivant que "Quiconque considère les méthodes arithmétiques de production de chiffres aléatoires est, bien sûr, dans un état du péché." [156] Von Neumann a également noté que lorsque cette méthode a mal tourné, elle l'a fait de toute évidence, contrairement à d'autres méthodes qui pourraient être subtilement incorrectes. [156]

Alors qu'il était consultant pour la Moore School of Electrical Engineering de l'Université de Pennsylvanie sur le projet EDVAC, von Neumann a rédigé un article incomplet Première ébauche d'un rapport sur l'EDVAC. L'article, dont la diffusion prématurée a annulé les revendications de brevet des concepteurs d'EDVAC J. Presper Eckert et John Mauchly, décrit une architecture informatique dans laquelle les données et le programme sont tous deux stockés dans la mémoire de l'ordinateur dans le même espace d'adressage. Cette architecture est à la base de la plupart des conceptions informatiques modernes, contrairement aux premiers ordinateurs qui étaient "programmés" à l'aide d'un périphérique de mémoire séparé tel qu'une bande de papier ou un tableau de bord. Bien que l'architecture de programme stocké à mémoire unique soit communément appelée architecture de von Neumann à la suite de l'article de von Neumann, l'architecture était basée sur les travaux d'Eckert et Mauchly, les inventeurs de l'ordinateur ENIAC à l'Université de Pennsylvanie. [157]

John von Neumann a consulté pour le laboratoire de recherche balistique de l'armée, notamment sur le projet ENIAC, [158] en tant que membre de son comité consultatif scientifique. [159] L'électronique du nouvel ENIAC fonctionnait à un sixième de la vitesse, mais cela n'a en aucun cas détérioré les performances de l'ENIAC, car il était encore entièrement lié aux E/S. Des programmes compliqués pourraient être développés et débogués en quelques jours plutôt qu'en quelques semaines pour intégrer l'ancien ENIAC. Certains des premiers programmes informatiques de von Neumann ont été conservés. [160]

L'ordinateur suivant conçu par von Neumann était la machine IAS de l'Institute for Advanced Study de Princeton, New Jersey. Il a organisé son financement, et les composants ont été conçus et construits au laboratoire de recherche RCA à proximité. John von Neumann a recommandé que l'IBM 701, surnommé l'ordinateur de la défense, inclure un tambour magnétique. C'était une version plus rapide de la machine IAS et a constitué la base du succès commercial IBM 704. [161] [162]

L'informatique stochastique a été introduite pour la première fois dans un article pionnier de von Neumann en 1953. [163] Cependant, la théorie n'a pas pu être mise en œuvre avant les progrès de l'informatique des années 1960. [164] [165]

Automates cellulaires, ADN et constructeur universel Modifier

L'analyse mathématique rigoureuse de Von Neumann de la structure de l'auto-réplication (de la relation sémiotique entre le constructeur, la description et ce qui est construit), a précédé la découverte de la structure de l'ADN. [167]

Von Neumann a créé le domaine des automates cellulaires sans l'aide d'ordinateurs, en construisant les premiers automates auto-répliquants avec un crayon et du papier millimétré.

La proposition détaillée d'un système d'auto-réplication physique non biologique a été présentée pour la première fois dans les conférences que von Neumann a prononcées en 1948 et 1949, lorsqu'il n'a proposé pour la première fois qu'un automate cinématique d'auto-reproduction. [168] [169] Bien que qualitativement solide, von Neumann était manifestement insatisfait de ce modèle d'auto-réplicateur en raison de la difficulté de l'analyser avec une rigueur mathématique. Il a ensuite développé un modèle d'auto-réplicateur plus abstrait basé sur son concept original d'automates cellulaires. [170]

Par la suite, le concept du constructeur universel de Von Neumann basé sur l'automate cellulaire de von Neumann a été étoffé dans ses conférences publiées à titre posthume. Théorie des automates auto-reproductibles. [171] Ulam et von Neumann ont créé une méthode de calcul du mouvement des liquides dans les années 1950. Le concept directeur de la méthode était de considérer un liquide comme un groupe d'unités discrètes et de calculer le mouvement de chacune en fonction du comportement de ses voisins. [172] Comme le réseau en treillis d'Ulam, les automates cellulaires de von Neumann sont bidimensionnels, avec son auto-réplicateur implémenté de manière algorithmique. Le résultat était un copieur et constructeur universel travaillant dans un automate cellulaire avec un petit voisinage (seules les cellules qui se touchent sont voisines des automates cellulaires de von Neumann, uniquement des cellules orthogonales), et avec 29 états par cellule. Von Neumann a donné une preuve de l'existence qu'un modèle particulier ferait des copies infinies de lui-même dans l'univers cellulaire donné en concevant une configuration de 200 000 cellules qui pourrait le faire.

Von Neumann a abordé la croissance évolutive de la complexité parmi ses machines auto-répliquantes. [173] Ses conceptions de « preuve de principe » ont montré comment il est logiquement possible, en utilisant un constructeur général programmable (« universel »), de présenter une classe indéfiniment grande d'auto-réplicateurs, couvrant un large éventail de complexité, interconnectés par un réseau de voies mutationnelles potentielles, y compris des voies des plus simples aux plus complexes. Il s'agit d'un résultat important, car avant cela, on aurait pu supposer qu'il existe une barrière logique fondamentale à l'existence de telles voies, auquel cas les organismes biologiques, qui soutiennent de telles voies, ne pourraient pas être des "machines", comme conventionnellement entendu. Von Neumann considère le potentiel de conflit entre ses machines auto-reproductrices, déclarant que "nos modèles conduisent à de telles situations de conflit", [174] l'indiquant comme un domaine d'étude plus approfondie. [171] : 147

Le mouvement cybernétique a mis en évidence la question de savoir ce qu'il faut pour que l'auto-reproduction se produise de manière autonome, et en 1952, John von Neumann a conçu un automate cellulaire 2D élaboré qui ferait automatiquement une copie de sa configuration initiale de cellules. Le voisinage de von Neumann, dans lequel chaque cellule d'une grille à deux dimensions a les quatre cellules de grille orthogonalement adjacentes comme voisines, continue d'être utilisé pour d'autres automates cellulaires. Von Neumann a prouvé que le moyen le plus efficace d'effectuer des opérations minières à grande échelle, telles que l'exploitation d'une lune entière ou d'une ceinture d'astéroïdes, serait d'utiliser des engins spatiaux auto-répliquants, tirant parti de leur croissance exponentielle. [175]

Von Neumann a étudié la question de savoir si la modélisation de l'évolution sur un ordinateur numérique pouvait résoudre le problème de complexité de la programmation. [174]

À partir de 1949, la conception de von Neumann d'un programme informatique auto-reproductible est considérée comme le premier virus informatique au monde, et il est considéré comme le père théorique de la virologie informatique. [176]

Systèmes météorologiques et réchauffement climatique Modifier

Dans le cadre de ses recherches sur les prévisions météorologiques, von Neumann a fondé le "programme météorologique" à Princeton en 1946, obtenant le financement de son projet de la marine américaine. [177] Von Neumann et son assistant nommé sur ce projet, Jule Gregory Charney, ont écrit le premier logiciel de modélisation climatique au monde, et l'ont utilisé pour effectuer les premières prévisions météorologiques numériques au monde sur l'ordinateur ENIAC [177] von Neumann et son équipe ont publié le résultats comme Intégration numérique de l'équation du tourbillon barotrope en 1950. [178] Ensemble, ils ont joué un rôle de premier plan dans les efforts visant à intégrer les échanges d'énergie et d'humidité entre la mer et l'air dans l'étude du climat. [179] Von Neumann a proposé comme programme de recherche pour la modélisation du climat : « L'approche consiste d'abord à essayer des prévisions à court terme, puis des prévisions à long terme de ces propriétés de la circulation qui peuvent se perpétuer sur des périodes de temps arbitrairement longues, et seulement enfin d'essayer de prévoir pour des périodes de temps moyen-long qui sont trop longues pour être traitées par la théorie hydrodynamique simple et trop courtes pour être traitées par le principe général de la théorie de l'équilibre." [180]

Les recherches de Von Neumann sur les systèmes météorologiques et les prévisions météorologiques l'ont amené à proposer de manipuler l'environnement en répandant des colorants sur les calottes glaciaires polaires pour améliorer l'absorption du rayonnement solaire (en réduisant l'albédo), [181] [182] induisant ainsi le réchauffement climatique. " Le dioxyde de carbone libéré dans l'atmosphère par la combustion du charbon et du pétrole par l'industrie - dont plus de la moitié au cours de la dernière génération - peut avoir suffisamment modifié la composition de l'atmosphère pour expliquer un réchauffement général de la planète d'environ un degré Fahrenheit." [183] ​​[184] Cependant, von Neumann a exhorté un certain degré de prudence dans tout programme de fabrication intentionnelle de météo humaine : « Qu'est-ce que pourrait être fait, bien sûr, n'est pas un indice de ce que devrait être terminé. En fait, évaluer les conséquences ultimes d'un refroidissement général ou d'un échauffement général serait une question complexe. Les changements affecteraient le niveau des mers, et donc l'habitabilité des plateaux côtiers continentaux, l'évaporation des mers, et donc les niveaux généraux de précipitation et de glaciation, etc. Mais il ne fait aucun doute qu'un pourrait effectuer les analyses nécessaires nécessaires pour prédire les résultats, intervenir à n'importe quelle échelle souhaitée, et finalement obtenir des résultats plutôt fantastiques." [184]

Hypothèse de singularité technologique Modifier

La première utilisation du concept de singularité dans le contexte technologique est attribuée à von Neumann, [185] qui, selon Ulam, a discuté des « progrès toujours plus rapides de la technologie et des changements dans le mode de vie humain, ce qui donne l'impression d'approcher certains singularité essentielle dans l'histoire de la race au-delà de laquelle les affaires humaines, telles que nous les connaissons, ne pourraient continuer." [186] Ce concept a été étoffé plus tard dans le livre Futur choc par Alvin Toffler.

Le lauréat du prix Nobel Hans Bethe a dit « Je me suis parfois demandé si un cerveau comme celui de von Neumann n'indiquait pas une espèce supérieure à celle de l'homme », [19] et plus tard Bethe a écrit que « [le cerveau de von Neumann] indiquait une nouvelle espèce, une évolution au-delà homme". [187] Voyant l'esprit de von Neumann à l'œuvre, Eugene Wigner a écrit, « on avait l'impression d'un instrument parfait dont les engrenages étaient usinés pour s'engrèner avec précision au millième de pouce. [188] Paul Halmos déclare que "la vitesse de von Neumann était impressionnante." [18] Israel Halperin a dit : " Rester avec lui était… impossible. Le sentiment était que vous étiez sur un tricycle à courir après une voiture de course. " [189] Edward Teller a admis qu'il "n'a jamais pu le suivre". [190] Teller a également déclaré que « von Neumann avait une conversation avec mon fils de 3 ans, et les deux parlaient d'égal à égal, et je me demandais parfois s'il utilisait le même principe lorsqu'il parlait au reste de nous." [191] Peter Lax a écrit "Von Neumann était accro à la pensée et en particulier à la réflexion sur les mathématiques". [192]

Lorsque George Dantzig a apporté à von Neumann un problème non résolu de programmation linéaire "comme je le ferais à un mortel ordinaire", sur lequel il n'y avait eu aucune littérature publiée, il a été étonné quand von Neumann a dit "Oh, ça!", avant de donner une conférence avec désinvolture de plus d'une heure, expliquant comment résoudre le problème en utilisant la théorie de la dualité jusqu'alors inconcevable. [193]

Lothar Wolfgang Nordheim a décrit von Neumann comme "l'esprit le plus rapide que j'aie jamais rencontré", [194] et Jacob Bronowski a écrit "C'était l'homme le plus intelligent que j'aie jamais connu, sans exception. C'était un génie." [195] George Pólya, dont les cours à l'ETH Zürich von Neumann ont assisté en tant qu'étudiant, a déclaré que « Johnny était le seul étudiant dont j'avais peur. viens me voir à la fin du cours avec la solution complète griffonnée sur un bout de papier." [196] Eugene Wigner écrit : « « Jancsi », pourrais-je dire, « le moment angulaire est-il toujours un entier de h ? ' Il reviendrait un jour plus tard avec une réponse décisive : 'Oui, si toutes les particules sont au repos.'. Nous étions tous en admiration devant Jancsi von Neumann. » [197] Enrico Fermi a dit au physicien Herbert L. Anderson : « Tu sais, Herb, Johnny peut faire des calculs dans sa tête dix fois plus vite que moi ! Et je peux les faire dix fois plus vite que toi, Herb, pour que tu puisses voir à quel point Johnny est impressionnant !" [198]

Halmos raconte une histoire racontée par Nicholas Metropolis, concernant la vitesse des calculs de von Neumann, lorsque quelqu'un a demandé à von Neumann de résoudre le célèbre puzzle de la mouche : [199]

Deux cyclistes commencent à 20 miles l'un de l'autre et se dirigent l'un vers l'autre, chacun roulant à une vitesse constante de 10 mph. En même temps, une mouche qui se déplace à une vitesse constante de 15 mph démarre de la roue avant du vélo en direction sud et vole vers la roue avant du vélo en direction nord, puis se retourne et vole à nouveau vers la roue avant du vélo en direction sud, et continue de cette manière jusqu'à ce qu'il soit écrasé entre les deux roues avant. Question : quelle distance totale la mouche a-t-elle parcourue ? La façon la plus lente de trouver la réponse est de calculer la distance parcourue par la mouche sur la première étape, en direction sud, du voyage, puis sur la deuxième, en direction nord, étape, puis sur la troisième, etc., etc., et, enfin, additionner la série infinie ainsi obtenue.

Le moyen le plus rapide est d'observer que les vélos se rejoignent exactement une heure après leur départ, alors que la mouche n'avait qu'une heure pour ses déplacements la réponse doit donc être de 15 milles.

Lorsque la question a été posée à von Neumann, il l'a résolue en un instant, et a ainsi déçu le questionneur : « Oh, vous devez avoir entendu le truc avant ! » « Quelle astuce ? demanda von Neumann, "Tout ce que j'ai fait, c'est additionner la série géométrique." [18]

Eugene Wigner a raconté une histoire similaire, mais avec une hirondelle au lieu d'une mouche, et dit que c'est Max Born qui a posé la question à von Neumann dans les années 1920. [200]

Von Neumann était également connu pour sa mémoire eidétique (parfois appelée mémoire photographique). Herman Goldstine a écrit :

L'une de ses capacités remarquables était son pouvoir de rappel absolu. Pour autant que je sache, von Neumann a pu une fois lire un livre ou un article pour le citer textuellement de plus, il pouvait le faire des années plus tard sans hésitation. Il pouvait également le traduire sans diminution de vitesse de sa langue d'origine vers l'anglais. À une occasion, j'ai testé sa capacité en lui demandant de me dire comment Un conte de deux villes commencé. Après quoi, sans aucune pause, il a immédiatement commencé à réciter le premier chapitre et a continué jusqu'à ce qu'on lui demande d'arrêter après environ dix ou quinze minutes. [201]

Von Neumann aurait pu mémoriser les pages des annuaires téléphoniques. Il a diverti ses amis en leur demandant d'appeler au hasard des numéros de page, puis il a récité les noms, adresses et numéros qui s'y trouvaient. [19] [202]

"Il semble juste de dire que si l'influence d'un scientifique est interprétée de manière suffisamment large pour inclure l'impact sur des domaines au-delà de la science proprement dite, alors John von Neumann était probablement le mathématicien le plus influent qui ait jamais vécu", a écrit Miklós Rédei dans John von Neumann : Lettres choisies. [203] James Glimm a écrit : « il est considéré comme l'un des géants des mathématiques modernes ». [204] Le mathématicien Jean Dieudonné a dit que von Neumann « a peut-être été le dernier représentant d'un groupe autrefois florissant et nombreux, les grands mathématiciens qui étaient également à l'aise dans les mathématiques pures et appliquées et qui tout au long de leur carrière ont maintenu une production régulière en les deux directions", [3] tandis que Peter Lax l'a décrit comme possédant "l'intellect le plus brillant de ce siècle". [205] Dans la préface de Miklós Rédei Lettres sélectionnées, Peter Lax a écrit, "Pour avoir une mesure des réalisations de von Neumann, considérez que s'il avait vécu une période normale d'années, il aurait certainement reçu un prix Nobel d'économie. Et s'il y avait eu des prix Nobel d'informatique et mathématiques, il aurait également été honoré par celles-ci. Ainsi, l'auteur de ces lettres devrait être considéré comme un triple lauréat du prix Nobel ou, peut-être, un lauréat 3 + 1 ⁄ 2 fois, pour ses travaux en physique, en particulier, mécanique quantique". [206]


6. Construire un cerveau

Les mots provocateurs &lsquobuilding a brain&rsquo annonçaient dès le départ la relation entre l'ingénierie informatique technique de Turing et une philosophie de l'esprit. Même en 1936, Turing avait donné une interprétation de la calculabilité en termes d'« états d'esprit ». Son travail de guerre avait montré la puissance étonnante du calculable dans la mécanisation des procédures et des jugements humains experts. A partir de 1941, Turing avait également discuté avec ses collègues de Bletchley Park de la mécanisation du jeu d'échecs et d'autres activités « lsquointtelligentes » (Hodges 1983, p. 213). Mais plus profondément, il semble que Turing ait émergé en 1945 avec la conviction que les opérations calculables étaient suffisantes pour embrasser tous fonctions mentales exécutées par le cerveau. Comme il apparaîtra clairement dans la discussion qui a suivi, l'« intuition » incalculable de 1938 a disparu de la pensée de Turing et a été remplacée par de nouvelles idées toutes relevant du domaine du calculable. Ce changement apparaît même dans le prospectus technique de (Turing 1946), où Turing faisait référence à la possibilité de faire calculer les mouvements d'échecs par une machine, puis continuait :

La référence déroutante aux « erreurs » est rendue claire par une conférence que Turing a donnée un an plus tard (Turing 1947), dans laquelle la question des erreurs est liée à la question de l'importance de voir la vérité des déclarations formellement indémontrables.

Le point de vue de Turing d'après-guerre était que les mathématiciens font des erreurs et ne voient donc pas la vérité de manière infaillible. Une fois la possibilité d'erreurs admise, le théorème de Goumldel perd toute pertinence. Les mathématiciens et les ordinateurs appliquent des processus calculables au problème de juger de l'exactitude des affirmations. Cet argument est encore bien vivant. Par exemple, Davis (2000) approuve le point de vue de Turing et attaque Penrose (1989, 1990, 1994, 1996) qui s'oppose à l'importance de l'erreur humaine sur la base d'une explication platonicienne des mathématiques.

Turing a également poursuivi de manière plus constructive la question de savoir comment les ordinateurs pourraient être amenés à effectuer des opérations qui ne semblaient pas être « mécaniques » (pour utiliser le langage courant). Son principe directeur était qu'il devrait être possible de simuler le fonctionnement du cerveau humain. Dans un rapport inédit (Turing 1948), Turing expliqua que la question était de savoir comment simuler une &lsquoinitiative&rsquo en plus de &lsquodiscipline&rsquo&mdash comparable au besoin d'&lsquointuition&rsquo ainsi que d'ingéniosité mécanique exprimé dans son travail d'avant-guerre. Il a annoncé des idées sur la façon d'y parvenir : il pensait que l'« initiative » pourrait provenir de systèmes où l'algorithme appliqué n'est pas conçu consciemment, mais est obtenu par d'autres moyens. Ainsi, il semblait maintenant penser que l'esprit quand ne pas suivant réellement une règle ou un plan conscient, exécutait néanmoins un processus calculable.

Il a suggéré une série d'idées pour des systèmes dont on pourrait dire qu'ils modifient leurs propres programmes. Ces idées comprenaient des réseaux de composants logiques (&lsquo machines non organisées&rsquo) dont les propriétés pouvaient être &lsquotformées&rsquo dans une fonction souhaitée. Ainsi, comme l'exprime (Ince 1989), il a prédit les réseaux de neurones. Cependant, les réseaux de Turing n'avaient pas la structure "en couches" des réseaux de neurones qui devaient être développés à partir des années 1950.Par l'expression &lsquogénétique ou recherche évolutive&rsquo, il a également anticipé les &lsquogénétiques&rsquo qui, depuis la fin des années 1980, ont été développés comme une approche moins structurée des programmes auto-modifiables. Les propositions de Turing n'étaient pas bien développées en 1948, et à une époque où les ordinateurs électroniques étaient à peine opérationnels, elles n'auraient pas pu l'être. Copeland et Proudfoot (1996) ont attiré une attention nouvelle sur les idées connexionnistes de Turing, qui ont depuis été expérimentées (Teuscher 2001).

Il est important de noter que Turing a identifié ses prototypes de réseaux neuronaux et d'algorithmes génétiques comme calculable. Ceci doit être souligné car le mot « quononalgorithmique » est maintenant souvent utilisé de manière confuse pour des opérations informatiques qui ne sont pas explicitement planifiées. En effet, son ambition était explicite : il voulait lui-même les implémenter sous forme de programmes sur un ordinateur. Utilisant le terme Universal Practical Computing Machine pour ce qu'on appelle maintenant un ordinateur numérique, il écrit dans (Turing 1948) :

Le résultat de cette ligne de pensée est que toutes les opérations mentales sont calculable et donc réalisable sur une machine universelle : l'ordinateur. Turing a avancé ce point de vue avec une confiance croissante à la fin des années 1940, parfaitement conscient qu'il représentait ce qu'il aimait appeler « l'hérésie » pour les croyants dans des esprits ou des âmes au-delà de la description matérielle.

Turing n'était pas un penseur mécanique, ou un adepte des conventions, loin de là. De toutes les personnes, il connaissait la nature de l'originalité et de l'indépendance individuelle. Même en s'attaquant au problème du sous-marin Enigma, par exemple, il a déclaré qu'il l'avait fait parce que personne d'autre ne le regardait et qu'il pouvait l'avoir pour lui-même. Loin d'être entraîné ou organisé sur ce problème, il s'en charge malgré la sagesse qui prévalait en 1939 qu'il était trop difficile à tenter. Son arrivée à une thèse d'« intelligence machine » n'était pas le résultat d'une mentalité terne ou restreinte, ou d'un manque d'appréciation de la créativité humaine individuelle.


Cerveau humain. Son rôle dans la percée et la transformation des signaux qu'il traite.

Le cerveau humain nous permet à la fois de prêter attention et d'être au centre de notre attention. Nous utilisons notre cerveau humain pour comprendre comment fonctionne le cerveau humain. Cette goutte physique de 1,4 kg est l'organe le plus étonnant de l'univers, et nous commençons tout juste à découvrir de quoi il s'agit. La science, la philosophie et la religion sont incapables de résoudre ce problème séculaire de la façon dont l'esprit et le corps s'assemblent.
(Origine de l'humanité, chapitre 5.5)

L'explication vous propose la solution à ce casse-tête. Certains prétendent que c'est résolu une fois pour toutes ! Cet article de blog est l'aboutissement de 21 articles sur le sujet corps-esprit. Pendant toute cette période, je n'ai pas discuté du rôle du cerveau. Nous nous sommes concentrés uniquement sur neshama et ruach.

Aujourd'hui, nous allons relier les points entre neshama, ruach et le cerveau. Permettez-moi de dire d'emblée que si vous lisez CET article de blog pour la première fois, vous êtes en danger. Vous ne comprendrez PAS la discussion ici. Vous devez D'ABORD comprendre neshama et ruach PUIS, nous pouvons discuter du cerveau et du corps humains. La science, la philosophie et la religion ne comprennent pas le rôle de ces deux éléments sans lesquels il est impossible de résoudre le problème corps-esprit. S'il vous plaît, allez lire le but de la neshama humaine et de la ruach humaine. La série de 21 articles commence ici.

L'explication fonde le problème corps-esprit et la solution sur l'inspiration de la Bible hébraïque biblique. À savoir dans Genèse 2:7.

Et l'Éternel Dieu forma l'homme de la poussière de la terre, et souffla dans ses narines un souffle de vie et l'homme devint une âme vivante.

Ce verset évoque à la fois l'esprit et le corps. Les poussière du sol est le corps. Les souffle de vie est la conscience, le siège du dérange. Ces deux éléments sont indissociables. Ils travaillent ensemble comme une unité. Question : auquel de ces deux éléments appartient le cerveau ? Je fais référence à l'organe physique de votre tête qui peut être pesé, scanné et mesuré.

Tout de suite, nous avons une polémique. Je dois admettre que j'ai couru tête baissée dans ce problème d'écriture Inventaire et Audit de l'Univers. Pourquoi? Parce que les chapitres huit et neuf traitent respectivement du corps et de l'esprit. Et je ne savais pas O inclure le cerveau ! Si vous relisez le chapitre neuf (à propos de l'esprit), vous verrez que dans Inventaire de l'Univers, j'ai inclus le cerveau, ERREUR.

Le CERVEAU fait entièrement partie du CORPS. Dans Genèse 2:7, lorsque Dieu a formé l'homme (les humains) à partir de la poussière du sol qui comprend la peau, les os du squelette, les organes sensoriels, les organes internes comme les reins, les poumons, le cœur ET le cerveau. Si vous riez, veuillez lire ceci. C'est l'article d'introduction à cette série sur le problème corps-esprit.

Le cerveau humain est un organe physique, c'est de la poussière, il fait partie du corps. Les neshama chaya (souffle de vie) apparaît environ 20 fois dans la Bible et est traduit : détruire, (cette) souffle(-eth), inspiration, âme, esprit. (allez à UnlockBibleMeaning et vérifiez Gen 2:7, neshama Strong’s H5397) cela raconte l'histoire — la signification de ce concept. J'ai passé beaucoup de temps au cours des 20 derniers messages à expliquer cela. Pour simplifier, si je peux me permettre, neshama est l'INSPIRATION que Dieu a insufflée aux humains. Pour utiliser l'analogie logicielle de la semaine dernière, dans Gen 2:7, Dieu a téléchargé le système d'exploitation humain SPIRITUEL DANS le cerveau matériel PHYSIQUE humain.

Neshama est l'INSPIRATION SPIRITUELLE. Il n'y a RIEN DE PHYSIQUE à ce sujet. C'est la conscience humaine, UNIQUE, et possédée par chaque être humain. Cette conscience humaine n'est autre que les SINGULARITÉS qui confèrent aux humains leur humanité. J'ai résumé ces singularités avec la nature humaine, la gestion de l'espace-temps, la créativité, l'imagination, l'apprentissage, les choix, la croissance, les défis et la domination. Aucun autre être physique ne possède ce système d'exploitation, même pas à proximité.

Laissez-moi vous dire ici que vous devriez être étonné par le fait que pendant des milliers d'années, les humains ont possédé ces qualités singulières, cette conscience. Aucun scientifique, aucun philosophe, pas même les religions, ne peut vous dire ce qu'est la conscience, mais nous l'avons tous. Personne ne peut vous dire D'O il vient, COMMENT les humains l'ont obtenu, ou QUAND nous l'avons eu. Et, pour couronner le tout, ils n'ont absolument AUCUNE connaissance de POURQUOI les humains (seuls) ont cette conscience, ces singularités.

Même un penseur comme Jordan Peterson admet que ses connaissances s'épuisent lorsqu'il s'agit de répondre à la question : pourquoi les humains ont-ils le choix ? C'est une de nos singularités. Le Dr Jon Lieff dit : « La science actuelle n'a aucune explication à l'expérience subjective. Il n'y a même pas de définition adéquate de la conscience.

Nous allons utiliser deux analogies pour révéler comment comprendre ce problème corps-esprit. Le premier pour percée sera le forage du tunnel sous la Manche. La seconde pour transformateur va etre un télévision.

Percée dans le tunnel sous la Manche

Le tunnel sous la Manche de 50,45 km a été foré profondément dans les fonds marins de la Manche entre Folkstone (Douvres) Royaume-Uni et Coquelles (Calais) France. Le forage a commencé simultanément aux deux extrémités et s'est réuni près du milieu. Cette vidéo montre la percée avec les Français grimpant du côté anglais et les Anglais grimpant du côté français. Bien sûr, une fois le trou agrandi, il n'y avait plus côtés. C'était tout un conduit.

Au final, ils ont foré trois tunnels. Deux pour les trains, chacun à sens unique, et un troisième pour la sécurité et la maintenance. Voici l'analogie. La percée du tunnel permet la libre circulation de deux nations différentes, le français et l'anglais, l'échange de drapeaux différents, de langues différentes. Bien sûr, toutes les autres nations peuvent voyager dans les DEUX manières à travers le Chunnel. Avec l'esprit et le corps, il y a une libre circulation des informations entre deux entités différentes neshama et poussière.

Genèse 2:7 est la jonction de l'esprit et du corps. C'est le point où Dieu a fait la percée et a lancé la libre circulation de l'information entre la neshama et la poussière.

Ces deux essences, substances, entités différentes, appelez-les comme vous pouvez, doivent fonctionner ensemble de manière transparente. Comme nous le savons, et comme nous le verrons, les milliards de cellules physiques du corps de poussière travaillent étroitement avec la complexité de la pensée humaine. Il y a une libre circulation de l'information de l'esprit au corps. Un auteur peut imaginer une histoire dans sa tête et l'écrire avec son corps (doigts avec un stylo ou un clavier). Les idées transitent en douceur de la neshama au papier.

L'itinéraire inverse est tout aussi facile. Vous lisez une description littéraire avec vos yeux physiques, puis vous pouvez imaginer la scène dans votre esprit. Nous transportons des informations sensorielles physiques vers notre conscience immatérielle. Le diagramme ci-dessous énumère cette percée de la poussière de neshama.

Corps-esprit. Percée, Jonction, Connexion

La connexion tunnel sous la Manche est un truc de bébé comparé à la jonction entre l'invisible et le visible. Il existe deux tunnels distincts, chacun pour le trafic à sens unique. L'horaire des trains, sur chaque ligne, laisse suffisamment d'espace entre les trains pour des raisons de sécurité. Il n'y a pas d'interaction entre les trains circulant dans des directions opposées. Il existe deux centres de contrôle, un en France, un au Royaume-Uni. Chacun peut prendre le contrôle de l'ensemble du système.

Le cerveau est l'intersection où la percée a lieu. C'est une voie multidirectionnelle pour les pensées et les actions. C'est là que les idées deviennent des activités. Le cerveau humain est le conduit par lequel le spirituel et le matériel circulent librement. La neshama, la conscience, transite du spirituel à la poussière – les impulsions chimiques et électriques transitent des organes sensoriels du corps à la conscience immatérielle. Il existe un maillage complexe et une collaboration pour atteindre les objectifs de chacun. C'est là que se rencontrent les deux essences, la spirituelle et la physique.

La première étape est cette percée instantanée du transport multidirectionnel de deux substances très différentes. Deuxièmement, il y a la transformation instantanée de chaque substance à l'autre.

Transformation du spirituel < = > physique

Le cerveau humain transforme l'énergie-information spirituelle provenant du neshama-ruach en énergie-information physique qu'il distribue ensuite au reste du corps. Le cerveau transforme les pensées en actions.

Le cerveau, en même temps, fait aussi l'inverse. Il transforme l'information-énergie physique des capteurs du corps (sens externes : vue, son, toucher odorat, goût. interne : cœur, poumons, etc.) en information-énergie spirituelle allant au neshama-ruach.

C'est là que les pensées se transforment en actions et les actions en pensées. C'est là que la transformation a lieu. La métaphysique (je devrais faire un don)

se transforme en charité physique (temps de volontariat). Le physique (réception d'un cadeau ou d'une insulte) se transforme en pensée (cette personne se soucie de moi, ou ne le fait pas). Le schéma suivant est un résumé du rôle du cerveau humain.

Le cerveau humain. C'est l'artère où les données spirituelles et physiques subissent une transformation. C'est un transducteur.

C'est ce qui se passe dans votre téléviseur ou votre smartphone, ils reçoivent des ondes à une fréquence particulière, et un transducteur dans votre appareil les transforme en impulsions électriques qui activent votre écran et vos haut-parleurs. Invisible les vagues se convertissent en visible images et sons. Il y a des informations qui circulent librement qui frappent un dispositif de transformation (transducteur) et se poursuivent sous une autre forme d'énergie. Dans votre téléviseur, vous avez un son et une vision DEMODULATEUR qui font partie du système qui traduisent les ondes sonores et lumineuses en événements audibles et visibles que vos sens physiques peuvent capturer.

Nous avons maintenant une télévision interactive où un téléspectateur peut saisir des informations (votes, commentaires) dans la télévision et les renvoyer au studio. MODULATOR pour transformer le physique action d'enfoncer une clé de la télécommande dans un impulsion électrique ou une onde électromagnétique. C'est de là que vient le terme MODEM moisdulateur, demodateur. Il y a une transformation instantanée d'un type d'énergie à un autre, et cela fonctionne dans les deux sens. Du matériel à l'immatériel, en appuyant sur un bouton aux ondes électromagnétiques et de l'immatériel au matériel, des ondes lumineuses aux images.

Il existe également un autre type de transformation remarquable qui se produit dans votre téléviseur, votre smartphone et votre ordinateur. Comment les images et le texte sont-ils fidèlement transportés par l'électricité ? Chaque tache de couleur d'une image et chaque lettre se transforme en code binaire. Lisez ceci pour plus de détails, chaque élément se traduit par une série correspondante de 0sable 1s. Pour faire cette traduction, vous avez besoin d'un codec (coder-décoder) il s'agit d'un appareil ou d'un programme informatique pour coder et décoder des signaux numériques.

Les informations physiques et visibles (images, sons, textes) doivent être transformées (coded) en ondes électromagnétiques immatérielles pour le transporter de sa source à sa destination. Là, il est à nouveau transformé (décode) en informations physiques que nos capteurs du corps humain peuvent capturer.

Il y a deux transformations, de l'information à l'énergie et de nouveau à l'information. Dans vos appareils électroniques, les deux doivent fonctionner comme une combinaison automatique et instantanée. Une énergie irrégulière entraîne des images vacillantes, des informations irrégulières entraînent la perte d'extraits sonores.

Le cerveau, via ses circuits, est le codec et le modem du corps. En tant que codec (coder-décoder), il transforme l'information matérielle (code corporel) en code immatériel (neshama) qui impacte notre conscience et vice-versa. En tant que modem (moisdulator-demodulator), il convertit l'énergie matérielle (impulsions électriques ou chimiques dans le corps) en impulsions immatérielles dans l'esprit-ruach et vice-versa.

Pensez au cerveau qui gère la respiration ou le flux sanguin. Le corps remplace 50 à 70 MILLIARDS de cellules chaque jour. Chacune de ces opérations implique des chromosomes, des gènes, des protéines, de l'ADN, quatre bases et leurs produits chimiques. TOUTES ces informations sont gérées par les cellules en collaboration avec le cerveau. Comme vous le savez, s'il y a des maux et des douleurs, cela vous vient directement à l'esprit. Le codec cérébral et le modem fonctionnent 24h/24 et 7j/7, à partir du moment où un fœtus peut entendre, environ quatre mois après le début de la grossesse, pendant toute sa vie humaine.

Compte tenu de la quantité d'informations qui transitent par notre esprit et notre corps, vous pouvez imaginer (c'est une activité du neshama) l'énorme quantité de données qui circulent et se transforment dans le conduit.

Ne vous perdez pas dans le jargon de la chaîne, de la télévision et de l'informatique. Ce sont toutes des analogies. Ce sont des outils de communication très sophistiqués qui nécessitent un logiciel et un micrologiciel de bonne foi pour fonctionner de manière optimale. C'est le logiciel neshama que Dieu a téléchargé sur Adam. C'est la conscience qui dote chacun de nous de singularités humaines. Les humains sont le couronnement de la création de Dieu. C'est pourquoi tant d'espace, voire toute la Bible, est consacré à cette création.

La neshama ne s'arrête pas là, ce n'est que le début. Votre téléviseur et votre ordinateur ont de nombreuses autres utilisations. Parlons des jeux interactifs. Ou plutôt, jeu en ligne massivement multijoueur (MMOG). Les joueurs du monde entier se rassemblent sur leurs appareils et s'affrontent. Nous parlons de dizaines de milliers d'appareils électroniques simultanés étroitement liés via UN serveur. Les connexions et les échanges d'informations se font en temps réel.

C'est ainsi que le flux, dans TOUTES les directions du monde, doit être. Cet ordinateur central reçoit, interprète et envoie des signaux à tous les joueurs en continu. Il traite les informations virtuelles et les renvoie pour transformation en images de réalité à grande vitesse (balles dans les jeux de guerre) et en sons.

Imaginez l'entrée et la sortie d'impulsions électriques, imaginez la transformation d'images en code binaire. Imaginez les scènes à grande vitesse continuellement modifiées sur l'écran de chaque joueur. Les codecs et les modems fonctionnent à pleine capacité pour mettre à jour les paramètres du jeu en temps réel, c'est précisément ce que fait votre neshama. Il contrôle le flux et la transformation qui mènent à de NOUVELLES situations. C'est la plasticité de l'esprit et du cerveau.

C'est le neshama qui crée les voies les plus efficaces pour le flux et la transformation de l'information. Le cerveau est le matériel, mais le neshama est le logiciel. Rappelez-vous, qui a créé la neshama et l'a insufflée aux humains.

En plus de la neshama, chacun de nous peut télécharger d'autres passions, imaginations, inventions, compétences, langues, sports. Ces programmes permettent à chacun de posséder, d'acquérir, de développer les compétences qu'il souhaite. Nous avons des goûts et des aversions personnels en fonction de notre nature et de notre culture, de notre culture et de notre expérience, de notre éducation et de nos activités.

Un seul système d'exploitation, le neshama. Plusieurs programmes individuels représentés par les compétences que confère le ruach.

Apple a annoncé la modification de son système d'exploitation pour faire place à ses nouvelles applications. Ci-dessus, une capture d'écran d'une partie de l'écran de mon ordinateur affichant l'ordinateur Apple. Au bas du Mac et de mon ordinateur se trouvent les icônes des programmes que nous avons téléchargés en fonction de nos besoins et de nos goûts. Ensuite, à l'aide de chacune de ces applications, nous créons des données et des informations qui sont stockées en mémoire.

Cette action est parallèle au ruach, qui nous donne la possibilité d'ajouter toutes les compétences, l'apprentissage et les aptitudes que nous souhaitons utiliser et développer. Allez sur le lien si vous ne comprenez pas les différents rôles que joue le ruach chez les animaux et les humains. Ceux-ci s'apparentent aux logiciels que nos parents téléchargent pendant l'éducation des enfants.

Puis, dès le plus jeune âge, nous commençons, avec l'aide de nos parents, à télécharger notre propre logiciel c'est le temps des périodes critiques commençant par le langage, la géométrie (formes, tailles, espace relatif), une bibliothèque de connaissances et de jeux , Il existe également des programmes de valeurs de la vie comme l'obéissance, l'initiative, la sociabilité, l'éthique du travail et l'honnêteté.

L'école, l'environnement social, les réseaux sociaux et les médias jouent un rôle essentiel dans ce domaine. Toutes les influences et les influenceurs qui ont un impact sur le neshama et le ruach, la conscience et l'esprit des êtres humains jouent un rôle dans le développement d'un être humain.

Il y a des responsabilités et des obligations globales dont nous discuterons. Au fur et à mesure que les jeunes progressent vers l'âge adulte, ils passent à l'identité sexuelle, aux relations de genre, aux sports, à une profession et à des activités de loisirs, et à de nombreux autres programmes qui peuvent être téléchargés et mis à jour tout au long de la vie. C'est la plasticité humaine, que la combinaison de neshama et de ruach confère aux seuls humains.

Voici une version mise à jour de la théorie du tout avec le cerveau humain, l'immatériel et le matériel.

Théorie du Tout avec le cerveau humain, l'immatériel et le matériel.

Le cerveau est l'appareil le plus complexe de l'univers. Physiquement, le cerveau humain ressemble au cerveau animal le plus important. Pourtant, la capacité mentale et les réalisations humaines sont à des années-lumière au-dessus de toute autre forme de vie. La science, la philosophie et la religion n'ont fourni aucune réponse à cette énigme.

La réponse est Genèse 2:7, quand Dieu a insufflé la neshama dans le premier humain. La neshama spirituelle, au sens d'inspiration invisible, confère à l'humanité son humanité, c'est la connaissance de base de la Parole de Dieu, la Bible. C'est seulement sur cette base que le reste de l'histoire de l'humanité peut être compris.

Ce billet de blog est un extrait du chapitre 5.5 du livre Origine de l'humanité.

Approfondir l'explication

Rejoindre Le bulletin d'explications pour rester informé des mises à jour. et les événements futurs. Aucune obligation, confidentialité totale, désabonnez-vous à tout moment, si vous le souhaitez.

Cours d'étude en ligne à Déverrouillez le sens de la Bible via l'hébreu biblique… sans tracas. Des cours vidéo gratuits qui vous mettent dans le siège du conducteur pour naviguer dans la Bible comme jamais auparavant. Adhérer maintenant

Puisque vous avez lu jusqu'ici… vous avez aimé. Veuillez utiliser les liens des réseaux sociaux ci-dessous pour partager ces informations de L'explication, Cerveau humain. Son rôle dans la conscience et l'esprit

Rétroliens/Pingbacks

    - […] Bible et l'exposition du livre de la Genèse. J'ai atteint Genèse 2:7 et j'ai expliqué ce que la conscience et l'esprit&hellip - […] Neshama = Conscience, Mind, Gen. 2:7 Brain – Problème d'esprit résolu […] - […] en dernier 21 articles de blog que neshama et ruach, la conscience et l'esprit, sont spirituels et, par conséquent, en dehors du corps,&hellip - […] Adam (5.4). La science se concentre naturellement sur le cerveau, mais qu'en est-il de l'invisible et de l'incommensurable ? Cerveau humain. Son rôle et hellip - […] leurs noms proviennent des os du crâne qui les enveloppent, et non de leur structure ou de leur rôle ! Cela prouve à quel point nous comprenons peu & hellip - […] est de vous tester et de le répéter encore et encore et encore et encore. C'est ce qui crée un&hellip - […] si vous êtes juste debout et contemplez votre cerveau, les neurones sont à l'œuvre dans le système autonome ou involontaire&hellip - […] le cortex humain, la couche externe richement pliée du cerveau, a 30 milliards de neurones, des cellules qui peuvent avoir de nombreux&hellip

Soumettre un commentaire Annuler la réponse

Ce site utilise Akismet pour réduire le spam. Découvrez comment les données de vos commentaires sont traitées.


Problème corps-esprit

Cet essai a été écrit par le philosophe Luigi Domenico Casiraghi. Maintenant, il parle du problème corps-esprit et de la façon dont il a été perçu depuis les temps anciens jusqu'à aujourd'hui.

Nous répondrons à cette question d'un point de vue particulier, à savoir la relation « esprit – corps », que Schopenhauer définit « Wlknoten » : « nœud du monde ». En effet, chaque acte humain implique à la fois la partie physique (le corps) et la partie psychique : conscience, pensée et libre arbitre (l'esprit) qui interagit avec notre corps. Par conséquent, notre question est : quelle est la relation dans un être humain entre son esprit et son corps ? La question fondamentale exige nécessairement une réponse à ces autres questions : qu'est-ce qu'un corps humain ? Qu'est-ce qu'un esprit humain ? Il s'agit de résoudre le problème corps-esprit ! Le problème corps-esprit s'est imposé ces derniers temps. Tout au long de l'Histoire de la Philosophie, elle a toujours été déclinée comme une problématique liée à la relation entre le corps et l'âme, elle a montré différentes configurations et suggéré des solutions variées :

– dualité corps (sòma) – âme (psyché) (Platone)

– unité substantielle corps – âme (Aristotele-S. Tommaso)

– contraste de res cogitans-res extensa (Cartesio).

Cartesio laissera aux philosophes le soin de recomposer l'opposition : de Spinoza à Leibniz, en passant par Kant et l'idéalisme, pour arriver à Schopenhauer, Nietzsche et Freud. De nos jours, l'idée prédominante est de refuser, dans l'être humain, la présence d'une réalité matérielle (le corps) et d'une réalité spirituelle (l'âme), abandonnant ainsi le dualisme typique de la pensée traditionnelle, pour considérer l'être humain dans sa propre existence concrète en tant qu'événement exclusif unique ou en tant qu'individu traçable à tout autre être vivant dans la nature. En fait, depuis les années 90 du siècle dernier, grâce à la recherche scientifique, en particulier les neurosciences, le même problème obtient des modalités exceptionnelles : dans le nombre de contributions, dans la force des oppositions, dans la nouveauté des méthodologies, dans l'échange des résultats , parfois époustouflante, dans les expérimentations les plus avancées avec de nouveaux paradigmes de recherche et intuitions opératoires. La possibilité d'étudier dans la vie réelle des processus mentaux, due principalement à l'imagerie par résonance magnétique fonctionnelle (IRMf), ouvre en effet des paysages révolutionnaires dans toutes les disciplines qui étudient l'être humain : pas seulement dans les domaines scientifiques comme la médecine, la biotechnologie, les neurosciences. , mais aussi en sciences humaines : philosophie, économie, droit, éthique, politique.

En fait, l'IRMf est comme le télescope de Galilée : elle nous permet de voir des choses sur lesquelles nous ne pouvions que spéculer, car elle donne un accès direct non seulement au cerveau, mais aussi à ses fonctions en cours. C'est une nouvelle révolution copernicienne ! Certains sujets qui émergent dans cette révolution sont les opportunités d'étudier et donc de contrôler le cerveau pour modifier les fonctions du cerveau, d'améliorer les capacités cognitives et émotionnelles pour modifier certains traits de personnalité. La conséquence est un vif débat après cette révolution qui ne pouvait s'empêcher d'impliquer également la question du dualisme : corps-âme qui, comme mentionné précédemment, a marqué à la fois la philosophie classique et la philosophie moderne. Ce dualisme se renouvelle, en termes anthropologiques, en dualisme : esprit-corps, ou plus précisément esprit-cerveau, aboutissant à la question fondamentale : comment une conscience, une pensée, un libre arbitre peuvent-ils naître d'un cerveau objectif et très délicat dans sa structure biologique ?

Il y a deux réponses possibles à cette question :

1 – notre esprit est le résultat de ce que fait notre cerveau : par exemple, la bile est une sécrétion du foie, de même que l'esprit est un produit de notre cerveau

2 – l'énigme de notre esprit, exclusive de l'humanité, est résolue à un niveau largement supérieur au niveau physico-biologique

Nous savons que le cerveau d'un homme adulte est composé d'environ 100 milliards de cellules nerveuses, appelées neurones, capables de convertir des signaux de différentes sortes provenant du monde extérieur en impulsions électriques. Ces impulsions sont transmises d'une cellule à l'autre par des commutateurs moléculaires, appelés synapsis. Il y a 1.000.000 milliards de synapses dans le cerveau humain, qui créent des centaines de milliers de circuits électriques qui transmettent des impulsions à différentes vitesses.

Nous savons aussi que notre cerveau, pour rester efficace, se restructure en permanence. Il est capable de changer continuellement les circuits et les fonctions, car ils sont endommagés ou vieillis. De nos jours, nous savons beaucoup de choses, qui nous permettent au moins partiellement de comprendre comment le cerveau nous fait ressentir le monde qui nous entoure à travers nos cinq sens et comment il nous permet de le retravailler et de le traduire en actions concrètes et en pensées abstraites. C'est pourquoi, sur la base de la neurophysiologie, certains philosophes et scientifiques revendiquent l'identité ontologique entre le mental et le corporel et effacent toute la structure typique de la psychologie traditionnelle et du langage commun en relation avec d'autres états intérieurs. Seule la zone physique existe réellement, tandis que la zone mentale doit être effacée, car elle appartient à une vision fausse et trompeuse de la réalité. De ce point de vue, l'homme n'est qu'un « morceau de matière ». La différence entre un être humain et une pierre ne réside que dans le degré différent de complexité qui caractérise les deux structures matérielles. Par exemple, ceci est soutenu par le physicien Carlo Rovelli, qui dans le dernier chapitre de son livre Sept courtes leçons de physique écrit : « Nous, en tant qu'êtres humains, sommes avant tout le sujet qui regarde ce monde… L'étude de notre psychologie est raffiné couvrant également la biochimie de notre cerveau… Nos décisions libres sont déterminées par les interactions entre des milliards de neurones dans notre cerveau. Il y a tellement d'espace là-bas, et c'est enfantin de penser que dans ce coin reculé de la galaxie il y a quelque chose de spécial….Ce qui est spécifiquement humain ne représente pas notre séparation d'avec la nature, c'est notre nature ».

C'est la théorie de Rovelli et, je le répète, elle est également partagée par les philosophes et les scientifiques contemporains, qui pensent que certaines manifestations intellectuelles et volitives ne sont que les activités d'un cerveau hautement structuré et raffiné, comme celui de l'humain. En effet, il s'agit de la même théorie du courant de pensée de l'école australienne, appelé physicalisme, représenté par U.T. Lieu, J.J. Intelligent, D.M. Armostrong, qui à la question : notre conscience est-elle un processus cérébral ? Ils répondent : il n'est pas rationnel d'admettre l'existence d'une conscience et de la configuration neurophysiologique correspondante : ce ne sont là que des expressions pour se référer à une réalité unique. La langue commune et traditionnelle cédera la place à la langue scientifique, adulte et technique. Par conséquent, l'unicité et l'identité ontologique se situent entre un état mental et physique, où ce dernier est la vraie réalité. Le scientifique américain M.Minsky, auteur de The Society of Mind, soutient un pluralisme psychique, car il prétend que chaque cerveau mental est consacré à superviser certaines fonctions au sein de notre organisme. Selon cette hypothèse, Minsky écarte facilement une question qui hante les pensées des philosophes depuis les origines, déclarant que : « En ce qui me concerne, le soi-disant problème corps-esprit ne comporte aucun mystère : l'esprit est simplement ce que fait….Le sens de l'intelligence est seulement de comprendre le groupe d'activités cognitives qui sont encore obscures pour la recherche scientifique, son concept s'efface dès que nous savons ce qu'il est ».

Minsky affronte également le problème de la relation esprit-machines, le résolvant avec un slogan : « Les esprits sont-ils comme des machines ? Je n'ai opposé aucun doute à cela, j'ai juste demandé : quel type de machines ? Même si la plupart considèrent que les dégradants sont considérés comme des machines, j'espère que ce livre leur fera plutôt éclore la pensée à quel point il est merveilleux d'être des machines dotées de si merveilleux pouvoirs. Ce slogan amène à la question suivante : les machines sont-elles capables de penser ? Le cerveau est matière et la matière du cerveau exerce ses propres activités grâce à des modules de calcul facilement reproductibles par un ordinateur. Rien ne nous empêche donc d'affirmer que les machines peuvent réaliser des activités mentales. C'est ce que l'A.I. soutiennent les théoriciens, qui font en sorte qu'équiper une machine d'une conscience soit très simple, créant ainsi un cyborg une opération qu'ils jugent inutile, voire impossible à mettre en œuvre. R. Searle, professeur de philosophie à l'Université de Berkeley et auteur de The Rediscovery of the Mind, veut rejeter à la fois les partisans du matérialisme absolu et celui qui propose l'esprit en tant qu'entité non physique et envisage une solution, appelée naturalisme biologique. Il prétend que cette solution a l'extraordinaire avantage de montrer comment la nature et l'esprit ou les états physiques et mentaux ne sont pas des concepts opposés, mais ils peuvent coexister parce qu'en réalité ils coexistent. « C'est la théorie que j'aimerais faire émerger dans la discussion », écrit, « le fait qu'une certaine propriété soit mentale, n'implique pas qu'elle ne soit pas physique et, vice-versa, le fait qu'elle soit physique n'implique pas que ce n'est pas mental non plus ». Autrement dit, pour Searle, notre esprit est dans une double relation avec notre cerveau : d'un côté il s'identifie à lui, de l'autre il en dépend. Fondamentalement, pour Searle, les deux principes sont valables : l'esprit est le corps et l'esprit est produit par le corps, à savoir par des interactions névrotiques. Le philosophe-scientifique prétend que l'esprit existe certainement, mais ensuite il ne dit pas « qu'est-ce que c'est ? être utilisé uniquement pour définir le groupe d'activités cognitives encore obscures pour les recherches scientifiques.

Il est clair que dans ce genre de théorie, il n'y a pas de place pour l'esprit, l'intelligence, la conscience, le libre arbitre, en un mot l'âme, en tant que dimensions non physiques. La confirmation dans son révolutionnaire « Moteur de la raison, foyer de l'âme », le Canadien Paul Churchland du courant de pensée appelé matérialisme supprimé. l'activité réside dans une substance immatérielle : l'âme ou l'esprit. Il est aussi communément admis qu'il survit à la mort du corps physique… Après ce livre, il est assez clair qu'il est difficile d'équilibrer cette hypothèse familière avec la théorie des processus cognitifs qui se dessine et avec les résultats des tests de différentes neurosciences. La théorie d'une âme immortelle semble, pour parler franchement, juste un autre mythe, faux non seulement marginalement, mais à son noyau. Cependant, il y a aussi des neuroscientifiques et des philosophes anti-réductionnistes, comme Karl Popper, Thomas Nagel, John Eccles qui veulent suggérer un néo-dualisme particulier. Popper observe que dans la situation actuelle, il est étrange que les physiciens eux-mêmes n'accordent aucun crédit au matérialisme, alors qu'il reste encore très populaire parmi les philosophes. Il s'agit avant tout de définir le terme « réel ». Le réel n'est pas seulement un ensemble de corps solides et matériels, mais c'est tout ce qui agit de manière directe ou indirecte avec eux. De plus, en physique, les champs de force sont acceptés comme réels : la gravité, le magnétisme, l'électromagnétisme, simplement parce qu'ils agissent sur les choses matérielles.

Cela a son retour dans le domaine du problème corps-esprit.

C'est justement la capacité de notre pensée à agir sur la matière et à la transformer, toujours par l'action de l'homme, la preuve de l'existence du contenu de la pensée et des produits de l'esprit : culture, art, science et philosophie que Popper appelle le Monde 3, qui interagit avec le Monde 2, fait de dispositions psychologiques et d'états inconscients et avec le Monde 1 fait d'entités physiques. En d'autres termes, puisque la condition nécessaire pour être réel est l'interaction avec les corps, notre esprit est donc réel car il interagit avec notre corps. Nagels affirme que la raison (l'esprit) implique une expérience subjective irréductible cela ne signifie pas que ses opérations peuvent toujours être classées comme subjectivisme. Il le prouve en rappelant l'objection du scepticisme : la prétention que la raison est subjective, et elle est faite par la raison elle-même qui, revendiquant sa propre subjectivité, croit dire quelque chose d'objectif. A savoir, la raison, peut dire quelque chose d'objectif mais elle ne peut pas être objectivée, c'est-à-dire qu'elle ne peut pas être considérée de l'extérieur comme un objet. La théorie est que la raison puisqu'elle ne peut pas être objectivée, est l'assurance de l'objectivité, donc c'est quelque chose de spécifique et d'irréductible pouvant tout objectiver, cela représente ce qui ne peut pas être objectivé comme les autres choses il ne peut pas être réduit à d'autres choses. La raison est au-delà des objets physiques, le corps et le cerveau. Eccles, prix Nobel de médecine et de physiologie pour ses études sur les cellules nerveuses, co-auteur avec Popper du livre : Le soi et son cerveau, n'hésite pas à affirmer : « L'existence de l'esprit est sans doute et le nier n'est qu'un exercice d'auto-contradiction ». En effet, par quoi peut-on nier l'existence de notre esprit, sinon par un acte de pensée, à savoir mental ? Il conclut : « Il est absurde de nier l'existence de l'esprit simplement parce que nous ne pouvons pas le comprendre. L'évidence de son existence doit coexister avec le mystère de sa propre nature ». Comme souligné, le problème corps-esprit tant en science qu'en philosophie est traversé par une multitude de regards et de solutions non homogènes.

L'hypothèse que lorsque notre esprit est actif, notre cerveau est actif à son tour et que certaines activités mentales sont également associées à l'activation de certaines zones et circuits neuronaux, se pose immédiatement la question fondamentale évoquée ci-dessus : comment peut-on à partir d'un cerveau objectif, très fine dans sa propre structure biologique et activité physiologique, surgit une conscience, une pensée, une volonté et l'expression d'un esprit subjectif ?

Idan Segev, professeur de neurosciences à l'Université de Jérusalem, écrit : « Apparemment, l'analyse optique ou électrique du cerveau humain permet au chercheur qui observe l'activité cérébrale de prédire en détail ce que la personne va faire (par exemple quel bouton va pousser, la droite ou la gauche), quelques secondes avant que la même personne ne s'en rende compte, c'est-à-dire capable de dire quelle sera sa décision. Dirons-nous que le « cerveau » prend une certaine décision et « nous », les maîtres de notre cerveau, n'en sommes toujours pas conscients. Le chercheur en cerveau qui observe de l'extérieur la prise de décision, peut dire à l'avance quelle sera notre décision. Quel est donc le sens de notre liberté de choix ? Qui choisit ? Alors, notre esprit, réductible à notre cerveau ou l'homme réductible à la seule dimension physico-biologique ? La dimension non physique est-elle effacée ?

En d'autres termes, penserons-nous l'être humain selon les normes de la science, en faisant une déconstruction de la personne et une réduction de celle-ci aux derniers éléments constitutifs (bio-molécules, gènes, protéines etc.), ou lui reconnaître quelque chose de plus, que transcende la dimension physico-biologique et qui peut être l'objet de recherche d'une science métaphysique-philosophique ? Certes, l'homme reste un étranger, qu'il faut sans cesse redécouvrir par une réflexion attentive et une étude payante des préjugés culturels et scientifiques.

Ici la question : Homme, qui es-tu ?

Le susmentionné Tomas Nagel a publié en 1974 le célèbre article au titre curieux : Comment ça fait d'être une chauve-souris ? La question qui se pose concerne le statut ontologique des expériences subjectives, à savoir si la dimension non matérielle de notre esprit n'est qu'une illusion ou s'il s'agit d'une réalité réelle. Nagel observe que la chauve-souris a sans doute des expériences objectives, ne fussent-elles liées qu'à la douleur, la faim ou la perception du monde extérieur à travers un sonar qui lui permet d'attraper des objets éloignés, créant ainsi la représentation de son propre monde.Le défi de Nagel porte sur le changement d'identification avec la chauve-souris : ne pas comprendre ce que nous ressentirons en devenant cet animal, mais plutôt imaginer ce que ressent réellement la chauve-souris. C'est clairement une expérience qu'il ne nous est pas donné de percevoir. Alors, force est de constater que cette expérience subjective n'existe pas, du seul fait qu'elle n'est accessible par aucun autre sujet, sauf qui la vit, la chauve-souris en l'occurrence, et donc non objectivement détectable ? Apparemment non ! En effet, c'est la propre expérience d'une chauve-souris : cela suffit pour dire qu'elle est réelle. Ici l'erreur des réductionnistes matérialistes : égaliser l'inconnaissance avec l'incohérence. Même si cette expérience subjective restera reconnaissable, ce n'est pas une raison suffisante pour prétendre qu'elle n'existe pas. La science est née, a grandi et a progressé de manière impressionnante en partant du principe qu'elle restreignait un champ indépendant et objectif dans notre esprit. Cependant, il n'est pas correct de soumettre aux méthodes et principes de la science, la dimension subjective que nous avons exclue a priori. La science ignore cette dimension, mais le mépris ne veut pas dire nier.

Il est légitime de se poser cette question : qu'est-ce que la conscience, à savoir la pensée, l'esprit ?

La conscience est toujours « la conscience de », c'est-à-dire qu'elle n'est rien en soi, c'est le « vide de l'être », précise Sartre, indépendamment de la référence à un certain contenu, c'est-à-dire qu'elle n'est rien, sinon comme manifestation, apparaître, présence , étant d'un objet ou d'un contenu spécifique. En effet, le mot grec pour la « vérité » est Alétheia : pas caché, évident, existant.

Autrement dit, nous voulons revendiquer la relationnalité constitutive, en terme philosophique, l'intentionnalité (du latin : intentio-tendenza a/verso), intrinsèque à la conscience en tant que telle plus simplement son ouverture au monde, à la réalité, signifiant que c'est toujours la conscience de quelque chose, qui à son tour n'est pas une conscience. Cette ouverture est une donnée immédiate, qui ne nécessite aucune démonstration, car elle est indémontrable. Il s'agit d'une expérience directe, c'est-à-dire d'une « expérience vécue ». Or, il est vrai que notre conscience (notre mental) requiert la pleine fonctionnalité de nos organes corporels, de nos sens et de notre cerveau qui subissent l'action d'objet extérieur et réagissent en conséquence à cette action. Cependant, il ne s'identifie pas aux problèmes physiologiques des organes des sens ou du cerveau, car c'est quelque chose qui, bien que rendu possible par ces processus, en diffère essentiellement et quantitativement. Ceci est prouvé par le fait que nous avons en règle générale la chance de connaître toutes choses. Aristote l'a déjà affirmé dans son livre À propos de l'âme : « L'âme (c'est-à-dire le sujet conscient et intelligent) est en quelque sorte toute chose ». Si c'était un corps, il pourrait avoir cette capacité : en effet, notre œil ne peut voir que les couleurs, notre oreille n'entend que les sons, notre nez ne sent que les arômes, etc. En utilisant notre intellect, notre pensée, notre esprit, nous pouvons plutôt connaître toutes les choses. Par conséquent, notre conscience (pensée et esprit) ne doit pas être rien en soi, juste être tout, être pure transparence de tout objet distinct d'elle-même. En tant que fenêtre, qui montre tout à l'extérieur sans être vu, alors que lorsqu'on l'observe en tant que tel, dans sa propre forme, dans ses propres dimensions etc., devient un objet comme beaucoup d'autres, car il n'agit plus comme une fenêtre. La conscience, en tant que raison de Nagel, peut dire quelque chose d'objectif mais elle n'est pas objectivable en elle-même, c'est-à-dire qu'elle ne peut pas être considérée comme un objet de l'extérieur. C'est pourquoi notre conscience n'est pas pure transparence de chaque objet distinct de lui-même, mais elle est aussi conscience de soi, à savoir la conscience de soi, c'est-à-dire la capacité de penser sur soi et sur ses actions. Cette activité pourrait être impossible pour un corps, qui fonctionnera comme un diaphragme ou un écran (en effet notre œil ne se voit pas en regardant, l'ouïe ne s'entend pas en percevant un son). Cependant, cette capacité à penser sur nous-mêmes et sur nos actions implique aussi la capacité d'autodétermination, donc de liberté. En effet, la liberté n'est pas seulement l'absence de besoin, elle implique aussi la maîtrise de nos propres activités. Nous ne sommes libres que lorsque nous sommes maîtres de nos choix, décisions et actions.

Par conséquent, la conscience (l'esprit) étant transparence et conscience de soi, n'a rien de physique, n'est pas matérielle, c'est le supplément qui fonde et justifie la rationalité et donc notre être une personne. Avec le terme « personne », nous voulons dire précisément qu'un homme est un être corporel, rationnel, conscient de lui-même et libre. De là les caractéristiques de l'être humain qui en font une personne : à savoir la subjectivité, la rationalité, l'identité, la liberté, c'est-à-dire la capacité de s'autodéterminer et de se proposer ses objectifs. L'homme, ainsi compris, résout le vieux problème de l'unité corps-âme, de sorte que le corps n'est pas l'antithèse de l'âme, mais plutôt sa manière d'être dans le monde et de se rapporter à lui. Cela résout également le problème, encore débattu, de la relation esprit-cerveau.

Une analyse phénoménologique, menée dans cette perspective, permet ainsi de cerner la réalité de l'être humain :

– Un bìos, c'est une vie physique – biologique

– Une psyché, c'est-à-dire un esprit : dispositions psychologiques et capacités à penser et à vouloir

– Un esprit, à savoir le soi ou le soi conscient, conscient de soi et libre, généralement appelé âme.


Voir la vidéo: Du Big Bang au vivant: Tombée du ciel


Commentaires:

  1. Nile

    Dans la vie de chaque homme, il y a une période où les chaussettes propres sont plus faciles à acheter. Et à propos de la vieille femme, il y a de la mer porno Mandela dans un bus bondé: excusez-moi, mec, ne vous dérange-t-il pas? De la non-observation des précautions de sécurité, une personne peut non seulement mourir, mais aussi naître. Il dit que c'était en extase, et je me souviens exactement que dans la grange ... tout devrait aller chez une femme - ne lui mettez rien! Sur les pieds fléchis, mais dans la bouche, la mère n'a pas de monogame - ... mais beaucoup! (C) La stupidité humaine donne une idée de l'infini.

  2. Lincoln

    Félicitations, votre opinion utile

  3. Kealan

    Aujourd'hui, je me suis inscrit à un forum spécifique pour participer à la discussion sur cette question.

  4. Faetaur

    Je suis sûr que vous avez été trompé.

  5. Nami

    À mon avis, il a déjà été discuté.



Écrire un message