Fission nucléaire : processus de division d'un noyau atomique. Réactions nucléaires. Diviser l'atome Diviser l'histoire de l'atome

Comment ce processus a été découvert et décrit. Son utilisation comme source d'énergie et d'armes nucléaires est révélée.

Atome « ​​indivisible »

Le XXIe siècle regorge d’expressions telles que « énergie atomique », « technologie nucléaire », « déchets radioactifs ». De temps en temps la une des journaux Des messages clignotants circulent sur la possibilité d'une contamination radioactive du sol, des océans et des glaces de l'Antarctique. Cependant, la personne ordinaire n’a souvent pas une très bonne idée de ce qu’est ce domaine scientifique et de la manière dont il contribue à Vie courante. Cela vaut peut-être la peine de commencer par l’histoire. Dès la première question posée par un homme bien nourri et habillé, il s’est intéressé au fonctionnement du monde. Comment l'œil voit, pourquoi l'oreille entend, en quoi l'eau diffère de la pierre - c'est ce qui inquiète les sages depuis des temps immémoriaux. Aussi dans Inde ancienne et en Grèce, certains esprits curieux ont suggéré qu'il existait une particule minimale (on l'appelait aussi « indivisible ») qui possédait les propriétés d'un matériau. Les chimistes médiévaux ont confirmé la supposition des sages, et la définition moderne d'un atome est la suivante : un atome est la plus petite particule d'une substance qui est porteuse de ses propriétés.

Parties d'un atome

Cependant, le développement de la technologie (en particulier de la photographie) a conduit au fait que l'atome n'est plus considéré comme la plus petite particule de matière possible. Et bien qu’un seul atome soit électriquement neutre, les scientifiques se sont vite rendu compte qu’il était constitué de deux parties portant des charges différentes. Le nombre de parties chargées positivement compense le nombre de parties négatives, l’atome reste donc neutre. Mais il n’existait pas de modèle univoque de l’atome. La physique classique étant encore dominante à cette époque, diverses hypothèses ont été formulées.

Modèles d'atomes

Dans un premier temps, le modèle « pain aux raisins » a été proposé. La charge positive semblait remplir tout l'espace de l'atome et des charges négatives y étaient distribuées, comme des raisins secs dans un petit pain. Le célèbre a déterminé ceci : au centre de l'atome il y a un très élément lourd avec une charge positive (noyau), et des électrons beaucoup plus légers se trouvent autour. La masse du noyau est des centaines de fois plus lourde que la somme de tous les électrons (elle représente 99,9 % de la masse de l’atome entier). Ainsi est né le modèle planétaire de l’atome de Bohr. Cependant, certains de ses éléments contredisaient la physique classique acceptée à l’époque. C’est pourquoi une nouvelle mécanique, la mécanique quantique, a été développée. Avec son avènement, la période non classique de la science a commencé.

Atome et radioactivité

De tout ce qui a été dit ci-dessus, il devient clair que le noyau est la partie lourde et chargée positivement de l’atome, qui constitue sa masse. Lorsque les positions des électrons sur l’orbite d’un atome furent bien étudiées, il était temps de comprendre la nature noyau atomique. La radioactivité ingénieuse et inattendue est venue à la rescousse. Il a permis de révéler l'essence de la partie centrale lourde de l'atome, puisque la source de radioactivité est la fission nucléaire. Au tournant des XIXe et XXe siècles, les découvertes se succèdent. La solution théorique d'un problème nécessitait la réalisation de nouvelles expériences. Les résultats des expériences ont donné lieu à des théories et des hypothèses qui devaient être confirmées ou infirmées. Souvent plus grandes découvertes est apparu simplement parce que c'est ainsi que la formule est devenue pratique pour les calculs (comme, par exemple, le quantum de Max Planck). Même au début de l'ère de la photographie, les scientifiques savaient que les sels d'uranium éclairaient les films photosensibles, mais ils ne soupçonnaient pas que ce phénomène était basé sur la fission nucléaire. C’est pourquoi la radioactivité a été étudiée pour comprendre la nature de la désintégration nucléaire. Il est évident que le rayonnement a été généré transitions quantiques, mais il n’était pas tout à fait clair lesquels exactement. Les Curie extrayaient du radium et du polonium purs, les traitant presque à la main minerai d'uranium pour obtenir la réponse à cette question.

Charge radioactive

Rutherford a beaucoup fait pour étudier la structure de l'atome et a contribué à l'étude de la manière dont se produit la fission du noyau atomique. Le scientifique a placé le rayonnement libéré par un élément radioactif dans un champ magnétique et a obtenu un résultat étonnant. Il s'est avéré que le rayonnement se compose de trois composants : l'un était neutre et les deux autres étaient chargés positivement et négativement. L'étude de la fission nucléaire a commencé par l'identification de ses composants. Il a été prouvé que le noyau peut se diviser et abandonner une partie de sa charge positive.

Structure de base

Plus tard, il s'est avéré que le noyau atomique est constitué non seulement de particules de protons chargées positivement, mais également de particules neutres de neutrons. Ensemble, ils sont appelés nucléons (de l'anglais « nucleus », noyau). Cependant, les scientifiques ont encore une fois rencontré un problème : la masse du noyau (c'est-à-dire le nombre de nucléons) ne correspondait pas toujours à sa charge. Dans l'hydrogène, le noyau a une charge de +1 et sa masse peut être de trois, deux ou une. L'hélium suivant dans le tableau périodique a une charge nucléaire de +2, tandis que son noyau contient de 4 à 6 nucléons. Plus éléments complexes peut avoir un nombre beaucoup plus grand de masses différentes avec la même charge. Ces variations des atomes sont appelées isotopes. De plus, certains isotopes se sont révélés assez stables, tandis que d'autres se sont rapidement désintégrés, car ils étaient caractérisés par la fission nucléaire. A quel principe correspondait le nombre de nucléons à la stabilité des noyaux ? Pourquoi l’ajout d’un seul neutron à un noyau lourd et complètement stable a-t-il conduit à sa division et à la libération de radioactivité ? Curieusement, la réponse à cette question importante n’a pas encore été trouvée. Il s'est avéré expérimentalement qu'à un certain nombre de protons et de neutrons correspondent des configurations stables de noyaux atomiques. S’il y a 2, 4, 8, 50 neutrons et/ou protons dans le noyau, alors le noyau sera définitivement stable. Ces nombres sont même appelés magiques (et c'est ainsi que les scientifiques adultes et les physiciens nucléaires les appelaient). Ainsi, la fission des noyaux dépend de leur masse, c'est-à-dire du nombre de nucléons qu'ils contiennent.

Goutte, coquillage, cristal

Déterminer le facteur responsable de la stabilité du noyau, sur ce momentéchoué. Il existe de nombreuses théories sur le modèle, les trois plus connues et les plus développées se contredisant souvent sur diverses questions. Selon le premier, le noyau est une goutte d'un liquide nucléaire spécial. Comme l'eau, elle se caractérise par sa fluidité, sa tension superficielle, sa coalescence et sa désintégration. Dans le modèle en coque, certains niveaux d'énergie dans le noyau sont également remplis de nucléons. La troisième affirme que le noyau est un milieu capable de réfracter des ondes spéciales (ondes de De Broglie), et que l'indice de réfraction est. Cependant, aucun modèle n'a encore été en mesure de décrire complètement pourquoi, à une certaine masse critique de cet élément chimique particulier , la division du noyau commence.

Comment se produit la dégradation ?

La radioactivité, comme mentionné ci-dessus, a été découverte dans des substances présentes dans la nature : uranium, polonium, radium. Par exemple, l’uranium pur fraîchement extrait est radioactif. Le processus de scission dans ce cas sera spontané. Sans aucune influence extérieure, un certain nombre d'atomes d'uranium vont émettre des particules alpha, se transformant spontanément en thorium. Il existe un indicateur appelé demi-vie. Il indique pendant combien de temps il restera environ la moitié du numéro initial de la pièce. Chaque élément radioactif a sa propre demi-vie – de quelques fractions de seconde pour le Californie à des centaines de milliers d'années pour l'uranium et le césium. Mais il existe aussi la radioactivité induite. Si les noyaux des atomes sont bombardés de protons ou de particules alpha (noyaux d’hélium) dotés d’une énergie cinétique élevée, ils peuvent se « diviser ». Le mécanisme de transformation, bien sûr, est différent de la façon dont le vase préféré de votre mère se brise. Cependant, une certaine analogie peut être tracée.

Énergie atomique

Jusqu’à présent, nous n’avons pas répondu à la question pratique : d’où vient l’énergie lors de la fission nucléaire ? Pour commencer, il faut expliquer que lors de la formation d’un noyau, des forces nucléaires spéciales agissent, appelées interactions fortes. Puisque le noyau est constitué de nombreux protons positifs, la question reste de savoir comment ils se collent les uns aux autres, car les forces électrostatiques doivent les repousser assez fortement les uns des autres. La réponse est à la fois simple et non : le noyau est maintenu ensemble grâce à l'échange très rapide de particules spéciales entre les nucléons - les mésons pi. Cette connexion est incroyablement de courte durée. Dès que l'échange de mésons pi s'arrête, le noyau se désintègre. On sait également avec certitude que la masse du noyau est inférieure à la somme de tous ses nucléons constitutifs. Ce phénomène est appelé défaut de masse. En fait, la masse manquante est l’énergie dépensée pour maintenir l’intégrité du noyau. Dès qu’une partie est séparée du noyau d’un atome, cette énergie est libérée et transformée en chaleur dans les centrales nucléaires. Autrement dit, l’énergie de fission nucléaire est une démonstration claire de la célèbre formule d’Einstein. Rappelons que la formule dit : l'énergie et la masse peuvent être converties l'une en l'autre (E=mc 2).

Théorie et pratique

Nous allons maintenant vous expliquer comment cette découverte purement théorique est utilisée dans la vie réelle pour générer des gigawatts d’électricité. Premièrement, il convient de noter que les réactions contrôlées utilisent la fission nucléaire forcée. Il s'agit le plus souvent d'uranium ou de polonium, qui sont bombardés par des neutrons rapides. Deuxièmement, on ne peut manquer de comprendre que la fission nucléaire s'accompagne de la création de nouveaux neutrons. De ce fait, le nombre de neutrons dans la zone réactionnelle peut augmenter très rapidement. Chaque neutron entre en collision avec de nouveaux noyaux encore intacts, les divisant, ce qui entraîne une augmentation du dégagement de chaleur. Il s'agit d'une réaction en chaîne de fission nucléaire. Une augmentation incontrôlée du nombre de neutrons dans un réacteur peut conduire à une explosion. C'est exactement ce qui s'est passé en 1986 Centrale nucléaire de Tchernobyl. Par conséquent, il y a toujours une substance dans la zone de réaction qui absorbe les neutrons en excès, évitant ainsi une catastrophe. Il s'agit de graphite sous forme de longues tiges. Le taux de fission nucléaire peut être ralenti en immergeant les barres dans la zone de réaction. L'équation est élaborée spécifiquement pour chaque substance radioactive active et les particules qui la bombardent (électrons, protons, particules alpha). Cependant, la production d'énergie finale est calculée selon la loi de conservation : E1+E2=E3+E4. C'est-à-dire que l'énergie totale du noyau et de la particule d'origine (E1 + E2) doit être égale à l'énergie du noyau résultant et à l'énergie libérée sous forme libre (E3 + E4). L’équation d’une réaction nucléaire montre également quelle substance est produite à la suite de la désintégration. Par exemple, pour l'uranium U=Th+He, U=Pb+Ne, U=Hg+Mg. Les isotopes des éléments chimiques ne sont pas donnés ici, mais c'est important. Par exemple, il existe jusqu’à trois possibilités de fission de l’uranium, qui produisent différents isotopes du plomb et du néon. Dans près de cent pour cent des cas, la fission nucléaire produit des isotopes radioactifs. Autrement dit, la désintégration de l'uranium produit du thorium radioactif. Le thorium peut se désintégrer en protactinium, puis en actinium, etc. Le bismuth et le titane peuvent être radioactifs dans cette série. Même l'hydrogène, qui contient deux protons dans le noyau (la norme est un proton), est appelé différemment - deutérium. L'eau formée avec cet hydrogène est dite lourde et remplit le circuit primaire des réacteurs nucléaires.

Atome peu paisible

Des expressions telles que « course aux armements », « guerre froide", "menace nucléaire" à l'homme moderne peut sembler historique et hors de propos. Mais autrefois, presque partout dans le monde, chaque communiqué de presse était accompagné d'informations sur le nombre de types d'armes nucléaires inventées et sur la manière de les gérer. Les gens ont construit des bunkers souterrains et stocké des fournitures au cas où Hiver nucléaire. Des familles entières ont travaillé pour créer le refuge. Même l’utilisation pacifique des réactions de fission nucléaire peut conduire au désastre. Il semblerait que Tchernobyl ait appris à l'humanité à être prudente dans ce domaine, mais les éléments de la planète se sont révélés plus forts : le tremblement de terre au Japon a endommagé les fortifications très fiables de la centrale nucléaire de Fukushima. L’énergie d’une réaction nucléaire est beaucoup plus facile à utiliser pour la destruction. Les technologues n’ont qu’à limiter la force de l’explosion pour ne pas détruire la planète entière par inadvertance. Les bombes les plus « humaines », si on peut les appeler ainsi, ne polluent pas les zones environnantes par des radiations. En général, ils utilisent le plus souvent une réaction en chaîne incontrôlée. Ce qu’ils s’efforcent d’éviter à tout prix dans les centrales nucléaires est réalisé de manière très primitive dans les bombes. Pour tout élément naturellement radioactif, il existe une certaine masse critique substance pure, dans lequel la réaction en chaîne démarre d'elle-même. Pour l’uranium, par exemple, ce n’est que de cinquante kilogrammes. L’uranium étant très lourd, il ne s’agit que d’une petite boule métallique de 12 à 15 centimètres de diamètre. Les premières bombes atomiques, larguées sur Hiroshima et Nagasaki, ont été fabriquées selon exactement ce principe : deux parties inégales d'uranium pur se sont simplement combinées et ont généré une explosion terrifiante. Les armes modernes sont probablement plus sophistiquées. Cependant, il ne faut pas oublier la masse critique : entre les petits volumes de substance radioactive pure lors du stockage, il doit y avoir des barrières qui ne permettent pas aux pièces de se connecter.

Sources de rayonnement

Tous les éléments ayant une charge nucléaire atomique supérieure à 82 sont radioactifs. Presque tous les éléments chimiques plus légers contiennent des isotopes radioactifs. Plus le noyau est lourd, plus sa durée de vie est courte. Certains éléments (comme le californium) ne peuvent être obtenus que artificiellement, en faisant entrer en collision des atomes lourds avec des particules plus légères, le plus souvent dans des accélérateurs. Comme ils sont très instables, la croûte terrestre Ils ne sont pas là : lors de la formation de la planète, ils se sont très vite désintégrés en d’autres éléments. Des substances dotées de noyaux plus légers, comme l’uranium, peuvent être extraites. Ce processus est long : même les minerais très riches contiennent moins d’un pour cent d’uranium exploitable. La troisième voie indique peut-être qu’une nouvelle ère géologique a déjà commencé. Il s'agit de l'extraction d'éléments radioactifs à partir de déchets radioactifs. Une fois le combustible traité dans une centrale électrique, sur un sous-marin ou sur un porte-avions, on obtient un mélange de l'uranium initial et de la substance finale, résultat de la fission. Pour le moment, il est considéré comme solide déchet radioactif et la question urgente est de savoir comment les enterrer pour qu'ils ne polluent pas environnement. Cependant, il est possible que dans un avenir proche, des concentrés prêts à l'emploi substances radioactives(par exemple le polonium) seront extraits de ces déchets.

26 novembre 1894. Le mariage du tsar russe Nicolas II et de la princesse allemande Alice de Hesse-Darmstadt a eu lieu à Saint-Pétersbourg. Après le mariage, l'épouse de l'empereur accepta Foi orthodoxe et a reçu le nom d'Alexandra Fedorovna.

27 novembre 1967. Le cinéma moscovite "Mir" a accueilli la première du premier thriller soviétique "Viy". Les rôles principaux ont été joués par Leonid Kuravlev et Natalia Varley. Le tournage a eu lieu dans la région d'Ivano-Frankivsk et dans le village de Sednev, dans la région de Tchernihiv.

28 novembre 1942 Union soviétique a conclu un accord avec la France sur une lutte commune contre l'Allemagne nazie dans le ciel. La première escadrille d'aviation française « Normandie-Niemen » était composée de 14 pilotes et 17 techniciens.

29 novembre 1812 L'armée de Napoléon fut vaincue en traversant la rivière Bérézina. Napoléon a perdu environ 35 000 personnes. Les pertes des troupes russes, selon l'inscription sur le 25e mur de la galerie de la gloire militaire de la cathédrale du Christ Sauveur, s'élevaient à 4 000 soldats. Près de 10 000 Français ont été capturés par le général russe Peter Wittgenstein.

1er décembre 1877 Dans le village de Markovka, région de Vinnytsia, Nikolai Leontovich, compositeur ukrainien, chef de chœur, auteur des chansons « Dudarik », « Le cosaque porte », « Mala Mother of One Daughter », « Shchedrik » (la chanson est connue en Occident comme le chant de Noël des cloches (« Carol of the Bells »).

1er décembre 1991. Un référendum panukrainien a eu lieu sur la question de l'indépendance de l'Ukraine. Leonid Kravchuk a été élu premier président du pays.

2 décembre 1942. Le physicien Enrico Fermi et un groupe de scientifiques américains de l'Université de Chicago ont réalisé une réaction nucléaire contrôlée, divisant pour la première fois un atome.

Le 1er décembre 1992, le domaine ukrainien UA a été enregistré dans la base de données internationale

Parmi les anciens républiques soviétiques L'Ukraine est devenue le premier pays à recevoir un domaine Internet national le 1er décembre 1992. La Russie a été enregistrée plus tard : le domaine RU est apparu le 7 avril 1994. La même année, la République de Biélorussie a reçu ses domaines - BY, l'Arménie - AM et le Kazakhstan - KZ. Et le premier domaine national de l'histoire d'Internet était celui des États-Unis, il a été enregistré en mars 1985. Dans le même temps, les domaines de la Grande-Bretagne - Royaume-Uni et Israël - IL sont apparus. La création d'un système de domaine a permis de comprendre immédiatement où il se trouvait par le nom du site.

En janvier 1993, lors d'une conférence de spécialistes ukrainiens de l'Internet dans le village de Slavskoye, dans la région de Lviv, 27 domaines ont été proposés, créés sur une base géographique, sélectionnés par code de numérotation téléphonique. Les villes et entreprises ukrainiennes ont la possibilité de créer leurs propres sites Web sur Internet, par exemple kiev.ua, crimea.ua, dnepropetrovsk.ua. Toutes les responsabilités liées à leur administration ont continué d'être assumées par des individus sur une base volontaire. Dans certains domaines publics, cette pratique se poursuit encore aujourd'hui. Désormais, chaque domaine national ou géographique a son propre administrateur - une entreprise ou un individu qui détermine les règles d'enregistrement. Au fil du temps, Internet a donné naissance à sa propre version du langage. Un nom de domaine qui se termine par l'abréviation COM, NET, EDU signifie l'abréviation concept général. Par exemple, COM est commercial, NET est réseau, EDU est éducatif. Dans notre pays, le domaine le plus populaire est COM. Au printemps 2001, afin de rétablir l'ordre, la personne morale Hostmaster LLC a finalement été créée, qui comprenait des administrateurs d'UA et d'autres domaines ukrainiens. Des particuliers, anciens propriétaires du domaine ukrainien UA, ont officiellement transféré une partie de leurs pouvoirs à « Hostmaster ».

De nos jours, n’importe qui peut créer son propre site Web et obtenir un domaine. La première étape, au cours de laquelle seuls les propriétaires de marques pouvaient enregistrer des domaines dans la zone UA, est déjà terminée. Depuis 2010, l'enregistrement de domaine gratuit est accessible à tous pour une période de dix ans ; le prix d'utilisation d'un domaine pendant un an est de 90 hryvnia. À propos, le premier à avoir prédit Internet fut un écrivain, philosophe et personnalité publique XIXème siècle Vladimir Odoevsky. Dans le roman « Année 4338 », publié en 1837, Odoevsky écrit : « Des télégraphes magnétiques sont installés entre les maisons familières, à travers lesquels ceux qui vivent à une grande distance communiquent entre eux." Désormais, en ouvrant un site Internet sur Internet, sans sortir de chez soi, chacun d'entre nous peut acheter de l'air et billet de train, faites des achats dans un supermarché d'électronique, publiez vos ouvrages sans intermédiaires et trouvez même un partenaire de vie sur un site de rencontre. Les jeunes de vingt ans peuvent difficilement imaginer une époque où ils allaient à la bibliothèque pour acheter des livres, où les lettres étaient écrites à la main et où les informations n'étaient apprises que par les programmes de télévision ou les publications imprimées.

6. Le monde des particules subatomiques

Diviser l'atome

On dit souvent qu’il existe deux types de sciences : les grandes et les petites. La division de l'atome est une grande science. Elle dispose d'installations expérimentales gigantesques, de budgets colossaux et reçoit la part du lion des prix Nobel.

Pourquoi les physiciens ont-ils dû diviser l’atome ? La réponse simple – comprendre le fonctionnement de l’atome – ne contient qu’une partie de la vérité, mais il existe une raison plus générale. Il n’est pas tout à fait correct de parler littéralement de la division de l’atome. En fait nous parlons de sur la collision de particules à haute énergie. Lorsque des particules subatomiques se déplaçant à grande vitesse entrent en collision, un nouveau monde d’interactions et de champs naît. Les fragments de matière porteurs d'une énorme énergie, dispersés après les collisions, cachent les secrets de la nature, qui depuis la « création du monde » sont restés enfouis dans les profondeurs de l'atome.

Les installations où entrent en collision des particules à haute énergie - les accélérateurs de particules - frappent par leur taille et leur coût. Leur diamètre s'étend sur plusieurs kilomètres, ce qui fait que même les laboratoires qui étudient les collisions de particules semblent minuscules en comparaison. Dans d'autres domaines recherche scientifique les équipements sont situés dans le laboratoire ; en physique des hautes énergies, les laboratoires sont rattachés à l'accélérateur. Récemment, le Centre européen de recherche nucléaire (CERN), situé près de Genève, a alloué plusieurs centaines de millions de dollars à la construction d'un accélérateur en anneau. La circonférence du tunnel construit à cet effet atteint 27 km. L'accélérateur, appelé LEP (Large Electron-Positron ring), est conçu pour accélérer les électrons et leurs antiparticules (positons) à des vitesses qui ne sont qu'à un cheveu de la vitesse de la lumière. Pour avoir une idée de l'échelle d'énergie, imaginez qu'au lieu d'électrons, une pièce d'un sou soit accélérée à de telles vitesses. À la fin du cycle d’accélération, il disposerait de suffisamment d’énergie pour produire pour 1 000 millions de dollars d’électricité ! Il n’est pas surprenant que de telles expériences soient généralement classées dans la catégorie de la physique des « hautes énergies ». En se rapprochant à l’intérieur de l’anneau, les faisceaux d’électrons et de positrons subissent des collisions frontales au cours desquelles les électrons et les positrons s’annihilent, libérant une énergie suffisante pour produire des dizaines d’autres particules.

Quelles sont ces particules ? Certains d’entre eux sont les « éléments constitutifs » mêmes à partir desquels nous sommes construits : les protons et les neutrons qui constituent les noyaux atomiques, et les électrons en orbite autour des noyaux. D'autres particules ne se trouvent généralement pas dans la matière qui nous entoure : leur durée de vie est extrêmement courte et, une fois expirée, elles se désintègrent en particules ordinaires. Le nombre de variétés de ces particules instables à vie courte est étonnant : plusieurs centaines d’entre elles sont déjà connues. Comme les étoiles, les particules instables sont trop nombreuses pour être identifiées par leur nom. Beaucoup d’entre eux sont indiqués uniquement par des lettres grecques, et certains uniquement par des chiffres.

Il est important de garder à l’esprit que toutes ces particules instables, nombreuses et variées, ne sont en aucun cas littéralement Composants protons, neutrons ou électrons. Lors d'une collision, les électrons et les positrons de haute énergie ne se dispersent pas en de nombreux fragments subatomiques. Même dans les collisions de protons de haute énergie, qui sont évidemment constitués d'autres objets (quarks), ils ne sont généralement pas divisés en leurs composants au sens habituel du terme. Ce qui se passe dans de telles collisions est plutôt considéré comme la création directe de nouvelles particules à partir de l’énergie de la collision.

Il y a une vingtaine d'années, les physiciens étaient complètement déconcertés par le nombre et la variété de nouvelles particules subatomiques, qui semblaient sans fin. C'était impossible à comprendre Pour quoi tant de particules. Peut-être que les particules élémentaires sont comme les habitants d’un zoo, avec leur appartenance familiale implicite, mais sans taxonomie claire. Ou peut-être, comme l’ont cru certains optimistes, que les particules élémentaires détiennent la clé de l’univers ? Quelles sont les particules observées par les physiciens : fragments de matière insignifiants et aléatoires ou contours d'un ordre vaguement perçu se dessinant sous nos yeux, indiquant l'existence d'une structure riche et complexe du monde subnucléaire ? L’existence d’une telle structure ne fait désormais aucun doute. Il existe un ordre profond et rationnel dans le micromonde, et nous commençons à comprendre la signification de toutes ces particules.

Le premier pas vers la compréhension du micromonde a été fait grâce à la systématisation de toutes les particules connues, tout comme au XVIIIe siècle. les biologistes ont compilé des catalogues détaillés d’espèces végétales et animales. Les caractéristiques les plus importantes des particules subatomiques comprennent la masse, la charge électrique et le spin.

Parce que la masse et le poids sont liés, les particules de masse élevée sont souvent appelées « lourdes ». La relation d'Einstein E =mc^ 2 indique que la masse d’une particule dépend de son énergie et donc de sa vitesse. Une particule en mouvement est plus lourde qu’une particule stationnaire. Quand ils parlent de la masse d’une particule, ils le pensent masse de repos, puisque cette masse ne dépend pas de l'état de mouvement. Une particule de masse au repos nulle se déplace à la vitesse de la lumière. L’exemple le plus évident de particule ayant une masse au repos nulle est le photon. On pense que l’électron est la particule la plus légère avec une masse au repos non nulle. Le proton et le neutron sont près de 2 000 fois plus lourds, tandis que la particule la plus lourde créée en laboratoire (la particule Z) a environ 200 000 fois la masse de l'électron.

La charge électrique des particules varie dans une plage assez étroite, mais, comme nous l'avons noté, elle est toujours un multiple de l'unité de charge fondamentale. Certaines particules, comme les photons et les neutrinos, n'ont aucune charge électrique. Si la charge d’un proton chargé positivement est considérée comme étant de +1, alors la charge de l’électron est de -1.

Pouce. 2, nous avons introduit une autre caractéristique des particules : le spin. Il prend également toujours des valeurs multiples d'une unité fondamentale, qui, pour des raisons historiques, est choisie comme étant 1. /2. Ainsi, un proton, un neutron et un électron ont un spin 1/2, et le spin du photon est 1. On connaît également des particules de spin 0, 3/2 et 2. Les particules fondamentales avec un spin supérieur à 2 n'ont pas été découvertes et les théoriciens pensent que les particules avec de tels spins n'existent pas.

Le spin d'une particule est une caractéristique importante et, selon sa valeur, toutes les particules sont divisées en deux classes. Les particules avec des spins 0, 1 et 2 sont appelées « bosons » – du nom du physicien indien Chatyendranath Bose, et les particules avec un spin demi-entier (c'est-à-dire avec un spin 1/2 ou 3/2). - "fermions" en l'honneur d'Enrico Fermi. L’appartenance à l’une de ces deux classes est probablement la plus importante dans la liste des caractéristiques d’une particule.

Une autre caractéristique importante d’une particule est sa durée de vie. Jusqu'à récemment, on croyait que les électrons, les protons, les photons et les neutrinos étaient absolument stables, c'est-à-dire ont une durée de vie infiniment longue. Le neutron reste stable tant qu'il est « enfermé » dans le noyau, mais un neutron libre se désintègre en 15 minutes environ. Toutes les autres particules connues dans plus haut degré sont instables, leur durée de vie varie de quelques microsecondes à 10-23 s. De tels intervalles de temps semblent incompréhensiblement petits, mais il ne faut pas oublier qu'une particule volant à une vitesse proche de la vitesse de la lumière (et la plupart des particules nées dans les accélérateurs se déplacent précisément à de telles vitesses) parvient à parcourir une distance de 300 m en une microseconde.

Les particules instables subissent une désintégration, qui est un processus quantique, et il y a donc toujours un élément d'imprévisibilité dans la désintégration. La durée de vie d’une particule particulière ne peut être prédite à l’avance. Sur la base de considérations statistiques, seule la durée de vie moyenne peut être prédite. On parle généralement de la demi-vie d'une particule - le temps pendant lequel la population de particules identiques est réduite de moitié. L'expérience montre que la diminution de la taille de la population se produit de manière exponentielle (voir Fig. 6) et que la demi-vie est égale à 0,693 de la durée de vie moyenne.

Il ne suffit pas aux physiciens de savoir que telle ou telle particule existe : ils s'efforcent de comprendre quel est son rôle. La réponse à cette question dépend des propriétés des particules énumérées ci-dessus, ainsi que de nature des forces, agissant sur la particule de l’extérieur et de l’intérieur. Tout d’abord, les propriétés d’une particule sont déterminées par sa capacité (ou son incapacité) à participer à des interactions fortes. Les particules participant à des interactions fortes forment une classe spéciale et sont appelées androns. Les particules qui participent à des interactions faibles et ne participent pas à des interactions fortes sont appelées les leptons, qui signifie « poumons ». Jetons un bref coup d'œil à chacune de ces familles.

Leptons

Le plus connu des leptons est l’électron. Comme tous les leptons, il semble être un objet élémentaire, ponctuel. Pour autant que l’on sache, l’électron n’a pas de structure interne, c’est-à-dire ne contient aucune autre particule. Bien que les leptons puissent avoir ou non une charge électrique, ils ont tous le même spin. 1/2, ils sont donc classés comme fermions.

Un autre lepton bien connu, mais sans charge, est le neutrino. Comme déjà mentionné au Chap. 2, les neutrinos sont aussi insaisissables que des fantômes. Comme les neutrinos ne participent ni aux interactions fortes ni aux interactions électromagnétiques, ils ignorent presque complètement la matière, la pénétrant comme si elle n'était pas là du tout. La grande capacité de pénétration des neutrinos a longtemps rendu très difficile la confirmation expérimentale de leur existence. Ce n’est que près de trois décennies après la prédiction des neutrinos qu’ils ont finalement été découverts en laboratoire. Les physiciens ont dû attendre la création de réacteurs nucléaires, qui émettent grande quantité neutrino, et ce n'est qu'alors qu'il a été possible d'enregistrer la collision frontale d'une particule avec le noyau et de prouver ainsi qu'elle existe réellement. Aujourd'hui, il est possible de réaliser beaucoup plus d'expériences avec des faisceaux de neutrinos, issus de la désintégration de particules dans un accélérateur et possédant les caractéristiques nécessaires. La grande majorité des neutrinos « ignorent » la cible, mais de temps en temps les neutrinos interagissent quand même avec la cible, ce qui permet d'obtenir informations utiles sur la structure des autres particules et la nature des interactions faibles. Bien entendu, contrairement aux expériences avec d’autres particules subatomiques, mener des expériences avec des neutrinos ne nécessite pas le recours à une protection particulière. Le pouvoir de pénétration des neutrinos est si grand qu'ils sont totalement inoffensifs et traversent le corps humain sans lui causer le moindre dommage.

Malgré leur intangibilité, les neutrinos occupent une position particulière parmi les autres particules connues car ils sont les particules les plus abondantes dans tout l’Univers, dépassant d’un milliard les électrons et les protons. L'univers est essentiellement une mer de neutrinos, avec des inclusions occasionnelles sous forme d'atomes. Il est même possible que la masse totale des neutrinos dépasse la masse totale des étoiles, et ce sont donc les neutrinos qui contribuent principalement à la gravité cosmique. Selon un groupe de chercheurs soviétiques, les neutrinos ont une masse au repos infime, mais non nulle (moins d'un dix millième de la masse d'un électron) ; si cela est vrai, alors les neutrinos gravitationnels dominent l’Univers, ce qui pourrait à l’avenir provoquer son effondrement. Ainsi, les neutrinos, à première vue les particules les plus « inoffensives » et incorporelles, sont capables de provoquer l’effondrement de l’Univers tout entier.

Parmi les autres leptons, il faut citer le muon, découvert en 1936 dans les produits de l'interaction des rayons cosmiques ; il s’est avéré qu’il s’agissait de l’une des premières particules subatomiques instables connues. À tous égards, sauf en matière de stabilité, le muon ressemble à un électron : il a la même charge et le même spin, participe aux mêmes interactions, mais a une masse plus grande. En environ deux millionièmes de seconde, le muon se désintègre en un électron et deux neutrinos. Les muons sont répandus dans la nature et représentent une partie importante du rayonnement cosmique de fond détecté à la surface de la Terre par un compteur Geiger.

Pendant de nombreuses années, l’électron et le muon sont restés les seuls leptons chargés connus. Puis, à la fin des années 1970, un troisième lepton chargé a été découvert, appelé lepton tau. Avec une masse d'environ 3 500 masses électroniques, le lepton tau est évidemment le « poids lourd » du trio de leptons chargés, mais à tous autres égards, il se comporte comme un électron et un muon.

Cette liste de leptons connus n’est en aucun cas épuisée. Dans les années 60, on a découvert qu’il existait plusieurs types de neutrinos. Les neutrinos d'un type naissent avec un électron lors de la désintégration d'un neutron, et les neutrinos d'un autre type naissent lors de la naissance d'un muon. Chaque type de neutrino existe par paires avec son propre lepton chargé ; il existe donc un « neutrino électronique » et un « neutrino muonique ». Selon toute vraisemblance, il devrait également y avoir un troisième type de neutrino – accompagnant la naissance du lepton tau. Dans ce cas nombre total Il existe trois variétés de neutrinos et le nombre total de leptons est de six (tableau 1). Bien entendu, chaque lepton possède sa propre antiparticule ; le nombre total de leptons différents est donc de douze.


Tableau 1

Six leptons correspondent à des modifications chargées et neutres (les antiparticules ne sont pas incluses dans le tableau). La masse et la charge sont exprimées respectivement en unités de masse et de charge électroniques. Il existe des preuves que les neutrinos pourraient avoir une faible masse

Hadrons

Contrairement à la poignée de leptons connus, il existe littéralement des centaines de hadrons. Cela suggère à lui seul que les hadrons ne sont pas des particules élémentaires, mais sont constitués de composants plus petits. Tous les hadrons participent à des interactions fortes, faibles et gravitationnelles, mais on en trouve deux variétés : électriquement chargés et neutres. Parmi les hadrons, les plus connus et les plus répandus sont le neutron et le proton. Les hadrons restants ont une durée de vie courte et se désintègrent soit en moins d'un millionième de seconde en raison de la faible interaction, soit beaucoup plus rapidement (en un temps de l'ordre de 10 à 23 s) - en raison de la forte interaction.

Dans les années 1950, les physiciens étaient extrêmement intrigués par le nombre et la diversité des hadrons. Mais petit à petit, les particules ont été classées selon trois caractéristiques importantes : la masse, la charge et le spin. Peu à peu, des signes d’ordre ont commencé à apparaître et une image claire a commencé à se dessiner. Certains indices suggèrent que des symétries se cachent derrière le chaos apparent des données. Une étape décisive dans la résolution du mystère des hadrons a eu lieu en 1963, lorsque Murray Gell-Mann et George Zweig du California Institute of Technology ont proposé la théorie des quarks.


Figure 10 Les hadrons sont construits à partir de quarks. Un proton (top) est composé de deux quarks up et d'un quark d. Le pion le plus léger (en bas) est un méson composé d'un quark u et d'un antiquark d. Les autres hadrons sont toutes sortes de combinaisons de quarks.

L'idée principale de cette théorie est très simple. Tous les hadrons sont constitués de particules plus petites appelées quarks. Les quarks peuvent se combiner entre eux de deux manières moyens possibles: soit en triplets, soit en paires quark-antiquark. Les particules relativement lourdes sont constituées de trois quarks - les baryons, ce qui signifie « particules lourdes ». Les baryons les plus connus sont le neutron et le proton. Les paires quark-antiquark plus légers forment des particules appelées mésons -"particules intermédiaires". Le choix de ce nom s'explique par le fait que les premiers mésons découverts occupaient une position intermédiaire en masse entre les électrons et les protons. Pour prendre en compte tous les hadrons alors connus, Gell-Mann et Zweig ont introduit trois types différents (« saveurs ») de quarks, qui ont reçu des noms plutôt fantaisistes : Et(depuis en haut - supérieur), d(depuis vers le bas - inférieur) et s (de étrange- étrange). En admettant la possibilité de diverses combinaisons de saveurs, on peut expliquer l'existence grand nombre hadrons. Par exemple, un proton est constitué de deux Et- et un quark d (Fig. 10), et le neutron est composé de deux quarks d et d'un quark u.

Pour que la théorie proposée par Gell-Mann et Zweig soit efficace, il faut supposer que les quarks portent une charge électrique fractionnaire. En d’autres termes, ils ont une charge dont la valeur est soit 1/3, soit 2/3 de l’unité fondamentale – la charge de l’électron. Une combinaison de deux ou trois quarks peut avoir une charge totale de zéro ou un. Tous les quarks ont un spin 1/2. ils sont donc classés comme fermions. Les masses des quarks ne sont pas déterminées avec autant de précision que celles des autres particules, puisque leur énergie de liaison dans un hadron est comparable aux masses des quarks eux-mêmes. Cependant, on sait que le quark s est plus lourd Et- et les quarks D.

À l’intérieur des hadrons, les quarks peuvent se trouver dans des états excités, un peu comme les états excités d’un atome, mais avec des énergies beaucoup plus élevées. L'excès d'énergie contenu dans un hadron excité augmente tellement sa masse qu'avant la création de la théorie des quarks, les physiciens prenaient par erreur les hadrons excités pour des particules complètement différentes. Il est maintenant établi que bon nombre de hadrons apparemment différents ne sont en fait que des états excités du même ensemble fondamental de quarks.

Comme déjà mentionné au Chap. 5, les quarks sont maintenus ensemble par une forte interaction. Mais ils participent aussi à des interactions faibles. L'interaction faible peut changer la saveur d'un quark. C’est ainsi que se produit la désintégration des neutrons. L'un des quarks d du neutron se transforme en quark u et la charge excédentaire entraîne l'électron qui naît en même temps. De même, en changeant de saveur, l’interaction faible conduit à la désintégration d’autres hadrons.

L'existence des quarks S est nécessaire à la construction de particules dites « étranges » - des hadrons lourds, découverts au début des années 50. Le comportement inhabituel de ces particules, qui suggère leur nom, était qu'elles ne pouvaient pas se désintégrer en raison de fortes interactions, bien qu'elles-mêmes et leurs produits de désintégration soient des hadrons. Les physiciens se demandent pourquoi, si les particules mère et fille appartiennent à la famille des hadrons, la force puissante ne provoque pas leur désintégration. Pour une raison quelconque, ces hadrons « préféraient » l’interaction faible, beaucoup moins intense. Pourquoi? La théorie des quarks a naturellement résolu ce mystère. L'interaction forte ne peut pas changer la saveur des quarks - seule l'interaction faible peut le faire. Et sans changement de saveur, accompagné de la transformation du quark s en Et- ou quark d, la désintégration est impossible.

Dans le tableau La figure 2 présente les différentes combinaisons possibles de quarks à trois saveurs et leurs noms (généralement juste une lettre grecque). De nombreux états excités ne sont pas représentés. Le fait que tous les hadrons connus pouvaient être obtenus à partir de diverses combinaisons des trois particules fondamentales symbolisait le principal triomphe de la théorie des quarks. Mais malgré ce succès, quelques années plus tard seulement, il fut possible d'obtenir des preuves physiques directes de l'existence des quarks.

Cette preuve a été obtenue en 1969 dans une série d'expériences historiques menées au grand accélérateur linéaire de Stanford (Californie, États-Unis) - SLAC. Les expérimentateurs de Stanford raisonnaient simplement. S'il y a réellement des quarks dans le proton, alors des collisions avec ces particules à l'intérieur du proton peuvent être observées. Il suffit d’un « projectile » subnucléaire qui pourrait être dirigé directement dans les profondeurs du proton. Il est inutile d’utiliser à cet effet un autre hadron, puisqu’il a les mêmes dimensions qu’un proton. Un projectile idéal serait un lepton, comme un électron. Puisque l’électron ne participe pas à l’interaction forte, il ne « restera pas coincé » dans le milieu formé par les quarks. En même temps, un électron peut détecter la présence de quarks en raison de la présence de charge électrique.


Tableau 2

Les trois saveurs des quarks, u, d et s, correspondent aux charges +2/3, -1/3 et -1/3 ; ils se combinent par trois pour former les huit baryons indiqués dans le tableau. Les paires quark-antiquark forment des mésons. (Certaines combinaisons, telles que sss, sont omises.)

Dans l'expérience de Stanford, l'accélérateur de trois kilomètres agissait essentiellement comme un « microscope » électronique géant qui produisait des images de l'intérieur d'un proton. Un microscope électronique conventionnel peut distinguer des détails inférieurs à un millionième de centimètre. Un proton, en revanche, est plusieurs dizaines de millions de fois plus petit et ne peut être « sondé » que par des électrons accélérés à une énergie de 2,1010 eV. À l’époque des expériences de Stanford, peu de physiciens adhéraient à la théorie simplifiée des quarks. La plupart des scientifiques s'attendaient à ce que les électrons soient déviés par les charges électriques des protons, mais on supposait que la charge était uniformément répartie au sein du proton. Si tel était réellement le cas, il se produirait principalement une faible diffusion des électrons, c'est-à-dire En traversant les protons, les électrons ne subiraient pas de fortes déviations. L’expérience a montré que le modèle de diffusion diffère fortement de celui attendu. Tout s'est passé comme si des électrons volaient dans de minuscules inclusions solides et rebondissaient sur elles sous les angles les plus incroyables. Nous savons maintenant que ces inclusions solides à l’intérieur des protons sont des quarks.

En 1974, la version simplifiée de la théorie des quarks, qui était alors reconnue parmi les théoriciens, reçut un coup sensible. À quelques jours d'intervalle, deux groupes de physiciens américains - l'un à Stanford dirigé par Barton Richter, l'autre au Brookhaven National Laboratory dirigé par Samuel Ting - ont annoncé indépendamment la découverte d'un nouveau hadron, appelé particule psi. En soi, la découverte d'un nouveau hadron ne serait guère remarquable si ce n'était d'une circonstance : le fait est que dans le schéma proposé par la théorie des quarks, il n'y avait pas de place pour une seule nouvelle particule. Toutes les combinaisons possibles de quarks up, d et s et de leurs antiquarks ont déjà été « épuisées ». De quoi est constituée une particule psi ?

Le problème a été résolu en se tournant vers une idée qui était dans l’air depuis un certain temps : il devrait y avoir une quatrième odeur que personne n’avait jamais observée auparavant. Le nouveau parfum avait déjà son nom - charm (charme), ou s. Il a été suggéré qu'une particule psi est un méson constitué d'un quark c et d'un antiquark c (c), c'est-à-dire cc. Étant donné que les antiquarks sont porteurs d'anti-saveur, le charme de la particule psi est neutralisé et, par conséquent, la confirmation expérimentale de l'existence d'un nouveau goût (charme) a dû attendre la découverte de mésons, dans lesquels les quarks charmes étaient associés à des anti-quarkamps. d'autres saveurs. Toute une chaîne de particules enchantées est désormais connue. Ils sont tous très lourds, donc le quark charme s'avère plus lourd que le quark étrange.

La situation décrite ci-dessus s'est répétée en 1977, lorsque le méson upsilon (UPSILON) est apparu sur la scène. Cette fois, sans trop d'hésitation, une cinquième saveur a été introduite, appelée b-quark (de bas en bas, et plus souvent beauté - beauté ou charme). Le méson upsilon est une paire quark-antiquark composée de quarks b et possède donc une beauté cachée ; mais, comme dans le cas précédent, une combinaison différente de quarks a finalement permis de découvrir la « beauté ».

Les masses relatives des quarks peuvent être jugées au moins par le fait que le plus léger des mésons, le pion, est constitué de paires Et- et les quarks D avec les antiquarks. Le méson psi est environ 27 fois plus lourd que le pion et le méson upsilon est au moins 75 fois plus lourd.

L'élargissement progressif de la liste des arômes connus s'est produit parallèlement à l'augmentation du nombre de leptons ; la question évidente était donc de savoir s’il y aurait un jour une fin. Les quarks ont été introduits pour simplifier la description de toute la variété des hadrons, mais même aujourd'hui, on a le sentiment que la liste des particules s'allonge à nouveau trop rapidement.

Depuis l'époque de Démocrite, l'idée fondamentale de l'atomisme est la reconnaissance du fait qu'à une échelle suffisamment petite, il doit exister de véritables particules élémentaires dont les combinaisons constituent la matière qui nous entoure. L'atomisme est attrayant car les particules fondamentales indivisibles (par définition) doivent exister en nombre très limité. La diversité de la nature est due à un grand nombre non pas leurs éléments constitutifs, mais leurs combinaisons. Lorsqu'on a découvert qu'il existait de nombreux noyaux atomiques différents, l'espoir a disparu que ce que nous appelons aujourd'hui atomes correspondait à l'idée des Grecs de l'Antiquité. particules élémentaires ah les substances. Et bien que, selon la tradition, nous continuions à parler de divers « éléments » chimiques, on sait que les atomes ne sont pas du tout élémentaires, mais sont constitués de protons, de neutrons et d'électrons. Et comme le nombre de quarks s'avère trop grand, la tentation est grande de supposer qu'eux aussi le sont. systèmes complexes constitué de particules plus petites.

Bien que le schéma des quarks suscite pour cette raison une certaine insatisfaction, la plupart des physiciens considèrent les quarks comme de véritables particules élémentaires - ponctuelles, indivisibles et sans structure interne. À cet égard, elles ressemblent aux peptones, et on a longtemps supposé qu’il devait exister une relation profonde entre ces deux familles distinctes mais structurellement similaires. La base de ce point de vue découle d'une comparaison des propriétés des leptons et des quarks (tableau 3). Les leptons peuvent être regroupés par paires en associant chaque lepton chargé à un neutrino correspondant. Les quarks peuvent également être regroupés par paires. Tableau 3 est composé de telle manière que la structure de chaque cellule répète celle située directement devant elle. Par exemple, dans la deuxième cellule, le muon est représenté comme un « électron lourd » et les quarks charmés et étranges sont représentés comme des variantes lourdes. Et- et les quarks D. Dans l'encadré suivant, vous pouvez voir que le lepton tau est un « électron » encore plus lourd et que le quark b est une version plus lourde du quark d. Pour une analogie complète, nous avons besoin d'un neutrino supplémentaire (tau-leptonium) et d'un sixième type de quarks, qui a déjà reçu le nom de vrai (vérité, t). Au moment de la rédaction de ce livre, les preuves expérimentales de l’existence des quarks top n’étaient pas encore assez convaincantes, et certains physiciens doutaient même de l’existence des quarks top.


Tableau 3

Les leptons et les quarks s'associent naturellement. comme indiqué dans le tableau. Le monde qui nous entoure est constitué des quatre premières particules. Mais les groupes suivants répètent apparemment le groupe supérieur et sont constitués, dans la couronne de neutrinos, de particules extrêmement instables.

Peut-il y en avoir un quatrième, un cinquième, etc. des vapeurs contenant des particules encore plus lourdes ? Si tel est le cas, la prochaine génération d’accélérateurs donnera probablement aux physiciens la possibilité de détecter de telles particules. Cependant, une considération intéressante est exprimée, d'où il résulte qu'il n'y a pas d'autres paires que les trois nommées. Cette considération est basée sur le nombre de types de neutrinos. On apprendra bientôt qu'au moment du Big Bang, qui marqua l'émergence de l'Univers, il y eut une intense création de neutrinos. Une sorte de démocratie garantit à chaque type de particule la même part d'énergie que les autres ; par conséquent, plus il y a de types de neutrinos différents, plus la mer de neutrinos qui se remplit d'énergie est contenue espace. Les calculs montrent que s'il y avait plus de trois variétés de neutrinos, la gravité créée par chacun d'eux aurait un effet perturbateur important sur les processus nucléaires qui se sont produits au cours des premières minutes de la vie de l'Univers. Par conséquent, de ces considérations indirectes découle une conclusion très plausible selon laquelle les trois paires présentées dans le tableau. 3, tous les quarks et leptons qui existent dans la nature sont épuisés.

Il est intéressant de noter que toute la matière ordinaire de l'Univers est constituée uniquement de deux leptons les plus légers (électron et neutrino électronique) et de deux quarks les plus légers ( Et Et d). Si tous les autres leptons et quarks cessaient soudainement d’exister, alors très peu de choses changeraient dans le monde qui nous entoure.

Peut-être que les quarks et les leptons les plus lourds jouent le rôle d'une sorte de sauvegarde pour les quarks et les leptons les plus légers. Tous sont instables et se désintègrent rapidement en particules situées dans la cellule supérieure. Par exemple, le lepton tau et le muon se désintègrent en électrons, tandis que les particules étranges, charmées et belles se désintègrent assez rapidement en neutrons ou en protons (dans le cas des baryons) ou en leptons (dans le cas des mésons). La question se pose: Pour quoi Existe-t-il toutes ces particules de deuxième et troisième génération ? Pourquoi la nature en avait-elle besoin ?

Les particules sont porteuses d'interactions

La liste des particules connues est loin d’être limitée aux six paires de leptons et de quarks qui constituent le matériau de construction de la matière. Certains d’entre eux, comme le photon, ne sont pas inclus dans le circuit des quarks. Les particules « laissées par-dessus bord » ne sont pas des « éléments constitutifs de l'univers », mais forment une sorte de « colle » qui ne permet pas au monde de s'effondrer, c'est-à-dire ils sont associés à quatre interactions fondamentales.

Je me souviens qu'on m'avait dit, enfant, que la lune faisait monter et descendre les océans lors des marées quotidiennes. Cela a toujours été un mystère pour moi de savoir comment l'océan sait où se trouve la Lune et suit son mouvement dans le ciel. Lorsque j’ai découvert la gravité à l’école, ma perplexité n’a fait que s’intensifier. Comment la Lune, après avoir surmonté un quart de million de kilomètres d'espace vide, parvient-elle à « atteindre » l'océan ? La réponse standard - la Lune crée un champ gravitationnel dans cet espace vide, dont l'action atteint l'océan, le mettant en mouvement - avait bien sûr un certain sens, mais ne me satisfaisait toujours pas complètement. Après tout, nous ne pouvons pas voir le champ gravitationnel de la Lune. C'est peut-être juste ce qu'ils disent ? Est-ce que cela explique vraiment quelque chose ? Il m’a toujours semblé que la lune devait d’une manière ou d’une autre indiquer à l’océan où elle se trouve. Il doit y avoir une sorte d’échange de signaux entre la lune et l’océan pour que l’eau sache où se déplacer.

Au fil du temps, il s'est avéré que l'idée d'une force transmise à travers l'espace sous la forme d'un signal n'est pas si éloignée de l'approche moderne de ce problème. Pour comprendre comment une telle idée surgit, nous devrions examiner plus en détail la nature champ de force. A titre d'exemple, ne choisissons pas les marées océaniques, mais un phénomène plus simple : deux électrons se rapprochent, puis, sous l'influence de la répulsion électrostatique, s'envolent dans des directions différentes. Les physiciens appellent ce processus le problème de la diffusion. Bien sûr, les électrons ne se poussent pas littéralement. Ils interagissent à distance, grâce au champ électromagnétique généré par chaque électron.


Figure 11. Diffusion de deux particules chargées. Les trajectoires des particules sont courbées lorsqu’elles se rapprochent en raison de l’action de répulsion électrique.

Il n’est pas difficile d’imaginer l’image de la diffusion électron sur électron. Initialement, les électrons sont séparés longue distance et ont peu d'effet les uns sur les autres. Chaque électron se déplace presque rectiligne (Fig. 11). Ensuite, à mesure que les forces répulsives entrent en jeu, les trajectoires des électrons commencent à se plier jusqu'à ce que les particules soient aussi proches que possible ; après cela, les trajectoires divergent et les électrons se séparent, recommençant à se déplacer le long de trajectoires rectilignes, mais déjà divergentes. Un modèle de ce type peut facilement être démontré en laboratoire en utilisant des boules chargées électriquement au lieu d’électrons. Et encore une fois, la question se pose : comment une particule « sait » où se trouve une autre particule et modifie en conséquence son mouvement.

Bien que l’image des trajectoires courbes des électrons soit assez visuelle, elle est totalement inadaptée à plusieurs égards. Le fait est que les électrons sont des particules quantiques et que leur comportement obéit à des lois spécifiques la physique quantique. Tout d’abord, les électrons ne se déplacent pas dans l’espace selon des trajectoires bien définies. Nous pouvons encore déterminer d'une manière ou d'une autre les points de départ et d'arrivée du chemin - avant et après la diffusion, mais le chemin lui-même dans l'intervalle entre le début et la fin du mouvement reste inconnu et incertain. De plus, l’idée intuitive d’un échange continu d’énergie et d’impulsion entre l’électron et le champ, comme pour accélérer l’électron, contredit l’existence des photons. L'énergie et l'élan peuvent être transférés champ seulement en portions, ou quanta. Nous obtiendrons une image plus précise de la perturbation introduite par le champ dans le mouvement de l'électron en supposant que l'électron, absorbant un photon du champ, semble subir une poussée soudaine. Par conséquent, au niveau quantique, l’acte de diffuser un électron sur un électron peut être représenté comme le montre la figure 1. 12. La ligne ondulée reliant les trajectoires de deux électrons correspond à un photon émis par un électron et absorbé par l'autre. Or, l’acte de diffusion apparaît comme un changement soudain dans la direction du mouvement de chaque électron.


Figure 12. Description quantique de la diffusion des particules chargées. L'interaction des particules est due à l'échange d'un porteur d'interaction, ou photon virtuel (ligne ondulée).

Les diagrammes de ce type ont été utilisés pour la première fois par Richard Feynman pour représenter visuellement les différents termes d'une équation et avaient initialement une signification purement symbolique. Mais ensuite, les diagrammes de Feynman ont commencé à être utilisés pour représenter schématiquement les interactions entre particules. De telles images semblent compléter l’intuition du physicien, mais elles doivent être interprétées avec une certaine prudence. Par exemple, il n’y a jamais de rupture brutale dans la trajectoire des électrons. Puisque nous ne connaissons que les positions initiale et finale des électrons, nous ne savons pas exactement quand le photon est échangé ni quelle particule émet et laquelle absorbe le photon. Tous ces détails sont cachés par un voile d’incertitude quantique.

Malgré cette mise en garde, les diagrammes de Feynman se sont révélés être un moyen efficace de décrire les interactions quantiques. Le photon échangé entre les électrons peut être considéré comme une sorte de messager de l’un des électrons disant à l’autre : « Je suis là, alors bougez ! » Bien entendu, tous les processus quantiques sont de nature probabiliste, de sorte qu'un tel échange ne se produit qu'avec une certaine probabilité. Il peut arriver que des électrons échangent deux photons ou plus (Fig. 13), bien que cela soit moins probable.

Il est important de comprendre qu’en réalité nous ne voyons pas de photons passer d’un électron à un autre. Les porteurs d’interaction sont la « matière interne » de deux électrons. Ils existent uniquement pour indiquer aux électrons comment se déplacer, et bien qu’ils transportent de l’énergie et de la quantité de mouvement, les lois de conservation correspondantes de la physique classique ne s’appliquent pas à eux. Dans ce cas, les photons peuvent être assimilés à une balle que les joueurs de tennis échangent sur le terrain. Tout comme une balle de tennis détermine le comportement des joueurs de tennis sur le terrain de jeu, un photon influence le comportement des électrons.

La description réussie de l'interaction à l'aide d'une particule porteuse s'est accompagnée d'une expansion du concept de photon : un photon s'avère être non seulement une particule de lumière visible pour nous, mais aussi une particule fantomatique qui n'est « vue » que par des particules chargées. particules subissant une diffusion. Parfois, les photons que nous observons sont appelés réel, et les photons porteurs de l'interaction sont virtuel, ce qui rappelle leur existence éphémère, presque fantomatique. La distinction entre photons réels et virtuels est quelque peu arbitraire, mais ces concepts se sont néanmoins répandus.

La description de l'interaction électromagnétique à l'aide du concept de photons virtuels - ses porteurs - dans sa signification va au-delà des simples illustrations de nature quantique. En réalité, nous parlons d'une théorie pensée dans les moindres détails et dotée d'un appareil mathématique parfait, connu sous le nom de l'électrodynamique quantique, Abrégé en QED. Lorsque le QED a été formulé pour la première fois peu après la Seconde Guerre mondiale, les physiciens disposaient d’une théorie qui satisfaisait aux principes de base de la théorie quantique et de la relativité. C'est une merveilleuse occasion de voir les manifestations combinées de deux aspects importants de la nouvelle physique et. vérifiez-les expérimentalement.

Théoriquement, la création de QED était une réalisation exceptionnelle. Des études antérieures sur l’interaction des photons et des électrons ont eu un succès très limité en raison de difficultés mathématiques. Mais dès que les théoriciens ont appris à effectuer correctement les calculs, tout le reste s’est mis en place. QED a proposé une procédure permettant d'obtenir les résultats de tout processus, aussi complexe soit-il, impliquant des photons et des électrons.


Figure 13. La diffusion électronique est provoquée par l’échange de deux photons virtuels. De tels processus constituent une petite modification du processus principal illustré à la Fig. onze

Pour tester dans quelle mesure la théorie correspondait à la réalité, les physiciens se sont concentrés sur deux effets particulièrement intéressants. Le premier concerné niveaux d'énergie l'atome d'hydrogène est l'atome le plus simple. QED a prédit que les niveaux devraient être légèrement décalés par rapport à la position qu'ils occuperaient si les photons virtuels n'existaient pas. La théorie a prédit très précisément l’ampleur de ce changement. L'expérience visant à détecter et mesurer le déplacement avec une extrême précision a été réalisée par Willis Lamb de l'Université d'État. Arizona. Pour le plus grand plaisir de tous, les résultats des calculs ont parfaitement coïncidé avec les données expérimentales.

Le deuxième test décisif du QED concernait la correction extrêmement faible du moment magnétique propre de l'électron. Et encore une fois, les résultats des calculs théoriques et des expériences coïncidaient complètement. Les théoriciens ont commencé à affiner leurs calculs et les expérimentateurs ont commencé à améliorer leurs instruments. Mais, bien que la précision des prédictions théoriques et des résultats expérimentaux se soit continuellement améliorée, l’accord entre QED et l’expérience est resté impeccable. De nos jours, les résultats théoriques et expérimentaux concordent encore dans les limites de la précision atteinte, ce qui signifie une coïncidence de plus de neuf décimales. Une correspondance aussi frappante donne le droit de considérer le QED comme la plus avancée des théories existantes des sciences naturelles.

Il va sans dire qu’après un tel triomphe, le QED a été adopté comme modèle pour la description quantique des trois autres interactions fondamentales. Bien entendu, les champs associés à d’autres interactions doivent correspondre à d’autres particules porteuses. Pour décrire la gravité, il a été introduit gravitons, jouant le même rôle qu'un photon. Lors de l’interaction gravitationnelle de deux particules, des gravitons s’échangent entre elles. Cette interaction peut être visualisée à l'aide de diagrammes similaires à ceux présentés sur la Fig. 12 et 13. Ce sont les gravitons qui transportent les signaux de Des lunes aux océans, après quoi ils montent à marée haute et descendent à marée basse. Les gravitons se déplaçant entre la Terre et le Soleil maintiennent notre planète en orbite. Les gravitons nous enchaînent fermement à la Terre.

Comme les photons, les gravitons se déplacent à la vitesse de la lumière. Les gravitons sont donc des particules avec une « masse au repos nulle ». Mais c’est là que s’arrêtent les similitudes entre les gravitons et les photons. Alors qu’un photon a un spin de 1, un graviton a un spin de 2.


Tableau 4

Quatre particules porteuses interactions fondamentales. La masse est exprimée en unités de masse de protons.

Il s’agit d’une différence importante car elle détermine la direction de la force : dans l’interaction électromagnétique, les particules chargées de manière similaire, comme les électrons, se repoussent, tandis que dans l’interaction gravitationnelle, toutes les particules sont attirées les unes vers les autres.

Les gravitons peuvent être réels ou virtuels. Un vrai graviton n'est rien de plus qu'un quantum d'onde gravitationnelle, tout comme un vrai photon est un quantum onde électromagnétique. En principe, de vrais gravitons peuvent être « observés ». Mais comme l’interaction gravitationnelle est incroyablement faible, les gravitons ne peuvent pas être détectés directement. L'interaction des gravitons avec d'autres particules quantiques est si faible que la probabilité de diffusion ou d'absorption d'un graviton, par exemple, par un proton est infiniment petite.

L'idée de base de l'échange de particules porteuses s'applique également à d'autres interactions (tableau 4) - faibles et fortes. Cependant, il existe des différences importantes dans les détails. Rappelons que l'interaction forte assure la connexion entre les quarks. Une telle connexion peut être créée par un champ de force similaire à un champ électromagnétique, mais plus complexe. Les forces électriques conduisent à la formation d'un état lié de deux particules avec des charges de signes opposés. Dans le cas des quarks, des états liés de trois particules apparaissent, ce qui indique une nature plus complexe du champ de force, auquel correspondent trois types de « charge ». Particules - supports d'interaction entre quarks, les reliant par paires ou triplets, sont appelés des gluons.

Dans le cas d’une interaction faible, la situation est quelque peu différente. Le rayon de cette interaction est extrêmement petit. Par conséquent, les porteurs de l’interaction faible doivent être des particules ayant de grandes masses au repos. L’énergie contenue dans une telle masse doit être « empruntée » conformément au principe d’incertitude de Heisenberg, déjà évoqué p. 50. Mais étant donné que la masse « empruntée » (et donc l’énergie) est si importante, le principe d’incertitude exige que la période de remboursement d’un tel prêt soit extrêmement courte – seulement environ 10^-28 s. Ces particules à vie courte n'ont pas le temps de se déplacer très loin et le rayon d'interaction qu'elles transportent est très petit.

Il existe en réalité deux types de transporteurs à force faible. L’un d’eux est semblable à un photon en tout sauf en masse au repos. Ces particules sont appelées particules Z. Les particules Z constituent essentiellement un nouveau type de lumière. Un autre type de porteurs de force faible, les particules W, diffèrent des particules Z par la présence d'une charge électrique. Pouce. 7, nous discuterons plus en détail des propriétés des particules Z et W, qui n'ont été découvertes qu'en 1983.

La classification des particules en quarks, leptons et porteurs d'interactions complète la liste des particules subatomiques connues. Chacune de ces particules joue un rôle propre mais décisif dans la formation de l'Univers. S’il n’y avait pas de particules porteuses, il n’y aurait pas d’interactions et chaque particule resterait dans l’ignorance concernant ses partenaires. Des systèmes complexes ne pourraient pas naître, toute activité serait impossible. Sans quarks, il n’y aurait pas de noyaux atomiques ni de lumière solaire. Sans leptons, les atomes ne pourraient pas exister, les structures chimiques et la vie elle-même ne pourraient pas naître.

Quels sont les objectifs de la physique des particules ?

L'influent journal britannique The Guardian a publié un jour un éditorial remettant en question la sagesse du développement de la physique des particules, une entreprise coûteuse qui consomme non seulement une part importante du budget scientifique du pays, mais aussi la part du lion des meilleurs esprits. "Les physiciens savent-ils ce qu'ils font ?", a demandé le Guardian. "Même s'ils le savent, à quoi ça sert ? Qui, à part les physiciens, a besoin de toutes ces particules ?"

Quelques mois après cette publication, j'ai eu l'occasion d'assister à Baltimore à une conférence de George Keyworth, conseiller scientifique du président américain. Keyworth a également abordé la physique des particules, mais sa conférence a pris un ton complètement différent. Les physiciens américains ont été impressionnés par un rapport récent du CERN, le principal laboratoire européen de physique des particules, sur la découverte de particules fondamentales W et Z, qui ont finalement été obtenues dans un grand collisionneur de faisceaux à collision proton-antiproton. Les Américains sont habitués au fait que toutes les découvertes sensationnelles se font dans leurs laboratoires de physique des hautes énergies. Le fait qu'ils aient perdu la palme n'est-il pas un signe de déclin scientifique, voire national ?

Keyworth était convaincu que pour que les États-Unis en général et l’économie américaine en particulier prospèrent, le pays devait être à l’avant-garde de la recherche scientifique. Principaux projets Recherche basique, a déclaré Keyworth, sont à l'avant-garde du progrès. Les États-Unis doivent retrouver leur suprématie en physique des particules,

La même semaine, les chaînes d'information ont diffusé des reportages sur un projet américain d'accélérateur géant destiné à mener une nouvelle génération d'expériences en physique des particules. Le coût principal a été estimé à 2 milliards de dollars, faisant de cet accélérateur la machine la plus chère jamais construite par l'homme. Ce géant de l'Oncle Sam, en comparaison duquel même le nouvel accélérateur LEP du CERN apparaîtra comme un nain, est si grand que l'État luxembourgeois tout entier pourrait tenir dans son anneau ! Les aimants supraconducteurs géants sont conçus pour créer des champs magnétiques intenses qui courberont un faisceau de particules, le dirigeant le long d’une chambre en forme d’anneau ; c'est une structure tellement énorme que le nouvel accélérateur est censé être situé dans le désert. J'aimerais savoir ce qu'en pense le rédacteur en chef du journal Guardian.

Connu sous le nom de Superconducting Super Collider (SSC), mais plus souvent appelé « de-zertron » (de l'anglais. désert - désert. - ED.), cette monstrueuse machine sera capable d'accélérer des protons à des énergies environ 20 mille fois supérieures à l'énergie restante (masse). Ces chiffres peuvent être interprétés de différentes manières. À l’accélération maximale, les particules se déplaceront à une vitesse inférieure de seulement 1 km/h à la vitesse de la lumière – la vitesse maximale dans l’Univers. Les effets relativistes sont si importants que la masse de chaque particule est 20 000 fois supérieure à celle au repos. Dans le système associé à une telle particule, le temps est tellement étiré que 1 s correspond à 5,5 heures dans notre référentiel. Chaque kilomètre de la chambre traversée par la particule « semblera » être comprimé à seulement 5,0 cm.

Quel genre de besoin extrême pousse les États à consacrer des ressources aussi énormes à la fission toujours plus destructrice de l’atome ? Y a-t-il un avantage pratique à une telle recherche ?

N'importe lequel grande science, bien entendu, n’est pas étranger à l’esprit de lutte pour la priorité nationale. Ici, comme dans l'art ou le sport, c'est agréable de gagner des prix et reconnaissance mondiale. La physique des particules est devenue une sorte de symbole du pouvoir de l’État. S’il se développe avec succès et produit des résultats tangibles, cela signifie que la science, la technologie ainsi que l’économie du pays dans son ensemble sont fondamentalement au bon niveau. Cela renforce la confiance dans la haute qualité des produits issus d’autres branches technologiques plus générales. Pour créer un accélérateur et tous les équipements associés, très haut niveau professionnalisme. La précieuse expérience acquise grâce au développement de nouvelles technologies peut avoir des effets inattendus et bénéfiques sur d’autres domaines de la recherche scientifique. Par exemple, la recherche et le développement sur les aimants supraconducteurs nécessaires au « désertron » sont menés aux États-Unis depuis vingt ans. Cependant, ils n’apportent pas d’avantages directs et sont donc difficiles à évaluer. Y a-t-il des résultats plus tangibles ?

On entend parfois un autre argument en faveur de la recherche fondamentale. La physique a tendance à avoir environ cinquante ans d’avance sur la technologie. Application pratique de l'un ou l'autre découverte scientifique pas du tout évident au début, mais peu d'avancées significatives en physique fondamentale n'ont pas été découvertes au fil du temps Applications pratiques. Rappelons-nous la théorie de l'électromagnétisme de Maxwell : son créateur aurait-il pu prévoir la création et le succès des télécommunications et de l'électronique modernes ? Et les paroles de Rutherford selon lesquelles il est peu probable que l'énergie nucléaire soit jamais trouvée utilisation pratique? Est-il possible de prédire à quoi peut conduire le développement de la physique des particules élémentaires, quelles nouvelles forces et quels nouveaux principes seront découverts qui élargiront notre compréhension du monde qui nous entoure et nous donneront du pouvoir sur un plus large éventail de personnes ? phénomènes physiques. Et cela pourrait conduire au développement de technologies non moins révolutionnaires que la radio ou l’énergie nucléaire.

La plupart des branches de la science ont finalement trouvé des applications militaires. À cet égard, la physique des particules (par opposition à la physique nucléaire) est jusqu’à présent restée intouchable. Par coïncidence, la conférence de Keyworth a coïncidé avec le battage médiatique autour du projet controversé du président Reagan visant à créer une arme anti-missile, dite à faisceau (ce projet fait partie d'un programme appelé Initiative de défense stratégique, SDI). L'essence de ce projet est d'utiliser des faisceaux de particules à haute énergie contre les missiles ennemis. Cette application de la physique des particules est vraiment sinistre.

L’opinion dominante est que la création de tels dispositifs n’est pas réalisable. La plupart des scientifiques travaillant dans le domaine de la physique des particules élémentaires considèrent ces idées absurdes et contre nature et s'opposent vivement à la proposition du président. Condamnant les scientifiques, Keyworth les a exhortés à « réfléchir au rôle qu'ils pourraient jouer » dans le projet d'arme à faisceau. L'appel de Keyworth aux physiciens (un pur hasard, bien sûr) a suivi ses paroles concernant le financement de la physique des hautes énergies.

J’ai la ferme conviction que les physiciens des hautes énergies n’ont pas besoin de justifier la nécessité d’une recherche fondamentale en citant des applications (notamment militaires), des analogues historiques ou de vagues promesses de possibles miracles techniques. Les physiciens mènent ces études avant tout au nom de leur désir indéracinable de découvrir le fonctionnement de notre monde, du désir de comprendre la nature plus en détail. La physique des particules est sans précédent parmi les autres disciplines activité humaine. Depuis deux millénaires et demi, l’humanité s’efforce de retrouver les « éléments constitutifs » d’origine de l’univers, et nous sommes désormais proches de l’objectif final. Des installations géantes nous aideront à pénétrer au cœur même de la matière et à arracher à la nature ses secrets les plus profonds. L'humanité peut s'attendre à des applications inattendues de nouvelles découvertes, de technologies jusqu'alors inconnues, mais il se peut que la physique des hautes énergies ne donne rien pour la pratique. Mais même une majestueuse cathédrale ou une salle de concert n’a que peu d’utilité pratique. À cet égard, on ne peut s’empêcher de rappeler les paroles de Faraday, qui a dit un jour : « À quoi sert un nouveau-né ? Des types d'activités humaines qui sont loin de la pratique, parmi lesquels la physique des particules élémentaires, servent de preuve de la manifestation de l'esprit humain, sans laquelle nous serions condamnés dans notre monde trop matériel et pragmatique.

Sélectionnez l'isotope approprié. Certains éléments ou isotopes subissent une désintégration radioactive et différents isotopes peuvent se comporter différemment. L'isotope le plus courant de l'uranium a un poids atomique de 238 et est constitué de 92 protons et 146 neutrons, mais ses noyaux absorbent généralement les neutrons sans se diviser en noyaux d'éléments plus légers. Un isotope de l'uranium dont le noyau contient trois neutrons de moins, 235 U, se fissile beaucoup plus facilement que le 238 U et est appelé un isotope fissile.

  • Lorsque l'uranium se divise (fissions), trois neutrons sont libérés, qui entrent en collision avec d'autres atomes d'uranium, provoquant une réaction en chaîne.
  • Certains isotopes se divisent si facilement et si rapidement qu’il est impossible de maintenir une réaction nucléaire constante. Ce phénomène est appelé désintégration spontanée ou spontanée. Par exemple, l'isotope du plutonium 240 Pu est sujet à une telle désintégration, contrairement au 239 Pu, qui a un taux de fission plus faible.

Pour que la réaction se poursuive après la désintégration du premier atome, suffisamment d’isotopes doivent être collectés. Pour ce faire, il est nécessaire de disposer d’une certaine quantité minimale d’isotope fissile qui soutiendra la réaction. Cette quantité est appelée masse critique. Pour atteindre la masse critique et augmenter le risque de décomposition, une quantité suffisante de matière première est nécessaire.

  • Tirez sur un noyau atomique d'un isotope sur un autre noyau du même isotope. Les particules subatomiques étant rares sous forme libre, il est souvent nécessaire de les séparer des atomes contenant ces particules. Une façon d’y parvenir consiste à projeter un atome d’un isotope sur un autre du même atome.

    • Cette méthode a été utilisée pour créer bombe atomique du 235 U, qui a été largué sur Hiroshima. Une arme semblable à un canon avec un noyau d'uranium a tiré des atomes de 235 U sur une cible composée d'atomes similaires de 235 U. Les atomes ont volé assez vite pour que les neutrons libérés par eux pénètrent dans les noyaux d'autres atomes de 235 U et les divisent. La division, à son tour, a libéré des neutrons, qui ont divisé 235 atomes d'U supplémentaires.
  • Bombardez les noyaux d’un isotope fissile avec des particules subatomiques. Une seule particule subatomique peut frapper un atome de 235 U et le diviser en deux atomes distincts d'autres éléments, libérant ainsi trois neutrons. Les particules subatomiques peuvent être produites à partir d’une source contrôlée (comme un canon à neutrons) ou créées par des collisions de noyaux. Trois types de particules subatomiques sont couramment utilisées.

    • Protons. Ces particules subatomiques ont une masse et une charge électrique positive. Le nombre de protons dans un atome détermine de quel élément il s’agit.
    • Neutrons. Ces particules subatomiques ont la même masse qu’un proton, mais elles sont neutres (sans charge électrique).
    • Particules alpha. Ces particules sont les noyaux dépourvus d’électrons des atomes d’hélium. Ils sont constitués de deux protons et de deux neutrons.
  • Fission nucléaire

    La découverte des isotopes des éléments stables et l'affinement des mesures de la charge élémentaire furent les premières réalisations de la physique d'après-guerre (1917-1918). En 1919, un nouveau fut construit découverte sensationnelle- clivage artificiel du noyau. Cette découverte a été faite par Rutherford à Cambridge au laboratoire Cavendish, qu'il dirigeait la même année 1919.

    Rutherford a étudié la collision des particules alpha avec des atomes légers. Les collisions de particules alpha avec les noyaux de ces atomes devraient les accélérer. Ainsi, lorsqu'une particule alpha heurte un noyau d'hydrogène, sa vitesse augmente de 1,6 fois et le noyau enlève 64 % de son énergie à la particule alpha. De tels noyaux accélérés sont facilement détectés par les scintillations qui se produisent lorsqu'ils heurtent un écran de sulfure de zinc. Ils ont été observés par Marsden en 1914.

    Rutherford a poursuivi les expériences de Marsden, mais, comme il l'a lui-même noté, ces expériences « ont été menées à intervalles très irréguliers, dans la mesure où les activités quotidiennes et les travaux liés à la guerre le permettaient... » « Les expériences ont même été complètement arrêtées pendant une longue période ». Ce n'est qu'après la fin de la guerre que des expériences furent menées régulièrement et leurs résultats furent publiés en 1919 dans quatre articles sous Nom commun"Collision de particules alpha avec des atomes légers."

    L'appareil utilisé par Rutherford pour étudier de telles collisions était une chambre en laiton de 18 cm de long, 6 cm de haut et 2 cm de large. La source de particules alpha était un disque métallique recouvert de substance active. Le disque était placé à l'intérieur de la chambre et pouvait être installé à différentes distances de l'écran de sulfure de zinc, sur lequel la scintillation était observée au microscope.

    La chambre pourrait être remplie de divers gaz (voir Fig. 78).

    Riz. 78. Spectrographe de masse Dempester

    Lorsque de l'oxygène sec ou du dioxyde de carbone était introduit, le nombre de scintillations diminuait en raison de l'absorption des particules alpha par la couche de gaz. « Un effet inattendu, cependant, écrit Rutherford dans le quatrième article, a été découvert lorsque de l'air sec a été introduit dans l'appareil. Au lieu de diminuer, le nombre de scintillations a augmenté, et pour une absorption correspondant à environ une couche d'air de 19 cm, leur nombre était environ 2 fois supérieur à celui observé sous vide. De cette expérience, il est apparu clairement que les particules a, lorsqu’elles traversent l’air, donnent naissance à des scintillations correspondant à de grandes longueurs de trajet, dont la luminosité à l’œil semblait approximativement égale à la luminosité des scintillations H. » Puisque dans l'oxygène et gaz carbonique Si un tel effet n'était pas observé, alors avec une forte probabilité, on pourrait affirmer que cet effet doit son origine à l'azote.

    La chambre était remplie d'azote propre et parfaitement séché. "Dans l'azote pur, le nombre de scintillations correspondant à une longue portée était plus grand que dans l'air." Ainsi, « les scintillations à longue portée observées dans l’air doivent être attribuées à l’azote ».

    Il fallait cependant montrer que les particules alpha à longue portée qui provoquent la scintillation « sont le résultat de collisions de particules alpha avec des atomes d’azote ».

    Schéma de la première installation Millikan

    Grâce à de nombreuses expériences, Rutherford a montré que c'était effectivement le cas et que, à la suite de telles collisions, on obtenait des particules d'une portée maximale de 28 cm, la même que celle des atomes d'hydrogène. « D'après les résultats obtenus jusqu'à présent », écrit Rutherford, « il est difficile d'éviter la conclusion que les atomes à longue portée produits lors de la collision de particules alpha avec l'azote ne sont pas des atomes d'azote, mais, selon toute probabilité, des atomes d'hydrogène ou des atomes d'azote. de masse 2 "Si tel est le cas, alors nous devons conclure que l'atome d'azote se désintègre à la suite des énormes forces développées lors d'une collision avec une particule alpha rapide, et que l'atome d'hydrogène libéré fait partie intégrante de l'atome."

    Ainsi, le phénomène de division des noyaux d'azote lors d'impacts de particules alpha rapides a été découvert et l'idée a été exprimée pour la première fois que les noyaux d'hydrogène font partie intégrante des noyaux atomiques. Rutherford a ensuite proposé le terme « proton » pour désigner ce composant du noyau. Rutherford a terminé son article par ces mots : « Les résultats dans leur ensemble indiquent que si des particules alpha ou des particules similaires se déplaçant rapidement avec une énergie beaucoup plus élevée pouvaient être utilisées pour des expériences, la destruction des structures nucléaires de nombreux atomes légers pourrait être détectée. »

    Le 3 juin 1920, Rutherford donna la conférence dite boulangerienne intitulée « La structure nucléaire de l’atome ». Rapportant dans cette conférence les résultats de ses recherches sur la collision des particules alpha avec les noyaux atomiques et sur la fission des noyaux d'azote, Rutherford, discutant de la nature des produits de fission, a fait une hypothèse sur la possibilité de l'existence de noyaux de masse 3. et 2 et des noyaux ayant la masse d'un noyau d'hydrogène, mais avec une charge nulle. Ce faisant, il part de l’hypothèse exprimée pour la première fois par Marie Skłodowska-Curie selon laquelle le noyau atomique contient des électrons.

    Rutherford écrit qu'« il lui semble très plausible qu'un électron puisse lier deux noyaux H et peut-être même un noyau H. » Si la première hypothèse est vraie, cela indique la possibilité de l'existence d'un atome avec une masse d'environ 2 et une charge. Une telle substance doit être considérée comme un isotope de l’hydrogène. La deuxième hypothèse implique la possibilité de l'existence d'un atome de masse 1 et de charge nucléaire égale à zéro. De telles formations semblent tout à fait possibles… Un tel atome aurait des propriétés absolument fantastiques. Son champ externe doit être pratiquement égal à zéro, à l'exception des régions très proches du noyau ; en conséquence, il devrait avoir la capacité de traverser librement la matière. L’existence d’un tel atome serait probablement difficile à détecter avec un spectroscope, et il ne serait pas possible de le contenir dans un récipient fermé. D’un autre côté, il devrait facilement entrer dans la structure de l’atome et soit se combiner avec son noyau, soit être accéléré par le champ intense de ce dernier, donnant naissance à un atome H ou à un électron chargé, ou aux deux.

    Ainsi, une hypothèse a été avancée sur l'existence d'un neutron et d'un isotope lourd de l'hydrogène. Elle a été exprimée sur la base de l'hypothèse proposée par M. Sklodowska-Curie selon laquelle les noyaux des atomes sont constitués de noyaux d'hydrogène (protons) et d'électrons.

    Ce concept expliquait immédiatement les nombres nucléaires caractéristiques A et Z.

    Cependant, des caractéristiques du noyau telles que le nombre de masse A et la charge Z se sont révélées insuffisantes. En 1924, avant la découverte du spin, W. Pauli a suggéré que le noyau possède un moment magnétique qui affecte le mouvement des électrons orbitaux et crée ainsi une structure hyperfine de raies spectrales. Explication de la structure fine des spectres par la présence de phénomènes liés au spin moments magnétiques Les noyaux ont conduit à la division des noyaux en deux types. Les noyaux de type pair, qui ont un spin entier, obéissent aux statistiques de Bose ; les noyaux de type impair, qui ont un spin demi-entier, obéissent aux statistiques de Fermi-Dirac. Par conséquent, selon la théorie proton-électron, les noyaux constitués d'un nombre pair d'électrons et de protons devraient obéir aux statistiques de Bose, et ceux d'un nombre impair aux statistiques de Fermi-Dirac.

    En 1930, il s'est avéré que le noyau d'azote obéit aux statistiques de Bose, bien que, selon la théorie proton-électron de la structure du noyau, il soit constitué de 21 particules (14 protons, 7 électrons). Ce fait est appelé en science la catastrophe de l’azote.

    La même année où la catastrophe de l'azote fut découverte, les résultats des expériences de L. Meitner et Ortmann furent publiés, confirmant les résultats des expériences d'Ellis et Worcester en 1927. Ces expériences montrèrent que l'énergie totale de (3 rayons, mesurée par un microcalorimètre à paroi épaisse, est inférieure à la différence d'énergie du noyau d'origine et du noyau final, c'est-à-dire qu'une partie de l'énergie émise par le noyau lors de la désintégration p disparaît, ce qui entraîne une contradiction flagrante avec la loi de conservation de l'énergie.

    La solution au problème de la catastrophe de l'azote et à l'énigme des spectres p a été donnée sur la base de l'idée de l'existence dans la nature de particules neutres - lourdes, appelées neutrons, et légères - appelées neutrinos, c'est-à-dire , un petit neutron, à la suggestion de Fermi.

    Extrait du livre Les Aventures de Monsieur Tompkins auteur Gamov Gueorgui

    Chapitre 12 À l'intérieur du noyau La conférence suivante à laquelle M. Tompkins a assisté était consacrée à la structure interne du noyau en tant que centre autour duquel tournent les électrons atomiques. « Mesdames et messieurs », commença le professeur. - En approfondissant la structure de la matière, nous essaierons

    Extrait du livre [conférence pour les écoliers] auteur Ivanov Igor Pierovitch

    Monde incroyableà l'intérieur du noyau atomique

    Du livre Livre le plus récent faits. Tome 3 [Physique, chimie et technologie. Histoire et archéologie. Divers] auteur Kondrashov Anatoly Pavlovitch

    Le monde étonnant à l’intérieur du noyau atomique

    Extrait du livre Neutrino - la particule fantomatique d'un atome par Isaac Asimov

    Extrait du livre Cours d'histoire de la physique auteur Stepanovitch Koudryavtsev Pavel

    Extrait du livre Voyage interplanétaire [Vols vers espace mondial et réalisation corps célestes] auteur Perelman Yakov Isidorovitch

    Structure du noyau Bien que la question du rayonnement d'une particule semble enfin éclaircie, la loi de conservation de la charge électrique étant remplie, les physiciens poursuivent leurs recherches. La manière dont un noyau chargé positivement pouvait émettre des particules restait un mystère pour eux.

    Extrait du livre Histoire de la bombe atomique par Mania Hubert

    Répulsion à l'intérieur d'un noyau En 1932, il devint clair que les noyaux étaient constitués exclusivement de protons et de neutrons. De plus premières théories, qui soutenait qu'il y avait des électrons dans le noyau, a refusé. Bien que cela ait résolu de nombreux problèmes à la fois, une question s'est posée qui n'existait pas auparavant.

    Extrait du livre Risque astéroïde-comète : hier, aujourd'hui, demain auteur Choustov Boris Mikhaïlovitch

    Attraction à l'intérieur du noyau Si, lorsqu'on considère les noyaux atomiques, on néglige les interactions gravitationnelles et ne prend en compte que les interactions électromagnétiques, il est difficile d'expliquer l'existence du noyau. Les particules qui le composent n'ont pas pu se rassembler à cause de forces colossales

    Extrait du livre Marie Curie. La radioactivité et les éléments [Le secret le mieux gardé de la matière] auteur Paes Adela Muñoz

    Découverte du noyau atomique Considérons un peu plus en détail l'une des découvertes fondamentales de Rutherford : la découverte du noyau atomique et du modèle planétaire de l'atome. Nous avons vu que l'assimilation d'un atome à un système planétaire a été faite au tout début du XXe siècle. Mais ce modèle était difficile

    Extrait du livre de l'auteur

    Modèle proton-neutron du noyau 28 mai 1932 physicien soviétique D. D. Ivanenko a publié une note dans Nature dans laquelle il suggère que le neutron, avec le proton, est un élément structurel du noyau. Il a souligné qu'une telle hypothèse résout le problème de la catastrophe de l'azote. DANS

    Extrait du livre de l'auteur

    À l'intérieur du Noyau Ce voyage sans précédent pour les passagers du Noyau Jules Vernov ne sera pas aussi paisible et prospère que celui décrit dans le roman. Ne pensez pas pour autant qu’un danger les menace lors du voyage de la Terre à la Lune. Pas du tout! S'ils parvenaient à rester en vie à ce moment-là

    Extrait du livre de l'auteur

    Au chapitre VIII 6. Pression à l'intérieur d'un boulet de canon Pour les lecteurs qui voudraient vérifier les calculs mentionnés à la page 65, nous présentons ici ces calculs simples. Pour les calculs nous devrons utiliser seulement deux formules de mouvement accéléré, à savoir : 1) Vitesse v à la fin

    Extrait du livre de l'auteur

    Extrait du livre de l'auteur

    4.2. Caractéristiques physiques, structure du noyau B la dernière décennie notre connaissance des comètes et des processus qui s'y déroulent s'est considérablement élargie. Une forte augmentation de l'intérêt pour les comètes a été facilitée par la préparation et la tenue de l'espace international

    Extrait du livre de l'auteur

    RUTHERFORD ET LA DÉCOUVERTE DU NOYAU ATOMIQUE Qu'est-il arrivé à quelqu'un qui était un bon joueur de rugby dans sa jeunesse et qui, avant tout le monde, s'est rendu compte que l'atome pouvait se désintégrer ? Ernest Rutherford mit fin à son « exil » américain en janvier 1907, quelque temps après sa mort.



    Lire aussi :