Ist Natürlichkeit Natürlich? - Alternative Ansicht

Inhaltsverzeichnis:

Ist Natürlichkeit Natürlich? - Alternative Ansicht
Ist Natürlichkeit Natürlich? - Alternative Ansicht

Video: Ist Natürlichkeit Natürlich? - Alternative Ansicht

Video: Ist Natürlichkeit Natürlich? - Alternative Ansicht
Video: Essbare Psychoaktive Wildpflanzen: Kleines Habichtskraut - Ein Cannabisersatz 2024, Juli
Anonim

Fachleute auf dem Gebiet der Grundlagenphysik (und jetzt per Definition die Theorie der Elementarteilchen, der relativistischen Astrophysik und der Kosmologie) vergleichen häufig den Stand ihrer Wissenschaft mit der Situation am Ende des 19. Jahrhunderts. Die Physik jener Tage, die auf der Newtonschen Mechanik, der Maxwellschen Theorie des elektromagnetischen Feldes, der Thermodynamik und der statistischen Mechanik von Boltzmann-Gibbs basierte, erklärte erfolgreich fast alle experimentellen Ergebnisse. Es gab zwar auch Missverständnisse - das Null-Ergebnis des Michelson-Morley-Experiments, das Fehlen einer theoretischen Erklärung der Schwarzkörper-Strahlungsspektren, die Instabilität der Materie, die sich im Phänomen der Radioaktivität manifestierte. Es gab jedoch nur wenige von ihnen, und sie zerstörten nicht die Hoffnung auf einen garantierten Triumph der gebildeten wissenschaftlichen Ideen - zumindest nichtaus der Sicht der absoluten Mehrheit der angesehenen Wissenschaftler. Fast niemand erwartete eine radikale Einschränkung der Anwendbarkeit des klassischen Paradigmas und die Entstehung einer grundlegend neuen Physik. Und doch wurde sie geboren - und das in nur drei Jahrzehnten. Der Fairness halber ist anzumerken, dass die klassische Physik ihre Fähigkeiten seitdem so weit erweitert hat, dass ihre Errungenschaften Titanen vergangener Zeiten wie Faraday, Clausius, Helmholtz, Rayleigh, Kelvin und Lorenz fremd erschienen wären. Aber das ist eine ganz andere Geschichte.dass ihre Leistungen Titanen alter Zeiten wie Faraday, Clausius, Helmholtz, Rayleigh, Kelvin und Lorenz fremd erschienen wären. Aber das ist eine ganz andere Geschichte.dass ihre Leistungen Titanen alter Zeiten wie Faraday, Clausius, Helmholtz, Rayleigh, Kelvin und Lorenz fremd erschienen wären. Aber das ist eine ganz andere Geschichte.

Eine ausführliche Erörterung der Schwierigkeiten der modernen Grundlagenphysik wird zu viel Platz in Anspruch nehmen und liegt außerhalb meiner Absicht. Daher werde ich mich auf einige bekannte Schwächen der erfolgreichsten und universellsten Theorie der Mikrowelt beschränken - das Standardmodell der Elementarteilchen. Es beschreibt zwei der drei grundlegenden Wechselwirkungen - stark und elektroschwach, beeinflusst jedoch nicht die Schwerkraft. Diese wirklich großartige Theorie ermöglichte es, viele Phänomene unter Verwendung des Prinzips der Eichinvarianz zu verstehen. Sie erklärte jedoch nicht das Vorhandensein von Masse in Neutrinos und enthüllte nicht die Dynamik der spontanen Symmetriebrechung der elektroschwachen Wechselwirkung, die für das Auftreten von Masse aufgrund des Higgs-Mechanismus verantwortlich ist. Es war nicht möglich, die Natur und Eigenschaften von Partikeln vorherzusagen, die als Kandidaten für die Rolle von Trägern dunkler Materie angesehen werden können. Das Standardmodell war auch nicht in der Lage, eindeutige Verbindungen zu Inflationstheorien herzustellen, die im Zentrum der modernen Kosmologie stehen. Und schließlich hat sie den Weg zur Konstruktion einer Quantentheorie der Gravitation trotz der wirklich titanischen Bemühungen der Theoretiker nicht geklärt.

Ich gehe nicht davon aus, dass die angeführten Beispiele (und es gibt andere) es ermöglichen, den Übergang der Grundlagenphysik in einen instabilen Zustand mit einer neuen wissenschaftlichen Revolution zu beurteilen. Hierzu gibt es unterschiedliche Meinungen. Ich interessiere mich für eine Frage, die nicht so global, aber nicht weniger interessant ist. Viele zeitgenössische Veröffentlichungen stellen die Anwendbarkeit des Natürlichkeitskriteriums theoretischer Konzepte in Frage, das seit langem als zuverlässiges und wirksames Leitprinzip bei der Konstruktion von Mikrokosmosmodellen gilt (siehe beispielsweise GF Giuduce, 2017. Die Morgendämmerung der Ära nach der Natürlichkeit). Ist das so, was ist die Natürlichkeit einer physikalischen Theorie und was kann sie ersetzen? Zunächst habe ich mit Sergei Troitsky, Chefforscher am Institut für Kernforschung der Russischen Akademie der Wissenschaften, darüber gesprochen.

Sergey Vadimovich Troitsky, Korrespondierendes Mitglied der Russischen Akademie der Wissenschaften, Leitender Forscher am Institut für Kernforschung der Russischen Akademie der Wissenschaften. Foto von prof-ras.ru
Sergey Vadimovich Troitsky, Korrespondierendes Mitglied der Russischen Akademie der Wissenschaften, Leitender Forscher am Institut für Kernforschung der Russischen Akademie der Wissenschaften. Foto von prof-ras.ru

Sergey Vadimovich Troitsky, Korrespondierendes Mitglied der Russischen Akademie der Wissenschaften, Leitender Forscher am Institut für Kernforschung der Russischen Akademie der Wissenschaften. Foto von prof-ras.ru

Sergei, zuerst wollen wir uns auf die Hauptsache einigen. Wie beurteilen Sie den aktuellen Stand der Grundlagenphysik? Ist es nach der bekannten Terminologie von Thomas Kuhn normale Wissenschaft, Wissenschaft in einer Vorkrisenphase oder nur in einer Krise?

ST: Sie klassifizieren die Kosmologie als grundlegende Physik. Das ist durchaus vernünftig, aber ich bin kein Experte darin, und deshalb werde ich auf Bewertungen verzichten. Wenn wir jedoch über die Hochenergiephysik und das Standardmodell der Elementarteilchen als theoretische Grundlage sprechen, dann ist in diesem Bereich tatsächlich alles sehr schwierig. Seit vielen Jahren arbeitet der Large Hadron Collider (LHC) am CERN und liefert Ergebnisse. Dank ihm ist die Situation in der Teilchenphysik einerseits sehr langweilig und andererseits äußerst interessant geworden. Ich erinnere mich oft daran, dass ein hoch angesehener theoretischer Physiker kurz vor dem Start des LHC vorausgesagt hatte, dass sich jetzt eine breite Pfeilerstraße in unserer Wissenschaft öffnen würde, die schnell zu bedeutenden Entdeckungen führen würde. Er glaubte, dass buchstäblich in den ersten Stunden des Betriebs des Kolliders oder spätestens innerhalb eines Jahres Partner bereits bekannter Partikel identifiziert werden würden.lange von der Theorie der Supersymmetrie vorhergesagt. Sie wurden im Voraus als lang erwartete Partikel dunkler Materie angesehen, die über viele Jahre untersucht werden konnten. Das ist die große Perspektive für unsere Wissenschaft.

Und was ist in der Praxis passiert? Es gab keine Superpartner und nein, und die Chancen, sie in Zukunft zu öffnen, haben sich stark verringert. Vor sechs Jahren wurde das Higgs-Boson am LHC gefangen und es wurde eine weltweite Sensation. Aber wie können Sie das bewerten? Ich würde sagen, dass dies in gewissem Sinne die schrecklichste Leistung des LHC ist, da die Higgs vor langer Zeit vorhergesagt wurden. Alles wäre viel interessanter, wenn es nicht möglich wäre, es zu öffnen. Und jetzt stellt sich heraus, dass wir nur das Standardmodell haben, auch wenn es in Experimenten gut bestätigt wurde. Wunder sind nicht geschehen, Entdeckungen, die außerhalb des Anwendungsbereichs des Standardmodells liegen, wurden nicht gemacht. In diesem Sinne ist die Situation tatsächlich vor der Krise, da wir sicher wissen, dass das Standardmodell nicht vollständig ist. Sie haben dies bereits in der Einleitung zu unserem Gespräch vermerkt.

Wenn zwei Protonen kollidieren (in der Figur nicht gezeigt), werden zwei Quarks (Quark) gebildet, die beim Zusammenführen ein W-Boson (schwaches Vektorboson) bilden - ein Teilchen, das eine schwache Wechselwirkung trägt. Das W-Boson emittiert das Higgs-Boson, das in zwei b-Quarks (Bottom-Quark) zerfällt. Bild aus dem Artikel: B. Tuchming, 2018. Lang ersehnter Zerfall des Higgs-Bosons gesehen
Wenn zwei Protonen kollidieren (in der Figur nicht gezeigt), werden zwei Quarks (Quark) gebildet, die beim Zusammenführen ein W-Boson (schwaches Vektorboson) bilden - ein Teilchen, das eine schwache Wechselwirkung trägt. Das W-Boson emittiert das Higgs-Boson, das in zwei b-Quarks (Bottom-Quark) zerfällt. Bild aus dem Artikel: B. Tuchming, 2018. Lang ersehnter Zerfall des Higgs-Bosons gesehen

Wenn zwei Protonen kollidieren (in der Figur nicht gezeigt), werden zwei Quarks (Quark) gebildet, die beim Zusammenführen ein W-Boson (schwaches Vektorboson) bilden - ein Teilchen, das eine schwache Wechselwirkung trägt. Das W-Boson emittiert das Higgs-Boson, das in zwei b-Quarks (Bottom-Quark) zerfällt. Bild aus dem Artikel: B. Tuchming, 2018. Lang ersehnter Zerfall des Higgs-Bosons gesehen.

Werbevideo:

Dann gehen wir weiter. Wie wichtig ist das Prinzip der Natürlichkeit in der Partikeltheorie und was ist es? Es ist kein einfacher Respekt vor dem gesunden Menschenverstand, oder?

ST: Ich sehe es als eine Art ästhetisches Kriterium, aber hier sind Klarstellungen erforderlich. Das Standardmodell besteht aus drei Komponenten. Erstens ist es die Liste der Partikel, die es enthält. Alle wurden bereits entdeckt, das Higgs-Boson war das letzte. Zweitens gibt es eine Gruppe von Interaktionen, die sie beschreibt. Es gibt aber auch einen dritten Teil - eine Reihe freier Parameter. Dies sind neunzehn Zahlen, die nur experimentell bestimmt werden können, da sie nicht im Rahmen des Modells selbst berechnet werden (siehe S. V. Troitsky, 2012. Ungelöste Probleme der Elementarteilchenphysik).

Und hier entstehen Schwierigkeiten. Erstens gibt es zu viele dieser Parameter. Neunzehn ist eine seltsame Zahl, die nirgendwo zu folgen scheint. Darüber hinaus sind ihre Bedeutungen zu unterschiedlich und daher schwer zu erklären. Nehmen wir an, die Anzahl der freien Parameter umfasst die Massen der Leptonen - Elektronen, Myonen und Tau-Teilchen. Ein Myon ist ungefähr zweihundert Mal schwerer als ein Elektron, und ein Tau ist fast zwanzig Mal massereicher als ein Myon. Bei Quarks ist es genauso - ihre Massen unterscheiden sich um Größenordnungen, und alles andere ist gleich.

Die Massen aller Partikel des Standardmodells sind über einen sehr weiten Bereich verteilt. Im Standardmodell wird diese Massenhierarchie nicht zufriedenstellend erklärt. Bild aus dem Abschnitt "Schwierigkeiten" des Standardmodells von Igor Ivanovs Projekt des Large Hadron Collider
Die Massen aller Partikel des Standardmodells sind über einen sehr weiten Bereich verteilt. Im Standardmodell wird diese Massenhierarchie nicht zufriedenstellend erklärt. Bild aus dem Abschnitt "Schwierigkeiten" des Standardmodells von Igor Ivanovs Projekt des Large Hadron Collider

Die Massen aller Partikel des Standardmodells sind über einen sehr weiten Bereich verteilt. Im Standardmodell wird diese Massenhierarchie nicht zufriedenstellend erklärt. Bild aus dem Abschnitt "Schwierigkeiten" des Standardmodells von Igor Ivanovs Projekt des Large Hadron Collider.

Ein weiteres Beispiel ist der Wert des dimensionslosen Parameters, der die Verletzung der CP-Invarianz bei starken Interaktionen kennzeichnet. Sein genauer Wert ist unbekannt, aber Experimente zeigen, dass er auf jeden Fall weniger als 10-9 beträgt. Auch das ist seltsam. Im Allgemeinen variieren die freien Parameter des Standardmodells stark in ihrer Größe und sehen fast zufällig aus.

Eine der Methoden zur experimentellen Registrierung von Axionen. Die Abbildung in Blau zeigt den geschätzten Fluss der von der Sonne emittierten Axionen, die dann im Erdmagnetfeld (rot) in Röntgenstrahlen (orange) umgewandelt werden. Diese Strahlen konnten mit dem XMM-Newton-Weltraum-Röntgenteleskop erfasst werden. Es ist noch nicht bekannt, wo nach Axionen gesucht werden soll: Sie können Teilchen dunkler Materie sein oder sich in der Entwicklung von Sternen manifestieren
Eine der Methoden zur experimentellen Registrierung von Axionen. Die Abbildung in Blau zeigt den geschätzten Fluss der von der Sonne emittierten Axionen, die dann im Erdmagnetfeld (rot) in Röntgenstrahlen (orange) umgewandelt werden. Diese Strahlen konnten mit dem XMM-Newton-Weltraum-Röntgenteleskop erfasst werden. Es ist noch nicht bekannt, wo nach Axionen gesucht werden soll: Sie können Teilchen dunkler Materie sein oder sich in der Entwicklung von Sternen manifestieren

Eine der Methoden zur experimentellen Registrierung von Axionen. Die Abbildung in Blau zeigt den geschätzten Fluss der von der Sonne emittierten Axionen, die dann im Erdmagnetfeld (rot) in Röntgenstrahlen (orange) umgewandelt werden. Diese Strahlen konnten mit dem XMM-Newton-Weltraum-Röntgenteleskop erfasst werden. Es ist noch nicht bekannt, wo nach Axionen gesucht werden soll: Sie können Teilchen dunkler Materie sein oder sich in der Entwicklung von Sternen manifestieren.

Es gibt also zu viele freie Parameter des Standardmodells, deren Werte unmotiviert und übermäßig gestreut wirken. Aber was hat Natürlichkeit damit zu tun?

S. T.: Und wir sind gerade auf sie zugekommen. In der Elementarteilchenphysik hat das Prinzip der Natürlichkeit theoretischer Modelle eine ganz bestimmte Bedeutung. Es erfordert, dass alle dimensionslosen freien Parameter entweder gleich Null sind oder dass sich die Größenordnung nicht zu stark von Eins unterscheidet - etwa im Bereich von einem Tausendstel bis Tausend. Die Parameter des Standardmodells erfüllen dieses Kriterium eindeutig nicht. Es gibt aber auch eine zusätzliche Bedingung, die 1980 von dem bemerkenswerten niederländischen theoretischen Physiker Gerard 't Hooft, einem der Schöpfer des Standardmodells, formuliert wurde. Er postulierte, dass ein sehr kleiner Wert eines freien Parameters nur dann eine natürliche Erklärung erhält, wenn seine strikte Nullung zum Auftreten einer zusätzlichen Symmetrie führt, der die Gleichungen der Theorie gehorchen. Laut 't Hooft,Die „Nähe“einer solchen Symmetrie dient als eine Art Schutzschild, der die Knappheit dieses Parameters vor großen Korrekturen aufgrund von Quantenprozessen mit virtuellen Teilchen schützt. Als ich Student und Doktorand war, blühte all unsere Wissenschaft buchstäblich mit diesem Postulat auf. Dies ist jedoch immer noch eine Schwächung des Prinzips der Natürlichkeit, über das wir diskutieren.

Gerard 't Hooft, niederländischer theoretischer Physiker, einer der Gründer des Standardmodells. Foto von der Website sureshemre.wordpress.com
Gerard 't Hooft, niederländischer theoretischer Physiker, einer der Gründer des Standardmodells. Foto von der Website sureshemre.wordpress.com

Gerard 't Hooft, niederländischer theoretischer Physiker, einer der Gründer des Standardmodells. Foto von der Website sureshemre.wordpress.com

Was passiert, wenn Sie über das Standardmodell hinausgehen?

ST: Auch hier tritt das Problem der Natürlichkeit auf, wenn auch von anderer Art. Der wichtigste Dimensionsparameter des Standardmodells ist der Vakuummittelwert des Higgs-Feldes. Es bestimmt die Energieskala der elektroschwachen Wechselwirkung und die Partikelmassen hängen davon ab. Außerhalb des Standardmodells gibt es nur einen gleichermaßen grundlegenden Parameter derselben Dimension. Dies ist natürlich die Planck-Masse, die die Energieskala für die mit der Schwerkraft verbundenen Quanteneffekte festlegt. Das Higgs-Feld beträgt ungefähr 250 GeV, was der doppelten Masse des Higgs-Bosons entspricht. Die Planck-Masse beträgt ca. 1019 GeV. Ihr Verhältnis ist also entweder eine sehr kleine Zahl oder eine gigantische Zahl, je nachdem, was in den Zähler und was in den Nenner eingegeben werden soll. Tatsächlich werden andere interessante Maßstäbe außerhalb des Standardmodells diskutiert. Sie sind aber auch unermesslich größer als das Higgs-Feld. Auch hier handelt es sich also um eine offensichtliche Fremdheit, also um einen Mangel an Natürlichkeit.

Vielleicht ist es besser, das Prinzip als natürliches Relikt der Wissenschaft des 20. Jahrhunderts zu betrachten und es ganz aufzugeben? Nicht umsonst sprechen einige Wissenschaftler über den Beginn der postnatürlichen Ära

ST: Nun, selbst eine vollständige Ablehnung wird nicht alle unsere Probleme lösen. Wie gesagt, das Prinzip der Natürlichkeit ist etwas aus dem Bereich der Ästhetik. Es gibt aber auch experimentelle Probleme, die nirgendwo hingehen werden. Nehmen wir an, es ist jetzt sicher bekannt, dass das Neutrino Masse hat, während die Symmetrien des Standardmodells erfordern, dass es streng Null ist. Das gleiche gilt für dunkle Materie - es ist nicht im Standardmodell, aber im Leben ist es anscheinend so. Es ist möglich, dass nichts aufgegeben werden muss, wenn die experimentellen Schwierigkeiten vernünftig gelöst werden können. Aber ich wiederhole, dieser ganze Problemkomplex ist ziemlich real und zeigt die Krisennatur der gegenwärtigen Situation in der Grundlagenphysik. Es ist möglich, dass der Ausweg aus dieser Krise eine wissenschaftliche Revolution und ein Wechsel des bestehenden Paradigmas sein wird.

Sergey, was bedeutet das Prinzip der Natürlichkeit für Sie persönlich? Vielleicht sogar emotional?

ST: Für mich ist es gewissermaßen das Prinzip der Berechenbarkeit. Können wir nicht nur das Experiment entnehmen, sondern alle diese 19 Parameter berechnen? Oder zumindest auf einen einzigen wirklich freien Parameter reduzieren? Das wäre gut für mich. Bisher ist diese Möglichkeit jedoch nicht sichtbar. Übrigens hofften viele einmal, dass die Hauptschwierigkeiten des Standardmodells auf der Grundlage des Konzepts der Supersymmetrie gelöst werden könnten. Selbst die minimalen supersymmetrischen Verallgemeinerungen des Standardmodells enthalten jedoch bis zu 105 freie Parameter. Das ist schon richtig schlimm.

Aber für eine solche Berechnung müssen Sie sich auf etwas verlassen. Wie das Sprichwort sagt, nehmen Sie nichts an - Sie werden nichts bekommen

S. T.: Das ist nur der Punkt. Idealerweise hätte ich gerne eine umfassende einheitliche Theorie, die es zumindest im Prinzip ermöglicht, alle notwendigen Berechnungen durchzuführen. Aber wo bekommt man es? Seit vielen Jahren wird die Stringtheorie als Kandidat für eine solche universelle Grundlage vorgeschlagen. Es wurde für fast 50 Jahre geschaffen, ein ziemlich respektables Alter. Vielleicht ist dies eine wunderbare theoretische Konstruktion, aber sie hat noch nicht als einheitliche Theorie stattgefunden. Natürlich darf niemand hoffen, dass dies geschieht. In der Geschichte der Physik kam es jedoch selten vor, dass sich eine Theorie für ein halbes Jahrhundert entwickelte, die auf zukünftige Erfolge versprach und dann plötzlich und tatsächlich alles erklärte. Ich bezweifle es trotzdem.

Zwar gibt es hier eine gewisse Subtilität aus der Stringtheorie, die die Existenz von etwa 10500 Vacua mit unterschiedlichen physikalischen Gesetzen impliziert. Im übertragenen Sinne muss jedes Vakuum ein eigenes Standardmodell mit einem eigenen Satz freier Parameter haben. Zahlreiche Befürworter des anthropischen Prinzips argumentieren, dass unsere eigene Menge keiner Erklärung bedarf, da es in Welten mit unterschiedlicher Physik kein Leben und daher keine Wissenschaft geben kann. Unter dem Gesichtspunkt der reinen Logik ist eine solche Interpretation akzeptabel, mit der Ausnahme, dass die Knappheit des Parameters θ nicht aus dem anthropischen Prinzip abgeleitet werden kann. Dieser Parameter hätte durchaus mehr sein können - daher würden sich die Chancen für die Entstehung eines intelligenten Lebens auf unserem Planeten in keiner Weise verringern. Das anthropische Prinzip kündigt jedoch nur die mögliche Existenz einer nahezu unendlichen Menge von Welten an und ist tatsächlich darauf beschränkt. Es kann nicht widerlegt - oder, um die Terminologie zu verwenden, gefälscht werden. Dies ist keine Wissenschaft mehr, zumindest nach meinem Verständnis. Es erscheint mir falsch, das Prinzip der Fälschbarkeit wissenschaftlicher Erkenntnisse wegen einer Theorie aufzugeben, die tatsächlich nichts erklären kann.

Ich kann nur zustimmen. Aber gehen wir weiter. Wie können Sie aus der Krise herauskommen - oder, wenn Sie möchten, aus der Vorkrise der Grundlagenphysik? Wer hat jetzt den Ball - die Theoretiker oder die Experimentatoren?

S. T.: Logischerweise sollte der Ball auf der Seite der Theoretiker sein. Es gibt zuverlässige experimentelle Daten zur Masse der Neutrinos und Beobachtungen von Astronomen, die die Existenz dunkler Materie bestätigen. Es scheint offensichtlich, dass die Aufgabe offensichtlich ist - die Grundlagen eines neuen theoretischen Ansatzes zu finden und spezifische Modelle zu erstellen, die eine experimentelle Verifikation ermöglichen. Bisher sind solche Versuche jedoch gescheitert.

Auch hier ist nicht klar, was nach der geplanten Modernisierung vom Large Hadron Collider zu erwarten ist. Natürlich werden auf diesem Computer viele Daten empfangen, und selbst jetzt wurden noch lange nicht alle von seinen Detektoren gesammelten Informationen verarbeitet. Zum Beispiel gibt es Hinweise darauf, dass Elektronen und Myonen in ihren Wechselwirkungen nicht völlig identisch sind. Dies wäre eine sehr ernste Entdeckung, die möglicherweise den Unterschied in ihren Massen erklärt. Aber diese Beweise sind immer noch schwach, Sie können ihnen vertrauen oder Sie können ihnen nicht vertrauen. Diese Frage wird höchstwahrscheinlich in nachfolgenden Experimenten am LHC gelöst. Es sei jedoch daran erinnert, dass die Teams von Experimentalphysikern, die daran arbeiten, mehr als einmal Hinweise auf wichtige Entdeckungen außerhalb des Standardmodells gemeldet haben und diese Ankündigungen später widerlegt wurden.

Was ist übrig? Man kann auf Superbeschleuniger hoffen, die eines Tages gebaut werden, aber bei ihnen ist noch alles unklar - zumindest für eine 10-20-jährige Perspektive. Der Ball ist also wirklich auf der Seite der Astrophysiker. Von dieser Wissenschaft kann ein wirklich radikaler Durchbruch erwartet werden.

Warum?

ST: Der Punkt ist, dass es nicht möglich ist, neue Partikel zu finden, die an starken Wechselwirkungen beteiligt sind. Daher müssen wir nach schwach wechselwirkenden Partikeln suchen, die nicht im Standardmodell enthalten sind. Wenn sie schwach interagieren, interagieren sie selten, und die Manifestationen solcher Interaktionen müssen lange warten. Wir können nicht lange auf Experimente mit Beschleunigern warten. Aber das Universum hat fast 14 Milliarden Jahre gewartet, und die Auswirkungen selbst sehr seltener Wechselwirkungen können sich die ganze Zeit akkumulieren. Es ist möglich, dass solche Effekte von Astrophysikern gefunden werden können. Beispiele dafür gibt es bereits - schließlich wurde bei der Untersuchung von solaren Neutrinos das Vorhandensein von Neutrinoschwingungen entdeckt, die die Masse dieses Teilchens ungleich Null demonstrieren. Diese Hoffnungen sind umso mehr berechtigt,dass die Beobachtungsbasis der Astronomie und Astrophysik aufgrund neuer Boden- und Weltraumteleskope und anderer Geräte ständig erweitert wird. Beispielsweise wurde ein Jahr nach der ersten direkten Registrierung von Gravitationswellen nachgewiesen, dass sie sich mit der gleichen Geschwindigkeit wie elektromagnetische Strahlung ausbreiten. Dies ist ein sehr wichtiges Ergebnis, das Bände für Theoretiker spricht.

Vortrag von Sergei Troitsky "Das Universum als Labor für Teilchenphysik", gehalten am 8. Oktober 2017 an der Moskauer Staatlichen Universität. M. V. Lomonosov beim Science Festival:

Sergei, da Sie den Weltraum erwähnt haben, erinnern wir uns an Johannes Kepler. 1596 stellte er fest, dass die von Copernicus berechneten durchschnittlichen Radien der Planetenbahnen von Merkur zum Saturn 0,38: 0,72: 1,00: 1,52: 5,2: 9,2 betrugen. Die Entfernung zwischen Mars und Jupiter schien Kepler zu groß und daher unnatürlich. Er nahm an, dass es einen noch unbekannten Planeten gab, und letztendlich hatte er recht. Am Silvesterabend 1801 entdeckte Giuseppe Piazzi Ceres in dieser Zone, die heute als Zwergplanet anerkannt ist. Jetzt wissen wir natürlich, dass es nicht einen Planeten gibt, sondern einen ganzen Gürtel von Asteroiden. Kepler hatte keine Ahnung von ihm, aber ich denke, er wäre kaum zu überrascht gewesen. Im Allgemeinen wurde auf der Grundlage des Kriteriums der Natürlichkeit eine sehr spezifische Vorhersage getroffen, die zunächst wörtlich und später, wenn Sie möchten, mit Interesse gerechtfertigt war. Ist heute in der Grundlagenphysik etwas Ähnliches möglich?

S. T.: Dies ist nicht ausgeschlossen. Wenn wir das Natürlichkeitskriterium anwenden, um die Hierarchie der fermionischen Massen zu erklären, wird mit ziemlicher Sicherheit eine neue Symmetrie auftreten. Bisher wurden im Allgemeinen verschiedene Kandidaten für diese Rolle vorgeschlagen, aber alle befriedigen uns irgendwie nicht. Wenn eine solche Symmetrie gefunden werden kann, könnte dies zu noch unbekannten Teilchen führen. Es stimmt, sie direkt vorherzusagen, wie die von Kepler, wird nicht funktionieren, aber wir werden etwas Nützliches lernen. Es ist jedoch möglich, dass auch in diesem Fall nützliche Anweisungen mit einer riesigen Auswahl an Optionen eher vage sind. Zum Beispiel wird das Axion auf der Grundlage der von Peccei und Quinn vorgeschlagenen neuen Symmetrie vorhergesagt. Dieser Mechanismus ermöglicht jedoch eine sehr große Freiheit bei der Auswahl der Parameter, und daher haben wir keinen Hinweis darauf, wo nach dem Axion gesucht werden soll. Es kann ein Teilchen dunkler Materie seinoder es kann sich in der Entwicklung der Sterne oder anderswo manifestieren - wir wissen es einfach nicht.

Nun, die Zeit wird es zeigen. Und vielen Dank für das Gespräch

Ich sprach auch mit Gia Dvali, Professorin für Physik an den Universitäten New York und München und Co-Direktorin des Max-Planck-Instituts für Physik (dieses renommierte Forschungszentrum wurde übrigens 1914 als Kaiser-Wilhelm-Institut für Physik gegründet und war dessen erster Direktor Albert Einstein). Natürlich haben wir über das gleiche Thema gesprochen.

George Dvali, Professor für Physik am Zentrum für Kosmologie und Teilchenphysik der New York University und der Ludwig-Maximilian-Universität München, Direktor des Max-Planck-Instituts für Physik in München. Foto von der Seite astronet.ge
George Dvali, Professor für Physik am Zentrum für Kosmologie und Teilchenphysik der New York University und der Ludwig-Maximilian-Universität München, Direktor des Max-Planck-Instituts für Physik in München. Foto von der Seite astronet.ge

George Dvali, Professor für Physik am Zentrum für Kosmologie und Teilchenphysik der New York University und der Ludwig-Maximilian-Universität München, Direktor des Max-Planck-Instituts für Physik in München. Foto von der Seite astronet.ge

Guia, wie interpretieren Sie das Problem der Natürlichkeit des Standardmodells?

GD: Im Allgemeinen kann ich wiederholen, was Sergei gesagt hat. Die Gleichungen des Standardmodells enthalten einen Satz freier Parameter, die es nicht vorhersagen kann. Die numerischen Werte dieser Parameter unterscheiden sich stark voneinander, auch wenn es sich um scheinbar ähnliche Objekte handelt. Nehmen wir zum Beispiel ein Neutrino, ein Elektron und einen Quark. Alle von ihnen sind Fermionen, aber die Masse des Neutrinos überschreitet höchstwahrscheinlich nicht einen Bruchteil eines Elektronenvolt, die Masse des Elektrons entspricht ungefähr fünfhunderttausend Elektronenvolt und die Masse des t-Quarks beträgt 175 GeV - 175 Milliarden Elektronenvolt. Solche Unterschiede mögen tatsächlich irgendwie unnatürlich erscheinen.

Dies ist jedoch nur die Außenseite. Um alles besser zu verstehen, muss die UV-Empfindlichkeit dieser Parameter berücksichtigt werden. Wir sprechen über ihre Abhängigkeit von einer Zunahme der Energieskala - oder, was gleich ist, von einer Abnahme der räumlichen Skala. Nehmen wir an, wir messen zuerst die Masse eines Elektrons in einem Labor und schauen uns dann an, was mit ihm in Planck-Entfernungen passiert. Bei diesem Ansatz werden die Parameter in mehrere Gruppen unterteilt. Die maximale UV-Empfindlichkeit wird durch die Energiedichte des physikalischen Vakuums demonstriert. In der Planck-Region ist sie proportional zum vierten Grad der Skalenänderung. Wenn die Planck-Masse verdoppelt wird, erhöht sich der Wert der Vakuumenergie um das 16-fache. Für die Masse des Higgs-Bosons ist diese Abhängigkeit nicht so groß: nicht der vierte Grad, sondern nur der zweite. Die Fermionmassen ändern sich sehr schwach - nur nach dem logarithmischen Gesetz. Schließlich bemerkt der Parameter & thgr; praktisch keine Änderungen in der Planck-Skala. Obwohl seine Empfindlichkeit nicht Null ist, ist es so klein, dass es ignoriert werden kann.

Was bedeutet diese Streuung im Empfindlichkeitsgrad der freien Parameter des Standardmodells? Hier sind verschiedene Möglichkeiten möglich. Beispielsweise kann man davon ausgehen, dass die Masse des Higgs-Bosons überhaupt nicht den Status einer Grundgröße verdient. Diese Annahme erstreckt sich automatisch auf Partikelmassen, die von der Higgs-Masse abhängen. Dann sieht die Streuung ihrer Werte nicht seltsamer aus als zum Beispiel der Unterschied in der Größe von Molekülen und Galaxien. Weder das eine noch das andere geben in irgendeiner Weise vor, grundlegend zu sein, und daher ist es nicht sinnvoll, ihre Größe im Hinblick auf die Natürlichkeit zu bewerten.

Wenn diese Analogie zu weit hergeholt scheint, hier ein weiteres Beispiel. Wir kennen die charakteristische Energie einer starken Wechselwirkung gut, ihre Ordnung ist 1 GeV. Und wir wissen auch, dass das Ausmaß starker Wechselwirkungen nicht grundlegend ist, so dass sein geringer Wert im Verhältnis zur Planck-Masse niemanden überrascht. Wenn wir akzeptieren, dass es im Hinblick auf Natürlichkeit oder Unnatürlichkeit sinnvoll ist, ausschließlich fundamentale Größen zu vergleichen, wird dieses Problem für die Parameter des Standardmodells im Allgemeinen tatsächlich verschwinden.

Interessanterweise funktioniert die gleiche Logik für Anhänger des anthropischen Prinzips. Sie glauben, dass es eine Vielzahl von Staubsaugern mit unterschiedlichen physikalischen Gesetzen gibt, die normalerweise als Multiversum bezeichnet werden. Aus einem dieser Vakuum ist unser eigenes Universum hervorgegangen. Wenn wir diesen Standpunkt vertreten, gibt es im Allgemeinen kein Problem der Natürlichkeit der Parameter des Standardmodells. Aber ich mag diesen Ansatz nicht, obwohl ich zugebe, dass er seine Unterstützer hat.

Wenn Sie also die Annahme aufgeben, dass die Parameter des Standardmodells grundlegend sind, wird das Problem der Natürlichkeit beseitigt. Ist dies das Ende der Diskussion oder können wir noch weiter gehen?

GD: Natürlich ist es möglich - und notwendig. Meiner Meinung nach ist es viel wichtiger und interessanter, nicht über die Natürlichkeit des Modells zu sprechen, sondern über seine Selbstkonsistenz. Zum Beispiel arbeiten wir alle im Rahmen der Quantenfeldtheorie. Dies gilt übrigens nicht nur für das Standardmodell, sondern auch für die Stringtheorie. Alle physikalisch bedeutsamen Implementierungen dieser Theorie sollten auf der speziellen Relativitätstheorie basieren, damit ihre Gleichungen in allen Trägheitsreferenzrahmen gleich aussehen. Diese Eigenschaft wird als relativistische Invarianz der Theorie oder Lorentz-Invarianz bezeichnet. Es gibt einen Satz, nach dem alle Lorentz-invarianten Quantenfeldtheorien CPT-invariant sein müssen. Dies bedeutet, dass sich ihre Grundgleichungen nicht ändern sollten, wenn gleichzeitig Partikel durch Antiteilchen ersetzt, räumliche Koordinaten umgekehrt und die Zeit umgekehrt werden. Wenn diese Invarianz verletzt wird, ist die Theorie nicht selbstkonsistent und kein Maß an Natürlichkeit hilft, sie aufzubauen. Mit anderen Worten, die selbstkonsistente Quantenfeldtheorie muss CPT-invariant sein. Daher muss bei der Diskussion über Natürlichkeit darauf geachtet werden, sie nicht mit Selbstkonsistenz zu verwechseln. Diese Strategie eröffnet viele interessante Möglichkeiten, aber wenn wir sie diskutieren, werden wir zu weit gehen.

Wilhelm de Sitter, der niederländische Astronom, der eines der ersten relativistischen kosmologischen Modelle (de Sitters Modell) geschaffen hat. Quelle: Fotoarchiv der Universität von Chicago
Wilhelm de Sitter, der niederländische Astronom, der eines der ersten relativistischen kosmologischen Modelle (de Sitters Modell) geschaffen hat. Quelle: Fotoarchiv der Universität von Chicago

Wilhelm de Sitter, der niederländische Astronom, der eines der ersten relativistischen kosmologischen Modelle (de Sitters Modell) geschaffen hat. Quelle: Fotoarchiv der Universität von Chicago

Gia, ist es möglich, mindestens ein Beispiel?

GD: - Natürlich. Wie Sie wissen, wächst der Raum unseres Universums immer schneller - wie Kosmologen sagen, leben wir in der Welt von de Sitter. Diese Beschleunigung wird normalerweise auf das Vorhandensein positiver Vakuumenergie zurückgeführt, die auch als Dunkle Energie bezeichnet wird. Die gemessene Dichte ist mit ca. 10-29 g / cm3 extrem niedrig. Wenn wir annehmen, dass die Schwerkraft im Rahmen der Quantenfeldtheorie beschrieben werden kann, ist natürlich zu erwarten, dass der Wert der Vakuumenergie viele zehn Größenordnungen größer ist als dieser Wert. Da dies nicht der Fall ist, funktioniert das Kriterium der Natürlichkeit offensichtlich nicht. Jetzt haben wir jedoch immer mehr Gründe zu der Annahme, dass der geringe Wert der Vakuumenergie auf der Grundlage des Selbstkonsistenzkriteriums gerechtfertigt werden kann.

Aber es ist noch nicht vorbei. Im Rahmen des neuen Ansatzes bietet sich die Schlussfolgerung an, dass sich die Vakuumenergie mit der Zeit ändert. Wenn Sie keine zusätzlichen Annahmen einführen, ist die Zeitskala solcher Änderungen unvorstellbar groß - 10132 Jahre. Wenn wir diese Änderungen jedoch mit dem Vorhandensein eines bestimmten Skalarfelds in Verbindung bringen, ist diese Skala mit der Hubble-Zeit vergleichbar, die etwas mehr als zehn Milliarden Jahre beträgt. Aus den Berechnungen folgt, dass es die Hubble-Zeit nur um mehrere Größenordnungen und nicht um viele Größenordnungen überschreiten kann. Um ehrlich zu sein, bin ich von dieser Schlussfolgerung nicht ganz beeindruckt, aber sie ist ziemlich logisch. Es gibt andere Möglichkeiten, aber sie sind völlig exotisch.

Fassen wir zusammen. Wie sehen Sie im Allgemeinen das Problem der Natürlichkeit von Modellen der Grundlagenphysik und welche Lösungen halten Sie für optimal?

GD: Alexey, lass mich mit einer historischen Perspektive beginnen, es wird nicht schaden. In den letzten Jahrzehnten haben sich die Ansichten unserer Gemeinschaft, der Gemeinschaft derer, die sich mit Grundlagenphysik beschäftigen, stark verändert. In den neunziger Jahren war, obwohl das anthropische Prinzip allgemein diskutiert wurde, niemand besonders interessiert. Damals herrschte die Meinung vor, dass die Grundlagen der Struktur des Universums bereits in der Person der Stringtheorie bekannt waren. Wir hofften, dass sie die einzig richtige Lösung für unser Universum geben würde.

Am Ende des letzten Jahrzehnts änderte sich dieser Glaube. Sehr ernsthafte Wissenschaftler, zum Beispiel Alex Vilenkin und Andrey Linde, begannen, das anthropische Prinzip aktiv und überzeugend zu verteidigen. Irgendwann gab es einen Wendepunkt im Bewusstsein der Gemeinschaft, so etwas wie einen Phasenübergang. Viele Theoretiker sahen im anthropischen Prinzip den einzigen Ausweg aus den Schwierigkeiten, die mit dem Problem der Natürlichkeit verbunden sind. Natürlich hatten sie auch Gegner, und unsere Community war in dieser Frage gespalten. Zwar gab Linde dennoch zu, dass nicht alle Parameter des Standardmodells im Kontext des anthropischen Prinzips eine natürliche Interpretation finden. Sergei hat diesen Umstand bereits im Zusammenhang mit dem Parameter θ festgestellt.

Andrey Linde (links) und Alexander Vilenkin. Foto von der Seite vielewelten.de
Andrey Linde (links) und Alexander Vilenkin. Foto von der Seite vielewelten.de

Andrey Linde (links) und Alexander Vilenkin. Foto von der Seite vielewelten.de

In den letzten Jahren hat sich die kollektive Meinung erneut geändert. Jetzt sehen wir, dass eine fast unendliche Menge von Universen mit unterschiedlichen physikalischen Gesetzen überhaupt nicht existieren kann. Der Grund ist einfach: Solche Universen können nicht stabil sein. Alle exotischen de Sitter-Welten sollten sich in leere Raum-Zeit-Kontinua mit flacher Minkowski-Geometrie verwandeln. Das Vakuum ist nur mit dieser Geometrie das einzig stabile. Es kann gezeigt werden, dass die Energiedichte des Vakuums im Vergleich zur Planck-Skala vernachlässigbar sein muss. Genau das passiert in unserem Universum. Unsere Welt hat die Welt von Minkowski noch nicht erreicht, daher ist die Vakuumenergie ungleich Null. Es ändert sich, und im Prinzip können diese Änderungen experimentell und mit astrophysikalischen Beobachtungen nachgewiesen werden. Es ist also nichts Unnatürliches an der Kleinheit der Vakuumenergie,und sein beobachteter Wert entspricht den theoretischen Erwartungen.

Andere sehr spezifische Vorhersagen werden auf der Grundlage des neuen Ansatzes getroffen. Daraus folgt, dass es sicherlich ein Axion geben muss. Diese Schlussfolgerung bezieht sich auch auf das Problem der Natürlichkeit. Ich möchte Sie daran erinnern, dass Theoretiker dieses Teilchen einmal erfunden haben, um den unnatürlich kleinen Wert des Parameters θ zu erklären. Wir sagen jetzt, dass die Realität des Axions durch das Erfordernis der Selbstkonsistenz unserer Gleichungen bestimmt wird. Mit anderen Worten, wenn das Axion nicht existiert, ist die Theorie nicht selbstkonsistent. Dies ist eine völlig andere Logik der theoretischen Vorhersage. Abschließend kann ich wiederholen, was ich bereits gesagt habe: Das Prinzip der Natürlichkeit wurde durch ein viel stärkeres Prinzip der Selbstkonsistenz ersetzt, und der Bereich seiner Anwendbarkeit erweitert sich ständig, und seine Grenzen sind noch nicht bekannt. Es ist möglich, dass auf seiner Grundlage die Hierarchie der Massen von Elementarteilchen erklärt werden kann,ein solch schwieriges Problem für das Prinzip der Natürlichkeit darstellen. Ob dies so ist, wissen wir nicht. Im Allgemeinen muss man arbeiten.

Hier sind also die Meinungen zweier brillanter theoretischer Physiker, die nach eigenen Angaben viel über das Problem der Natürlichkeit theoretischer Modelle der Grundlagenphysik nachgedacht haben. In gewisser Weise sind sie ähnlich, in gewisser Weise unterscheiden sie sich. Sergei Troitsky und Gia Dvali schließen jedoch nicht aus, dass das Prinzip der Natürlichkeit, wenn es seine Nützlichkeit nicht vollständig überlebt hat, auf jeden Fall seine frühere Glaubwürdigkeit verloren hat. Wenn ja, dann tritt die fundamentale Physik tatsächlich in die Ära des Postnaturalismus ein. Mal sehen, wohin das führt.

Um die Diskussion würdig abzuschließen, bat ich einen der Begründer der Stringtheorie, Edward Witten, Professor am Princeton Institute for Fundamental Research, so kurz wie möglich über das Problem der Natürlichkeit in der Grundlagenphysik zu sprechen. Folgendes hat er geschrieben:

Edward Witten, Professor am Princeton Institute for Basic Research, Mitbegründer der Stringtheorie. Foto von der Website wikipedia.org
Edward Witten, Professor am Princeton Institute for Basic Research, Mitbegründer der Stringtheorie. Foto von der Website wikipedia.org

Edward Witten, Professor am Princeton Institute for Basic Research, Mitbegründer der Stringtheorie. Foto von der Website wikipedia.org

„Wenn ein Physiker oder Kosmologe zu dem Schluss kommt, dass ein beobachtbarer Wert einen extremen Wert hat, sucht er nach einer vernünftigen Interpretation. Zum Beispiel ist die Masse eines Elektrons 1800-mal geringer als die eines Protons. Ein solch schwerwiegender Unterschied zieht sicherlich die Aufmerksamkeit auf sich und bedarf einer Erklärung.

In diesem Fall ist eine vernünftige - oder mit anderen Worten natürliche - Erklärung, dass die Gleichungen des Standardmodells symmetrischer werden, wenn die Elektronenmasse auf Null gesetzt wird. Im Allgemeinen betrachten wir dann die genaue oder ungefähre Symmetrie als natürlich. Wenn Grund zur Hoffnung besteht, dass wir, wenn wir heute nicht wissen, warum sie in der Natur existiert, eine Erklärung auf einer tieferen Ebene des Verständnisses der physischen Realität erwarten. Nach dieser Logik verursacht die geringe Masse des Elektrons keine unangenehmen Probleme für das Prinzip der Natürlichkeit.

Kommen wir nun zur Kosmologie. Wir wissen, dass die Größe des Universums etwa das 1030-fache der Wellenlänge eines typischen Photons aus Mikrowellen-Hintergrundstrahlung beträgt. Diese Beziehung ändert sich nicht, wenn sich das Universum entwickelt, und kann daher nicht einfach seinem Alter zugeschrieben werden. Es bedarf einer anderen Erklärung, die auf der Grundlage inflationärer kosmologischer Modelle erhalten werden kann.

Betrachten Sie ein Beispiel einer anderen Art. Es ist bekannt, dass der Wert der Dunklen Energie mindestens 1060-mal niedriger ist als der theoretisch berechnete Wert, der auf der Kenntnis anderer Grundkonstanten basiert. Diese Tatsache erfordert natürlich auch eine Erklärung. Es gibt jedoch noch keine vernünftige Interpretation dafür - außer vielleicht der, die sich aus der Hypothese des Multiversums und des anthropischen Prinzips ergibt. Ich gehöre zu denen, die eine Erklärung anderer Art bevorzugen würden, aber sie wurde noch nicht gefunden. So stehen die Dinge jetzt."

Zusammenfassend kann ich mir das Vergnügen nicht verweigern, einen kürzlich erschienenen Artikel von Professor Witten (2018) zu zitieren. Symmetrie und Entstehung, der meiner Meinung nach ein hervorragender Abschluss der Diskussion über die Natürlichkeit der Theorien der Grundlagenphysik sein wird:

„Im Allgemeinen ist die Eichsymmetrie nichts anderes als eine Eigenschaft zur Beschreibung eines physikalischen Systems. Die Bedeutung von Eichsymmetrien in der modernen Physik besteht darin, dass physikalische Prozesse von äußerst subtilen (subtilen) Gesetzen gesteuert werden, die von Natur aus "geometrisch" sind. Es ist sehr schwierig, dieses Konzept genau zu definieren, aber in der Praxis bedeutet dies, dass die Naturgesetze unbestrittenen Versuchen widerstehen, einen expliziten Ausdruck für sie zu finden. Die Schwierigkeit, diese Gesetze in einer natürlichen und nicht redundanten Form auszudrücken, ist der Grund für die Einführung der Eichsymmetrie."

Arkady und Boris Strugatsky
Arkady und Boris Strugatsky

Arkady und Boris Strugatsky.

Also drei Leute - drei Meinungen. Abschließend - ein Zitat aus der Geschichte der Strugatsky-Brüder "Ugly Swans" (1967):

"Das Natürliche ist immer primitiv", fuhr Bol-Kunats unter anderem fort, "und der Mensch ist ein komplexes Wesen, Natürlichkeit passt nicht zu ihm."

Passt es zu den Theorien der Grundlagenphysik? Das ist hier die Frage.

Alexey Levin, PhD in Philosophie

Empfohlen: