Geschichte Podcasts

Die Geburtsstunde der Quantentheorie

Die Geburtsstunde der Quantentheorie


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Der deutsche Physiker Max Planck veröffentlicht seine bahnbrechende Studie über die Wirkung von Strahlung auf einen „schwarzen Körper“ und die Quantentheorie der modernen Physik ist geboren.

Durch physikalische Experimente zeigte Planck, dass Energie in bestimmten Situationen Eigenschaften von physikalischer Materie aufweisen kann. Nach den Theorien der klassischen Physik ist Energie ausschließlich ein kontinuierliches wellenartiges Phänomen, unabhängig von den Eigenschaften physikalischer Materie. Plancks Theorie besagt, dass Strahlungsenergie aus teilchenähnlichen Komponenten besteht, die als „Quanten“ bekannt sind. Die Theorie half, bisher ungeklärte Naturphänomene wie das Wärmeverhalten in Festkörpern und die Natur der Lichtabsorption auf atomarer Ebene aufzuklären. 1918 wurde Planck für seine Arbeiten zur Schwarzkörperstrahlung mit dem Nobelpreis für Physik ausgezeichnet.

Andere Wissenschaftler wie Albert Einstein, Niels Bohr, Louis de Broglie, Erwin Schrödinger und Paul M. Dirac haben Plancks Theorie weiterentwickelt und die Entwicklung der Quantenmechanik ermöglicht – einer mathematischen Anwendung der Quantentheorie, die behauptet, dass Energie sowohl Materie als auch eine Welle, abhängig von bestimmten Variablen. Die Quantenmechanik nimmt somit eine probabilistische Sicht der Natur ein, die in scharfem Gegensatz zur klassischen Mechanik steht, in der alle genauen Eigenschaften von Objekten im Prinzip berechenbar sind. Die Kombination der Quantenmechanik mit Einsteins Relativitätstheorie ist heute die Grundlage der modernen Physik.


Die Geburt der Zeit: Quantenschleifen beschreiben die Entwicklung des Universums

Was war der Urknall und was geschah davor? Wissenschaftler der Fakultät für Physik der Universität Warschau haben versucht, diese Frage zu beantworten. Im Rahmen der Loop-Quantengravitation haben sie ein neues theoretisches Modell entwickelt, das sich als nützlich erweisen könnte, um Hypothesen über Ereignisse vor dem Urknall zu validieren. Diese Errungenschaft ist eines der wenigen Modelle, die die vollständige Einsteinsche Theorie beschreiben und nicht nur ihre stark vereinfachte Version.

Physiker der Fakultät für Physik der Universität Warschau haben vorgeschlagen -- auf den Seiten von Physische Überprüfung D -- ein neues theoretisches Modell der Quantengravitation, das die Entstehung der Raumzeit aus den Strukturen der Quantentheorie beschreibt. Es ist nicht nur eines der wenigen Modelle, das die vollständige allgemeine Relativitätstheorie von Einstein beschreibt, sondern ist auch mathematisch vollständig konsistent. „Die angewandten Lösungen ermöglichen es, die Entwicklung des Universums physikalisch akzeptabler zu verfolgen als mit bisherigen kosmologischen Modellen“, erklärt Prof. Jerzy Lewandowski von der Fakultät für Physik der Universität Warschau (FUW).

Während die allgemeine Relativitätstheorie angewendet wird, um das Universum auf kosmologischer Ebene zu beschreiben, wird die Quantenmechanik angewendet, um die Realität auf atomarer Ebene zu beschreiben. Beide Theorien wurden Anfang des 20. Jahrhunderts entwickelt. Ihre Gültigkeit wurde seitdem durch hochentwickelte Experimente und Beobachtungen bestätigt. Das Problem liegt darin, dass sich die Theorien gegenseitig ausschließen.

Nach der Allgemeinen Relativitätstheorie ist die Realität immer eindeutig bestimmt (wie in der klassischen Mechanik). Zeit und Raum spielen jedoch eine aktive Rolle in den Ereignissen und unterliegen selbst den Einsteinschen Gleichungen. Der Quantenphysik zufolge kann man die Natur hingegen nur grob verstehen. Eine Vorhersage kann nur mit einer Wahrscheinlichkeit getroffen werden, deren Genauigkeit durch inhärente Eigenschaften begrenzt ist. Aber die Gesetze der vorherrschenden Quantentheorien gelten nicht für Zeit und Raum. Solche Widersprüche sind unter Standardbedingungen irrelevant – Galaxien unterliegen keinen Quantenphänomenen und die Quantengravitation spielt in der Welt der Atome und Teilchen eine untergeordnete Rolle. Dennoch müssen Gravitations- und Quanteneffekte unter Bedingungen in der Nähe des Urknalls verschmelzen.

Traditionelle kosmologische Modelle beschreiben die Entwicklung des Universums im Rahmen der Allgemeinen Relativitätstheorie selbst. Die Gleichungen im Kern der Theorie legen nahe, dass das Universum eine dynamische, sich ständig erweiternde Schöpfung ist. Wenn Theoretiker versuchen, herauszufinden, wie das Universum früher war, erreichen sie das Stadium, in dem Dichte und Temperatur im Modell unendlich werden – mit anderen Worten, sie verlieren ihren physikalischen Sinn. Somit können die Unendlichkeiten nur auf die Schwächen der früheren Theorie hinweisen und der Moment des Urknalls muss nicht die Geburt des Universums bedeuten.

Um zumindest einige Kenntnisse über die Quantengravitation zu erlangen, konstruieren Wissenschaftler vereinfachte Quantenmodelle, sogenannte quantenkosmologische Modelle, in denen Raumzeit und Materie in einem einzigen Wert oder nur wenigen Werten ausgedrückt werden. Das von Ashtekar, Bojowald, Lewandowski, Pawłowski und Singh entwickelte Modell sagt beispielsweise voraus, dass die Quantengravitation verhindert, dass die Zunahme der Materieenergiedichte einen bestimmten kritischen Wert (in der Größenordnung der Planck-Dichte) überschreitet. Folglich muss es vor dem Urknall ein kontrahierendes Universum gegeben haben. Als die Materiedichte den kritischen Wert erreicht hatte, folgte eine schnelle Expansion – der Urknall, bekannt als Big Bounce. Das Modell ist jedoch ein stark vereinfachtes Spielzeugmodell.

Die wahre Antwort auf das Geheimnis des Urknalls liegt in einer einheitlichen Quantentheorie von Materie und Gravitation. Ein Versuch, eine solche Theorie zu entwickeln, ist die Loop-Quantengravitation (LQG). Die Theorie besagt, dass der Raum aus eindimensionalen Fäden gewoben ist. „Es ist wie bei einem Gewebe – obwohl es aus der Ferne glatt wirkt, zeigt sich aus der Nähe, dass es aus einem Netz von Fasern besteht“, beschreibt Wojciech Kamiński, MSc von FUW. Ein solcher Raum würde ein feines Gewebe darstellen – eine Fläche von einem Quadratzentimeter würde aus 10 66 Fäden bestehen.

Die Physiker Marcin Domagała, Wojciech Kamiński und Jerzy Lewandowski entwickelten zusammen mit Kristina Giesel von der Louisiana State University (Gast) ihr Modell im Rahmen der Schleifenquantengravitation. Ausgangspunkt für das Modell sind zwei Felder, von denen eines ein Gravitationsfeld ist. „Dank der Allgemeinen Relativitätstheorie wissen wir, dass die Gravitation die eigentliche Geometrie der Raumzeit ist. Wir können daher sagen, dass unser Ausgangspunkt der dreidimensionale Raum ist“, erklärt Marcin Domagała, PhD (FUW).

Der zweite Ausgangspunkt ist ein Skalarfeld – ein mathematisches Objekt, bei dem jedem Punkt im Raum ein bestimmter Wert zugeordnet wird. Im vorgeschlagenen Modell werden Skalarfelder als die einfachste Form von Materie interpretiert. Skalare Felder sind in der Physik seit Jahren bekannt, sie werden unter anderem verwendet, um Temperatur- und Druckverteilungen im Weltraum zu beschreiben. „Wir haben uns für ein skalares Feld entschieden, da es das typische Merkmal heutiger kosmologischer Modelle ist, und unser Ziel ist es, ein Modell zu entwickeln, das einen weiteren Fortschritt in der Quantengravitationsforschung darstellt“, beobachtet Prof. Lewandowski.

In dem von Warschauer Physikern entwickelten Modell taucht Zeit als die Beziehung zwischen dem Gravitationsfeld (Raum) und dem Skalarfeld auf – ein Zeitpunkt ist durch den Wert des Skalarfeldes gegeben. „Wir stellen die Frage nach der Form des Raumes bei einem gegebenen Wert des Skalarfeldes und Einsteins Quantengleichungen liefern die Antwort“, erklärt Prof. Lewandowski. So tritt das Phänomen des Zeitablaufs als Eigenschaft des Zustands der Gravitations- und Skalarfelder hervor und das Auftreten eines solchen Zustands entspricht der Geburt der bekannten Raumzeit. „Bemerkenswert ist, dass am Anfang des Modells keine Zeit existiert. Es passiert nichts. Aktion und Dynamik erscheinen als Wechselbeziehung zwischen den Feldern, wenn wir beginnen, die Beziehung eines Objekts zu einem anderen zu hinterfragen“, erklärt Prof. Lewandowski.

Physiker der FUW haben es ermöglicht, die Entwicklung des Universums genauer zu beschreiben. Während auf der Allgemeinen Relativitätstheorie basierende Modelle vereinfacht sind und davon ausgehen, dass das Gravitationsfeld an jedem Punkt des Universums identisch ist oder geringfügigen Änderungen unterliegt, kann sich das Gravitationsfeld im vorgeschlagenen Modell an verschiedenen Punkten im Raum unterscheiden.

Die vorgeschlagene theoretische Konstruktion ist das erste derart hoch entwickelte Modell, das sich durch interne mathematische Konsistenz auszeichnet. Es ist die natürliche Fortsetzung der Forschung zur Quantisierung der Gravitation, bei der jede neue Theorie von klassischen Theorien abgeleitet wird. Dazu wenden Physiker bestimmte Algorithmen an, sogenannte Quantisierungen. „Für Physiker sind die Algorithmen leider alles andere als präzise. Beispielsweise kann aus einem Algorithmus folgen, dass ein Hilbert-Raum konstruiert werden muss, aber es werden keine Details angegeben“, erklärt Marcin Domagała, MSc. "Es ist uns gelungen, eine vollständige Quantisierung durchzuführen und eines der möglichen Modelle zu erhalten."

Es ist noch ein weiter Weg, so Prof. Lewandowski: „Wir haben eine gewisse theoretische Maschinerie entwickelt. Theoretiker der FUW wollen unter anderem untersuchen, ob der Big Bounce in ihrem Modell tatsächlich auftritt. „Zukünftig werden wir versuchen, weitere Bereiche des Standardmodells der Elementarteilchen in das Modell einzubeziehen. Wir sind selbst gespannt, was passieren wird“, sagt Prof. Lewandowski.


Das Kopenhagener Netzwerk

Autoren: Kojevnikov, Alexej

  • Beschreibt die ersten stockenden Schritte der frühen Quantenphysiker
  • Folgt den Pfaden junger Forscher in wirtschaftlich unsicheren und schwierigen Zeiten
  • Ist Teil einer vierbändigen Sammlung, die die Entwicklung der Quantentheorie an vier europäischen Zentren nachzeichnet

Dieses Buch kaufen

  • ISBN 978-3-030-59188-5
  • Digital mit Wasserzeichen, DRM-frei
  • Enthaltenes Format: EPUB, PDF
  • eBooks können auf allen Lesegeräten verwendet werden
  • Sofortiger eBook-Download nach dem Kauf
  • ISBN 978-3-030-59187-8
  • Kostenloser Versand für Einzelpersonen weltweit
  • Institutionelle Kunden sollten sich an ihren Account Manager wenden
  • In der Regel innerhalb von 3 bis 5 Werktagen versandfertig, sofern auf Lager

Dieses Buch ist eine historische Analyse der quantenmechanischen Revolution und der Entstehung einer neuen Disziplin nicht aus der Perspektive eines Professors, sondern aus der Perspektive eines kürzlich oder aktuell promovierten Doktoranden. Student, der gerade in wirtschaftlich schwierigen Zeiten eine ungewisse akademische Laufbahn einschlägt. Die Quantenmechanik eroberte zwischen 1925 und 1927 die intellektuelle Szene mit mehr als 200 Veröffentlichungen auf der ganzen Welt, von denen die meisten von jungen Wissenschaftlern unter 30 Jahren, Doktoranden oder Postdoktoranden verfasst wurden. Die daraus resultierende Theorie war ein kollektives Produkt, das keine einzelne Autorität für sich beanspruchen konnte, aber sie hatte einen großen geografischen Bezug – das Kopenhagener Institut für Theoretische Physik – wo der meiste informelle, vorveröffentlichte Gedankenaustausch stattfand und wo jeder Teilnehmer der neuen Gemeinschaft zu besuchen gestrebt. Eine seltene Kombination von Umständen und Ressourcen – politischer, diplomatischer, finanzieller und intellektueller Art – ermöglichte es Niels Bohr, dieses „Mekka“ der Quantentheorie außerhalb der traditionellen und mächtigeren Wissenschaftszentren zu etablieren. Anstelle von etablierten Professoren entwickelten internationale Postdoc-Stipendiaten eine Forschungskultur, die zur Quelle wichtiger Innovationen auf diesem Gebiet wurde. Befristete Assistentenstellen, Postdoktorandenstellen und ihre Äquivalente waren in der Zeit der Wirtschaftskrise und der internationalen Spannungen nach dem Ersten Weltkrieg die wichtigste Existenzgrundlage für junge Akademiker. Unsichere Karrierewege und unvorhersehbare Wechsel durch instabile befristete Positionen trugen zu ihrer allgemeinen Sichtweise und Interpretation der aufkommenden Theorie der Quantenmechanik bei.

Dieses Buch ist Teil einer vierbändigen Sammlung, die sich mit den Anfängen der Quantenphysikforschung an den großen europäischen Zentren Göttingen, Kopenhagen, Berlin und München befasst vom Max-Planck-Institut für Wissenschaftsgeschichte und dem Fritz-Haber-Institut (2006–2012).


Die Geburt der Quantentheorie - GESCHICHTE

Der deutsche Physiker Max Planck veröffentlicht seine bahnbrechende Studie über die Wirkung von Strahlung auf eine "Schwarzkörper"-Substanz und die Quantentheorie der modernen Physik ist geboren.

Durch physikalische Experimente zeigte Planck, dass Energie in bestimmten Situationen Eigenschaften von physikalischer Materie aufweisen kann. Nach den Theorien der klassischen Physik ist Energie ausschließlich ein kontinuierliches wellenartiges Phänomen, unabhängig von den Eigenschaften physikalischer Materie. Plancks Theorie besagt, dass Strahlungsenergie aus teilchenähnlichen Komponenten besteht, die als "Quanten" bekannt sind. Die Theorie half, bisher ungeklärte Naturphänomene wie das Wärmeverhalten in Festkörpern und die Natur der Lichtabsorption auf atomarer Ebene aufzuklären. 1918 wurde Planck für seine Arbeiten zur Schwarzkörperstrahlung mit dem Nobelpreis für Physik ausgezeichnet.

Andere Wissenschaftler wie Albert Einstein, Niels Bohr, Louis de Broglie, Erwin Schrödinger und Paul M. Dirac haben Plancks Theorie weiterentwickelt und die Entwicklung der Quantenmechanik ermöglicht – einer mathematischen Anwendung der Quantentheorie, die behauptet, dass Energie beides ist Materie und eine Welle, abhängig von bestimmten Variablen. Die Quantenmechanik nimmt somit eine probabilistische Sicht der Natur ein, die in scharfem Gegensatz zur klassischen Mechanik steht, in der alle genauen Eigenschaften von Objekten im Prinzip berechenbar sind. Die Kombination der Quantenmechanik mit Einsteins Relativitätstheorie ist heute die Grundlage der modernen Physik.


Die Stringtheorie stellt einen Auswuchs der S-Matrix-Theorie dar, [1] ein Forschungsprogramm, das 1943 von Werner Heisenberg begann [2], nachdem John Archibald Wheeler 1937 die S-Matrix eingeführt hatte. [3] Viele prominente Theoretiker nahmen die S-Matrix-Theorie auf und befürworteten sie, beginnend in den späten 1950er und während der 1960er Jahre. Das Feld wurde Mitte der 1970er Jahre an den Rand gedrängt und verworfen [4] und verschwand in den 1980er Jahren. Physiker vernachlässigten es, weil einige seiner mathematischen Methoden fremd waren und weil die Quantenchromodynamik es als experimentell besser qualifizierter Ansatz für die starken Wechselwirkungen verdrängte. [5]

Die Theorie stellte ein radikales Überdenken der Grundlagen physikalischer Gesetze dar. In den 1940er Jahren war klar geworden, dass das Proton und das Neutron keine punktförmigen Teilchen wie das Elektron sind. Ihr magnetisches Moment unterschied sich stark von dem eines punktförmigen Spin-½-geladenen Teilchens, zu stark, um den Unterschied einer kleinen Störung zuzuschreiben. Ihre Wechselwirkungen waren so stark, dass sie sich wie eine kleine Kugel und nicht wie ein Punkt zerstreuten. Heisenberg schlug vor, dass die stark wechselwirkenden Teilchen tatsächlich ausgedehnte Objekte seien, und weil es bei ausgedehnten relativistischen Teilchen prinzipielle Schwierigkeiten gibt, schlug er vor, dass der Begriff eines Raum-Zeit-Punktes auf nuklearer Skala zusammenbrach.

Ohne Raum und Zeit wird es schwierig, eine physikalische Theorie zu formulieren. Heisenberg schlug eine Lösung für dieses Problem vor: die Konzentration auf die beobachtbaren Größen – die durch Experimente messbaren Dinge. Ein Experiment sieht nur dann eine mikroskopische Größe, wenn sie durch eine Reihe von Ereignissen auf die klassischen Geräte übertragen werden kann, die die Experimentierkammer umgeben. Die Objekte, die ins Unendliche fliegen. sind stabile Teilchen, in Quantenüberlagerungen verschiedener Impulszustände.

Heisenberg schlug vor, dass selbst dann, wenn Raum und Zeit unzuverlässig sind, der Begriff des Impulszustands, der weit weg von der Experimentierkammer definiert wird, noch funktioniert. Die physikalische Größe, die er als fundamental vorschlug, ist die quantenmechanische Amplitude für die Umwandlung einer Gruppe einfallender Teilchen in eine Gruppe auslaufender Teilchen, und er gab nicht zu, dass es dazwischen irgendwelche Schritte gibt.

Die S-Matrix ist die Größe, die beschreibt, wie eine Ansammlung ankommender Teilchen in abgehende Teilchen verwandelt. Heisenberg schlug vor, die S-Matrix direkt zu studieren, ohne Annahmen über die Raum-Zeit-Struktur. Aber wenn Übergänge von der fernen Vergangenheit in die ferne Zukunft in einem Schritt ohne Zwischenschritte erfolgen, wird es schwierig, etwas zu berechnen. In der Quantenfeldtheorie sind die Zwischenschritte die Fluktuationen von Feldern oder äquivalent die Fluktuationen virtueller Teilchen. In dieser vorgeschlagenen S-Matrix-Theorie gibt es überhaupt keine lokalen Größen.

Heisenberg schlug vor, Unitarität zu verwenden, um die S-Matrix zu bestimmen. In allen denkbaren Situationen muss die Summe der Quadrate der Amplituden gleich 1 sein. Diese Eigenschaft kann die Amplitude in einer Quantenfeldtheorie reihenweise in einer Störungsreihe bestimmen, wenn die Grundwechselwirkungen gegeben sind, und in vielen Quantenfeldtheorien die Amplituden wachsen bei hohen Energien zu schnell, um eine einheitliche S-Matrix zu bilden. Aber ohne zusätzliche Annahmen zum Hochenergieverhalten reicht die Unitarität nicht aus, um die Streuung zu bestimmen, und der Vorschlag wurde viele Jahre lang ignoriert.

Heisenbergs Vorschlag wurde 1956 wiederbelebt, als Murray Gell-Mann erkannte, dass Dispersionsbeziehungen – wie sie von Hendrik Kramers und Ralph Kronig in den 1920er Jahren entdeckt wurden (siehe Kramers-Kronig-Beziehungen) – die Formulierung eines Kausalitätsbegriffs ermöglichen, einer Vorstellung, die Ereignisse in die Zukunft würde Ereignisse in der Vergangenheit nicht beeinflussen, selbst wenn die mikroskopische Vorstellung von Vergangenheit und Zukunft nicht klar definiert ist. Er erkannte auch, dass diese Beziehungen bei der Berechnung von Observablen für den Fall starker Wechselwirkungsphysik nützlich sein könnten. [6] Die Dispersionsrelationen waren analytische Eigenschaften der S-Matrix, [7] und sie stellten strengere Bedingungen als diejenigen, die sich allein aus der Einheitlichkeit ergeben. Diese Entwicklung in der S-Matrix-Theorie geht auf die Entdeckung der Kreuzungssymmetrie durch Murray Gell-Mann und Marvin Leonard Goldberger (1954) zurück, eine weitere Bedingung, die die S-Matrix erfüllen musste. [8] [7]

Prominente Befürworter des neuen Ansatzes der "Dispersion Relations" waren Stanley Mandelstam [9] und Geoffrey Chew [10], beide damals an der UC Berkeley. Mandelstam entdeckte 1958 die Doppeldispersionsbeziehungen, eine neue und mächtige analytische Form, [9] und glaubte, dass sie den Schlüssel zum Fortschritt bei den hartnäckigen starken Wechselwirkungen liefern würden.

In den späten 1950er Jahren wurden viele stark wechselwirkende Teilchen mit immer höheren Spins entdeckt, und es wurde klar, dass sie nicht alle fundamental waren. Während der japanische Physiker Shoichi Sakata vorschlug, dass die Teilchen als gebundene Zustände von nur drei von ihnen (dem Proton, dem Neutron und dem Lambda siehe Sakata-Modell) verstanden werden könnten, [11] glaubte Geoffrey Chew, dass keines dieser Teilchen fundamental ist [12] [13] (Details siehe Bootstrap-Modell). Sakatas Ansatz wurde in den 1960er Jahren von Murray Gell-Mann und George Zweig in das Quarkmodell umgearbeitet, indem die Ladungen der hypothetischen Bestandteile fraktioniert wurden und die Idee, dass es sich um beobachtete Teilchen handelte, zurückgewiesen wurde. Zu dieser Zeit galt Chews Ansatz als Mainstream, da er keine fraktionierten Ladungswerte einführte und sich auf experimentell messbare S-Matrix-Elemente konzentrierte, nicht auf hypothetische punktförmige Bestandteile.

Im Jahr 1959 entdeckte Tullio Regge, ein junger Theoretiker in Italien, dass gebundene Zustände in der Quantenmechanik in Familien organisiert werden können, die als Regge-Trajektorien bekannt sind, wobei jede Familie unterschiedliche Drehimpulse hat. [14] Diese Idee wurde von Stanley Mandelstam, Vladimir Gribov und Marcel Froissart [fr] auf die relativistische Quantenmechanik verallgemeinert, wobei eine mathematische Methode (die Sommerfeld-Watson-Darstellung) verwendet wurde, die Jahrzehnte zuvor von Arnold Sommerfeld und Kenneth Marshall Watson [de] entdeckt wurde: Das Ergebnis wurde als Froissart-Gribov-Formel bezeichnet. [fünfzehn]

1961 erkannten Geoffrey Chew und Steven Frautschi, dass Mesonen geradlinige Regge-Trajektorien haben [16] (in ihrem Schema ist der Spin gegen das Quadrat der Masse in einem sogenannten Chew-Frautschi-Diagramm aufgetragen), was impliziert, dass die Streuung dieser Teilchen haben ein sehr seltsames Verhalten – es sollte bei großen Winkeln exponentiell schnell abfallen. Mit dieser Erkenntnis hofften Theoretiker, eine Theorie zusammengesetzter Teilchen auf Regge-Trajektorien zu konstruieren, deren Streuamplituden die von der Regge-Theorie geforderte asymptotische Form hatten.

Ein bemerkenswerter Schritt vorwärts im Bootstrap-Ansatz war 1967 das Prinzip der DHS-Dualität, das 1967 von Richard Dolen, David Horn und Christoph Schmid [17] am Caltech eingeführt wurde (der ursprüngliche Begriff dafür war "durchschnittliche Dualität" oder "endliche" Energiesummenregel (FESR) Dualität"). Die drei Forscher stellten fest, dass die Beschreibungen von Regge-Polaustausch (bei hoher Energie) und Resonanz (bei niedriger Energie) mehrere Darstellungen/Annäherungen von ein und demselben physikalisch beobachtbaren Prozess bieten. [18]

Das erste Modell, bei dem hadronische Teilchen im Wesentlichen den Regge-Trajektorien folgen, war das Dual-Resonanz-Modell, das 1968 von Gabriele Veneziano konstruiert wurde [19], der feststellte, dass die Euler-Beta-Funktion verwendet werden könnte, um die Daten der 4-Teilchen-Streuungsamplitude für solche Teilchen zu beschreiben . Die Veneziano-Streuamplitude (oder das Veneziano-Modell) wurde schnell zu einem verallgemeinert n-Partikelamplitude von Ziro Koba und Holger Bech Nielsen [20] (ihr Ansatz wurde Koba-Nielsen-Formalismus genannt) und auf das, was heute als geschlossene Strings von Miguel Virasoro [21] und Joel A. Shapiro [22] (ihr Ansatz wurde als Shapiro-Virasoro-Modell bezeichnet).

1969 ermöglichten die Chan-Paton-Regeln (vorgeschlagen von Jack E. Paton und Hong-Mo Chan) [23] das Hinzufügen von Isospin-Faktoren zum Veneziano-Modell. [24]

1969–70 präsentierten Yoichiro Nambu, [25] Holger Bech Nielsen, [26] und Leonard Susskind [27] [28] eine physikalische Interpretation der Veneziano-Amplitude, indem sie Kernkräfte als vibrierende, eindimensionale Saiten darstellten. Diese stringbasierte Beschreibung der starken Kraft machte jedoch viele Vorhersagen, die den experimentellen Ergebnissen direkt widersprachen.

1971 versuchten Pierre Ramond [29] und unabhängig davon John H. Schwarz und André Neveu [30] Fermionen in das duale Modell zu implementieren. Dies führte zum Konzept der "spinning strings" und wies den Weg zu einer Methode zur Entfernung des problematischen Tachyons (siehe RNS-Formalismus). [31]

Doppelresonanzmodelle für starke Wechselwirkungen waren zwischen 1968 und 1973 ein relativ beliebtes Studienthema. [32] Die wissenschaftliche Gemeinschaft verlor 1973 das Interesse an der Stringtheorie als Theorie starker Wechselwirkungen, als die Quantenchromodynamik zum Hauptfokus der theoretischen Forschung wurde [33] (hauptsächlich wegen des theoretischen Reizes seiner asymptotischen Freiheit). [34]

1974 untersuchten John H. Schwarz und Joël Scherk, [35] und unabhängig voneinander Tamiaki Yoneya, [36] die bosonähnlichen Muster der Saitenschwingung und stellten fest, dass ihre Eigenschaften genau denen des Gravitons entsprachen, dem hypothetischen Botenteilchen der Gravitationskraft. Schwarz und Scherk argumentierten, dass sich die Stringtheorie nicht durchgesetzt habe, weil die Physiker ihren Umfang unterschätzt hätten. Dies führte zur Entwicklung der bosonischen Stringtheorie.

Die Stringtheorie wird in Begriffen der Polyakov-Aktion formuliert, [37] die beschreibt, wie sich Strings durch Raum und Zeit bewegen. Wie Federn neigen die Saiten dazu, sich zusammenzuziehen, um ihre potentielle Energie zu minimieren, aber die Energieerhaltung verhindert, dass sie verschwinden, und schwingen stattdessen. Durch die Anwendung der Ideen der Quantenmechanik auf Strings ist es möglich, die verschiedenen Schwingungsmoden von Strings abzuleiten, und dass jeder Schwingungszustand ein anderes Teilchen zu sein scheint. Die Masse jedes Teilchens und die Art und Weise, mit der es wechselwirken kann, werden durch die Art und Weise bestimmt, wie die Saite schwingt – im Wesentlichen durch die „Note“, die die Saite „erklingt“. Die Tonskala, die jeweils einer anderen Art von Teilchen entspricht, wird als "Spektrum" der Theorie bezeichnet.

Frühe Modelle enthielten beides offen Zeichenfolgen, die zwei unterschiedliche Endpunkte haben, und abgeschlossen Zeichenfolgen, bei denen die Endpunkte zu einer vollständigen Schleife verbunden werden. Die beiden Arten von Strings verhalten sich leicht unterschiedlich und ergeben zwei Spektren. Nicht alle modernen Stringtheorien verwenden beide Typen, einige beinhalten nur die geschlossene Variante.

Das früheste Stringmodell hat mehrere Probleme: Es hat eine kritische Dimension D = 26, ein Merkmal, das ursprünglich 1971 von Claud Lovelace entdeckt wurde [38] die Theorie hat eine grundlegende Instabilität, das Vorhandensein von Tachyonen [39] (siehe Tachyonenkondensation) zusätzlich enthält das Teilchenspektrum nur Bosonen, Teilchen wie das Photon die bestimmten Verhaltensregeln gehorchen. Obwohl Bosonen ein wichtiger Bestandteil des Universums sind, sind sie nicht seine einzigen Bestandteile. Die Untersuchung, wie eine Stringtheorie Fermionen in ihr Spektrum aufnehmen kann, führte 1971 zur Erfindung der Supersymmetrie (im Westen) [40], [41] einer mathematischen Transformation zwischen Bosonen und Fermionen. Stringtheorien, die fermionische Schwingungen beinhalten, werden heute als Superstringtheorien bezeichnet.

1977 führte die GSO-Projektion (benannt nach Ferdinando Gliozzi, Joël Scherk und David I. Olive) zu einer Familie tachyonfreier unitärer freier Stringtheorien, [42] den ersten konsistenten Superstringtheorien (siehe unten).

Die erste Superstring-Revolution ist eine Periode wichtiger Entdeckungen, die 1984 begann. [43] Es wurde erkannt, dass die Stringtheorie in der Lage ist, alle Elementarteilchen sowie die Wechselwirkungen zwischen ihnen zu beschreiben. Hunderte von Physikern begannen, an der Stringtheorie als der vielversprechendsten Idee zur Vereinheitlichung physikalischer Theorien zu arbeiten. [44] Die Revolution begann 1984 mit der Entdeckung der Anomalie-Auslöschung in der Stringtheorie vom Typ I über den Green-Schwarz-Mechanismus (benannt nach Michael Green und John H. Schwarz). [45] [46] Die bahnbrechende Entdeckung von die heterotische Saite wurde 1985 von David Gross, Jeffrey Harvey, Emil Martinec und Ryan Rohm hergestellt. [47] Es wurde auch von Philip Candelas, Gary Horowitz, Andrew Strominger und Edward Witten im Jahr 1985 erkannt, dass N = 1 < displaystyle N=1>Supersymmetrie, die sechs kleinen Extradimensionen (die D = 10 kritische Dimension der Superstringtheorie wurde ursprünglich 1972 von John H. Schwarz entdeckt) [48] müssen auf einer Calabi-Yau-Mannigfaltigkeit kompaktifiziert werden. [49] (In der Stringtheorie ist Kompaktifizierung eine Verallgemeinerung der Kaluza-Klein-Theorie, die erstmals in den 1920er Jahren vorgeschlagen wurde.) [50]

Bis 1985 wurden fünf separate Superstring-Theorien beschrieben: Typ I, [51] Typ II (IIA und IIB), [51] und heterotisch (SO(32) und E8×E8) . [47]

Entdecken Magazine in der Ausgabe vom November 1986 (Band 7, Nr. 11) eine von Gary Taubes geschriebene Titelgeschichte "Alles ist jetzt an Strings gebunden", die die Stringtheorie für ein breites Publikum erklärte.

1987 zeigten Eric Bergshoeff [de] , Ergin Sezgin [de] und Paul Townsend, dass es keine Superstrings in elf Dimensionen gibt (die größte Anzahl von Dimensionen, die mit einem einzelnen Graviton in Supergravitationstheorien übereinstimmt), [52] sondern Supermembranen. [53]

In den frühen 1990er Jahren fanden Edward Witten und andere starke Beweise dafür, dass die verschiedenen Superstring-Theorien unterschiedliche Grenzen einer 11-dimensionalen Theorie [54] [55] waren, die als M-Theorie [56] bekannt wurde (für Details siehe Einführung in M -Theorie). Diese Entdeckungen lösten die zweite Superstring-Revolution das etwa zwischen 1994 und 1995 stattfand. [57]

Die verschiedenen Versionen der Superstringtheorie wurden, wie lange erhofft, durch neue Äquivalenzen vereint. Diese sind als S-Dualität, T-Dualität, U-Dualität, Spiegelsymmetrie und Konifold-Übergänge bekannt. Die verschiedenen Stringtheorien waren auch mit der M-Theorie verwandt.

1995 entdeckte Joseph Polchinski, dass die Theorie die Einbeziehung höherdimensionaler Objekte, genannt D-Branes, erfordert: [58] Dies sind die Quellen elektrischer und magnetischer Ramond-Ramond-Felder, die von der String-Dualität benötigt werden. [59] D-Branes fügten der Theorie eine zusätzliche reiche mathematische Struktur hinzu und eröffneten Möglichkeiten zur Konstruktion realistischer kosmologischer Modelle in der Theorie (für Details siehe Brane-Kosmologie).

1997-98 vermutete Juan Maldacena eine Beziehung zwischen der Stringtheorie und n = 4 supersymmetrische Yang-Mills-Theorie, eine Eichtheorie. [60] Diese als AdS/CFT-Korrespondenz bezeichnete Vermutung hat großes Interesse an der Hochenergiephysik geweckt. [61] Es ist eine Umsetzung des holographischen Prinzips, das weitreichende Implikationen hat: Die AdS/CFT-Korrespondenz hat dazu beigetragen, die Mysterien der Schwarzen Löcher aufzuklären, die in Stephen Hawkings Arbeit [62] vorgeschlagen wurden, und es wird angenommen, dass sie eine Auflösung des Schwarzen liefert Loch Informationsparadoxon. [63]

Im Jahr 2003 führte Michael R. Douglas' Entdeckung der Stringtheorie-Landschaft [64] die darauf hindeutet, dass die Stringtheorie eine große Anzahl von inäquivalenten falschen Vakua aufweist, [65] zu vielen Diskussionen darüber, was die Stringtheorie letztendlich vorhersagen könnte, und wie die Kosmologie in die Theorie integriert werden kann. [66]

Ein möglicher Mechanismus der String-Theorie-Vakuumstabilisierung (der KKLT-Mechanismus) wurde 2003 von Shamit Kachru, Renata Kallosh, Andrei Linde und Sandip Trivedi vorgeschlagen. [67]


Eine Geschichte der Quantenmechanik

Das Neutron wurde erst 1932 entdeckt. Vor diesem Hintergrund verfolgen wir die Anfänge der Quantentheorie bis ins Jahr 1859 zurück.

1859 bewies Gustav Kirchhoff einen Satz über die Schwarzkörperstrahlung. Ein schwarzer Körper ist ein Objekt, das die gesamte auf ihn fallende Energie absorbiert und für einen Beobachter schwarz erscheinen würde, da er kein Licht reflektiert. Ein schwarzer Körper ist auch ein perfekter Emitter und Kirchhoff bewies, dass die emittierte Energie E E E nur von der Temperatur T T T und der Frequenz v v v der emittierten Energie abhängt, d.h.

Er forderte Physiker auf, die Funktion J J J zu finden.

1879 schlug Josef Stefan aus experimentellen Gründen vor, dass die von einem heißen Körper emittierte Gesamtenergie proportional zur vierten Potenz der Temperatur sei. In der von Stefan angegebenen Allgemeinheit ist dies falsch. Die gleiche Schlussfolgerung wurde 1884 von Ludwig Boltzmann für die Schwarzkörperstrahlung gezogen, diesmal aus theoretischen Überlegungen unter Verwendung der Thermodynamik und der elektromagnetischen Theorie von Maxwell. Das Ergebnis, das heute als Stefan-Boltzmann-Gesetz bekannt ist, beantwortet Kirchhoffs Herausforderung nicht vollständig, da es die Frage nach bestimmten Wellenlängen nicht beantwortet.

1896 schlug Wilhelm Wien eine Lösung für die Kirchhoff-Herausforderung vor. Obwohl seine Lösung bei kleinen Wellenlängenwerten experimentellen Beobachtungen sehr nahe kommt, wurde von Rubens und Kurlbaum gezeigt, dass sie im fernen Infrarot zusammenbricht.

Kirchhoff, der in Heidelberg gewesen war, zog nach Berlin. Boltzmann wurde sein Lehrstuhl in Heidelberg angeboten, lehnte ihn jedoch ab. Der Lehrstuhl wurde dann Hertz angeboten, der das Angebot ebenfalls ablehnte, also wurde er erneut angeboten, diesmal an Planck und er nahm an.

Rubens besuchte Planck im Oktober 1900 und erläuterte ihm seine Ergebnisse. Innerhalb weniger Stunden, nachdem Rubens Plancks Haus verlassen hatte, hatte Planck die richtige Formel für die JJJ-Funktion von Kirchhoff erraten. Diese Vermutung passte sehr gut zu experimentellen Beweisen bei allen Wellenlängen, aber Planck war damit nicht zufrieden und versuchte, eine theoretische Herleitung der Formel zu geben. Dazu machte er den beispiellosen Schritt, anzunehmen, dass die Gesamtenergie aus nicht unterscheidbaren Energieelementen – Energiequanten – besteht. Er schrieb

Planck himself gave credit to Boltzmann for his statistical method but Planck's approach was fundamentally different. However theory had now deviated from experiment and was based on a hypothesis with no experimental basis. Planck won the 1918 Nobel Prize for Physics for this work.

In 1901 Ricci and Levi-Civita published Absolute differential calculus. It had been Christoffel's discovery of 'covariant differentiation' in 1869 which let Ricci extend the theory of tensor analysis to Riemannian space of n n n dimensions. The Ricci and Levi-Civita definitions were thought to give the most general formulation of a tensor. This work was not done with quantum theory in mind but, as so often happens, the mathematics necessary to embody a physical theory had appeared at precisely the right moment.

In 1905 Einstein examined the photoelectric effect. The photoelectric effect is the release of electrons from certain metals or semiconductors by the action of light. The electromagnetic theory of light gives results at odds with experimental evidence. Einstein proposed a quantum theory of light to solve the difficulty and then he realised that Planck's theory made implicit use of the light quantum hypothesis. By 1906 Einstein had correctly guessed that energy changes occur in a quantum material oscillator in changes in jumps which are multiples of ℏ v hslash v ℏ v where ℏ hslash ℏ is Planck's reduced constant and v v v is the frequency. Einstein received the 1921 Nobel Prize for Physics, in 1922 , for this work on the photoelectric effect.

In 1913 Niels Bohr wrote a revolutionary paper on the hydrogen atom. He discovered the major laws of the spectral lines. This work earned Bohr the 1922 Nobel Prize for Physics. Arthur Compton derived relativistic kinematics for the scattering of a photon ( a light quantum ) off an electron at rest in 1923 .

However there were concepts in the new quantum theory which gave major worries to many leading physicists. Einstein, in particular, worried about the element of 'chance' which had entered physics. In fact Rutherford had introduced spontaneous effect when discussing radio-active decay in 1900 . In 1924 Einstein wrote:-

Einstein had been puzzled by paradox ( ii ) and Pauli quickly told Bohr that he did not believe his theory. Further experimental work soon ended any resistance to belief in the electron. Other ways had to be found to resolve the paradoxes.

Up to this stage quantum theory was set up in Euclidean space and used Cartesian tensors of linear and angular momentum. However quantum theory was about to enter a new era.

The year 1924 saw the publication of another fundamental paper. It was written by Satyendra Nath Bose and rejected by a referee for publication. Bose then sent the manuscript to Einstein who immediately saw the importance of Bose's work and arranged for its publication. Bose proposed different states for the photon. He also proposed that there is no conservation of the number of photons. Instead of statistical independence of particles, Bose put particles into cells and talked about statistical independence of cells. Time has shown that Bose was right on all these points.

Work was going on at almost the same time as Bose's which was also of fundamental importance. The doctoral thesis of Louis de Broglie was presented which extended the particle-wave duality for light to all particles, in particular to electrons. Schrödinger in 1926 published a paper giving his equation for the hydrogen atom and heralded the birth of wave mechanics. Schrödinger introduced operators associated with each dynamical variable.

The year 1926 saw the complete solution of the derivation of Planck's law after 26 years. It was solved by Dirac. Also in 1926 Born abandoned the causality of traditional physics. Speaking of collisions Born wrote

Heisenberg's work used matrix methods made possible by the work of Cayley on matrices 50 years earlier. In fact 'rival' matrix mechanics deriving from Heisenberg's work and wave mechanics resulting from Schrödinger's work now entered the arena. These were not properly shown to be equivalent until the necessary mathematics was developed by Riesz about 25 years later.

Also in 1927 Bohr stated that space-time coordinates and causality are complementary. Pauli realised that spin, one of the states proposed by Bose, corresponded to a new kind of tensor, one not covered by the Ricci and Levi-Civita work of 1901 . However the mathematics of this had been anticipated by Eli Cartan who introduced a 'spinor' as part of a much more general investigation in 1913 .

Dirac, in 1928 , gave the first solution of the problem of expressing quantum theory in a form which was invariant under the Lorentz group of transformations of special relativity. He expressed d'Alembert's wave equation in terms of operator algebra.

The uncertainty principle was not accepted by everyone. Its most outspoken opponent was Einstein. He devised a challenge to Niels Bohr which he made at a conference which they both attended in 1930 . Einstein suggested a box filled with radiation with a clock fitted in one side. The clock is designed to open a shutter and allow one photon to escape. Weigh the box again some time later and the photon energy and its time of escape can both be measured with arbitrary accuracy. Of course this is not meant to be an actual experiment, only a 'thought experiment'.

Niels Bohr is reported to have spent an unhappy evening, and Einstein a happy one, after this challenge by Einstein to the uncertainty principle. However Niels Bohr had the final triumph, for the next day he had the solution. The mass is measured by hanging a compensation weight under the box. This is turn imparts a momentum to the box and there is an error in measuring the position. Time, according to relativity, is not absolute and the error in the position of the box translates into an error in measuring the time.

Although Einstein was never happy with the uncertainty principle, he was forced, rather grudgingly, to accept it after Bohr's explanation.

In 1932 von Neumann put quantum theory on a firm theoretical basis. Some of the earlier work had lacked mathematical rigour, but von Neumann put the whole theory into the setting of operator algebra.


5. The Transactional Interpretation

This entry so far has considered the two most significant motivating arguments in favor of adopting retrocausality as a hypothesis for dealing with the interpretational challenges of quantum theory. But these motivations do not by themselves amount to an interpretation or model of quantum theory. §6 consists of a survey of a range of retrocausal models, but this section first considers perhaps the most prominent retrocausal model, the transactional interpretation. Developed by Cramer in the 1980s (Cramer 1980, 1986, 1988), the transactional interpretation is heavily influenced by the framework of the Wheeler-Feynman absorber approach to electrodynamics (see §1) the Wheeler-Feynman schema can be adopted to describe the microscopic exchange of a single quantum of energy, momentum, usw., between and within quantum systems.

At the heart of the transactional interpretation is the &ldquotransaction&rdquo: real physical events are identified with so-called &ldquohandshakes&rdquo between forward-evolving quantum states (psi) and backward-evolving complex-conjugates (psi^*). When a quantum emitter (such as a vibrating electron or atom in an excited state) is to emit a single quantum (a photon, in these cases), the source produces a radiative field&mdashthe &ldquooffer&rdquo wave. Analogously to the Wheeler-Feynman description, this field propagates outwards both forward and backward in time (as well as across space). When this field encounters an absorber, a new field is generated&mdashthe &ldquoconfirmation&rdquo wave&mdashthat likewise propagates both forward and backward in time, and so is present as an advanced incident wave at the emitter at the instant of emission. Both the retarded field produced by the absorber and the advanced field produced by the emitter exactly cancel with the retarded field produced by the emitter and advanced field produced by the absorber for all times before the emission and after the absorption of the photon only between the emitter and the absorber is there a radiative field. Thus the transaction is completed with this &ldquohandshake&rdquo: a cycle of offer and confirmation waves

repeats until the response of the emitter and absorber is sufficient to satisfy all of the quantum boundary conditions&hellipat which point the transaction is completed. (Crammer 1986: 662)

Many confirmation waves from potential absorbers may converge on the emitter at the time of emission but the quantum boundary conditions can usually only permit a single transaction to form. Any observer who witnesses this process would perceive only the completed transaction, which would be interpreted as the passage of a particle (e.g., a photon) between emitter and absorber.

The transactional interpretation takes the wave function to be a real physical wave with spatial extent. The wave function of the quantum mechanical formalism is identical with the initial offer wave of the transaction mechanism and the collapsed wave function is identical with the completed transaction. Quantum particles are thus not to be thought of as represented by the wave function but rather by the completed transaction, of which the wave function is only the initial phase. As Cramer explains:

The transaction may involve a single emitter and absorber or multiple emitters and absorbers, but it is only complete when appropriate boundary conditions are satisfied at all loci of emission and absorption. Particles transferred have no separate identity independent from the satisfaction of these boundary conditions. (1986: 666)

The amplitude of the confirmation wave which is produced by the absorber is proportional to the local amplitude of the incident wave that stimulated it and this, in turn, is dependent on the attenuation it received as it propagated from the source. Thus, the total amplitude of the confirmation wave is just the absolute square of the initial offer wave (evaluated at the absorber), which yields the Born rule. Since the Born rule arises as a product of the transaction mechanism, there is no special significance attached to the role of the observer in the act of measurement. The &ldquocollapse of the wave function&rdquo is interpreted as the completion of the transaction.

The transactional interpretation explicitly interprets the quantum state (psi) as real, and so does not constitute an attempt to exploit the retrocausality loopholes to the theorems that rule out (psi)-epistemic accounts. Additionally, the transactional interpretation subverts the dilemma at the core of the EPR argument (Einstein, et al. 1935) by permitting incompatible observables to take on definite values simultaneously: the wavefunction, according to the transactional interpretation,

brings to each potential absorber the full range of possible outcomes, and all have &ldquosimultaneous reality&rdquo in the EPR sense. The absorber interacts so as to cause one of these outcomes to emerge in the transaction, so that the collapsed [wavefunction] manifests only one of these outcomes. (Crammer 1986: 668).

Most importantly, however, the transactional interpretation employs both retarded and advanced waves, and in doing so admits the possibility of providing a &ldquozigzag&rdquo explanation of the nonlocality associated with entangled quantum systems.

Before turning to one of the more significant objections to the transactional interpretation, and to retrocausality in general, it is instructive to tease apart here two complementary descriptions of this transaction process. On the one hand there is a description of the real physical process, consisting of the passage of a particle between emitter and absorber, that a temporally bound experimenter would observe and on the other hand there is a description of a dynamical process of offer and confirmation waves that is instrumental in establishing the transaction. This latter process simply cannot occur in an ordinary time sequence, not least because any temporally bound observer by construction cannot detect any offer or confirmation waves. Cramer suggests that the &ldquodynamical process&rdquo be understood as occurring in a &ldquopseudotime&rdquo sequence:

The account of an emitter-absorber transaction presented here employs the semantic device of describing a process extending across a lightlike or a timelike interval of space-time as if it occurred in a time sequence external to the process. The reader is reminded that this is only a pedagogical convention for the purposes of description. The process is atemporal and the only observables come from the superposition of all &ldquosteps&rdquo to form the final transaction. (Crammer 1986: 661, fn.14)

These steps are of course the cyclically repeated exchange of offer and confirmation waves which continue &ldquountil the net exchange of energy and other conserved quantities satisfies the quantum boundary conditions of the system&rdquo (1986: 662). There is a strong sense here that any process described as occurring in pseudotime is not a process at all but, as Cramer reminds, merely a &ldquopedagogical convention for the purposes of description&rdquo. Whether it is best to understand causality according to the transactional interpretation in terms of processes underscored by conserved quantities is closely tied to how one should best understand this pseudotemporal process.

Maudlin (2011) outlines a selection of problems that arise in Cramer&rsquos theory as a result of the pseudotemporal account of the transaction mechanism: processes important to the completion of a transaction take place in pseudotime only (rather than in real time) and thus cannot be said to have taken place at all. Since a temporally bound observer can only ever perceive a completed transaction, i.e., a collapsed wavefunction, the uncollapsed wavefunction never actually exists. Since the initial offer wave is identical to the wavefunction of the quantum formalism, any ensuing exchange of advanced and retarded waves required to provide the quantum mechanical probabilities, according to Maudlin, also do not exist. Moreover, Cramer&rsquos exposition of the transaction mechanism seems to suggest that the stimulation of sequential offer and confirmation waves occurs deterministically, leaving a gaping hole in any explanation the transactional interpretation might provide of the stochastic nature of quantum mechanics. Although these problems are significant, Maudlin admits that they may indeed be peculiar to Cramer&rsquos theory. Maudlin also sets out a more general objection to retrocausal models of quantum mechanics which he claims to pose a problem for &ldquoany theory in which both backwards and forwards influences conspire to shape events&rdquo (2011: 184).

Maudlin&rsquos main objection to the transactional interpretation hinges upon the fact that the transaction process depends crucially on the fixity of the absorbers &ldquojust sitting out there in the future, waiting to absorb&rdquo (2011: 182) one cannot presume that present events are unable to influence the future disposition of the absorbers. Maudlin offers a thought experiment to illustrate this objection. A radioactive source is constrained to emit a (eta)-particle either to the left or to the right. To the right sits absorber EIN at a distance of 1 unit. Absorber B is also located to the right but at a distance of 2 units and is built on pivots so that it can be swung around to the left on command. A (eta)-particle emitted at time (t_<0>) to the right will be absorbed by absorber EIN at time (t_<1>). If after time (t_<1>) the (eta)-particle is not detected at absorber EIN, absorber B is quickly swung around to the left to detect the (eta)-particle after time (2t_<1>).

According to the transactional interpretation, since there are two possible outcomes (detection at absorber EIN or detection at absorber B), there will be two confirmation waves sent back from the future, one for each absorber. Furthermore, since it is equally probable that the (eta)-particle be detected at either absorber, the amplitudes of these confirmation waves should be equal. However, a confirmation wave from absorber B can only be sent back to the emitter if absorber B is located on the left. For this to be the case, absorber EIN must not have detected the (eta)-particle and thus the outcome of the experiment must already have been decided. The incidence of a confirmation wave from absorber B at the emitter stellt sicher that the (eta)-particle is to be sent to the left, even though the amplitude of this wave implies a probability of a half of this being the case. As Maudlin (2011: 184) states so succinctly, &ldquoCramer&rsquos theory collapses&rdquo.

The key challenge from Maudlin is that any retrocausal mechanism must ensure that the future behavior of the system transpires consistently with the spatiotemporal structure dictated by any potential future causes: &ldquostochastic outcomes at a particular point in time may influence the future, but that future itself is supposed to play a role in producing the outcomes&rdquo (2011: 181). In the transactional interpretation the existence of the confirmation wave itself presupposes some determined future state of the system with retrocausal influence. However, with standard (i.e., forward-in-time) stochastic causal influences affecting the future from the present, a determined future may not necessarily be guaranteed in every such case, as shown by Maudlin&rsquos experiment.

Maudlin&rsquos challenge to the transactional interpretation has been met with a range of responses (see P. Lewis 2013 and the entry on action at a distance in quantum mechanics for more discussion of possible responses). The responses generally fall into two types (P. Lewis 2013). The first type of response attempts to accommodate Maudlin&rsquos example within the transactional interpretation. Berkovitz (2002) defends the transactional interpretation by showing that causal loops of the type found in Maudlin&rsquos experiment need not obey the assumptions about probabilities that are common in linear causal situations. Marchildon (2006) proposes considering the absorption properties of the long distance boundary conditions: if the universe is a perfect absorber of all radiation then a confirmation wave from the left will always be received by the radioactive source at the time of emission and it will encode the correct probabilistic information. Kastner (2006) proposes differentiating between competing initial states of the radioactive source, corresponding to the two emission possibilities, that together characterize an unstable bifurcation point between distinct worlds, where the seemingly problematic probabilities reflect a probabilistic structure across both possible worlds.

The second type of response is to modify the transactional interpretation. For instance, Cramer (2016) introduces the idea of a hierarchy of advanced-wave echoes dependent upon the magnitude of the spatiotemporal interval from which they originate. Kastner (2013) surmises that the source of the problem that Maudlin has exposed, however, is the idea that quantum processes take place in the &ldquoblock world&rdquo, and rejects this conception of processes in her own development of the transactional interpretation. According to her &ldquopossibilist&rdquo transactional interpretation, all the potential transactions exist in a real space of possibilities, which amounts at once to a kind of modal realism and an indeterminacy regarding future states of the system (hence Kastner&rsquos rejection of the block universe view). The possibilist transactional interpretation arguably handles multi-particle scenarios more naturally, and presents the most modern sustained development of the transactional interpretation (although see P. Lewis 2013 for criticisms of the possibilist transactional interpretation specific to Maudlin&rsquos challenge).


6. The Continuous Spontaneous Localization Model (CSL)

The model just presented (QMSL) has a serious drawback: it does not allow to deal with systems containing identical constituents, because it does not respect the symmetry or antisymmetry requirements for such particles. A quite natural idea to overcome this difficulty is to relate the hitting process not to the individual particles but to the particle number density averaged over an appropriate volume. This can be done by introducing a new phenomenological parameter in the theory which however can be eliminated by an appropriate limiting procedure (see below).

Another way to overcome this problem derives from injecting the physically appropriate principles of the GRW model within the original approach of P. Pearle. This line of thought has led to what is known as the CSL (Continuous Spontaneous Localization) model (Pearle 1989 Ghirardi, Pearle, and Rimini 1990) in which the discontinuous jumps which characterize QMSL are replaced by a continuous stochastic evolution in the Hilbert space (a sort of Brownian motion of the statevector).

The basic working principles are CSL are similar to those of the GRW model, though the technical detail might different significantly. For a review see (Bassi and Ghirardi 2003 Adler 2007, Bassi, Lochan, et al. 2013). At this regard, it is interesting to note (Ghirardi, Pearle, & Rimini 1990) that for any CSL dynamics there is a hitting dynamics which, from a physical point of view, is &lsquoas close to it as one wants&rsquo. Instead of entering into the details of the CSL formalism, it is useful, for the discussion below, to analyze a simplified version of it.

With the aim of understanding the physical implications of the CSL model, such as the rate of suppression of coherence, we make now some simplifying assumptions. First, we assume that we are dealing with only one kind of particles (e.g., the nucleons), secondly, we disregard the standard Schrödinger term in the evolution and, finally, we divide the whole space in cells of volume (d^3). We denote by (ket) a Fock state in which there are (n_i) particles in cell (i), and we consider a superposition of two states (ket) and (ket) which differ in the occupation numbers of the various cells of the universe. With these assumptions it is quite easy to prove that the rate of suppression of the coherence between the two states (so that the final state is one of the two and not their superposition) is governed by the quantity:

all cells of the universe appearing in the sum within the square brackets in the exponent. Apart from differences relating to the identity of the constituents, the overall physics is quite similar to that implied by QMSL.

Equation 6 offers the opportunity of discussing the possibility of relating the suppression of coherence to gravitational effects. In fact, with reference to this equation we notice that the worst case scenario (from the point of view of the time necessary to suppress coherence) is that corresponding to the superposition of two states for which the occupation numbers of the individual cells differ only by one unit. In this case the amplifying effect of taking the square of the differences disappears. Let us then ask the question: how many nucleons (at worst) should occupy different cells, in order for the given superposition to be dynamically suppressed within the time which characterizes human perceptual processes? Since such a time is of the order of (10^<-2>) sec and (f = 10^<-16> ext< sec>^<-1>), the number of displaced nucleons must be of the order of (10^<18>), which corresponds, to a remarkable accuracy, to a Planck mass. This figure seems to point in the same direction as Penrose&rsquos attempts to relate reduction mechanisms to quantum gravitational effects (Penrose 1989).


Max Planck and the Birth of Quantum Mechanics

From left to right: Walther Nernst, Albert Einstein, Max Planck, Robert Andrews Millikan, and Max von Laue at a dinner given by von Laue on November 12, 1931, in Berlin.

In the early evening of Sunday, October 7, 1900—120 years ago—Max Planck found the functional form of the curve that we now know as the Planck distribution of black-body radiation. By my account, it was the birthdate of quantum mechanics.

A few hours earlier Hermann Rubens and his wife had visited the Plancks. This being a Sunday, they probably enjoyed coffee and cake together. Rubens was the experimental professor of physics at Humboldt University in Berlin where Planck was the theoretical one. Rubens and his collaborator, Ferdinand Kurlbaum, had recently managed to measure the power emitted by a black body as a function of temperature at the unusually long wavelength of 51 microns. They had used multiple reflections from rock salt to filter a narrow band of the spectrum. Working at 51 microns, they measured the low temperature limit and the highest temperatures within the experimental reach of their oven. The remarkable result was that at low frequencies, in the classical regime, the results did not fit the predictions of Wilhelm Wien. Rubens told Planck that for small frequencies the measured spectral density was linear with temperature.

Planck was intrigued. As soon as the gathering ended, he set to work. His interest in the data was profound. That evening he figured out the shape of the curve, with its peculiar denominator that in the limit of low frequency showed the appropriate experimental behavior—linear with temperature.

The anecdote, as referred by Abraham Pais in his book Subtle is the Lord, states that Planck mailed a postcard to Rubens with the function that very evening, so that Rubens would get it first thing in the morning (the post would have been delivered and set on his desk by the time he arrived at his office in the university). Rubens probably asked Planck that very same morning: Why is it this shape?

The presentation of new data, followed by Planck’s function, was on October 17. The function fit the data, both at the low temperature and high temperature limits. Planck had been interested on the black body spectrum for a long time. He understood thermodynamics and classical electrodynamics. But it was the high-quality data of Rubens that drove his mind to find a solution. It took him a few months, and on Dec. 14 he presented the derivation of his theory where, “on an act of desperation,” he introduced the quantum of energy: the beginning of quantum mechanics.


Quantum Theory

With the turn of the 20th century, the field of physics underwent two major transformations, roughly at the same time. The first was Einstein's General Theory of Relativity, which dealt with the universal realm of physics. The second was Quantum Theory, which proposed that energy exists as discrete packets—each called a "quantum." This new branch of physics enabled scientists to describe the interaction between energy and matter down through the subatomic realm.

Einstein saw Quantum Theory as a means to describe Nature on an atomic level, but he doubted that it upheld "a useful basis for the whole of physics." He thought that describing reality required firm predictions followed by direct observations. But individual quantum interactions cannot be observed directly, leaving quantum physicists no choice but to predict the probability that events will occur. Challenging Einstein, physicist Niels Bohr championed Quantum Theory. He argued that the mere act of indirectly observing the atomic realm changes the outcome of quantum interactions. According to Bohr, quantum predictions based on probability accurately describe reality.

Niels Bohr and Max Planck, two of the founding fathers of Quantum Theory, each received a Nobel Prize in Physics for their work on quanta. Einstein is considered the third founder of Quantum Theory because he described light as quanta in his theory of the Photoelectric Effect, for which he won the 1921 Nobel Prize.

May 15, 1935: The Physical Review publishes the Einstein, Podolsky, and Rosen (EPR) paper claiming to refute Quantum Theory.

Newspapers were quick to share Einstein's skepticism of the "new physics" with the general public. Einstein's paper, "Can Quantum-Mechanical Description of Physical Reality Be Considered Complete?" prompted Niels Bohr to write a rebuttal. Modern experiments have upheld Quantum Theory despite Einstein's objections. However, the EPR paper introduced topics that form the foundation for much of today's physics research.

Einstein and Niels Bohr began disputing Quantum Theory at the prestigious 1927 Solvay Conference, attended by top physicists of the day. By most accounts of this public debate, Bohr was the victor.



Bemerkungen:

  1. Tojakree

    Ich werde mich bei der Auswahl nur nach meinem Geschmack richten. Es gibt keine anderen Kriterien für die hier hochgeladene Musik. Etwas ist meiner Meinung nach eher zum morgendlichen Hören geeignet. Etwas - für den Abend.

  2. Gardajinn

    Ich entschuldige mich, aber meiner Meinung nach geben Sie den Fehler zu. Ich biete an, darüber zu diskutieren. Schreiben Sie mir in PM, wir werden reden.

  3. Marty

    Es scheint mir eine großartige Idee zu sein



Eine Nachricht schreiben