Einige Klarstellungen in Sachen Physik [Diskussion] - SciFi-Forum

Ankündigung

Einklappen
Keine Ankündigung bisher.

Einige Klarstellungen in Sachen Physik [Diskussion]

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

    Aus dem Nachbarthread, Teil 2:

    Zitat von Mondwinter Beitrag anzeigen
    Allgegenwärtiges Missverständnis: Es gibt keine Gegenwart. Wir alle existieren zu verschiedenen Zeiten - genauer: alle Elementarteilchen sind verschieden weit in der Zeit nach vorne gereist, je nachdem, wie sie sich seit dem Urknall bewegt haben. Wir sind nicht in der Zeit nebeneinander, sondern existieren im gleichen Raum. Wir existieren HIER, nicht jetzt. Es gibt kein Jetzt.
    Angenommen, ich würde 5 Minuten in die Vergangenheit reisen, dann würde ich zwar meine Koordinaten in der Zeit ändern, wäre aber immer noch im gleichen Raum. Also wäre ich immer noch hier, wäre also garnicht gereist.
    Es gibt nur diesen einen Raum, und egal wann man ist, man ist immer HIER.
    Die Vergangenheit, wie sie in der Sci-Fi gezeigt wird, ist eine der größten Missverständnisse der Relativitätstheorie. Sie existiert nicht. Alles, was existiert, sind die Positionen der Teilchen im Raum und in der Zeit. Und alles, was passiert, ist die Änderung der Positionen dieser Teilchen im Raum.
    Beweis: Wink mal! Deine Hand ist aufgrund ihrer Bewegung durch den Raum nun weniger gealtert als der Rest von dir, befindet sich also zeitlich weiter in der Verganenheit. Sie ist aber noch da!!! Warum ist sie nicht verschwunden? Weil sie immer noch im gleichen Raum ist wie alle anderen Teilchen.
    das Missverständnis liegt hier vielmehr bei dir. Und zwar verwechselst du Eigenzeit und Koordinatenzeit. Dass die Hand weniger altert, betrifft ihre Eigenzeit, also die Zeit, die für die Hand selbst verstreicht. Wenn man aber davon spricht, ob ein Ereignis in der Vergangenheit, Gegenwart oder Zukunft liegt, dann macht das generell nur Sinn, wenn man sich auf die Koordinatenzeit bezieht. Wenn ein Ereignis in der Gegenwart liegt, dann bedeutet es, dass sich auf einer raumartigen Hyperfläche befindet, die durch t = jetzt definiert ist, wobei t die Koordinatenzeit ist. Ein in der Vergangenheit liegendes Ereignis liegt auf einer Hyperfläche mit t < jetzt, ein in der Zukunft liegendes Ereignis auf einer Hyperfläche mit t > jetzt.

    Ein von der Eigenzeit ausgehender Vergangenheits-, Gegenwarts- und Zukunftsbegriff würde keinen Sinn ergeben, da die Eigenzeit nur pro Weltlinie definiert ist.

    Eine Zeitreise in die Vergangenheit würde sich also dadurch definieren, dass man zu einer früheren Koordinatenzeit, zu einer raumartigen Hyperfläche mit einer früheren Zeitkoordinate, zurückgehen würde, wobei die eigene Eigenzeit unverändert voranschreiten würde. Ein Zurückgehen in der eigenen Eigenzeit wäre tatsächlich kaum denkbar, aber für das, was man gemeinhin unter einer Zeitreise versteht, auch gar nicht erforderlich.

    Zitat von Mondwinter Beitrag anzeigen
    Wie im vorherigen Punkt gesagt, ist ein schwarzes Loch ein Ende der Zeit. Sogar das Ende der Zeit ist HIER, im Raum.
    wenn man die Endsingularität in einem schwarzen Loch betrachten will, hat man in Grunde zwei Möglichkeiten. Die eine ist, dass man eine rein raumzeitliche Sichtweise zugrundelegt, ohne Rückgriff auf ein Koordinatensystem, das eine Unterscheidung zwischen Raum und Koordinatenzeit zulassen würde. Dann macht es aber keinen Sinn davon zu sprechen, irgendetwas sei "hier, im Raum", da ein Raumbegriff dann eben nicht definiert ist, sondern nur ein Raumzeitbegriff, und ein Eigenzeitbegriff.

    Die andere Möglichkeit ist, von einem Koordinatensystem auszugehen. Durch Konstantsetzen der Zeitkoordinate kann man dann einen Raumbegriff definieren, in Gestalt einer raumartigen Hyperfläche. Die Konstruktion von Koordinatensystemen ist in der ART allerdings ziemlich beliebig, entsprechend auch die Beurteilung, ob die Singularität jetzt, in der Zukunft oder überhaupt nicht existiert.

    Beispiel Schwarzschildkoordinaten: diese sind nur auf die Raumzeitregion außerhalb des schwarzen Loches anwendbar, also nicht auf den Bereich innerhalb und somit auch nicht auf die Singularität, in Schwarzschildkoordinaten existiert die Singularität somit schlicht nicht, was dazu passt, dass ein Teilchen, das in das schwarze Loch fällt, den Ereignishorizont erst in unendlich ferner Schwarzschild-Koordinatenzeitzukunft überschreitet.

    Anderes Beispiel Kruskalkoordinaten: die Singularität existiert erst ab einer bestimmten Zeit, vorher nicht. Noch anderes Beispiel Eddington-Finkelstein-Koordinaten: die Singularität existiert jetzt gerade, allerdings sind Hyperflächen, die durch t = const definiert sind, innerhalb des schwarzen Loches nicht raumartig, wenn t die Eddington-Finkelstein-Koordinatenzeit ist.

    Zitat von Mondwinter Beitrag anzeigen
    Energie kann nicht verschwendet werden, denn sie ist eine Erhaltungsgröße. Aber Exergie kann uns ausgehen. Exergie ist der Anteil der Energie, der nutzbar ist, um Arbeit zu leisten. Sie ist diejenige Energie, welche beim Ausgleich von Unterschieden vermittelt wird. So zum Beispiel ein Wind, also dem Ausgleich von hohem Druck und niedrigem Druck. Oder ein Fluss, also dem Ausgleich von hoher Lage zu niedriger Lage. Eines Tages jedoch werden alle Unterschiede im Universum ausgeglichen sein, und dann wird nie wieder etwas geschehen. Was also Picard sagen sollte ist: Exergie!
    hier muss man jedoch anmerken, dass die Begriffe der Exergie und der Anergie (der nicht nutzbare Teil der Energie) nur dann sinnvoll sind, wenn man eine gegebene Temperatur voraussetzt. Wird z.B. in einem System, das die Temperatur T hat, die Entropie Delta_S erzeugt, so wird dadurch von der inneren Energie U des Systems der Anteil Delta_U = T Delta_S entwertet, sprich: von Exergie in Anergie überführt.

    Das eindrucksvollste Beispiel dafür, dass entwertete Energie sehr wohl wieder in nutzbare Energie umgewandelt werden kann (also Anergie in Exergie) ist die Wärmekraftmaschine, wie sie z.B. durch einen Verbrennungsmotor realisiert ist. Ein theoretisches Modell hierfür ist der Carnotsche Kreisprozess, bei dem grob gesprochen folgendes passiert: das Arbeitsmedium bezieht aus einem heißeren Wärmebad der Temperatur T2 die Wärmemenge Delta_Q2 = T2 Delta_S, wobei Delta_S die übertragene Entropie ist, und gibt anschließend an ein kälteres Wärmebad der Temperatur T1 < T2 die geringere Wärmemenge Delta_Q1 = T1 Delta_S ab, wobei die Differenz zwischen beiden Wärmemengen in nutzbringende Arbeit umgewandelt wird. Es wird also entwertete Energie wieder aufgewertet, und zwar durch den Kontakt zum kälteren Wärmebad.

    Wesentlich dabei ist, dass die durch die Entropie entwertete Energie von der Temperatur abhängt. Je niedriger die Temperatur, desto weniger Energie wird durch die gleiche Entropiemenge entwertet.

    Kommentar


      Ich wollte nur kurz sagen, dass ich nach langer Zeit wiedermal in den "Einige Klarstellungen..."-Thread geschaut habe und dabei Mondwinters' Ausführungen und Erklärungen zu Zeit und Raum sehr interessant und hilfreich fand.

      Ich kann es aber natürlich nicht lassen, einige Detail-Korrekturen in Bereichen anzuführen, in denen ich mich auskenne:

      Die Sonne wird nicht zu einem roten Riesen werden, sondern tut dies mehrere Male. Das ist ein häufiger Fehler in Dokumentationen. Sie wird sich aufblähen, dann aber wieder zusammenschrumpfen, sich wieder aufblähen und so weiter. Dies geschieht immer schneller. Gegen Ende stößt sie dabei ihre Hüllen ab und formt einen planetarischen Nebel.
      Es gibt tatsächlich nur eine "richtige" Rote Riesen Phase, aber die Sache mit den Pulsationen stimmt. Das späte Leben der Sonne wird definiert durch die verfügbaren Brennstoffe und wo sie verbrannt werden. So lange die Sonne in ihrem Kern Wasserstoff zu Helium verbrennt, befindet sie sich auf der Hauptreihe. Wenn der Wasserstoff im Kern zur Neige geht, muss er in einer Schale rund um den Helium-Asche-Kern zu brennen beginnen - das ist die Rote Riesen Phase. Diese dauert so lange, bis sich genügend Helium-Asche gesammelt hat, um im Kern die Verbrennung von Helium zu Kohlenstoff und Sauerstoff zu zünden (die Sonne ist massiv genug dafür). Diese neue Energiequelle beendet die Rote Riesen Phase und führt die Sonne auf den sogenannten "horizontalen Ast" bzw. macht sie zu einem "Klumpengiganten" (engl. clump giant). Wenn das He im Kern erschöpft ist (es hat sich ein C/O Kern gebildet), muss das He-Brennen in einer Schale weitergehen - dies setzt den Anfang der "Asymptotischen Riesenast"-Phase (die manchmal auch als zweite Rote Riesen Phase bezeichnet wird). Diese Konfiguration von zwei brennenden H und He Schalen ist aber bei der Sonne instabil, was zu den genannten Pulsationen im Abstand von etwa 100'000 Jahren führt. Jede Pulsation führt zum Abwurf von Masse, und die vierte setzt schliesslich den Kern frei, womit die Sonne zum Weissen Zwerg (C/O-Typ) wird.

      Zusammengefasst ist das sehr schön hier: Lecture 40: The Once and Future Sun

      Die Sonne nimmt kontinuierlich an Helligkeit und Leuchtkraft (abgegebene Leistung) zu. Vor 4.5 milliarden Jahren hatte sie etwa 70% der heutigen Leuchtkraft. In einer Milliarde Jahren wird sie die Atmosphäre der Erde wegblasen und die Ozeane verdampfen. Die Biosphäre der Erde wird fort sein, lange bevor die Sonne erstmals zum roten Riesen wird.
      In einer Milliarde Jahre wird die Leuchtkraft der Sonne etwa 10% höher sein als heute. Das reicht zwar wohl, um einen versträrkten Treibhauseffekt zu bewirken und die Ozeane teilweise zu verdampfen (ein sog. "feuchtes Treibhaus" = moist greenhouse, dh, die Atmosphäre ist stets wassergesättigt und verliert an der Obergrenze das Wasser in den Weltraum), aber es ist bei weitem nicht genug, um die Atmosphäre wegzublasen. Man denke z.B. dass die Venus (mit ähnlicher Gravitation bzw. Fluchtgeschwindigkeit) schon seit Jahrmilliarden einem Sonnenflux (und Sonnenwind) ausgesetzt ist, der deutlich höher als 110% des Wertes bei der Erde heute ist, und das auch noch ohne planetares Magnetfeld - und dabei immer noch eine sehr dichte Atmosphäre hat. Die Erde wird ihre Atmosphäre langfristig sicher verlieren - aber nicht schon in einer Milliarde Jahre. Klimasimulationen dieser Entwicklung legen z.B. nahe, dass einzellige Organismen an den Polen noch fast 3 Mrd Jahre lang weiterexistieren könnten. Siehe z.B. [1210.5721] Swansong Biospheres: Refuges for life and novel microbial biospheres on terrestrial planets near the end of their habitable lifetimes
      Planeten.ch - Acht und mehr Planeten (neu wieder aktiv!)
      Final-frontier.ch - Kommentare vom Rand des Universums

      Kommentar


        Da die aktuelle und interessante Diskussion zur kinetischen Energie inzwischen auf fast 40 Beiträge angewachsen ist, habe ich sie mal ausgegliedert:

        Dieses Forum ist genau richtig für alle Technik-Fans und Wissenschaftler - egal ob Astronomie, Naturwissenschaft, Luft- und Raumfahrt oder Technologien aller Art!
        .

        Kommentar


          Zitat von Bynaus Beitrag anzeigen
          Das Problem liegt bei der Unschärferelation: Wann immer man ein Teilchen misst, beeinflusst man es durch diese Messung. Nehmen wir an, wir beschiessen ein Teilchen mit einem Elektron, um seine Position zu bestimmen. Das Elektron trift auf das Teilchen, wird reflektiert und fliegt in den Detektor. Aus Abschusspunkt des Elektrons und dessen Eintrittspunkt in den Detektor können wir nun genau den Ort der Kollision errechnen. Doch das zu messende Teilchen ist mittlerweile nicht mehr dort, da es vom Elektron in Bewegung gesetzt wurde. Wenn wir aber versuchen, die Geschwindigkeit des Teilchens zu messen, verlieren wir Information über seinen Ort. Die Unschärferelation wird also folgendermassen formuliert:
          dx * dp > h/2
          Dabei bedeutet dx die Unsicherheit in der Bestimmung des Ortes und dp die Unsicherheit in der Bestimmung des Impulses (Masse * Geschwindigkeit). h ist eine Konstante. Wenn dieses Gesetz zutrifft (und das tut es bisher bestens), dann ist das Produkt aus den beiden Unsicherheiten stets >0. Sobald die eine Unsicherheit gegen 0 geht, geht die andere gegen "unendlich".
          Jede Messung hat einen Einfluss auf die Eigenschaften des Teilchens, so weit so klar.

          Ich habe aber mal gelesen, das die Unschärferelation eine grundsätzliche Eigenschaft der Teilchen ist. Wie muss ich mir das vorstellen? Es wäre doch möglich, das ein Teilchen schon absolute Eigenschaften besitzt, wir diese aber nicht bestimmen können, weil wir durch eine Messung die Eigenschaften verändern.
          „Die Borg würden nicht mal Spaß verstehen, wenn sie einen Vergnügungspark assimiliert hätten.“

          Torres, aus „Star Trek Voyager – Tsunkatse“

          Kommentar


            Zitat von Nilani Beitrag anzeigen
            Jede Messung hat einen Einfluss auf die Eigenschaften des Teilchens, so weit so klar.

            Ich habe aber mal gelesen, das die Unschärferelation eine grundsätzliche Eigenschaft der Teilchen ist. Wie muss ich mir das vorstellen? Es wäre doch möglich, das ein Teilchen schon absolute Eigenschaften besitzt, wir diese aber nicht bestimmen können, weil wir durch eine Messung die Eigenschaften verändern.
            Das wäre natürlich denkbar, doch tatsächlich verhält es sich so, dass die Unschärfe von Teilchen eine fundamentale Eigenschaft ist und keinesfalls auf ein Messproblem zurückgeht. Die Formel für die Heisenberg'sche Unschärferelation lautet:
            Δx * Δp > ħ / 2
            D.h, je genauer oder schärfer Δx bestimmt wird (also je genauer es lokalisiert ist), je unschärfer ist der Wert für den Impuls Δp (umgekehrt gilt das Gleiche).
            Da den Quantenobjekten (Teilchen) also die Eigenschaften fehlen, dass Ort und Impuls gleichermaßen „scharf“ bestimmt sind (ganz anders, als in unserer mesokosmischen Erfahrungswelt), ist es auch sinnfrei, ihnen solche Eigenschaften zuschreiben zu wollen.

            Im Doppelspaltexperiment zeigt sich, dass kohärentes Licht (Photonen) ebenso wie Fullerenmoleküle (60 bis 94 Atome), welche die beiden Spalten passieren, auf der dahinter liegenden Detektorplatte ein Interferenzmuster bilden, sich also wie Wellen verhalten.
            Klicke auf die Grafik für eine vergrößerte Ansicht

Name: f_doppel.gif
Ansichten: 2
Größe: 24,3 KB
ID: 4273205
            Grafikquelle

            Erklärt wird dies mittels einer Wellenfunktion (Formelzeichen ψ), über die man das Verhalten von Quantenobjekten beschreibt. Bei der Messung (z. B. auf dem Detektorschirm) kollabiert nach der Kopenhagener Deutung diese Wellenfunktion und wir messen ein positioniertes Teilchen (Kollaps der Wellenfunktion).
            Es verhielt sich aber nicht mechanisch, wie man es von einem Teilchen erwarten würde, auch nicht wie eine Welle, denn diese könnte man nicht als punktförmiges Teilchen messen, sondern eben wie ein Quantenobjekt, welches sich wie eine Welle verhält, solange man nicht hinguckt, aber bei der Messung als Teilchen registrierst wird. Es scheint fast so, als würden sich die Quantenobjekte ihres Wellencharakters schämen.
            Wo man es als Teilchen registriert, ist im Voraus nicht bestimmbar. Man kann aber eine statistische Wahrscheinlichkeit dafür angeben (das mathematische Verfahren ersann Erwin Schrödinger, der Mann mit der „Katze“), mit dem man im Falle des Doppelspaltexperiments als wahrscheinliche Detektions-Orte für Quantenobjekte das Interferenzmuster erhält. Dies ist objektiver Zufall.

            Nun könnte man natürlich annehmen, dass hier irgendwelche verborgenen Parameter den Detektionsort eines Teilchens (ob nun Photon oder Fullerenmolekül) festlegen, doch lokale verborgene Parameter wurden durch die Bell'sche Ungleichungen falsifiziert.
            Es verhält sich eben NICHT so wie bei Dr. Bertlmanns Socken, bei denen ja die Sockenfarben von vorn herein feststehen und nicht erst durch die Beobachtung festgelegt werden.

            Was für den Detektionsort von Quantenobjekten auf dem Detektorschirm gilt, gilt auch für die Spinorientierung.
            Zitat aus Skurrile Quantenwelt:
            Nach der Theorie der Quantenmechanik besitzt das Teilchen, solange es nicht gemessen wird, überhaupt keine konkrete Spinrichtung. Es befindet sich anfangs (je nach Präparation) in einer Superposition aus mehreren, wenn nicht sogar unendlich vielen, möglichen Spinorientierungen. In Diracscher Notation schreibt sich der quantenmechanische Zustand des Teilchens daher im Superpositionszustand als
            |Ψ> = a |↑> + b |↓>
            *farbliche Hervorhebung von mir

            Einzige "Nische" bleibt die Bohm'sche Mechanik, welche nicht-lokale verborgene Parameter postuliert, die aber als wenig wahrscheinlich gilt.
            Zwar ist die Bohm'sche Mechanik ebenso wie die bohr'sche Quantenmechanik mit den experimentellen Ergebnissen vereinbar. Doch problematisch wird es, wenn man eine "bohm'sche Quantenfeldtheorie" konstruieren will, da eine determinsitsche Beschreibung laut Wikipedia bisher nur für bosonische Quantenfelder gelang.

            Alle Teilchen lassen sich in zwei Gruppen unterteilen:
            - Bosonen (Teilchen mit ganzzahligem Spin, Eich-Bosonen, z.B. Photonen): Laser lassen sich beliebig bündeln.
            - Fermionen (Teilchen mit halbzahligem Spin, Materieteilchen, wie Elektronen und Quarks): Zwei gleiche Fermionen können nicht am gleichen Ort sein.

            Bosonen lassen sich gem. der QFT als Anregungen bosonischer Quantenfelder verstehen.

            Die Fermionen unterliegen dem Pauli-Prinzip. Dieses Prinzip ist dafür verantwortlich, dass sich in der K-Schale der Atome² nur zwei Elektronen mit gegensätzlichen Spin befinden können. Ein drittes Elektron hätte wieder den selben Spin wie eines der anderen und dieses duldet das Pauli-Prinzip nicht.
            Übrigens, in Supraleitern bilden sich Elektronen-Paare, die gemeinsam als Bosonen auftreten. Dies erlaubt einen widerstandfreien Elektronen-Fluss.

            Mehr dau in Elementarteilchen.info

            Ein weiteres Problem der Bohm'schen Mechanik besteht darin, dass für eine relativistische Erweiterung ein ausgezeichnetes Bezugssystem eingeführt werden müsste, welches in der Relativitätstheorie nicht existiert.

            ²Das bohr'sche Atommodell v. 1913 ist nur ein Arbeitsmodell und keine Beschreibung der physikalischen Realität.

            Kommentar


              Danke für die schnelle Antwort und die gute Erklärung mit dem Doppelspaltexperiment. Das kannte ich zwar schon, aber bis jetzt ist mir noch nie die Idee gekommen, das dadurch absolute Teilchen unmöglich werden.

              Es scheint fast so, als würden sich die Quantenobjekte ihres Wellencharakters schämen.
              Nett ausgedrückt, den Satz merk ich mir bestimmt.
              „Die Borg würden nicht mal Spaß verstehen, wenn sie einen Vergnügungspark assimiliert hätten.“

              Torres, aus „Star Trek Voyager – Tsunkatse“

              Kommentar


                Zitat von Nilani Beitrag anzeigen
                Jede Messung hat einen Einfluss auf die Eigenschaften des Teilchens, so weit so klar.

                Ich habe aber mal gelesen, das die Unschärferelation eine grundsätzliche Eigenschaft der Teilchen ist. Wie muss ich mir das vorstellen? Es wäre doch möglich, das ein Teilchen schon absolute Eigenschaften besitzt, wir diese aber nicht bestimmen können, weil wir durch eine Messung die Eigenschaften verändern.
                Halman hat dir zwar schon eine sehr gute Antwort gegeben, ich möchte trotzdem aber noch ein paar Dinge hinzufügen.

                Zunächst einmal möchte ich betonen, dass Bynaus Erläuterung der Unschärferelation missverständlich ist. Er schreibt ja, dass eine Positionsmessung bei einem Teilchen unweigerlich dazu führt, dass sich das Teilchen von dieser Position fort bewegt, also nach kurzer Zeit gar nicht mehr an der gemessenen Position ist. Leider wird damit daber ein zentraler Wesenszug der Unschärferelation gar nicht deutlich: das Teilchen bewegt sich nämlich nicht einfach nur von der gemessenen Position fort, sondern die Geschwindigkeit, mit der es das tut, ist unscharf, und zwar umso mehr, je genauer die Positionsmessung war, und genau das macht erst die Unschärferelation zur Unschärferelation.

                Eine Erläuterung, die der von Bynaus ganz ähnlich ist, findet sich z.B. in Stephen Hawkings Buch "Eine kurze Geschichte der Zeit". Hawking zieht da den Compton-Effekt heran: wenn man die Position eines Teilchen mittels eines Photons messen will, so führt das unweigerlich zum Auftreten des Compton-Effekts, bei dem ein Teil des Impulses und der Energie des Photons auf das Teilchen übertragen wird, so dass sich dieses von seiner aktuellen Position fort bewegt. Was Hawking da ganz ähnlich wie Bynaus versäumt hat zu erwähnen, ist, dass die Geschwindigkeit des Teilchens danach unscharf ist. Bei mir hat das damals, als ich Hawkings Buch zum ersten Mal las, zu einem völlig falschen Verständnis der Unschärferelation geführt: Hawkings wie auch Bynaus Beschreibung legt ja eher nahe, dass die Unschärferelation statt

                Delta x * Delta p > h

                eher

                Delta x * p > h

                lauten müsste, dass also eine genaue Positionsmessung nicht zu einer hohen Impulsunschärfe führen würde, sondern zu einem hohen Impuls. AFAIR brauchte ich damas 2 Jahre, um diese falsche Vorstellung von der Unschärferelation zu korrigieren (was ich anhand eines Lehrbuches der Quantenmechanik tat, in dem die Unschärferelation über die Wellenfunktion und die Fourier-Synthese hergeleitet wurde), deswegen bin ich gegen solche Darstellungen besonders allergisch.

                Zurück zu deiner Frage: Halman hat dir ja schon erklärt, dass in der QM Teilchen durch Wellenfunktionen beschrieben werden. Nun gilt, dass so eine Wellenfunktion z.B. sehr stark um eine bestimmte Position herum lokalisiert sein kann. Das entspricht dann einer sehr kleinen Ortsunschärfe. Die Wellenfunktion ist dann ein Wellenpaket, in dem sehr viele unterschiedliche Wellenlängen überlagert sind. Jede Wellenlänge entspricht über die deBroglie-Beziehung

                p = hquer k = 2pi hquer / lambda = h / lambda

                (mit p = Impuls, lambda = Wellenlänge, k = 2pi / lambda = Wellenzahl) einem Impuls, so dass eine solche Überlagerung vieler Wellenlängen eine Überlagerung vieler Impuls bedeutet, und somit eine hohe Unbestimmtheit im Impuls, also eine hohe Impulsunschärfe.

                Die Wellenfunktion kann aber umgekehrt auch eine einfache Sinuswelle mit wohldefinierter Wellenlänge sein: dann sind Wellenlänge und Impuls sehr genau bekannt, also sehr scharf, dafür ist so eine Sinuswelle aber über den gesamten Raum delokalisiert, da sie viele viele Wellenberge hat. Das bedeutet dann eine hohe Ortsunschärfe.

                Fasst man die Wellenfunktion nun also fundamentale Beschreibung eines quantenmechanischen Teilchens auf, dann folgt daraus, dass, wie du es ausgedrückt hast, die Unschärferelation eine grundsätzliche Eigenschaft der Teilchen ist: die Wellenfunktion kann ja nur entweder stark lokalsiert sein, und dadurch viele verschiedene Wellenlängen (= Impuls) enthalten, oder eben eine wohldefinierte Wellenlänge haben (= scharfer Impuls), und dafür über eine großen Raumbereich delokalisiert sein (= hohe Ortsunschärfe).

                Es gibt aber, wie Halman ebenfalls erwähnte, die Deutung der verborgenen Parameter. Nach der ist die Wellenfunktion eben keine fundamentale Beschreibung, sondern es gibt daneben noch die verborgenen Parameter, die z.B jederzeit eine wohldefinierten Ort und Impuls angeben können, und die lediglich keiner Messung zugänglich sind. Eine Variante der Deutung der verborgenen Parameter ist die Bohmsche Mechanik.

                Zitat von Nilani Beitrag anzeigen
                Danke für die schnelle Antwort und die gute Erklärung mit dem Doppelspaltexperiment. Das kannte ich zwar schon, aber bis jetzt ist mir noch nie die Idee gekommen, das dadurch absolute Teilchen unmöglich werden.
                Mal eine ganz andere Frage: du sprichst hier von "absoluten" Teilchen, und sprachst weiter oben von "absoluten" Eigenschaften, womit du offenbar meintest, dass ein Teilchen einen wohldefinierten Ort und Impuls besitzen würde. Warum bezeichnest du das als "absolut"?

                Kommentar


                  Zitat von Agent Scullie Beitrag anzeigen
                  das Teilchen bewegt sich nämlich nicht einfach nur von der gemessenen Position fort, sondern die Geschwindigkeit, mit der es das tut, ist unscharf, und zwar umso mehr, je genauer die Positionsmessung war, und genau das macht erst die Unschärferelation zur Unschärferelation.
                  Das habe ich so verstanden.

                  Zitat von Agent Scullie Beitrag anzeigen
                  Eine Erläuterung, die der von Bynaus ganz ähnlich ist, findet sich z.B. in Stephen Hawkings Buch "Eine kurze Geschichte der Zeit".
                  Hawking schreibt:
                  "Je genauer man die Position des Teilchens zu messen versucht, desto ungenauer läßt sich seine Geschwindigkeit messen, und umgekehrt."
                  so weit, so unvollständig.
                  Brian Greene finde ich da besser. In seinem Buch "Das elegante Universum" spricht er auch von der umgekehrten Proportionalität:
                  "Er (Heisenberg) entdeckte - was schon unsere Überlegung zeigte -, dass sie sich umgekehrt proportional verhalten: Größere Genauigkeit bei der Positionsbestimmung bedeutet notwendigerweise größere Ungenauigkeit bei der Geschwindigkeitsbestimmung und umgekehrt."
                  Sehr anschaulich fand ich auch seinen Satz:
                  "Wenn es Ihnen gelänge, ein einzelnes Elektron in einer großen festen Schachtel einzufangen, und wenn Sie dann die Wände der Schachtel immer enger zusammenrücken ließen, um den Ort des Teichlchens mit immer größerer Genauigkeit zu bestimmen, würden Sie feststellen, dass sich das Elektron immer hektischer verhielte. Das Teilchen würde total verrückt spielen, als litte es unter einem Anfall von Klaustrophobie - das heißt, es würde mit immer wahnwitzigerer und unvorhersagbarerer Geschwindigkeit von den Wänden der Schachtel abprallen. Die Natur läßt es nicht zu, dass wir ihre Bausteine in die Enge treiben."

                  Zitat von Agent Scullie Beitrag anzeigen
                  Fasst man die Wellenfunktion nun also fundamentale Beschreibung eines quantenmechanischen Teilchens auf, dann folgt daraus, dass, wie du es ausgedrückt hast, die Unschärferelation eine grundsätzliche Eigenschaft der Teilchen ist: die Wellenfunktion kann ja nur entweder stark lokalsiert sein, und dadurch viele verschiedene Wellenlängen (= Impuls) enthalten, oder eben eine wohldefinierte Wellenlänge haben (= scharfer Impuls), und dafür über eine großen Raumbereich delokalisiert sein (= hohe Ortsunschärfe).
                  sehr einleuchtend erklärt, danke

                  Zitat von Agent Scullie Beitrag anzeigen
                  Es gibt aber, wie Halman ebenfalls erwähnte, die Deutung der verborgenen Parameter. Nach der ist die Wellenfunktion eben keine fundamentale Beschreibung, sondern es gibt daneben noch die verborgenen Parameter, die z.B jederzeit eine wohldefinierten Ort und Impuls angeben können, und die lediglich keiner Messung zugänglich sind. Eine Variante der Deutung der verborgenen Parameter ist die Bohmsche Mechanik.
                  OK, jetzt komm ich nicht mehr mit.

                  Zitat von Agent Scullie Beitrag anzeigen
                  Mal eine ganz andere Frage: du sprichst hier von "absoluten" Teilchen, und sprachst weiter oben von "absoluten" Eigenschaften, womit du offenbar meintest, dass ein Teilchen einen wohldefinierten Ort und Impuls besitzen würde. Warum bezeichnest du das als "absolut"?
                  Ja, das meinte ich, im Sinne von absolut messbar.
                  „Die Borg würden nicht mal Spaß verstehen, wenn sie einen Vergnügungspark assimiliert hätten.“

                  Torres, aus „Star Trek Voyager – Tsunkatse“

                  Kommentar


                    Zitat von Nilani Beitrag anzeigen
                    Danke für die schnelle Antwort und die gute Erklärung mit dem Doppelspaltexperiment. Das kannte ich zwar schon, aber bis jetzt ist mir noch nie die Idee gekommen, das dadurch absolute Teilchen unmöglich werden.
                    Keine Teilchen im klassischem Sinne, sondern Quantenobjekte, die uns wie seltsame "Welle-Teilchen" erscheinen, aber weder "klassische Teilchen" noch "klassische Wellen" sind.
                    Diesbezüglich verweise ich die Seiten 64 bis 75 aus Skurrile Quantenwelt. Darin wird es plausibel und nachvollziehbar erklärt.


                    Zitat von Agent Scullie Beitrag anzeigen
                    Halman hat dir zwar schon eine sehr gute Antwort gegeben, ich möchte trotzdem aber noch ein paar Dinge hinzufügen.
                    Für diese hinzugefügten "paar Dinge" danke ich Dir sehr. Und vielen Dank für Dein Lob - dies ist für mich ein Grund zum feiern.

                    Zitat von Agent Scullie Beitrag anzeigen
                    AFAIR brauchte ich damas 2 Jahre, um diese falsche Vorstellung von der Unschärferelation zu korrigieren (was ich anhand eines Lehrbuches der Quantenmechanik tat, in dem die Unschärferelation über die Wellenfunktion und die Fourier-Synthese hergeleitet wurde), deswegen bin ich gegen solche Darstellungen besonders allergisch.
                    Das ist verständlich und kann ich gut nachvollziehen.


                    Zitat von Nilani Beitrag anzeigen
                    Zitat von Agent Scullie Beitrag anzeigen
                    Es gibt aber, wie Halman ebenfalls erwähnte, die Deutung der verborgenen Parameter. Nach der ist die Wellenfunktion eben keine fundamentale Beschreibung, sondern es gibt daneben noch die verborgenen Parameter, die z.B jederzeit eine wohldefinierten Ort und Impuls angeben können, und die lediglich keiner Messung zugänglich sind. Eine Variante der Deutung der verborgenen Parameter ist die Bohmsche Mechanik.
                    OK, jetzt komm ich nicht mehr mit.
                    Ist auch wirklich nicht einfach.

                    Gem. der Quantenmechanik (QM) lässt sich das Verhalten von Quantenobjekten nicht eindeutig bestimmen, ihr Verhalten ist objektiv zufällig (die Schrödingergleichung erlaubt lediglich eine statistische Wahrscheinlichkeit zu berechen). Um den daraus resultierenden Interdeterminismus zu umgehen, erdachte Einstein sich verborgene Parameter die lokal und unmessbar das Verhalten von Quantenobjekten determinieren.
                    Gem. so einer lokal-realistischen Theorie geht der Zufall in der Quantenmechanik (QM) nur auf Datenmangel zurück: Demzufolge wäre die QM als eine unvollständige Theorie anzusehen.
                    Allerdings legen alle bekannten Daten einen objektiven Zufall nahe, der nicht auf Datenmangel zurückzuführen ist (Kopenhagener Kollaps). So verschwindet beim Doppelspaltexperiment das Interferenzmuster, sobald man durch die Messung die Positionen der Quantenobjekte bestimmt. Dass lässt sich dadurch erklären, dass durch die Messung die Wellenfunktion des Quantenobjektes kollabiert.
                    Wenn aber der Kopenhagener Kollaps nur ein scheinbares Phänomen ist und die Messung nicht zum instantanen Kollaps der Wellenfunktion Ψ führt, sondern die Position aller Quantenobjekte bereits vor der Messung bestand, dann muss es verborgende Parameter geben.

                    Einstein schlug lokale, verborgene Parameter vor, um eine „realistische Theorie“ zu formulieren.

                    Gemäß der QM ist auch der Spin (eine Art „Drehimpuls“ der Quantenobjekte) im Zustand der Superposition und somit vor der Messung unbestimmt. Gem. der Theorie der lokalen verborgenen Parameter ist der Spin aber bereits vor der Messung bestimmt.

                    Spukhafte Fernwirkung
                    Der kritische Begriff „spukhafte Fernwirkung“ geht auf Albert Einstein zurück. Aus seiner Sicht verletzte dies das klassische Prinzip des lokalen Realismus'. Daher schlug Einstein eine lokal-realistische Theorie mit verborgenen Variablen vor, um das seltsame Verhalten von verschränkten Teilchenpaaren zu erklären. Denn woher „weiß“ Teilchen B, dass Teilchen A gemessen wurde? Wenn sie lokal getrennt sind (also eine Informationsübermittlung in Lichtgeschwindigkeit ausgeschlossen ist), sollte eine Beobachtung/Messung von Teilchen A keinen Einfluss auf Teilchen B haben.
                    Mehr dazu im Buch-Link.

                    Einstein setzte meines Wissens eine determinierte Welt voraus, in der alle Eigenschaften und Werte unabhängig von der Beobachtung bereits bestehen. In der berühmten Einstein-Bohr-Debatte legte er zusammen mit Podolsky und Rosen zwei grundlegende Definitionen dar:
                    Zitiert aus Skurrile Quantenwelt, Seite 207:
                    - Die Vollständigkeit: Von der Vollständigkeit einer Theorie spricht man dann, wenn jedem Element in der Realität genau eines in der physikalischen Theorie entspricht.
                    - Das Realitätskriterium: Eine physikalische Größe ist dann ein Element der Realität, wenn es mit Sicherheit vorausgesagt werden kann, ohne das System zu stören.
                    Bei determinierten Systemen ist es theoretisch möglich, jeden Zustand zu berechnen, sofern man alle Daten über einen Zustand des Gesamtsystems zu einer gegebenen Zeit t0 hat. So könnte z.B. ein Cyborg (hier kommt durch, dass ich Summer-Glau-Fan bin) einen Stoß im Billard-Spiel berechnen, sieh selbst :

                    Diesen widerspricht die Quantenmechanik jedoch sehr hartnäckig. Um es mal scherzhaft auszudrücken: Quantenobjekte scheinen sich für den gesunden Menschenverstand nicht zu interessieren.

                    Zitat aus Skurrile Quantenwelt:
                    verborgene Parameter/Variable: Diejenigen hypthetischen, physikalischen Parameter bzw. Variablen, denen zwar physikalische Realität zugesprochen wird, die allerdings aus prinzipiellen Gründen nicht messbar sind. Auf der Annahme ihrer Existenz basieren deterministische Theorien. Die Existens lokal-realistischer verborgener Variabler wurde jedoch experimentell widerlegt.
                    Der einfallsreiche Phyiker John Bell fand eine Möglichkeit, ein Experiment zu ersinnen, indem lokale-verborgene Parameter zu einem anderen Ergebnis führen als der Interdeterminsmus der Quantenmechanik: das Stern-Gerlach-Experiment, bei dem die Spinorientierungen von Elektronen gemessen werden.

                    Aus der Annahme lokaler verborgender Parameter ergeben sich die Bell'schen Ungleichungen. Dabei handelt es sich um eine quantitative (und damit überprüfbare) Voraussage darüber, mit welcher Wahrscheinlichkeit Spinorientierungen bei Teilchenpaaren, die von einer EPR-Quelle erzeugt werden, eintreten.

                    Somit hatte Alain Aspect zwei Theorien zur Verfügung, deren unterschiedlichen Vorhersagen überprüfbar waren. Das Ergebnis sind die Bell'schen Ungleichungen, womit die Theorie lokaler verborgener Parameter falsifiziert wurde.
                    Daraus folgt, dass die Spinorientierungen der Elektronen vor der Messung objektiv unbestimmt sind. Dies gilt auch für die Polaristation der Photonen im EPR-Experiment.

                    Wichtig für das Experiment ist, dass die Entfernung Δs der Teilchen A und B größer ist, als die Strecke, die das Licht in der Zeit Δt zurücklegen kann. Somit ist ausgeschlossen, dass die Teilchen sich gegenseitig beeinflussen können, sie sind lokal getrennt: Man spricht von der Lokalität der Teilchen A und B. Somit ist eine Interaktion in der Zeit Δt zwischen den Teilchen ausgeschlossen, wenn mindestens Δs = ct gilt.

                    Da durch die Verschränkung die Einzelzustände der Teilchen A und B miteinander korrelliert sind, bilden sie ein quantenmechanisches Gesamtsystem aus ΨAB. Ein weiteres Kriterium besteht darin, dass der Gesamtspin 0 beträgt. Objektiv unbestimmt sind die einzelnen Spinzustände der Teilchen A und B.

                    Alan Aspect überprüfte die Bell'schen Ungleichungen experimentell und stellte fest, dass diese durch die Versuchsergebnisse verletzt wurden. Damit ist die lokal-realistische Theorie der lokalen verborgenen Parameter falsifiziert.


                    Die einzige mir bekannte „Nische“, um mithilfe der verborgenen Parameter eine „realistische Theorie“ zu formulieren, welche die Welt unabhängig von der Beobachtung durch die Messung zu beschreiben vermag, ist die Annahme von nichtlokalen, verborgenen Parametern und nun sind wir bei der Bohmschen Mechanik, welche Agent Scullie erwähnte. Diese entziehen sich aber bislang einer Überprüfung und werden von den meisten Physikern als wenig wahrscheinlich verworfen. Diesbezüglich verweise ich auf die neueren Experimente, auf die ganz unten in der Fussnote des PDF-Dokuments verwiesen wird:
                    9 S. Gröblacher, T. Paterek, R. Kaltenbaek, C. Brukner, M. Zyukowski, M. Aspelmeyer & A. Zeilinger, An experimental test of non-local realism, Nature 446, 871 - 875 (2007)
                    Ferner auf eine Fuzssnote Skurriele Quantenwelt auf Seite 230:
                    Dennoch könnte man als berechtigte, objektive Kritik gegen die Bohm'sche Mechanik gelten lassen, dass sie eine Verallgemeinerung der Bohm'schen Theorie über die Quantenmechanik hinaus in Richtung Quantenfeldtheorie (...) als außerordentlich schwierig erweist.
                    Die Kritik an der De-Broglie-Bohm-Theorie enthält nach meinen bescheidenen Informationen zwei gewichtige Argumente:
                    1. Eine relativistische bohm'sche Mechanik müsste ein ausgezeichnetes Bezugssystem einführen, etwas, dass es gemäß der Relativitätstheorie nicht gibt.
                    2. Für die Quantenfeldtheorie (QFT) ist bisher nur für bosonische Felder eine nicht-lokal deterministische Beschreibung durch verborgener Parameter über die Einführung „bohmartiger“ Felder gelungen, nicht jedoch für fermionische Felder.

                    Zitat von Nilani Beitrag anzeigen
                    Ja, das meinte ich, im Sinne von absolut messbar.
                    Die Wellenfunktion erweist sich als außgesprochen "filigranes Gebilde" (bitte nicht wörtlich nehmen, hier bediene ich mich einer anschaulichen Sprache), sie zerplatzt wie eine Seifenblase, sobald wir sie durch Beobachtung/Messung antasten.
                    Die Wellenfunktion |ψ> beschreibt den Gesamtzustand, der alle Einzelzustände |ϕn> umfasst. Um es einfacher zu machen, erlaube ich mir hier mal die Freiheit, Dr. Bertlmanns Socken als verschränkte Quantenobjekte zu betrachten.
                    Die Wellenfunktion |Ψ> umfasst alle Einzelzustände |φ>, in diesem Fall also die Sockenfarben:
                    grün>
                    pink>
                    Dann würde die Wellenfunktion den Gesamtzustand |Ψbunt> umfassen. Wird das Quantenobjekt "Socke" gemessen, wird aus der bunten Vielfallt, die in |Ψbunt> enthalten ist, objektiv zufällig ein Farbenzustand ausgewählt, z.B. |φgrün>. Wie können |Ψbunt> nicht beobachten, sondern immer nur mit einer statistischen Wahrscheinlichkeit eine der Einzelzustände |φgrün> oder |φpink>.

                    Kommentar


                      Zitat von Halman Beitrag anzeigen
                      Diesbezüglich verweise ich die Seiten 64 bis 75 aus Skurrile Quantenwelt. Darin wird es plausibel und nachvollziehbar erklärt.
                      Das Buch habe ich noch nicht gelesen. Danke für den Tipp!

                      Zitat von Halman Beitrag anzeigen
                      Gem. der Quantenmechanik (QM) lässt sich das Verhalten von Quantenobjekten nicht eindeutig bestimmen, ihr Verhalten ist objektiv zufällig (die Schrödingergleichung erlaubt lediglich eine statistische Wahrscheinlichkeit zu berechen). Um den daraus resultierenden Interdeterminismus zu umgehen, erdachte Einstein sich verborgene Parameter die lokal und unmessbar das Verhalten von Quantenobjekten determinieren.
                      Gem. so einer lokal-realistischen Theorie geht der Zufall in der Quantenmechanik (QM) nur auf Datenmangel zurück: Demzufolge wäre die QM als eine unvollständige Theorie anzusehen.
                      Allerdings legen alle bekannten Daten einen objektiven Zufall nahe, der nicht auf Datenmangel zurückzuführen ist (Kopenhagener Kollaps). So verschwindet beim Doppelspaltexperiment das Interferenzmuster, sobald man durch die Messung die Positionen der Quantenobjekte bestimmt. Dass lässt sich dadurch erklären, dass durch die Messung die Wellenfunktion des Quantenobjektes kollabiert.
                      Wenn aber der Kopenhagener Kollaps nur ein scheinbares Phänomen ist und die Messung nicht zum instantanen Kollaps der Wellenfunktion Ψ führt, sondern die Position aller Quantenobjekte bereits vor der Messung bestand, dann muss es verborgende Parameter geben.
                      Einstein hatte also die gleichen Probleme wie ich mit dieser auf Wahrscheinlichkeiten beruhenden Welt.
                      Aber sich die Theorie "schönrechnen" hilft wohl nicht.

                      Zitat von Halman Beitrag anzeigen
                      Diesen widerspricht die Quantenmechanik jedoch sehr hartnäckig. Um es mal scherzhaft auszudrücken: Quantenobjekte scheinen sich für den gesunden Menschenverstand nicht zu interessieren.
                      So sieht es wohl aus. Vll wollen sie auch nur interessierte Laien in den Wahnsinn treiben



                      Zitat von Halman Beitrag anzeigen
                      Somit hatte Alain Aspect zwei Theorien zur Verfügung, deren unterschiedlichen Vorhersagen überprüfbar waren. Das Ergebnis sind die Bell'schen Ungleichungen, womit die Theorie lokaler verborgener Parameter falsifiziert wurde.
                      Zitat von Halman Beitrag anzeigen
                      Alan Aspect überprüfte die Bell'schen Ungleichungen experimentell und stellte fest, dass diese durch die Versuchsergebnisse verletzt wurden. Damit ist die lokal-realistische Theorie der lokalen verborgenen Parameter falsifiziert.
                      Zitat von Halman Beitrag anzeigen
                      Die einzige mir bekannte „Nische“, um mithilfe der verborgenen Parameter eine „realistische Theorie“ zu formulieren, welche die Welt unabhängig von der Beobachtung durch die Messung zu beschreiben vermag, ist die Annahme von nichtlokalen, verborgenen Parametern und nun sind wir bei der Bohmschen Mechanik, welche Agent Scullie erwähnte. Diese entziehen sich aber bislang einer Überprüfung und werden von den meisten Physikern als wenig wahrscheinlich verworfen.

                      Die Kritik an der De-Broglie-Bohm-Theorie enthält nach meinen bescheidenen Informationen zwei gewichtige Argumente:
                      1. Eine relativistische bohm'sche Mechanik müsste ein ausgezeichnetes Bezugssystem einführen, etwas, dass es gemäß der Relativitätstheorie nicht gibt.
                      2. Für die Quantenfeldtheorie (QFT) ist bisher nur für bosonische Felder eine nicht-lokal deterministische Beschreibung durch verborgener Parameter über die Einführung „bohmartiger“ Felder gelungen, nicht jedoch für fermionische Felder.
                      Also werde ich mich wohl endgültig vom Determinismus der Welt verabschieden müssen.

                      Zitat von Halman Beitrag anzeigen
                      Die Wellenfunktion erweist sich als außgesprochen "filigranes Gebilde" (bitte nicht wörtlich nehmen, hier bediene ich mich einer anschaulichen Sprache), sie zerplatzt wie eine Seifenblase, sobald wir sie durch Beobachtung/Messung antasten.
                      Die Wellenfunktion |ψ> beschreibt den Gesamtzustand, der alle Einzelzustände |ϕn> umfasst. Um es einfacher zu machen, erlaube ich mir hier mal die Freiheit, Dr. Bertlmanns Socken als verschränkte Quantenobjekte zu betrachten.
                      Die Wellenfunktion |Ψ> umfasst alle Einzelzustände |φ>, in diesem Fall also die Sockenfarben:
                      grün>
                      pink>
                      Dann würde die Wellenfunktion den Gesamtzustand |Ψbunt> umfassen. Wird das Quantenobjekt "Socke" gemessen, wird aus der bunten Vielfallt, die in |Ψbunt> enthalten ist, objektiv zufällig ein Farbenzustand ausgewählt, z.B. |φgrün>. Wie können |Ψbunt> nicht beobachten, sondern immer nur mit einer statistischen Wahrscheinlichkeit eine der Einzelzustände |φgrün> oder |φpink>.
                      Eine anschauliche und gut zu merkende Beschreibung, danke dafür.
                      „Die Borg würden nicht mal Spaß verstehen, wenn sie einen Vergnügungspark assimiliert hätten.“

                      Torres, aus „Star Trek Voyager – Tsunkatse“

                      Kommentar


                        Hallo, ich weiß nicht ob dass hier schon kam, aber, du schriebst:

                        "E=mc^2

                        Diese Formel hat direkt nichts mit dem "Gesetz" zu tun, dass man sich nicht schneller als mit Licht bewegen kann. Sie beschreibt nichts anderes, als das Energie (E) nichts anderes ist als eine Erscheinungsform von Masse (m) (oder umgekehrt), wobei die "Umrechnung" zwischen den beiden durch den Term "c^2", was MSR^2 entspricht, erfolgt. Siehe auch "Antimaterie"."



                        Aus der Formel geht doch direkt hervor, dass Masse(m) bei der Annäherung an die Lichtgeschindigkeit(c) unendlich viel Energie(E) benötigt.
                        Oder ebenso dass die Masse(m) eines Körper, der mit Lichtgeschwindigkeit fliegt unendlich ist.
                        Dass müsste hinkommen, Konstante ist einzig (c).

                        Damit hätte E=mc^2 sehr wohl mit dem:

                        """Gesetz" zu tun, dass man sich nicht schneller als mit Licht bewegen kann""

                        mfg cm

                        Kommentar


                          Zitat von CM86 Beitrag anzeigen
                          Hallo, ich weiß nicht ob dass hier schon kam, aber, du schriebst:
                          Wen genau meinst du hier mit "du"?

                          Zitat von CM86 Beitrag anzeigen
                          "E=mc^2
                          Diese Formel hat direkt nichts mit dem "Gesetz" zu tun, dass man sich nicht schneller als mit Licht bewegen kann. Sie beschreibt nichts anderes, als das Energie (E) nichts anderes ist als eine Erscheinungsform von Masse (m) (oder umgekehrt), wobei die "Umrechnung" zwischen den beiden durch den Term "c^2", was MSR^2 entspricht, erfolgt. Siehe auch "Antimaterie"."
                          Nach der modernen Sichtweise ist die Formel E = mc^2 ein Spezialfall der Formel

                          (mc)^2 = (E/c)^2 - p^2

                          für p = 0, wobei p der Impuls ist. Dahinter steckt die Vorstellung, dass die Energie und der Impuls einen Impuls-Vierervektor, also einen Vektor in der vierdimensionalen Raumzeit, bilden, mit der Energie (geteilt durch c) als zeitliche Komponente und den drei Impulskomponenten (px, py, pz) als räumlichen Komponenten. Die Masse (mal c) ist dann die Länge dieses Vierervektors. Wenn die räumlichen Impulskomponenten px, py, pz alle null sind, der betreffende Körper also ruht, dann stimmen mc und E/c überein, so dass

                          mc = E/c <=> E mc^2

                          herauskommt.

                          BTW: was soll eigentlich MSR^2 sein?

                          Zitat von CM86 Beitrag anzeigen
                          Aus der Formel geht doch direkt hervor, dass Masse(m) bei der Annäherung an die Lichtgeschindigkeit(c) unendlich viel Energie(E) benötigt.
                          Ach ja, tut es das? Na dann erkläre das doch mal bitte etwas näher, mir ist das nämlich nicht klar

                          Kommentar


                            Zitat von CM86 Beitrag anzeigen
                            Aus der Formel geht doch direkt hervor, dass Masse(m) bei der Annäherung an die Lichtgeschindigkeit(c) unendlich viel Energie(E) benötigt.


                            Aus der ersten Zeile scheint das tatsächlich hervor zu gehen. Und in der zweiten Zeile scheint man einen unendlichen Impuls zu bekommen. Doch wenn man beide Gleichungen nach 1/(1-v²/c²) auflöst und miteinander verbindet (also das v raus schmeißt), dann sehen wir: m=0 wenn E = p*c

                            Kommentar


                              Zitat von julian apostata Beitrag anzeigen
                              Aus der ersten Zeile scheint das tatsächlich hervor zu gehen.
                              Das scheint nicht nur so, das ist sogar so, allerdings ist diese erste Zeile ja überhaupt nicht die Formel E = mc^2, sondern

                              E = mc^2 / sqrt(1 - v^2/c^2)

                              Dass E für v -> c gegen unendlich geht, liegt daran, dass das, was unter dem Bruchstrich steht, also der Nenner, gegen null geht. Die Formel E = mc^2 enthält nur den Zähler, daher geht da nichts gegen unendlich.

                              Zitat von julian apostata Beitrag anzeigen
                              Und in der zweiten Zeile scheint man einen unendlichen Impuls zu bekommen. Doch wenn man beide Gleichungen nach 1/(1-v²/c²) auflöst und miteinander verbindet (also das v raus schmeißt), dann sehen wir: m=0 wenn E = p*c
                              Dabei machst du aber klammheimlich die Annahme, dass E und p bei v = c endlich sein sollen, d.h. du setzt als Prämisse voraus, dass du ein masseloses Teilchen hast. Und leitest aus dieser Prämisse trivialerweise die Prämisse selbst, also m = 0, ab. Wenn aber stattdessen angenommen wird, dass das Teilchen eine Masse m > 0 haben soll, dann kommt für E und p heraus, dass sie für v -> c gegen unendlich gehen.

                              Aber eben aus den Formeln

                              E = mc^2 / sqrt(1 - v^2/c^2)

                              und

                              p = mv / sqrt(1 - v^2/c^2)

                              nicht aus der Formel E = mc^2.

                              Kommentar


                                Soweit ich mich erinnere, ist lediglich das Erreichen und Überschreiten der Lichtgeschwindigkeit nicht möglich, da dabei die relativistische Masse jedes Objektes unendlich erreicht.

                                Man müsste eine Technik haben, die ein Objekt per "Sprung aus dem Stand" in eine Überlichtgeschwindigkeit befördert, ohne die Lichtgeschwindigkeit jemals zu erreichen bzw. zu passieren.

                                Kommentar

                                Lädt...
                                X