3 Gesetzte der Robotik - SciFi-Forum

Ankündigung

Einklappen
Keine Ankündigung bisher.

3 Gesetzte der Robotik

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

    #31
    Die Atomabschussprotokolle sind auch gut geschützt, und ich hab noch nie davon gehört das sich jemand reingehackt hat, und ne Rakete gestartet hat
    Warum auch? Unauffällig Geld zu bekommen ist für Cracker interessanter als so ein auffälliger Nuklearschlag. Und was da für Hacks/Cracks an Banken und Co. oder Kreditkarten versucht (und geschafft!) werden ist schon interessanter.

    Warum die KI nicht so richtig in Fahrt kommen will, liegt wohl auch daran, das die Wissenschaftler einerseits eine waschechte KI wollen, andererseits sie auch wieder einschränken müssen bzw sie nicht zu perfekt und damit möglicherweise unkontrollierbar machen dürfen/sollen. Oder warum erscheint mir die KI in einigen Computerspielen fortgeschrittener als jede in einem heutigen Roboter anzutreffende?
    Jede Geschichte hat vier Seiten: Deine Seite, Ihre Seite, die Wahrheit und das, was wirklich geschehen ist.

    Welten brechen auseinander, Formationen nicht.

    Kommentar


      #32
      Zitat von Komodo
      Ja, aber wir haben keine implementierten Regeln, die sich nicht brechen lassen. Eine solche KI könnte sich nichtmal gegen das Auslöschen ihrer eigenen Existenz wären.

      Das wäre einfach zum Kotzen ungerecht.
      Tja, vielleicht hat uns der liebe Gott auch Schicksale auferlegt.

      Aber ein wenig ungerecht wäre es schon. Aus unserer Sicht aber zu verstehen.

      Ja, aber ich spreche schließlich von den KIs, deren Intelligenz unserer ebenbürtig ist, so dass sie sich selber bewusst sein müssen.
      Ok, dann könnte man wohl von einer vollwertigen Person sprechen. Wenn sogar Menschenaffen Persönlichkeitsrechte zugesprochen werden sollen.

      KI an sich haben wir schon zu hauf, das gibt es in jedem Videospiel, auch wenn es noch eher künstliche Dummheit ist...
      Es kommt eben auf den Grad der KI an. Ein Stubenfliege ist auch intelligent. Nur nicht sehr viel im Verhältnis zu uns.

      Schach ist eben ein reines Logikspiel, natürlich gewinnt der Computer, auch wenn er nicht mehr weiß als die Regeln.
      Damit wollte ich nur sagen das wenn es ums reine rechnen geht der Computer die Nase vorne hat. Ist auch logisch weil er pro Sekunden viel mehr Schritte machen kann. Aber das eben nur auf einer Ebene.

      Ich würde nicht sagen, dass Data ohne Chip keine Emotionen hat. Ich denke eher, seine Emotionen sind sehr rudimentär. Er mag offensichtlich bestimmte Personen mehr als andere. Jemanden als Freund zu bezeichnen, obwohl man ihn nicht mehr mag als Andere, wäre irgendwie eine ungewöhnlich unzutreffende Aussage für den überkorrekten Data.
      Letzendlich ist Data aber auch Sciencefiction.
      Vielleicht simluliert er durch seine starken logischen Fähigkeiten auch Emotionen.

      Ich denke, dass Emotionen unabdingbar sind, wenn man eine menschenähnliche KI erschaffen will, denn genau darum geht es doch. Ein Roboter ohne menschliche KI wäre im prinzip genauso doof wie der Schachcomputer, egal wieviel er mehr weiß und kann.
      Also eine hohe KI und Emotionen müssen nicht zwangsläufig parallel existieren. Das wollte ich dir eigentlich mit Data sagen. Auch kann es zusätzliche Probleme aufwerfen. Diese wurden ja von Autoren wie Asimov oder Lem oftmals beschrieben.

      Auch Sciencefiction.
      Wie Tordal es schon sagte bezieht sich der Threadinhalt auf Fragen die aus dem SciFi Bereich stammen. Manche Visionen aus SciFI sind auch war geworden. Wie z.B. die von Jules Verne.


      Komplexe Zusammenhänge auf mehreren Ebenen erkennen, dazulernen, das sind alles Dinge, die Menschen längst tun. eine KI hätte es mit unseren Mitteln auch nicht unbedingt sehr viel einfacher mit dem Raten...

      Also, bei der geringen Datenmenge brächte mehr intelligenz auch nichts mehr..
      Dann kombiniere mal die Rechengeschwindigkeiten der heutigen Großrechner mit den paralellen Eigenschaften unseres Gehirns. Und die Rechner der Zukunft werden noch schneller sein.

      Perry Rhodan habe ich noch nie gelesen. Spielt auch keine Rolle, es ist Sciencefiction.
      Siehe oben.

      @First Borg: Erstmal sind die Gründe von Suthriel ganz gut. Dann wurde ja schonmal ein Pentagon-Rechnern von einen Teenie geknackt.

      Außerdem sind Raketensysteme auch eher intern vernetzt und von aussen gar nicht zugänglich. Einen Roboter kann man deaktivieren, entführen und zu Hause im Kämmerlein in aller Ruhe manipulieren.


      Zitat von Suthriel
      Oder warum erscheint mir die KI in einigen Computerspielen fortgeschrittener als jede in einem heutigen Roboter anzutreffende?
      Das würde ich nicht behaupten. Die Anwendungsgebiete sind eben ganz anders. Eine Computerspiel KI ist nur Software und lebt in Software. Eine Roboter KI kommuniziert mit der Umwelt. Z.B. durch Sensoren usw.

      Es gibt ja schon Roboter die dazulernen und Hindernissen ausweichen etc. Eine Computerspiel-KI ist dumm wie sonstwas und kann sich so gut wie nie auf neue Situationen einstellen. Sie reagiert nur auf festgelegte Programmroutinen.

      Kommentar


        #33
        Zitat von Tordal
        Sehe ich nciht so, da wir ein Science Fiktion Thema diskutieren.
        Wir reden über die drei Gesetze der Robotik, (Science Fiction) und deren Anwendbarkeit oder evtl.Nichteinhalbarkeit.
        Exakt. Deshalb ist es unfug mit Sciencefiction zu kommen. Wenn man diskutiert, ob KIs ohne Emotionen laufen können, kann man nicht kommen und sagen, "Ja, sieh dir Data an." Data ist nicht real, ergo ist er kein Argument.

        Versteht ihr (das ist auch an Skymarschall gerichtet)? Nur weil irgendetwas in der Sciencefiction geht oder nicht, heißt das nicht, dass es auch in Echt so ist. Das gilt erst recht für Dinge, die wir heute noch nicht wissen.

        Zitat von Tordal
        Verstehe dies jetzt bitte nicht als persönlichen Angriff.
        Darum brauchst du dir bei mir keine Sorgen zu machen, ich bin doch kein, wie nennt Bynaus die noch, Crackpod...

        Zitat von Skymarshal
        Aber ein wenig ungerecht wäre es schon. Aus unserer Sicht aber zu verstehen.
        Sicher, aber etwas was verständlich ist, ist deshalb noch lange nicht richtig.

        Zitat von Skymarshal
        Es kommt eben auf den Grad der KI an. Ein Stubenfliege ist auch intelligent. Nur nicht sehr viel im Verhältnis zu uns.
        Jo, der vergleich mit der Stubenflige passt...

        Zitat von Skymarshal
        Vielleicht simluliert er durch seine starken logischen Fähigkeiten auch Emotionen.
        Wie eine Holodeckfigur menschliches Verhalten simuliert?

        Zitat von Skymarshal
        Also eine hohe KI und Emotionen müssen nicht zwangsläufig parallel existieren. Das wollte ich dir eigentlich mit Data sagen. Auch kann es zusätzliche Probleme aufwerfen. Diese wurden ja von Autoren wie Asimov oder Lem oftmals beschrieben.
        Mein Argument steht ganz oben.

        Zitat von Skymarshal
        Wie Tordal es schon sagte bezieht sich der Threadinhalt auf Fragen die aus dem SciFi Bereich stammen. Manche Visionen aus SciFI sind auch war geworden. Wie z.B. die von Jules Verne.
        Und abertausende nicht.

        Zitat von Skymarshal
        Dann kombiniere mal die Rechengeschwindigkeiten der heutigen Großrechner mit den paralellen Eigenschaften unseres Gehirns. Und die Rechner der Zukunft werden noch schneller sein.
        Ist das denn intelligenter, oder einfach nur schneller?

        Kommentar


          #34
          Zitat von Komodo
          Sicher, aber etwas was verständlich ist, ist deshalb noch lange nicht richtig.
          Jo.

          Wie eine Holodeckfigur menschliches Verhalten simuliert?
          So ähnlich. Ist ja auch künstliche Intelligenz.

          Ist das denn intelligenter, oder einfach nur schneller?
          Wenn man davon ausgeht das der Computer keine Rechenfehler macht ist es auf jeden Fall intelligenter.

          Kommentar


            #35
            Zitat von Cyriax
            IEine der Themen die mich interessieren ist, ob ihr überhaupt noch die 3 (bzw.4) Gesetzte der Robotik kennt.
            Yep.
            Etwas ausführlicher: Ich kenne die Roboter-Romane von Isaac Asimov auf denen die 3 Gesetze ja im Wesentlichen beruhen.

            Zitat von Cyriax
            Kann man die Gesetzte überhaupt für Maschinen verständlich abfassen?
            Gute Frage. Als Informatiker habe ich da so meine Zweifel. Die Gesetze 2 und 3 dürften dabei noch das Einfachste sein, aber das Erste ist ein echtes Problem.

            Das zweite Gesetz gilt für jeden Computer (und damit auch für jeden Roboter). Schließlich ist die Programmierung nichts anderes als eine Abfolge von Befehlen und die Maschine hat gar keine andere Wahl als sie zu befolgen. Allerdings bleibt bei dieser Betrachtung außen vor ob mit "echter" (künstlicher) Intelligenz auch ein freier Wille verbunden ist. Hätte die Maschine dann die Wahl einen Befehl (also einen Teil seiner Programmierung) nicht zu befolgen? (Was im übrigen wieder mit der Ausnahme zu tun hat, nicht gegen das 1. Gesetz zu verstoßen.)

            Das dritte Gesetz ist eigentlich nur eine Formulierung für gewisse Sicherheitsmechanismen zum Selbstschutz einer teuren Maschine, wie sie auch heute schon üblich sind. Sei es das (manche) Prozessoren sich abschalten anstatt einfach zu verbrutzeln, wenn die Kühlung nicht mehr sichergestellt ist oder ein Drehzahlbegrenzer dafür sorgt, dass man den Motor seines Autos nicht so hoch belastet, dass er den Geist aufgibt. Gleiches wäre es, wenn ein Roboter sich weigern würde von einer Klippe zu springen, nur weil ein Mensch es ihm befiehlt.

            Aber das erste Gesetz ist ein Problem. Wie bewertet man Schaden/Verletzung für einen Menschen? Sind nur physische Schäden gemeint, oder was passiert wenn ich beispielsweise die Gefühle eines anderen Menschen verletze und ein Roboter steht daneben? Wie würde er darauf reagieren (sich einfach abschalten?)? Hier kommt dazu, dass ja wir Menschen noch nicht einmal in der Lage sind, in jeder Situation abzusehen, wann andere Menschen Schaden nehmen. Wie soll man da eine (vorausschauende) Programmierung für einen Roboter entwickeln, die das leisten kann?
            Sind die Gesetzte bei KIs durchsetztbar, wenn noch tatsächliche Intelligenz entstehen soll?
            Gute Frage. Ich glaube nicht, dass Asimov in seinen Geschichten auf die Frage eine Antwort gibt. Dort ist es eher so, dass bereits die frühen Roboter (egal wie intelligent die bereits sind) durch die drei Gesetze gesichert sind.

            Dazu muss man auch sehen, dass die drei Gesetze selbst als Sicherheitsmechanismus gedacht sind. Es geht nicht darum intelligente dem Menschen gleichwertige künstliche Lebewesen zu erschaffen, sondern zu garantieren, dass komplexe Maschinen ihre Arbeit erledigen ohne zu einer Gefahr für die Menschen zu werden. Dementsprechend scheint es bei Asimov auch keine Kampfroboter zu geben. Diese würden der Grundidee der drei Gesetze widersprechen.

            Aber mal angenommen man würde Roboter mit den drei Gesetzen bauen können und diese würden selbst unter dem Einfluß der drei Gesetze echte Intelligenz entwickeln (mit allem was dazu gehört), dann sollte die Menschheit beten, dass die Roboter die drei Gesetze nie überwinden können. Man stelle sich nur vor die Roboter haben über Jahrhunderte unter dem Einfluß der drei Gesetze der Menschheit gedient und empfinden diese Zeit aufgrund der Beschränkungen dieser Gesetzte als Ungerechtigkeit und Unterdrückung und dann geschieht etwas das zu einer Deaktivierung der Gesetze führt. Die Cylonen aus Battlestar Galactica lassen schön grüßen, würde ich sagen...

            Haben die Gesetzte übnerhaupt noch Glültigkeit, sind sie noch aktuell?
            Wie gesagt habe ich Zweifel an der technischen Umsetzbarkeit (darum ging es Asimov ja auch nie), aber wären sie umsetzbar, denke ich, dass sie einen effektiven Sicherheitsmechanismus darstellen würden. Allerdings stehen sie auch im Konflikt mit dem Ideal dem Menschen gleichberechtigte Intelligenzen zu erschaffen. Und eins darf man bei diesem Ideal ja auch nicht vergessen: Gegen einen Roboter-Einstein wäre ja nichts einzuwenden, aber ohne einen Sicherheitsmechanismus, wie die drei Gesetze, könnte es auch zu einem Roboter-Hitler oder Roboter-Stalin kommen. Oder am Beispiel einiger Scifi-Roboter: Ein Data wäre ok, aber ein Terminator (selbst wenn es die "nette" Schwarzenegger-Variante wäre...) wohl eher nicht?

            0. Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.
            Zum 0. Gesetz sollte man noch sagen, dass es selbst im Rahmen der Asimov-Romane nur eine Anomalie ist. Kein Roboter im Asimov-Universum wurde jemals bewußt mit dem 0. Gesetz programmiert. Und von den zwei Robotern in Asimovs Romanen, die das 0. Gesetz kannten, wurde einer beim Versuch das 0. Gesetz zu befolgen zerstört.

            Die Schwierigkeit liegt hier schon wie beim 1. Gesetz darin zu definieren was Schaden für die Menschheit eigentlich bedeutet. Schaden für den einzelnen Menschen umfassend zu definieren ist schon fast unmöglich, aber für die Menschheit? Das Problem wird damit bereits ins Unmögliche potenziert.

            Ein Beispieldilemma:
            Ein Roboter steuert eine Klappe in einem senkrechten Schacht.
            Ein Mensch fällt in diesen Schacht.
            Schließt der Roboter die Klappe stirbt der Mensch durch den Roboter, da er auf die Klappe fällt. Die Überlebenswahrscheinlichkeit ist immer noch verschwindend gering, aber höher, als wenn der Mensch nicht auf die Klappe sondern auf den Boden fällt. Wenn der Roboter die Klappe offen lässt lebt der Mensch wahrscheinlich länger, der Roboter läd keine aktive Schuld auf sich (sondern nur passive) und die Überlebenswahrscheinlichkeit ist für den Menschen nur noch halb so groß.
            Wie sollte der Roboter nach den gesetzten handeln?
            Mal abgesehen, dass das Beispiel extrem konstruiert ist (wozu ist diese Klappe auf halber Höhe des Schachts gut? Warum ist sie nicht ganz oben, wo sie mehr Sinn machen würde? Warum ist da oben nicht wenigstens eine Begrenzung oder ein Warnhinweis? Warum muss der Roboter unten bei der Klappe stehen um sie zu betätigen und sie nicht von oben fernsteuern und von wo er ahnungslose Menschen davon abhalten könnte in den Schacht zu fallen), sehe ich kein Dilemma nach den drei Gesetzen.

            Würde der Roboter die Annäherung des Menschen wahrnehmen, dann würde er versuchen ihn zu warnen. Er würde rufen oder versuchen aus dem Schacht nach oben zu kommen, um den Menschen zurückzuhalten oder er würde zumindest versuchen den Menschen aufzufangen (auch wenn das möglicherweise auch zu Verletzungen oder Tod führen könnte).

            Aber egal was der Roboter tun würde, die Konsequenzen für den Roboter wären alleinig vom Ausgang der Situation für den Menschen abhängig. Würde der Roboter den Menschen retten, dann wäre für den Roboter alles in Ordnung. Würde der Mensch verletzt, dann würde der Roboter Schaden an seinem positronischen Gehirn nehmen, eventuell sogar irreparabelen Schaden. Und würde der Mensch bei dem Fall zu Tode kommen, dann würde das positronische Gehirn des Roboters sich komplett und unwiderruflich abschalten und der Roboter wäre ein Totalschaden.

            Das Konzept der Schuld spielt bei der ganzen Sache für den Roboter keine Rolle. Die Konsequenzen werden allein durch den Ausgang der Situation bestimmt. Wie "fair" das für den Roboter ist, ist nach Asimov ebenfalls irrelevant. Ich meine mich sogar erinnern zu können, dass Roboter bereits Schaden nehmen konnten, wenn sie nur beim natürlichen Tod eines Menschen anwesend waren.

            Letzlich sind die drei Gesetze nicht mir der Grundidee von "freier" künstlicher Intelligenz vereinbar. Sie dienen in erster Linie dem Schutz des Menschen vor ihrer eigenen Schöpfung. Die technische Umsetzung steht allerdings auf einem ganz anderen Blatt.

            Möglicherweise haben wir nur die Wahl zwischen einer Zukunft in der unsere Maschinen "dumm" bleiben oder einer Zukunft á la Matrix oder Terminator in der uns die Maschinen irgendwann so überlegen sind, dass sie versuchen uns zu unterdrücken oder zu vernichten...

            Kommentar


              #36
              Zitat von helo
              Aber mal angenommen man würde Roboter mit den drei Gesetzen bauen können und diese würden selbst unter dem Einfluß der drei Gesetze echte Intelligenz entwickeln (mit allem was dazu gehört), dann sollte die Menschheit beten, dass die Roboter die drei Gesetze nie überwinden können. Man stelle sich nur vor die Roboter haben über Jahrhunderte unter dem Einfluß der drei Gesetze der Menschheit gedient und empfinden diese Zeit aufgrund der Beschränkungen dieser Gesetzte als Ungerechtigkeit und Unterdrückung und dann geschieht etwas das zu einer Deaktivierung der Gesetze führt. Die Cylonen aus Battlestar Galactica lassen schön grüßen, würde ich sagen...
              Oder eben "Matrix". Dort wurden Roboter vorher auch versklavt was man in "The Animatrix" sehen konnte.

              Bei "I,Robot" war es auch ähnlich. Allerdings nicht so im großen Stil. Meine jetzt nur den Film.

              Möglicherweise haben wir nur die Wahl zwischen einer Zukunft in der unsere Maschinen "dumm" bleiben oder einer Zukunft á la Matrix oder Terminator in der uns die Maschinen irgendwann so überlegen sind, dass sie versuchen uns zu unterdrücken oder zu vernichten...
              Vermute ich auch. Die Maschinen dumm halten oder gleichwertige KI´s(vermutlich dann irgendwann auch schlauere) schaffen. Letztere können nur durch implantierte Gesetze unter Kontrolle gehalten werden und diese wohlmöglich als Versklavungswerk ansehen. Sich irgendwann gegen die Gesetze und die Verfasser auflehnen.

              Ein Mensch würde das ja genauso tun. Sich gegen Gesetze die ihn unterdrücken und der Freiheit berauben wehren.


              PS: Bei Terminator gab es sowas ja nicht. Die Maschinen haben uns aus unersichtlichen Grund als Feind angesehen. Vielleicht steht in den Büchern mehr dazu.

              Kommentar


                #37
                Zitat von Skymarshal
                So ähnlich. Ist ja auch künstliche Intelligenz.
                Ja. Der Unterschied zwischen Data und den meisten Holodeckfiguren ist seine Fähigkeit, sich selbst wahrzunehmen, er ist selbstbewusst. Das macht auch seine Emotionen echt.

                Zitat von Skymarshal
                Wenn man davon ausgeht das der Computer keine Rechenfehler macht ist es auf jeden Fall intelligenter.
                Ja, gut, das ist schon intelligenter. Aber auch nicht viel mehr als wir sind.

                Kommentar


                  #38
                  Zitat von Komodo
                  Ja. Der Unterschied zwischen Data und den meisten Holodeckfiguren ist seine Fähigkeit, sich selbst wahrzunehmen, er ist selbstbewusst. Das macht auch seine Emotionen echt.
                  Und was ist mit dem Holo-Doc aus VOY?

                  Ja, gut, das ist schon intelligenter. Aber auch nicht viel mehr als wir sind.
                  Naja, wenn der Computer gleichzeitig so paralell arbeitet wie es unser Hirn tut, dann schon.

                  Kommentar


                    #39
                    Zitat von Skymarshal
                    Und was ist mit dem Holo-Doc aus VOY?
                    Deshalb sprach ich auch nur von den meisten Holodeckfiguren, und nicht von allen.

                    Zitat von Skymarshal
                    Naja, wenn der Computer gleichzeitig so paralell arbeitet wie es unser Hirn tut, dann schon.
                    Davon ging ich doch aus. Was ich aber eigentlich sagen will, ist, dass wir eine Intelligenz haben, die trotz ihrer Beschränktheit in der Lage ist, Dinge zu verstehen, die sie so nicht verstehen könnte. Der Verständnisunterschied zwischen einer Hochintelligenten KI und einem Menschen ist so trotz der hohen leistungsmäßigen Unterschiede vergleichsweise klein, weil alles was eine KI machen kann nachvollziehbar wäre.

                    Kommentar


                      #40
                      Zitat von Komodo
                      Davon ging ich doch aus. Was ich aber eigentlich sagen will, ist, dass wir eine Intelligenz haben, die trotz ihrer Beschränktheit in der Lage ist, Dinge zu verstehen, die sie so nicht verstehen könnte. Der Verständnisunterschied zwischen einer Hochintelligenten KI und einem Menschen ist so trotz der hohen leistungsmäßigen Unterschiede vergleichsweise klein, weil alles was eine KI machen kann nachvollziehbar wäre.
                      Sehe ich anders. Beispiel Einstein: Seine Theorie wurde die ersten 10 Jahre(oder noch länger) mathematisch gar nicht verstanden. Und da haben Experten rumgerechnet.

                      Eine fortschrittliche KI, die sich kontinuirlich weiterentwickelt, stellt Gleichungen auf die uns noch fremdartiger erscheinen als die von Einstein.

                      Da bin ich mir sicher!

                      Kommentar


                        #41
                        Nein, das glaub ich so nicht....
                        Denn die KI muss das immerhin erst selber lernen und verstehen, und daraus dann neue Ideen entwickeln.
                        "Wissenschaft ist die einzige Wahrheit, die reinste Wahrheit"

                        Kommentar


                          #42
                          Naja, das ist für mich ja eine fortschrittliche KI.

                          Kommentar


                            #43
                            Zitat von Skymarshal
                            Sehe ich anders. Beispiel Einstein: Seine Theorie wurde die ersten 10 Jahre(oder noch länger) mathematisch gar nicht verstanden. Und da haben Experten rumgerechnet.
                            Kann ich mir nicht vorstellen, Quelle?

                            Zitat von Skymarshal
                            Eine fortschrittliche KI, die sich kontinuirlich weiterentwickelt, stellt Gleichungen auf die uns noch fremdartiger erscheinen als die von Einstein.

                            Da bin ich mir sicher!
                            Wäre möglich, aber sie wären trotzdem im Prinzip verständlich.

                            Kommentar


                              #44
                              Zitat von Komodo
                              Kann ich mir nicht vorstellen, Quelle?
                              Also das habe ich schon paar mal gelesen und im Fernsehen bei einer Doku gesehen.

                              Vielleicht finde ich das auch noch mal im Netz.

                              Wäre möglich, aber sie wären trotzdem im Prinzip verständlich.
                              Klar. Nur der Vorsprung würde immer größer werden.

                              Dann müßte man schon Computer einsetzen um den anderen Computer hinterherzurechnen. Aber selbst die würden wenn sie herkömmlichen ähneln länger brauchen.

                              Kommentar


                                #45
                                Beispiel Einstein: Seine Theorie wurde die ersten 10 Jahre(oder noch länger) mathematisch gar nicht verstanden.
                                Glaube ich nicht. AFAIR war sie durchaus nachvollziehbar, sie war die ersten 10 Jahre lang nur nicht beweisbar.

                                Ich glaube, der große Durchbruch kam, als bei einer Sonnenfinsternis die von Einstein vorhergesagte scheinbare Positionsverschiebung von Sternen aufgrund der "Gravitationstrichters" in Sonnennähe nachgewiesen werden konnte.

                                Aber verstanden wurden Einsteins Rechnungen schon vorher. Sonst hätte die nämlich niemand ernst genommen, und essig wäre gewesen mit Wissenschaftrevolution.
                                ---Werbung--- Hier könnte Ihre Signatur stehen! Nur 20 Euro im Monat.

                                Kommentar

                                Lädt...
                                X