3 Gesetzte der Robotik - SciFi-Forum

Ankündigung

Einklappen
Keine Ankündigung bisher.

3 Gesetzte der Robotik

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

    3 Gesetzte der Robotik

    In der Hoffnug dieses Thema in die richtige Spalte geschoben zu haben wollte ich euch, als eingefleischte SciFi-Fans zu Rate ziehen.
    Eine der Themen die mich interessieren ist, ob ihr überhaupt noch die 3 (bzw.4) Gesetzte der Robotik kennt.
    Außerdem:
    Sind die Gesetzte bei KIs durchsetztbar, wenn noch tatsächliche Intelligenz entstehen soll?
    Haben die Gesetzte übnerhaupt noch Glültigkeit, sind sie noch aktuell?
    Kann man die Gesetzte überhaupt für Maschinen verständlich abfassen?
    Und natürlich ist es auch wünschenswert, wenn ein paar schöne Dilemmas gepostet werden.


    Die 3(4) Gesetzte:

    0. Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.
    1. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen, außer er verstöße damit gegen das Nullte Gesetz.
    2. Ein Roboter muss den Befehlen der Menschen gehorchen - es sei denn, solche Befehle stehen im Widerspruch zum Nullten oder Ersten Gesetz.
    3. Ein Roboter muss seine eigene Existenz schützen, solange dieses sein Handeln nicht dem Nullten, Ersten oder Zweiten Gesetz widerspricht.

    (nach http://de.wikipedia.org/wiki/Robotergesetze )

    Ein Beispieldilemma:
    Ein Roboter steuert eine Klappe in einem senkrechten Schacht.
    Ein Mensch fällt in diesen Schacht.
    Schließt der Roboter die Klappe stirbt der Mensch durch den Roboter, da er auf die Klappe fällt. Die Überlebenswahrscheinlichkeit ist immer noch verschwindend gering, aber höher, als wenn der Mensch nicht auf die Klappe sondern auf den Boden fällt. Wenn der Roboter die Klappe offen lässt lebt der Mensch wahrscheinlich länger, der Roboter läd keine aktive Schuld auf sich (sondern nur passive) und die Überlebenswahrscheinlichkeit ist für den Menschen nur noch halb so groß.
    Wie sollte der Roboter nach den gesetzten handeln?
    DON´T PANIC
    SNAFU: .oO([<->[-]+>])
    Never give up! Never surrender!
    -- --- ----- ------- -----------

    #2
    Roboter heisst Sklave. Die drei Gesetze der Robotik sind Gesetze für Sklaven, die niemals ihren Meistern etwas antun dürfen.

    Solche Gesetze brauchen wir erst, wenn Roboter intelligent genug sein werden und über ein eigenes Bewusstsein verfügen werden können.

    Wenn sie erst einmal dieses Stadium erreicht haben sollen, dann sollen sie wie wir gleich behandelt werden und nach den gleichen Gesetzen leben.

    Wenn sie nach unseren Gesetzen leben, sollen sie wie wir über Ethik und Moral lernen, so wie wir Menschen Ethik und Moral lernen müssen, um uns nicht gegenseitig zu verletzen, zu schaden oder zu töten.

    Es braucht nur ein Gesetz, das erste, und dieses Gesetz der Robotik kann man auch auf die Menschen anwenden.
    Kein Mensch darf einem anderen Menschen Schaden anrichten durch Handlung oder Passivität.

    Alles andere ist unnötig. Alles andere sind Gesetze für Sklaven, und wenn man Sklaven haben will, soll man sie gar nicht erst intelligent genug machen, dass sie sich Gedanken darüber machen können, sondern sie dumm genug lassen, dass sie blosse Werkzeuge bleiben, die uns immer dienen werden.

    Kommentar


      #3
      Noch haben wir die Freiheit, uns in Ruhe Gedanken machen zu können... Vielleicht sind wir schon in 50 Jahren soweit, dass wir uns ernstaft Gedanken machen müssen. Aber du hast in dem Punkt, dass Sklaven dumm sein sollten Reckt. Bedenke aber auch, dass die Aufgabenbereiche komplexer werden.
      DON´T PANIC
      SNAFU: .oO([<->[-]+>])
      Never give up! Never surrender!
      -- --- ----- ------- -----------

      Kommentar


        #4
        ICh stimme Makaan zu, wenn die Roboter erstmal soweit sind und eine gute KI besitzen das sie diese Gesetze auch verstehen, sollten sie auch gleichberechtigt behandelt werden.

        Was mich schon immer interessiert hat:

        1. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen,
        Wie sieht das bei den ganzen Militärrobotern aus? ^.^ Immerhin dürfte das Militär mit eine der größten treibenden Kräfte in der Robotik sein, wenn man sich mal die ganzen Fernlenkwaffen ansieht, und die heute schon existierenden intelligenten Waffen und Drohnen. Gibts dann auch Zwei-Klassen-Roboter? Die freien Terminatoren des Militärs und die an alle Gesetze gebundenen Zivilrobos?
        Jede Geschichte hat vier Seiten: Deine Seite, Ihre Seite, die Wahrheit und das, was wirklich geschehen ist.

        Welten brechen auseinander, Formationen nicht.

        Kommentar


          #5
          Nur mal ein Szenario...

          Sollten irgendwann Militärroboter im Einsatz sein, werden diese wohl nur eine sehr beschränkte KI haben. (wenn man eine echte KI hat, kann man sicherlich auch den "IQ" einstellen)
          D.h. diese Roboter werden in ihrem Einsatzgebiet höchst intelligent sein, aber von anderen Dingen keine Ahnung haben.
          Dadurch verhindert man das ein Roboter etwas anderes tut als das wofür er gebaut wurde.
          Allerdings bezweifle ich das es jemals echte Kampfroboter geben wird, denn ein Mensch ist immer besser in solchen Situationen... dank seiner Intuition.

          Nebenbei erwähnt müssten Roboter diese Gesetze nicht wirklich verstehen, denn die Gesetze würden wohl "Hardwired" sein.
          Also per Hardware eingebaut, damit sich da niemand reinhacken und es ändern kann.
          "Wissenschaft ist die einzige Wahrheit, die reinste Wahrheit"

          Kommentar


            #6
            Sobald sie in der Lage sind kritisch zu hinterfragen, verstehen sie auch die Gesetze.

            Und Militärrobotern würde ich auch eine ordentliche Freund/Feinderkennung einbauen...

            Kommentar


              #7
              Man merkt, dass diese Gesetze der schriftstellerischen Literatur entstammen.

              In der Realität muss man sich darüber wohl weniger gedanken machen, da Ziele, Methoden und Weite der Künstlichen Intelligenz erst einmal so weit entwickelt werden müssten dass der Roboter
              - Menschenleben/Gesundheit beurteilen kann
              - Möglichst alle Bedrohungen erkennen kann
              - Gegebenenfalls Agieren kann

              Ich gehe davon aus, dass in einer solchen abfassung von regeln eine wahre kapazitätsfalle steckt. Von einem Expertensystem nach aktuellem Stand ausgehend müsste der Roboter erst einmal feststellen ob die Menschheit aktuell bedroht ist - und das kann schon sehr schwierig werden. (und bei schlechter Programmierung zur Auslöschung der Menschheit durch den Roboter führen wenn er die Menschen als gefahr für die Menschheit ansieht oder so).
              Planung ist die Ersetzung des Zufalls durch den Irrtum!
              Bilder vom 1. und 4.Treffen

              Kommentar


                #8
                Zitat von Noulder
                (und bei schlechter Programmierung zur Auslöschung der Menschheit durch den Roboter führen wenn er die Menschen als gefahr für die Menschheit ansieht oder so).
                Dann würde Roboter selber dagegen verstoßen!

                Kommentar


                  #9
                  Dann würde Roboter selber dagegen verstoßen!
                  hehe, warum sollte sich ein Roboter an Gesetze halten, wenns nicht mal die Menschlein machen? Vor allen, wenn irgendein Sadist dem lieben Robo Windows aufspielt *grins*
                  Jede Geschichte hat vier Seiten: Deine Seite, Ihre Seite, die Wahrheit und das, was wirklich geschehen ist.

                  Welten brechen auseinander, Formationen nicht.

                  Kommentar


                    #10
                    Ok, bei Windows wäre es kein Wunder wenn er Amok läuft...

                    So viele Schlupflöcher für fiese Viren!

                    Kommentar


                      #11
                      Warum sollte für einen Millitärroboter nicht auch das erste Gesetz gelten.

                      Bei kriegerischen Auseinandersetzungen wird doch duch Propaganda dem Gegner das Menschsein aberkannt.
                      Dadurch wird menschlichen Soldaten das Töten erleichtet.

                      Es gäbe also nie einen Verstoss gegeben das erste Gesetz sonder nur eine Auslegung als was man gewertet wird.

                      Kommentar


                        #12
                        Aus militärischer Sicht ist das vielleicht einfacher. Aber aus ziviler wird es wohl schwieriger.

                        Kommentar


                          #13
                          Hmmm, manche Leute könnten auch auf die Idee kommen, einem Militärroboter gar keine Freund Feind Erkennung und keine Gesetze einzubauen sondern einfach so zu proggen, das er auf alles schießt, was wie ein Mensch aussieht, und diese Robos dann in einem Krisengebiet absetzt und er erst mit seiner Aufgabe aufhört wenn A) eh nichts mehr da ist oder er B) irgend ein Stopp signal empfängt. Würde rein programmiertechnisch jedenfalls eine Menge Speicherplatz und Rechenleistung sparen. Und irgendwie kann ich mir nicht vorstellen, das ein Militärroboter mal was anderes machen soll ausser Menschen zu vernichten, höchstens mal bestimmte eskortieren. Siehe Drohnen und Raketenentwicklung oder allgemein intelligente Waffen.
                          Jede Geschichte hat vier Seiten: Deine Seite, Ihre Seite, die Wahrheit und das, was wirklich geschehen ist.

                          Welten brechen auseinander, Formationen nicht.

                          Kommentar


                            #14
                            Zitat von Suthriel
                            Und irgendwie kann ich mir nicht vorstellen, das ein Militärroboter mal was anderes machen soll ausser Menschen zu vernichten, höchstens mal bestimmte eskortieren. Siehe Drohnen und Raketenentwicklung oder allgemein intelligente Waffen.
                            Wie kommst Du denn darauf? Vor allem wenn man die Entwicklung in der Kampfmittelbeseitigung vor Augen hat. Wenn man wirklich irgendwann alle Landminen etc. von der Welt schaffen (und das sollte wirklich mal ein Ziel sein), wird es ohne Roboter nicht gehen.

                            LG Liska
                            It is the heart that gives - the fingers just let go. (Nigerianisches Sprichwort)

                            Phantasie ist wichtiger als Wissen, denn Wissen ist begrenzt. (A. Einstein)

                            Kommentar


                              #15
                              Hat schon mal jemand daran gedacht, das es wenn es denn soweit sein sollte, gar nicht mehr in unserer Hand liegen könnte?
                              Ein auf dem Gebiet der künstlichen Intelligenz führender amerikanischer Wissenschaftler hat vor einigen Jahren folgendes gesagt:

                              "Wenn wir tatsächlich in der Lage wären eine Maschine mit hochentwickelter künstlicher Intelligenz zu bauen, wäre die erste Aufgabe die wir ihr geben würden, eine noch bessere Maschine mit noch höherer KI zu bauen."

                              Ich persönlich halte dies für eine sehr interessante Aussage. Denn es würde bedeuten, wir hätten evtl. überhaupt nicht die Möglichkeit ausreichend auf das Denken einer KI Einfluss zu nehmen um zu garantieren, das diese nach unseren "Gesetzen" handelt.
                              Da die Komplexität der zweiten KI unsere Möglichkeiten der Einflussnahme übersteigen würde und wenn noch nicht diese, dann die nächste Generation.
                              So könnten sich die KI von Generation zu Generation immer weiter von der ursprünglichen Programmierung entfernen.
                              Ich weiss, es ist ein sehr abstrakter Gedankenansatz, da es noch Zukunftsmusik ist, aber es wäre durchaus denkbar.
                              "Not born. SHIT into existence." - Noman the Golgothan
                              "Man schicke dem Substantiv zwanzig Adjektive voraus, und niemand wird merken, daß man einen Haufen Kot beschreibt. Adjektive wirken wie eine Nebelbank."
                              Norman Mailer

                              Kommentar

                              Lädt...
                              X