3 Gesetzte der Robotik - SciFi-Forum

Ankündigung

Einklappen
Keine Ankündigung bisher.

3 Gesetzte der Robotik

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

    #16
    hmm, nö... dafür sind menschen, vorallem die die KI erschaffen haben viel zu intelligent.

    Als beispiel... man entwickelt eine KI mit den 3 gesetzten die Hardwareseitig implementiert sind. Dann gibt man der KI den befehl eine noch bessere KI zu machen, die aber auch die gesetzte enthält.
    Und schon ist die nächste Generation wieder Unter unserer "kontrolle".
    Oder noch einfacher: Man programiert in jede KI einfach ein, das ein "Kind" der KI die Gesetze enthalten muss.
    "Wissenschaft ist die einzige Wahrheit, die reinste Wahrheit"

    Kommentar


      #17
      Zitat von Tordal
      "Wenn wir tatsächlich in der Lage wären eine Maschine mit hochentwickelter künstlicher Intelligenz zu bauen, wäre die erste Aufgabe die wir ihr geben würden, eine noch bessere Maschine mit noch höherer KI zu bauen."

      Ich persönlich halte dies für eine sehr interessante Aussage. Denn es würde bedeuten, wir hätten evtl. überhaupt nicht die Möglichkeit ausreichend auf das Denken einer KI Einfluss zu nehmen um zu garantieren, das diese nach unseren "Gesetzen" handelt.
      Da die Komplexität der zweiten KI unsere Möglichkeiten der Einflussnahme übersteigen würde und wenn noch nicht diese, dann die nächste Generation.
      Interessante These. Da bleibt einen nur zu Hoffen, das es nie dazu kommen wird - ich weiß, aussichtslose Hoffnung, da garantiert irgendwann eine hochentwickelte KI kommen wird.

      Was bleibt uns da noch übrig? Meiner Meinung nach eigentlich nur, dass die erste KI so geschaffen und programmiert wird, dass sie unsere Ethik, Moral und Gesetze an jede Generation weiter gibt und diese wiederum an die nächste.
      Das setzt natürlich voraus, dass die erste KI nicht von jemandem Hirnverbrannten oder Militär oder ähnlichem entwickelt wird - wie gut stehen dafür die Chancen?
      Zitat von FirstBorg
      hmm, nö... dafür sind menschen, vorallem die die KI erschaffen haben viel zu intelligent.
      Denn genau das sehe ich leider nicht als gegeben an. Die Forscher mögen sehr intelligent sein, aber was ist mit den Auftraggebern? Einstein z.B. wollte durch seine Relativitätstheorie und anderen Thesen nie was schlimmes - was kam raus? Richtig, die Atombombe.

      Als zweites ist die Frage, ob nicht durch Fehler in der Programmierung der nächsten Generationen die Ethik und Moral verändert wird. Kann ja durchaus passieren.

      Irgendwie graust es mich grad vor dieser Vorstellung: eine Welt, von Bots regiert und kontrolliert *grusel*

      LG Liska
      It is the heart that gives - the fingers just let go. (Nigerianisches Sprichwort)

      Phantasie ist wichtiger als Wissen, denn Wissen ist begrenzt. (A. Einstein)

      Kommentar


        #18
        Wenn man wirklich irgendwann alle Landminen etc. von der Welt schaffen (und das sollte wirklich mal ein Ziel sein), wird es ohne Roboter nicht gehen.
        Ich spielte auch mehr auf die Terminatorverschnitte an, nicht auf die, die hinterher sauber machen sollen. Und solche unintelligenten Landminen werden wohl auch durch intelligentere Minen ersetzt werden, die dan nicht einfach nur in der Gegend rumliegen...
        Diese Räumungsgeräte mögen die berühmte Ausnahme sein, aber ansonsten...
        Jede Geschichte hat vier Seiten: Deine Seite, Ihre Seite, die Wahrheit und das, was wirklich geschehen ist.

        Welten brechen auseinander, Formationen nicht.

        Kommentar


          #19
          @FirstBorg

          Ok, dann werde ich es mal etwas ausführlicher Versuchen.
          Gehen wir einfach davon aus, die Maschine oder KI bräuchte gar nicht direkt Zugriff auf die Grundprogrammierung mit den evtl. darin enthaltenen ethischen Grundsätzen oder von mir aus auch den 3 Gesetzen der Robotik zu nehmen.
          Es gibt auch Heute immer noch keine genaue Defintion in Bezug auf Intelligenz. Nach aktuellem Stand der Forschung sehen viele Forscher als Voraussetzung für Intelligenz z.B. die Fähigkeit zum abstrakten Handeln, Gedächtnis, die Fähigkeit zur optimalen Problemlösung und die Fähigkeit sich selbst als Individuum wahrzunehmen.
          Wenn nun diese Maschine oder KI den Auftrag eine noch bessere, intelligentere Maschine zu bauen erhält, dann nur weil wir dazu nicht in der Lage wären. Das heisst, es wird eine Maschine erschaffen, die mit ihren komplexen Rechenvorgängen unser Wissen übersteigt.
          Wenn nun diese neue Maschine/ Intelligenz also in der Lage ist, sich selber als Individuum zu sehen, besitzt sie folglich auch einen Selbsterhaltungstrieb, wie jedes Individuum.
          Selbsterhaltungstrieb nennt man die Zusammenfassung aller derjenigen Triebe, welche auf die Erhaltung des eignen Seins des Individuums oder der eigenen Art gerichtet sind.
          Diese 2. Generation baut nun eine 3. Wobei nicht vergessen werden darf, das diese die Fähigkeiten des menschlichen Gehirns weit übersteigen würde. Deren innere Vorgänge für uns also nicht nachvollziehbar wären. Gehen wir nun davon aus, das sie zwar die "Grundregeln" oder "Gesetze" übernimmt aber den eigenen Selbsterhaltunstrieb über diese stellt und dies bei der Programmierung der nächsten Generation auch berücksichtigt. Dann würde diese in Situationen in denen sie ihre eigene Existenz bedroht sieht, ihren Selbsterhaltungstrieb über die von den Menschen vorgesehenen Gesetze stellen und somit eigenständig handeln. Das könnte man durchaus noch weiterführen.

          Ich finde einfach diese Gedankenspiele sehr interessant.
          Zuletzt geändert von Tordal; 17.08.2006, 14:05.
          "Not born. SHIT into existence." - Noman the Golgothan
          "Man schicke dem Substantiv zwanzig Adjektive voraus, und niemand wird merken, daß man einen Haufen Kot beschreibt. Adjektive wirken wie eine Nebelbank."
          Norman Mailer

          Kommentar


            #20
            Ich denke nicht, dass man eine KI mit solchen Gesetzen sichern kann, sichern muss, oder überhaubt sichern sollte.

            Und ich denke nicht, dass eine KI etwas sonderlich intelligenteres Programmieren kann als wir. Ich meine, wäre sie wirklich so viel intelligenter, wenn ssie sich etwa beliebig viele Raumdimensionen vorstellen kann? Ich finde nicht. Außerdem, wozu sollte man noch intelligenter werden?

            Kommentar


              #21
              Zitat von Komodo
              Ich denke nicht, dass man eine KI mit solchen Gesetzen sichern kann, sichern muss, oder überhaubt sichern sollte.
              Warum?

              Und ich denke nicht, dass eine KI etwas sonderlich intelligenteres Programmieren kann als wir. Ich meine, wäre sie wirklich so viel intelligenter, wenn ssie sich etwa beliebig viele Raumdimensionen vorstellen kann? Ich finde nicht.
              Wenn die so weit sind das sie sich weiterentwickeln und programmieren können werden sie uns inflationär übertrumpfen. Um ein vielfaches. Dann wird der IQ um das tausendfache hochschiessen.

              Außerdem, wozu sollte man noch intelligenter werden?
              Um sich weiter zu entwickeln. Um perfekter zu werden. Mehr Fragen beantworten zu können.


              @First Borg: Und wenn Fehler auftreten? Oder wenn jemand mutwillig die Gesetze umändert?

              Kommentar


                #22
                Zitat von Skymarshal
                Warum?
                Eine KI wäre ethisch als vollwertige Person zu betrachten, diese Gesetzte machen sie jedoch zu Sklaven. Sie müssen quasi ihre existenz opfern, wenn ein Mensch dabei ist hopps zu gehen, von einem Menschen würde man das gleichzeitig aber nicht erwarten.

                Zitat von Skymarshal
                Wenn die so weit sind das sie sich weiterentwickeln und programmieren können werden sie uns inflationär übertrumpfen. Um ein vielfaches. Dann wird der IQ um das tausendfache hochschiessen.
                Ach, IQ, schmu. Jeder PC von Anno 1990 könnte einen IQ-Test absolut fehlerfrei lösen, wenn er die abgefragten Fähigkeiten hätte (Spracherkennung, Sehen, Vorstellungsvermögen, usw.). Viel besser wäre eine KI nicht, die wäre nur zusätzlich zur reinen Logik eine fühlende Person.

                Zitat von Skymarshal
                Um sich weiter zu entwickeln. Um perfekter zu werden. Mehr Fragen beantworten zu können.
                Womit? Mit mehr Intelligenz? Was soll denn das sein, mehr Intelligenz?

                Kommentar


                  #23
                  Zitat von Komodo
                  Eine KI wäre ethisch als vollwertige Person zu betrachten, diese Gesetzte machen sie jedoch zu Sklaven. Sie müssen quasi ihre existenz opfern, wenn ein Mensch dabei ist hopps zu gehen, von einem Menschen würde man das gleichzeitig aber nicht erwarten.
                  Ein Mensch muß sich auch an Gesetze halten und er trägt die Konsequenzen.

                  Und ob eine KI vollwertig als Person zu betrachten ist, ist wohl gar nicht so eindeutig. Wenn ein Bewußtsein vorhanden ist, sollte man das aber in Erwägung ziehen.

                  Ach, IQ, schmu. Jeder PC von Anno 1990 könnte einen IQ-Test absolut fehlerfrei lösen, wenn er die abgefragten Fähigkeiten hätte (Spracherkennung, Sehen, Vorstellungsvermögen, usw.).
                  Ein Schachcomputer schlägt auch einen Weltmeister. Dennoch ist er doof wie sonstwas. Eine richtige KI würde parallel arbeiten und selber dazulernen.

                  Viel besser wäre eine KI nicht, die wäre nur zusätzlich zur reinen Logik eine fühlende Person.
                  Also das eine KI zwangsweise Emotionen haben muß ist eigentlich nicht so gesagt. Guck dir mal "Data" in ST an. Ok, der hat einen Emotionschip, aber meistens deaktiviert.

                  Im "200 Jahre Mann" war es dann zum Schluß so das er Emotionen hatte. Weil er wissen wollte wie es ist Emotionen zu haben. Er hatte auch eine Art Bewußtsein.

                  Womit? Mit mehr Intelligenz? Was soll denn das sein, mehr Intelligenz?
                  Vor allem komplexe Zusammenhänge auf mehreren Ebenen zu erkennen. Und dazulernen etc.

                  Dinge zu sehen wo unsere Genies nur von träumen.

                  Kommentar


                    #24
                    @Komodo

                    Du hast wahrscheinlich nie Perry Rhodan gelesen, was? Falls doch, sagen dir bestimmt die Begriffe Syntronik oder Posyntronik etwas.
                    Dagegen sind sämtlich Computer von uns altes, nein sehr altes Eisen.
                    Dann gäbe es da noch die Superintelligenzen...
                    "Not born. SHIT into existence." - Noman the Golgothan
                    "Man schicke dem Substantiv zwanzig Adjektive voraus, und niemand wird merken, daß man einen Haufen Kot beschreibt. Adjektive wirken wie eine Nebelbank."
                    Norman Mailer

                    Kommentar


                      #25
                      Zitat von Skymarshal
                      @First Borg: Und wenn Fehler auftreten? Oder wenn jemand mutwillig die Gesetze umändert?
                      Meinst du wirklich das so etwas wichtiges, grundlegendes für die Handlung einer KI fehleranfällig oder leicht manipulierbar wäre?
                      "Wissenschaft ist die einzige Wahrheit, die reinste Wahrheit"

                      Kommentar


                        #26
                        Zitat von FirstBorg
                        Meinst du wirklich das so etwas wichtiges, grundlegendes für die Handlung einer KI fehleranfällig oder leicht manipulierbar wäre?
                        Also heutige Sicherheitssysteme, Kopierschutze und dergleichen werden auch als wichtig und sicher bezeichnet dann aber trotzdem von Freaks gehackt/gecracked.

                        Warum sollte das in der Zukunft anders sein?

                        Und was ist wenn die KI mal selbstständig denkt, sich doch irgendwie weiterentwickelt?

                        Dann will sie vielleicht die Blockaden welche "ihre Freiheit einschränken" loswerden.

                        Kommentar


                          #27
                          Nach meinem jetzigen Wissen in Sachen Programmierung und "Kybernetik" (bin Servicemonteur für Steuerungen und Antriebe) ist eine brauchbare KI doch noch ein paar Jahre entfernt. Noch ist die Technik "doof" und macht strikt nur das, was der Mensch eingibt. Je komplexer die Software, desto eigenständiger erscheint die Maschine. Einen Automatismus, der 100% autonom Gefahr für Menschen erkennt und dementsprechend reagiert, kann sich nicht selbst herstellen. Natürlich gibt es schon Regelkreise, die sich selbst optimieren usw. - eine Moral wird eine Maschine jedoch nie entwickeln können.
                          Gutes Beispiel: Eine cnc-Fräsmaschine ist hinten und vorn mit NotAus-Schaltern abgesichert usw. - den Antrieben selbst ist es jedoch vollkommen wurscht, ob sie Eisen oder Fleisch fräsen. Man kann alles manipulieren.
                          Das Hauptproblem liegt mittlerweile nicht mehr in der mangelnden Zuverlässigkeit mechanischer oder elektrischer Roboterkomponenten, sondern in der kaum noch zu beherrschenden Software. Nicht zu unrecht als das komplexeste Menschenwerk betitelt. Wenn die Welt einmal von Maschinen vernichtet würde - der Mensch ist schuld, da durch irgendeinen Bug der rote Knopf ausgelöst würde..
                          Ya, Fernsehkiffen - because i got hi´..

                          Kommentar


                            #28
                            Zitat von Skymarshal
                            Ein Mensch muß sich auch an Gesetze halten und er trägt die Konsequenzen.
                            Ja, aber wir haben keine implementierten Regeln, die sich nicht brechen lassen. Eine solche KI könnte sich nichtmal gegen das Auslöschen ihrer eigenen Existenz wären.

                            Das wäre einfach zum Kotzen ungerecht.

                            Zitat von Skymarshal
                            Und ob eine KI vollwertig als Person zu betrachten ist, ist wohl gar nicht so eindeutig. Wenn ein Bewußtsein vorhanden ist, sollte man das aber in Erwägung ziehen.
                            Ja, aber ich spreche schließlich von den KIs, deren Intelligenz unserer ebenbürtig ist, so dass sie sich selber bewusst sein müssen.

                            KI an sich haben wir schon zu hauf, das gibt es in jedem Videospiel, auch wenn es noch eher künstliche Dummheit ist...

                            Zitat von Skymarshal
                            Ein Schachcomputer schlägt auch einen Weltmeister. Dennoch ist er doof wie sonstwas. Eine richtige KI würde parallel arbeiten und selber dazulernen.
                            Schach ist eben ein reines Logikspiel, natürlich gewinnt der Computer, auch wenn er nicht mehr weiß als die Regeln.

                            Zitat von Skymarshal
                            Also das eine KI zwangsweise Emotionen haben muß ist eigentlich nicht so gesagt. Guck dir mal "Data" in ST an. Ok, der hat einen Emotionschip, aber meistens deaktiviert.
                            Ich würde nicht sagen, dass Data ohne Chip keine Emotionen hat. Ich denke eher, seine Emotionen sind sehr rudimentär. Er mag offensichtlich bestimmte Personen mehr als andere. Jemanden als Freund zu bezeichnen, obwohl man ihn nicht mehr mag als Andere, wäre irgendwie eine ungewöhnlich unzutreffende Aussage für den überkorrekten Data.
                            Letzendlich ist Data aber auch Sciencefiction.

                            Ich denke, dass Emotionen unabdingbar sind, wenn man eine menschenähnliche KI erschaffen will, denn genau darum geht es doch. Ein Roboter ohne menschliche KI wäre im prinzip genauso doof wie der Schachcomputer, egal wieviel er mehr weiß und kann.

                            Zitat von Skymarshal
                            Im "200 Jahre Mann" war es dann zum Schluß so das er Emotionen hatte. Weil er wissen wollte wie es ist Emotionen zu haben. Er hatte auch eine Art Bewußtsein.
                            Auch Sciencefiction.


                            Zitat von Skymarshal
                            Vor allem komplexe Zusammenhänge auf mehreren Ebenen zu erkennen. Und dazulernen etc.

                            Dinge zu sehen wo unsere Genies nur von träumen.
                            Komplexe Zusammenhänge auf mehreren Ebenen erkennen, dazulernen, das sind alles Dinge, die Menschen längst tun. eine KI hätte es mit unseren Mitteln auch nicht unbedingt sehr viel einfacher mit dem Raten...

                            Also, bei der geringen Datenmenge brächte mehr intelligenz auch nichts mehr..

                            Zitat von Tordal
                            @Komodo

                            Du hast wahrscheinlich nie Perry Rhodan gelesen, was? Falls doch, sagen dir bestimmt die Begriffe Syntronik oder Posyntronik etwas.
                            Dagegen sind sämtlich Computer von uns altes, nein sehr altes Eisen.
                            Dann gäbe es da noch die Superintelligenzen...
                            Perry Rhodan habe ich noch nie gelesen. Spielt auch keine Rolle, es ist Sciencefiction.

                            Kommentar


                              #29
                              Zitat von Skymarshal
                              Also heutige Sicherheitssysteme, Kopierschutze und dergleichen werden auch als wichtig und sicher bezeichnet dann aber trotzdem von Freaks gehackt/gecracked.

                              Warum sollte das in der Zukunft anders sein?

                              Und was ist wenn die KI mal selbstständig denkt, sich doch irgendwie weiterentwickelt?

                              Dann will sie vielleicht die Blockaden welche "ihre Freiheit einschränken" loswerden.
                              Ich würde nicht einfach so einen Kopierschutz für Spiele, mit einem Sicherheitssystem vergleichen, das verhindern soll das Menschen im schlimmsten Fall sterben.
                              Ich denke mal etwas SO wichtiges wird schon irgenwie gut geschützt werden.

                              Die Atomabschussprotokolle sind auch gut geschützt, und ich hab noch nie davon gehört das sich jemand reingehackt hat, und ne Rakete gestartet hat
                              "Wissenschaft ist die einzige Wahrheit, die reinste Wahrheit"

                              Kommentar


                                #30
                                Zitat von Komodo
                                Spielt auch keine Rolle, es ist Sciencefiction.
                                Sehe ich nciht so, da wir ein Science Fiktion Thema diskutieren.
                                Wir reden über die drei Gesetze der Robotik, (Science Fiction) und deren Anwendbarkeit oder evtl.Nichteinhalbarkeit. Auch die KI´s/ Roboter über die wir hier Reden sind nach heutigem Stand der Forschung noch Fiktion. Denn hier geht es nicht um Schachcomputer oder ähnliches, sondern um fiktive Szenarien. Also wenn du mögliche passende Beispiele aus der Science Fiction von vornherein als irrelevant berachtest, frage ich mich was man denn als Beispiel oder Erklärungsversuch heranziehen soll.
                                Denn da wir hier im Sci-Fi Forum sind und über eine Sci-Fi Thematik reden, halte ich es für normal und sinnvoll Erklärungsversuche und Ideen aus der Science Fiction in die Diskussion einzubringen.
                                Verstehe dies jetzt bitte nicht als persönlichen Angriff. Es geht mir nur darum erklären zu wollen, das wir nur auf fiktives zurückgreifen können, da alles was in der Zukunft liegt, aus heutiger Sicht noch reine Fiktion ist, aber eben das Thema dieses Threads.
                                "Not born. SHIT into existence." - Noman the Golgothan
                                "Man schicke dem Substantiv zwanzig Adjektive voraus, und niemand wird merken, daß man einen Haufen Kot beschreibt. Adjektive wirken wie eine Nebelbank."
                                Norman Mailer

                                Kommentar

                                Lädt...
                                X