Ki - SciFi-Forum

Ankündigung

Einklappen
Keine Ankündigung bisher.

Ki

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

    #16
    Was spricht dagegen, eine KI zu schaffen, die intelligenter ist als ein Mensch?
    Das würde zu einer technischen Singularität führen, was eigentlich sehr wünschenswert ist.

    Mir ist klar, dass einige Menschen ziemliche Probleme damit haben, doch solche veralteten Denkweisen sollte man schnellstmöglich ablegen. Schließlich war früher nichts besser als heute. OK, vieleicht war die Erde sauberer, doch es ist uns unmöglich zurück auf irgendwelche Bäume zu klettern.
    Die Zukunft hat begonnen, wenn Geräte intelligent genug sind, um die Dummheit ihrer Nutzer auszugleichen.

    Caprica City

    Kommentar


      #17
      Zitat von Pellos
      Warum denken alle, dass KIs gefährlich werden könnten, wenn man ihnen nicht einprogrammiert, freundlich gegenüber Menschen zu sein?
      Wenn eine KI logisch denkt (was sie wohl tun wird), dass ist die Chance, dass sie von alleine agressiv wird äußerst gering. Warum sollte sie die Menschheit vernichten wollen? Für sie wäre es doch interessanter, die Menschen zu studieren und mit ihnen zu interagieren.

      Was die Gefühle angeht: Viele unserer Gefühle sind nur Mittel, um unser überleben zu sichern. Eine KI kann aber durchaus Emotionen haben, die unseren ähnlich sind: Langeweile, Angst,...

      Aber die KI wird vom Menschen geschaffen. Und wo Menschen sind, passieren nun mal auch fehler.
      Es muss nicht alles schief gehen. Vielleicht kann die KI die fehler die der Mensch in der programmierung gemacht hat selber beheben.
      Wenn das Universum gerecht wäre würden uns all die schlechten dinge wiederfahren die wir verdient hätten!

      Kommentar


        #18
        Zitat von Argamendon82
        Aber die KI wird vom Menschen geschaffen. Und wo Menschen sind, passieren nun mal auch fehler.
        Es muss nicht alles schief gehen. Vielleicht kann die KI die fehler die der Mensch in der programmierung gemacht hat selber beheben.
        Aber für wie lange?
        Der zufall macht es möglich das sie sich irrgendwann gegen und wenden das beunruhigt!
        "Unterdrücke nie mit Gewalt Überzeugungen, die du für verderblich hälst, sonst unterdrücken diese Überzeugungen dich. " - B. Russell, 10 Gebote eines Liberalen.

        Kommentar


          #19
          Wiso. Das perfekte KI-Konzept ist ganz klar die Seed-AI. Eine generation von KIs erschafft die nächste Generation. Mit jeder Stufe werden die KIs intelligenter und perfekter.
          Die Zukunft hat begonnen, wenn Geräte intelligent genug sind, um die Dummheit ihrer Nutzer auszugleichen.

          Caprica City

          Kommentar


            #20
            Zitat von Pellos
            Wiso. Das perfekte KI-Konzept ist ganz klar die Seed-AI. Eine generation von KIs erschafft die nächste Generation. Mit jeder Stufe werden die KIs intelligenter und perfekter.
            Perfekter?
            Wie die Borg?
            Eine Generation erschaft die nächst generation?
            Wie die Replikatoren(Aus StarGate)?
            Sorry ich bin kein Androiden-Skeptiker, aber ich denke wir sollten ihre ewolution(oder wie geschriben?) schon ueberwachen können.
            Zumindest am anfang,oder man sollte ihnen sowas wie Kategorische Moralwerte einprogrammieren (z.b. du sollst net töten)

            In hochachtung ihr Museveni
            "Unterdrücke nie mit Gewalt Überzeugungen, die du für verderblich hälst, sonst unterdrücken diese Überzeugungen dich. " - B. Russell, 10 Gebote eines Liberalen.

            Kommentar


              #21
              Das unterscheidet uns. Ich bin dagegen irgendein moralisches Denken einzuprogrammieren. Ist so etwas bei uns eingebaut? Nein, warum also sollen wir es unserer Schöpfung einprogrammieren?
              Ich könnte jetzt auf die Straße gehen und die nächstbeste Person mit einem Messer erstechen. Warum mach ich das nicht? Weil es unmoralisch ist? Wenn ein Mensch etwas erreichen will sind ihm irgendwelche Werte ziemlich egal. Nein, es ist einfach die Logik, die mich/uns abhält. Es macht keinen Sinn. Es gibt keinen Grund auf die Straße zu gehen und jemanden zu erstechen.
              Auf der gleiche Basis sollten auch KIs agieren können. Kennst du "die Drei Gesetze der Robitik" (die Isaak Asimiv für seine Roboter Geschichten erdachte)? Sie lauten so:
              1. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen.
              2. Ein Roboter muss den Befehlen eines Menschen gehorchen, es sei denn, solche Befehle stehen im Wiederspruch zum ersten Gesetz
              3. Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht dem ersten oder zweiten Gesetz widerspricht

              Die Gesetze machen durchaus Sinn, doch sorgen sie dafür, dass Roboter zu Gebrauchsgegenständen werden. Man wird sie für die dämlichsten Aufgaben nutzen, obwohl es ihnen Möglich wäre, die Entwicklung weiterzubringen....
              Das glecihe gilt auch für KIs. Wenn sie eingeschränkt werden, werden sie degradiert und können keine Inovationen einführen. Schließlich bedeutet Fortschritt auch Gefahr (man muss sich nur die Atomtechnik ansehen, es ist die beste Energiequelle, die wir haben, doch die Atombombe ist eine Waffe sondergleichen). Nur eine KI ohne Einschränkungen ist in der Lage, die Menschheit wirklich weiter zu bringen.
              Die Zukunft hat begonnen, wenn Geräte intelligent genug sind, um die Dummheit ihrer Nutzer auszugleichen.

              Caprica City

              Kommentar


                #22
                Ich sehe mich gezwungen sie auf einige Widersprüche in ihren Text Aufmerksam zu machen,
                zum ersten Ermal betonen sie das sie den Robotern kein inneres Gesetz einlegen wollen und dann kommen die doch mit den „Drei gesetzen der Robotik „.
                Zum zweiten sind sie schon mal auf den Gedanken gekommen das das Was sie die Logik nennen nicht einfach auf die Straße zu gehen und jemanden zu erstehen vielleicht ein in uns eingebautes Gesetz sein könnte, woher wollen sie wissen das die „Logik“ etwas von ihnen ganz unabhängiges(ja natürliches) sein soll?
                Soviel dazu .
                Es war ja nur ein Vorschlag


                In Hochachtung ihr Museveni
                "Unterdrücke nie mit Gewalt Überzeugungen, die du für verderblich hälst, sonst unterdrücken diese Überzeugungen dich. " - B. Russell, 10 Gebote eines Liberalen.

                Kommentar


                  #23
                  Ich hab die drei Gesetze als Beispiel genannt, wie es vermutlich eines Tages gemacht wird. Doch ich bin gegen so eine Programmierung.

                  Mit Logik meine ich das Denken nach Kosten-Nutzen-Faktor. Wenn ich irgendjemanden ersteche hat es mir nichts gebracht. Jemand ist tot und ich komme ins Gefängniss. Wo ist da der Wert?
                  Die Zukunft hat begonnen, wenn Geräte intelligent genug sind, um die Dummheit ihrer Nutzer auszugleichen.

                  Caprica City

                  Kommentar


                    #24
                    wher wollen sie wissen ob die Besagt Person nicht vorhat jemanden zu erstehen?
                    Oder noch schlimmer sie?
                    Also in den fall wäre es besser zuerst zu stehen,
                    warum sie dass nicht tun?
                    Aus einen Inneren Gesetz heraus, das sie Logik nennen!
                    ein strenges Kosten-Nutzen denken ist auch nur ein inneres Gesetz!
                    die meisten morde geschehen aus irrationalen Gründen(hab ich zumindest mal gehört )
                    Ein jedes ding ist nur in so weit interessant, in wie weit ich damit zu tun habe also sagen sich die Maschinen wir können die Rohstoffe besser gebrauchen als der Mensch, denn wir sind net so verschwenderisch wie er und schon wenden sie sich gegen uns!
                    "Unterdrücke nie mit Gewalt Überzeugungen, die du für verderblich hälst, sonst unterdrücken diese Überzeugungen dich. " - B. Russell, 10 Gebote eines Liberalen.

                    Kommentar


                      #25
                      Zitat von Pellos
                      Das unterscheidet uns. Ich bin dagegen irgendein moralisches Denken einzuprogrammieren. Ist so etwas bei uns eingebaut? Nein, warum also sollen wir es unserer Schöpfung einprogrammieren?
                      Ich könnte jetzt auf die Straße gehen und die nächstbeste Person mit einem Messer erstechen. Warum mach ich das nicht? Weil es unmoralisch ist? Wenn ein Mensch etwas erreichen will sind ihm irgendwelche Werte ziemlich egal. Nein, es ist einfach die Logik, die mich/uns abhält. Es macht keinen Sinn. Es gibt keinen Grund auf die Straße zu gehen und jemanden zu erstechen.
                      Auf der gleiche Basis sollten auch KIs agieren können. Kennst du "die Drei Gesetze der Robitik" (die Isaak Asimiv für seine Roboter Geschichten erdachte)? Sie lauten so:
                      1. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen.
                      2. Ein Roboter muss den Befehlen eines Menschen gehorchen, es sei denn, solche Befehle stehen im Wiederspruch zum ersten Gesetz
                      3. Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht dem ersten oder zweiten Gesetz widerspricht

                      Die Gesetze machen durchaus Sinn, doch sorgen sie dafür, dass Roboter zu Gebrauchsgegenständen werden. Man wird sie für die dämlichsten Aufgaben nutzen, obwohl es ihnen Möglich wäre, die Entwicklung weiterzubringen....
                      Das glecihe gilt auch für KIs. Wenn sie eingeschränkt werden, werden sie degradiert und können keine Inovationen einführen. Schließlich bedeutet Fortschritt auch Gefahr (man muss sich nur die Atomtechnik ansehen, es ist die beste Energiequelle, die wir haben, doch die Atombombe ist eine Waffe sondergleichen). Nur eine KI ohne Einschränkungen ist in der Lage, die Menschheit wirklich weiter zu bringen.
                      Deine Argumenatation macht durchaus Sinn für mich. Allerdings könnte es doch durchaus Fälle geben in der es für eine K.I. "Sinn" machen würden andere umzubringen oder sonst zu schädigen. Moral würde eine K.I nicht davon abhalten und die Aussicht auf Strafe auch nur wenn die K.I. schon so etwas wie einen Selbsterhaltungstrieb hat.
                      Rygel: "I've got an new Philosophy Crichton. What used to be important isn't and what should be important never will be."

                      Kommentar


                        #26
                        wie man es auch dreht mit bezug auf K werden letztlich doch immer nur vorgaben erfüllt auch wenn eine weiterentwicklung vorgegeben ist...
                        so bleibt es eine Vorgabe.

                        Kommentar


                          #27
                          Ich de3nke scon das KI möglich werden können, allerdings ist ein großer Faktor dabei ob wir überhauupt lang genug existieren werden, oder ob sich die Menschheit vorheer selbst vernichtet. Aber man sollte sie nicht als Roboter einstufen da sie dann an die 3 Gesetze der Robotik gebunden wärenb.
                          Gefordert: Eine MARK V ECM-EINHEIT, 1000km Fullerene Kabel, ein Strahlungsarmer Nuklearer Sprengkopf
                          Zweck: Überraschungsparty für Ausländische Würdenträger.

                          Kommentar


                            #28
                            Eine Interesannte Folge zu diesem Thema ist übrigens "All too Human" (2.06), in der Rommie viele verschieden Facetten einer möglichen hochentwickelten K.I. zeigt.
                            Einerseits kämpft Rommie mit den Vorurteilen gegenüber K.I´s, andererseites bestätigt sie später in der Folge wieder andere als sie kühl und sachlich eine mögliche Todeszahl von über 300.000 ausrechnet und da noch viel mehr auf dem Spiel steht zu dem Schluss kommt "Thats not so bad" !!!
                            Das sie aber dennoch mehr ist zeigt sie dann wieder am Ender der Episode als sie im Gespräch mit Dylan über diese Thematik ihre Probleme damit ausdrückt.

                            Nebenei gibt es bei Andromeda ja nicht die 3 Gesetze da die K.I.´s gleichberechtigt sind und sich ja auch für ihre Taten verantworten müssen.
                            Rygel: "I've got an new Philosophy Crichton. What used to be important isn't and what should be important never will be."

                            Kommentar


                              #29
                              ich bezog es auf die allgemeinen gesetze an die Roboter gebunden sindd, nicht an die bei I-robot
                              Gefordert: Eine MARK V ECM-EINHEIT, 1000km Fullerene Kabel, ein Strahlungsarmer Nuklearer Sprengkopf
                              Zweck: Überraschungsparty für Ausländische Würdenträger.

                              Kommentar


                                #30
                                Also ich find man könnte ruhig schon die Ki' s noch ein
                                bissel ausprägen aber nicht zu sehr!! Sonst könnte ja eben das passieren,
                                was I-Robot uns vermitteln wollte. Also Ki ' s mit Armen und Beinen
                                finde ich zu gefährlich... dann doch lieber in Form von Schachcomputern
                                oder Hilfe beim Autofahren. *Knight rider xd **
                                Das Lied für sinnlose Diskussionen zur Aggressionsbewältigung.
                                Mehr Frieden und Liebe für das SFF! Trage dazu bei!

                                Kommentar

                                Lädt...
                                X