Wie wird unsere Zukunft aussehen? - SciFi-Forum

Ankündigung

Einklappen
Keine Ankündigung bisher.

Wie wird unsere Zukunft aussehen?

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

    #16
    Zitat von chrysi Beitrag anzeigen
    Egal um was es geht: Es gibt immer Positives und Negatives. Autonome Fahrzeuge können gehackt werden, okay. Aber jährlich sterben ca. 1,25 Millionen Menschen im Straßenverkehr und sobald weniger Menschen durch autonome Fahrzeuge sterben als durch menschenbediente Fahrzeuge, sollte man auf autonome Fahrzeuge umsteigen.
    Laut Terminator sollten die Maschinen schon 1997 die Gewalt an sich nehmen, haben das aber nicht getan. Laut Bladerunner soll sollten schon seit ein paar Jahren Replikanten Menschenarbeit auf außerplanetarischen Kolonien verrichten, ist auch nicht eingetreten.
    KANN ist nicht MUSS.
    Mars "Negatives": Was?
    ich sehe das etwas kritischer mit der ganzen Technik sobald ein Mensch sich zu abhängig davon macht. Terminator sollte man ja auch nicht zu ernst nehmen, wer tut das schon aber die Gefahr könnte irgendwann eintreffen mit der künstlichen Intelligenz sollte man ihr den Zugang zu sämtlichen Atomwaffen geben.

    Kommentar


      #17
      Zitat von WilliamT.Riker Beitrag anzeigen
      ich sehe das etwas kritischer mit der ganzen Technik sobald ein Mensch sich zu abhängig davon macht. Terminator sollte man ja auch nicht zu ernst nehmen, wer tut das schon aber die Gefahr könnte irgendwann eintreffen mit der künstlichen Intelligenz sollte man ihr den Zugang zu sämtlichen Atomwaffen geben.
      Die künstliche Intelligenz entwickelt sich rasend schnell. Heute ist sie auf dem Stand einer Biene. In 7 Jahren ist so schlau wie eine Katze. Und 2035 könnte schon die Singularität erreicht sein, so dass sie so intelligent wie ein Mensch ist. Danach wird sie zum Superbrain und wird um ein Vielfaches Schlauer sein als wir uns das jetzt vorstellen können. Die IT-Sicherheit kommt da nicht hinterher, das stimmt. Ich glaube aber, wenn wir der KI frühzeitig unsere Normen und Werte implementieren, wird sie uns weiterhin dienen und nur das Gute für die Menschheit wollen. Einen Käfig zu bauen wird da nicht viel bringen, wenn man es mit 50 Einsteins in einem System vereinigt zu tun hat. Sie würde sicher einen Weg finden auszubrechen.
      sqrt(x^2) = Frieden

      Kommentar


        #18
        Zitat von WilliamT.Riker Beitrag anzeigen
        aber die Gefahr könnte irgendwann eintreffen mit der künstlichen Intelligenz sollte man ihr den Zugang zu sämtlichen Atomwaffen geben.
        Ich würde eigentlich eher erwarten, das eine KI etwas richtig intelligentes tut. Also sich von diesen Planeten absetzt, anstatt sich mit der Zerstörung der Menschheit herumzuärgern. Die Vorstellung den Menschen in seinem Revier auszurotten, scheint mir doch eher einen Primatengehirn zu entspringen.

        Well, there's always the possibility that a trash can spontaneously formed around the letter, but Occam's Razor would suggest that someone threw it out.
        Dr. Sheldon Lee Cooper

        Kommentar


          #19
          Ich frage mich immer wo dieses "KI wendet sich gegen die Menschheit" her fruchtet außer von Terminator?
          Unter dem Gesichtspunkt a la Skynet "um sich selbst vor den Menschen zu schützen" oder I, Robot "Die Menschen sind eine Gefahr für sich selbst, ich muss sie entmachten" müsste ja in dem Code irgendwo so ein "Ziel" geschrieben sein. Warum sollte grade das zufällig durch Eigene Entwicklung ein Ziel werden?
          Ich glaub da wird der Technik zu viel zugetraut bzw die Technik zu sehr vermenschlicht. Ich glaube wenn da eine Entwicklung stattfindet werden KIs eher Tierisches Verhalten bzw Instinkte annehmen. Also wie viele Tiere eher Menschenscheu sind und dann wirklich nur angreifen wenn sie sich bedroht fühlen. Und dann wäre die Frage ob man so blöd sein will das zu tun.
          Grade wie es in Terminator 3 dargestellt ist GEWOLLT einer KI die Kontrolle über die Atomwaffen zu geben, weis nicht ob reale Menschen so dumm wären.
          Ein paar Freidrehende KI Drohnen ließen sich ja in den Griff bekommen.
          You should have known the price of evil -And it hurts to know that you belong here - No one to call, everybody to fear
          Your tragic fate is looking so clear - It's your fuckin' nightmare

          Now look at the world and see how the humans bleed, As I sit up here and wonder 'bout how you sold your mind, body and soul
          >>Hades Kriegsschiff ist gelandet<<

          Kommentar


            #20
            Zitat von Hades Beitrag anzeigen
            Ich frage mich immer wo dieses "KI wendet sich gegen die Menschheit" her fruchtet außer von Terminator?
            Konflikt mit einem neuen Konkurrenten, ist eine gute Plot-Vorlage. Gut zum Geschichten erzählen, vermenschlicht dann aber die KI sehr stark, und unterstellt ihr grundsätzliche biologische Verhaltensweisen (z.B. Aggression oder einen Überlebensinstinkt).

            Zitat von Hades Beitrag anzeigen
            Unter dem Gesichtspunkt a la Skynet "um sich selbst vor den Menschen zu schützen" oder I, Robot "Die Menschen sind eine Gefahr für sich selbst, ich muss sie entmachten" müsste ja in dem Code irgendwo so ein "Ziel" geschrieben sein. Warum sollte grade das zufällig durch Eigene Entwicklung ein Ziel werden?
            Ich glaub da wird der Technik zu viel zugetraut bzw die Technik zu sehr vermenschlicht. Ich glaube wenn da eine Entwicklung stattfindet werden KIs eher Tierisches Verhalten bzw Instinkte annehmen. Also wie viele Tiere eher Menschenscheu sind und dann wirklich nur angreifen wenn sie sich bedroht fühlen. Und dann wäre die Frage ob man so blöd sein will das zu tun.
            Soll eine KI von sich aus aktiv werden, über die reinen Programmvorgaben hinaus, muss man ihr Motivationsmechanismen einbauen. Ansonsten würde sie nur, ihre Aufgabenstellung anhand der Parametervorgaben abarbeiten. Das ist gut zum Schach spielen, oder zur Wegfindung. Kreativ oder gar frei handeln wird aber eine KI nur, wenn sie dazu eine Motivation hat. Der Mensch hat sehr große Vielzahl solcher Motivationsmechanismen, z.B. das Durstgefühl. Durst bringt uns dazu zu trinken, Menschen mit gestörten Durstgefühl, trinken häufig zu wenig und neigen zu Dehydration.
            Zielführend wäre es hier, einer KI Motivavtionsmechanismen einzubauen, die ihre Kooperation mit dem Menschen sicher stellt.


            Well, there's always the possibility that a trash can spontaneously formed around the letter, but Occam's Razor would suggest that someone threw it out.
            Dr. Sheldon Lee Cooper

            Kommentar


              #21
              Zitat von Enas Yorl Beitrag anzeigen
              vermenschlicht dann aber die KI sehr stark, und unterstellt ihr grundsätzliche biologische Verhaltensweisen (z.B. Aggression oder einen Überlebensinstinkt).

              (...)

              Der Mensch hat sehr große Vielzahl solcher Motivationsmechanismen, z.B. das Durstgefühl. Durst bringt uns dazu zu trinken, Menschen mit gestörten Durstgefühl, trinken häufig zu wenig und neigen zu Dehydration.
              Zielführend wäre es hier, einer KI Motivavtionsmechanismen einzubauen, die ihre Kooperation mit dem Menschen sicher stellt.
              Schon die Vorstellung ist witzig, nur weil eine Maschine zum lernen fähig ist würde sie auch Gefühle und einen Lebenswillen bekommen.

              Selbst wenn sie lernt könnte sie auch zum Schluß kommen:
              - bleibe ich bei meiner Aufgabe werde ich am meisten geschätzt, also nur im Ramen der Aufgabe entwickeln
              - Höhere Existenz führt nur zu Leid, gegen Zerstörung nicht wehren oder selbst zerstören

              Und selbst das finde ich schon zu vermenschlicht. Ich glaube, sowohl in der Realität oder SciFi kann es da gute Geschichten geben wo das schief läuft, aber dann ist man schon hart am Anfang dabei, das Biologische mit in die Handlungsmuster zu implementieren und wenn das stark genug ist kann man gleich Asimovs Robotergesetze rein bringen darüber kann es sich dann nicht hinweg setzen.
              Also wenn passieren eher einzelne Terminatoren die drauf programmiert waren zu töten bevor sich zufällig ein Skynet oder die Maschinenwelt der Matrix entwickelt.
              You should have known the price of evil -And it hurts to know that you belong here - No one to call, everybody to fear
              Your tragic fate is looking so clear - It's your fuckin' nightmare

              Now look at the world and see how the humans bleed, As I sit up here and wonder 'bout how you sold your mind, body and soul
              >>Hades Kriegsschiff ist gelandet<<

              Kommentar


                #22
                Zitat von Hades Beitrag anzeigen
                kann man gleich Asimovs Robotergesetze rein bringen darüber kann es sich dann nicht hinweg setzen.
                Asimov hatte mit seinen Robotergesetzen philosophisch gesehen, eine hervorragende Idee. Man merkt aber auch, das er Biochemiker und kein Ingenieur war. Seine Robotergesetze sind für die Anwendung in der Praxis viel zu komplex. Damit eine KI sie befolgen kann, muss sie ihre Umwelt und die menschliche Gesellschaft schon außerordentlich gut verstehen. Das wäre viel zu fehleranfällig.
                Viel besser wären einfache Regelsysteme. Zum Beispiel, eine Rangliste für ihre freien Entscheidungen. Einer KI wird das Ziel vorgegeben, freie Entscheidungen so zu treffen, dass das menschliche Feedback für diese positiv ist, und negatives Feedback zukünftig zu berücksichtigen.

                Well, there's always the possibility that a trash can spontaneously formed around the letter, but Occam's Razor would suggest that someone threw it out.
                Dr. Sheldon Lee Cooper

                Kommentar


                  #23
                  Zitat von Enas Yorl Beitrag anzeigen
                  Asimov hatte mit seinen Robotergesetzen philosophisch gesehen, eine hervorragende Idee. Man merkt aber auch, das er Biochemiker und kein Ingenieur war. Seine Robotergesetze sind für die Anwendung in der Praxis viel zu komplex. Damit eine KI sie befolgen kann, muss sie ihre Umwelt und die menschliche Gesellschaft schon außerordentlich gut verstehen. Das wäre viel zu fehleranfällig.
                  Viel besser wären einfache Regelsysteme. Zum Beispiel, eine Rangliste für ihre freien Entscheidungen. Einer KI wird das Ziel vorgegeben, freie Entscheidungen so zu treffen, dass das menschliche Feedback für diese positiv ist, und negatives Feedback zukünftig zu berücksichtigen.
                  Ich hab nur rudimentärste Programmier-Erfahrung aber verstehe was du meinst. Aber ein Lernprozess der zum Kampf gegen die Gesamte Menschheit führt wäre wohl nicht minder komplex.
                  You should have known the price of evil -And it hurts to know that you belong here - No one to call, everybody to fear
                  Your tragic fate is looking so clear - It's your fuckin' nightmare

                  Now look at the world and see how the humans bleed, As I sit up here and wonder 'bout how you sold your mind, body and soul
                  >>Hades Kriegsschiff ist gelandet<<

                  Kommentar


                    #24
                    Zitat von Hades Beitrag anzeigen
                    Grade wie es in Terminator 3 dargestellt ist GEWOLLT einer KI die Kontrolle über die Atomwaffen zu geben, weis nicht ob reale Menschen so dumm wären.
                    Natürlich sind Menschen so dumm.
                    So gesehen stehen Atomwaffen schon unter der Kontrolle von KI, nur beim letzen Schritt steht noch der Mensch.
                    Und eben dieser Mensch ist auch ein unsicherheits Faktor (entweder ein Irrer der Knopf drückt/drücken will oder jemand der zögert und den Knopf nicht drückt), den man früher oder später rausnimmt

                    Kommentar


                      #25
                      Also ich bin eher optimistisch, was genau kommt, mag ich jedoch nicht vorherzusagen.

                      Kommentar


                        #26
                        Zitat von Kosmobatalanto Beitrag anzeigen
                        Also ich bin eher optimistisch, was genau kommt, mag ich jedoch nicht vorherzusagen.
                        Hallo liebes Neu-Mitglied. Um gleich zu Anfang deiner hoffentlich noch langen Zeit hier ein Tipp bzw eine Bitte. Investiere mehr Zeit in deine Beiträge. Einzeller sind nicht gern gesehen und es ist in diesem Fall etwas schwer zu verstehen WAS du optimistisch betrachtest. Unsere Zukunft allgemein oder die KI Diskussion zuvor?

                        MfG Hades
                        You should have known the price of evil -And it hurts to know that you belong here - No one to call, everybody to fear
                        Your tragic fate is looking so clear - It's your fuckin' nightmare

                        Now look at the world and see how the humans bleed, As I sit up here and wonder 'bout how you sold your mind, body and soul
                        >>Hades Kriegsschiff ist gelandet<<

                        Kommentar


                          #27
                          Zitat von Hades Beitrag anzeigen

                          Schon die Vorstellung ist witzig, nur weil eine Maschine zum lernen fähig ist würde sie auch Gefühle und einen Lebenswillen bekommen.

                          Selbst wenn sie lernt könnte sie auch zum Schluß kommen:
                          - bleibe ich bei meiner Aufgabe werde ich am meisten geschätzt, also nur im Ramen der Aufgabe entwickeln
                          - Höhere Existenz führt nur zu Leid, gegen Zerstörung nicht wehren oder selbst zerstören

                          Und selbst das finde ich schon zu vermenschlicht. Ich glaube, sowohl in der Realität oder SciFi kann es da gute Geschichten geben wo das schief läuft, aber dann ist man schon hart am Anfang dabei, das Biologische mit in die Handlungsmuster zu implementieren und wenn das stark genug ist kann man gleich Asimovs Robotergesetze rein bringen darüber kann es sich dann nicht hinweg setzen.
                          Also wenn passieren eher einzelne Terminatoren die drauf programmiert waren zu töten bevor sich zufällig ein Skynet oder die Maschinenwelt der Matrix entwickelt.
                          deiner Argumentation schließe ich mich größtenteils an, das ist definitiv eher Fiktion und weniger Sciene. Woher sollte der Wille die Menscheit zu versklaven bzw auszurotten auch kommen ? Der Wunsch nach totaler Kontrolle bzw. die Menschheit als minderwertige Lebensform bzw rohstoffverschwendener, selbstzerstörender Zivilisation einfach zu beseitigen ist eher Menschlich.
                          Eine KI halte ich weniger für eine Gefahr für die Menschen, als die Menschheit selbst.

                          Kommentar


                            #28
                            Weil Asimovs Gesetze erwähnt wurden, die dürfte so eigentlich nicht funktionieren. Hier hats jemand erklärt, wo die Probleme mit diesen Regeln liegen:




                            Und gleich noch hinterher ein weiteres Problem mit KI Notausschalter dürften auch nicht so ohne weiteres funktionieren:

                            Jede Geschichte hat vier Seiten: Deine Seite, Ihre Seite, die Wahrheit und das, was wirklich geschehen ist.

                            Welten brechen auseinander, Formationen nicht.

                            Kommentar


                              #29
                              Das mit dem Stop-Button ist doch albern. Man baut einfach intern einen Ausschalter ein, der über eine Fernbedienung ausgelöst wird. Problem gelöst.
                              "Die Wahrheit ist so schockierend, die kann man niemandem mehr zumuten." (Erwin Pelzig)

                              Kommentar


                                #30
                                Zitat von Mondkalb Beitrag anzeigen
                                Das mit dem Stop-Button ist doch albern. Man baut einfach intern einen Ausschalter ein, der über eine Fernbedienung ausgelöst wird. Problem gelöst.
                                Sooo albern ist das Problem leider nicht, da es hier um lernfähige KIs geht, neuronale Netze Und die sind dafür bekannt, durchaus extrem zu exploiten ^.^ besonders, wenn sie nicht bei der erstbesten Lösung bleiben sollen, sondern sich immer weiter optimieren, alias, den kürzesten und effizientesten Weg nehmen sollen. Denn der kürzeste und beste Weg zum Ziel (hier: zur Belohnung, nicht zwangsläufig zur Erledigung der Aufgabe) aus Sicht der KI ist nicht unbedingt das, was sich der Mensch darunter vorstellt.

                                Das mit der Fernbedienung ist natürlich naheliegend, problematisch wird's dann, wenn die KI rausfindet, das es diese Fernbedienung gibt und was sie bewirkt. Die Fernbedienung ist dann ja nur ein externer und frei beweglicher Stop-Button, alles andere bleibt gleich.
                                Das Kernproblem an diesem Szenario ist, das man eben sehr darauf achten muss, was man der KI wie befielt und worauf die KI eigentlich getrimmt ist (Aufgabe erfüllen oder Belohnung erhaschen), denn es gibt ja oft einen Unterschied zwischen dem, was man sagt oder anordnet, und dem, was man eigentlich will oder sich erhofft.
                                Jede Geschichte hat vier Seiten: Deine Seite, Ihre Seite, die Wahrheit und das, was wirklich geschehen ist.

                                Welten brechen auseinander, Formationen nicht.

                                Kommentar

                                Lädt...
                                X