Superintelligenz und Demokratie - Gefahr oder Rettung ? - SciFi-Forum

Ankündigung

Einklappen
Keine Ankündigung bisher.

Superintelligenz und Demokratie - Gefahr oder Rettung ?

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

    #16
    Interessenskonflikte wird es auch unter Superintelligenten geben, genau wie unter den Dummen. Im Prinzip finde ich eine Gesellschaft, in der der Intelligenzlevel höher ist, allerdings wesentlich besser als das Gegenteil. Wenn die KI-Wesen genau wie die Menschen sind, dann werden sie sich ja auch ähnlich verhalten. Hätten die KI-Wesen ein Gruppenbewusstsein, dann könnte es durchaus gefährlich werden, sobald sie die Menschen als Feinde sehen.
    Was die Vermehrung intelligenter und tüchtiger Menschen betrifft, so kann man das durchaus als Voraussetzung für eine entsprechend hohe Zivilisation sehen. Menschen mit niedriger Intelligenz werden z.B. keine Sternenreiche errichten können.
    "Der Überwachungsstaat der Zukunft findet dich!"
    www.alexander-merow.de.tl
    http://www.amazon.de/Beutewelt-B%C3%.../dp/3869018399
    http://www.amazon.de/Das-aureanische...889779&sr=1-11

    Kommentar


      #17
      Zitat von Alexandermerow Beitrag anzeigen
      Interessenskonflikte wird es auch unter Superintelligenten geben, genau wie unter den Dummen.
      Interessenskonflikte wird es geben aber es wird generell weniger Konflikte unter Superintelligenten geben. Da ja es ja auch Konflikte mit eindeutigen Lösungen gibt, würden Superintelligente diese Lösungen finden, während Dumme das nicht täten. Bei manchen Konflikten bedarf es zudem der Dummheit eines Konfliktpartners damit sie überhaupt zustande kommen.

      Kommentar


        #18
        Zitat von Tibo Beitrag anzeigen
        Interessenskonflikte wird es geben aber es wird generell weniger Konflikte unter Superintelligenten geben. Da ja es ja auch Konflikte mit eindeutigen Lösungen gibt, würden Superintelligente diese Lösungen finden, während Dumme das nicht täten. Bei manchen Konflikten bedarf es zudem der Dummheit eines Konfliktpartners damit sie überhaupt zustande kommen.
        Bei ideologisch basierten Konflikten aber eben nicht, und durch Superintelligenz wird Ideologie nicht verschwinden, zumindest nicht abseits der KI. Der menschliche Anteil - wie intelligent auch immer - in einer Intelligenz kann, um der angedachten "Lösung" zu entsprechen, nicht alle ethischen Werte in Frage stellen und zB Anarchie oder Nihilismus anstreben - weil diese Formen nunmal eben nicht zum angestrebten "Leben ohne Not, ohne Hunger usw." führen würden.

        Der Grundansatz der Idee im Eröffnungspost ist aber schon hoch naiv und verkennt die eigentliche Basis hinter Problemen wie Hunger in der Welt oder Krieg total. Soziale Ungerechtigkeit löst man nicht über mehr Intelligenz, sondern über weniger Gier, also im instinktiven Bereich und nicht im komplexen Denken.

        Abgesehen davon: Als "normaler" Mensch über die Möglichkeiten von Superintelligenz/Hochintelligenz zu diskutieren ist doch wie als von Geburt Blinder über Farben nachzudenken....
        Karl Ranseier ist tot. Der wohl erfolgloseste Foren-Autor aller Zeiten wurde heute von einem Bus auf der Datenautobahn überfahren.

        "Ich mag meine Familie kochen und meinen Hund" - Sei kein Psycho. Verwende Satzzeichen!

        Star Wars 7? 8? Spin-Offs? Leute, das Haftmittel für meine Dritten macht bessere Filme!

        Kommentar


          #19

          "All eyes are opened, or opening, to the rights of man. The general spread of the light of science has already laid open to every view the palpable truth, that the mass of mankind has not been born with saddles on their backs, nor a favored few booted and spurred, ready to ride them legitimately, by the grace of God."
          (Thomas Jefferson)

          Wenn es irgendwann aufgewertete Supermänner gibt, werden diese gewissermaßen mit Sporen geboren sein, während der Rest gesattelt sein wird. Demokratie ist hingegen eine Staatsform die Gleichheit voraussetzt.
          Der Familienvater wird vielleicht demokratisch mitentscheiden, wer sich auf der Kegelfahrt wie an den Unkosten beteilgt- er wird aber nicht seine Kinder über das Taschengeld abstimmen lassen. Die einzige Möglichkeit, die Demokratie zu retten, wäre ein allgemeiner Zugang zur Superintelligenz.

          Zitat von Karl Ranseier Beitrag anzeigen

          Der Grundansatz der Idee im Eröffnungspost ist aber schon hoch naiv und verkennt die eigentliche Basis hinter Problemen wie Hunger in der Welt oder Krieg total.
          Und auch irgendwie ziemlich altbacken. Krieg und Hunger sind nun schon seit einiger Zeit auf dem globalen Rückzug und offenkundig brauchte es keine Supergenies, um die Probleme zu lösen.
          I reject your reality and substitute my own! (Adam Savage)

          Kommentar


            #20
            Zitat von KennerderEpisoden Beitrag anzeigen

            "All eyes are opened, or opening, to the rights of man. The general spread of the light of science has already laid open to every view the palpable truth, that the mass of mankind has not been born with saddles on their backs, nor a favored few booted and spurred, ready to ride them legitimately, by the grace of God."
            (Thomas Jefferson)
            Die Worte eines wahren Sklavenh... äh Demokraten

            Wenn es irgendwann aufgewertete Supermänner gibt, werden diese gewissermaßen mit Sporen geboren sein, während der Rest gesattelt sein wird. Demokratie ist hingegen eine Staatsform die Gleichheit voraussetzt.
            Echte Gleichheit gibt es auch heute nicht. Wie gesagt: Wer mit einem IQ von 85 zur Welt kommt, hat keine Chance, jemals eine einflussreiche Position in Politik oder Wirtschft einzunehmen, oder auch nur ein gutes Gehalt zu beziehen. Die Situation, dass die Begabten über die weniger Begabten herrschen, haben wir de facto schon heute.

            Diesbezüglich wäre also keine Verschlechterung zu erwarten. Aber vielleicht eine Verbesserung, wenn die Technologie irgendwann allen Menschen zugänglich wäre.

            Und auch irgendwie ziemlich altbacken. Krieg und Hunger sind nun schon seit einiger Zeit auf dem globalen Rückzug und offenkundig brauchte es keine Supergenies, um die Probleme zu lösen.
            Dass Krieg und Hunger momentan leicht rückläufig sind, heißt nicht, dass die Welt in absehbarer Zeit ein lebenswerter Ort sein wird. Allein in Indien verhungern täglich 3000 Kinder.

            Kommentar


              #21
              Zitat von Tibo Beitrag anzeigen
              Interessenskonflikte wird es geben aber es wird generell weniger Konflikte unter Superintelligenten geben. Da ja es ja auch Konflikte mit eindeutigen Lösungen gibt, würden Superintelligente diese Lösungen finden, während Dumme das nicht täten.
              Das setzt voraus, das diese Superintelligenten überhaupt an einer Konfliktlösung oder einem Kompromiss interessiert sind. Eine Voraussetzung die nicht automatisch mit Intelligenz gemein geht.
              Intelligenz sagt nichts über Ansichten, Motive, Moral, Ziele oder gar Vernunft einer Person aus. Die Handlungen von superintelligenten Kapitalisten, Kommunisten und Maoisten muss nicht automatisch auf Konfliktlösung hinaus laufen. Je nach strategischer Situation wird man möglicherweise sogar zum Schluss kommen, das ein gewisses Konfliktpotential zum eigenen Vorteil ist.
              Well, there's always the possibility that a trash can spontaneously formed around the letter, but Occam's Razor would suggest that someone threw it out.
              Dr. Sheldon Lee Cooper

              Kommentar


                #22
                Zitat von Enas Yorl Beitrag anzeigen
                Das setzt voraus, das diese Superintelligenten überhaupt an einer Konfliktlösung oder einem Kompromiss interessiert sind. Eine Voraussetzung die nicht automatisch mit Intelligenz gemein geht.
                Intelligenz sagt nichts über Ansichten, Motive, Moral, Ziele oder gar Vernunft einer Person aus. Die Handlungen von superintelligenten Kapitalisten, Kommunisten und Maoisten muss nicht automatisch auf Konfliktlösung hinaus laufen. Je nach strategischer Situation wird man möglicherweise sogar zum Schluss kommen, das ein gewisses Konfliktpotential zum eigenen Vorteil ist.
                Der Begriff Superintelligenz, der zu Beginn dieses Threads verlinkt wurde, beinhaltete aber auch entsprechende charakterliche Fortschrittlichkeit, was auch immer das nun im Konkreten bedeuten mag. Insofern stimmt Tibos Bewertung meiner Meinung nach.

                Kommentar


                  #23
                  Zitat von ChrisArcher Beitrag anzeigen
                  Der Begriff Superintelligenz, der zu Beginn dieses Threads verlinkt wurde, beinhaltete aber auch entsprechende charakterliche Fortschrittlichkeit, was auch immer das nun im Konkreten bedeuten mag. Insofern stimmt Tibos Bewertung meiner Meinung nach.
                  Von der eigenen charakterlichen Fortschrittlichkeit, sind die Kapitalisten & Co in meinem Beispiel auch überzeugt. Da hat jeder das Beste im Sinne des eigenen Weltbildes als Absicht. Da löst aber noch lange nicht das Problem, das deren Vorstellungen vom Besten weit auseinander gehen.
                  Zuletzt geändert von Enas Yorl; 30.07.2013, 17:29.
                  Well, there's always the possibility that a trash can spontaneously formed around the letter, but Occam's Razor would suggest that someone threw it out.
                  Dr. Sheldon Lee Cooper

                  Kommentar


                    #24
                    Zitat von Enas Yorl Beitrag anzeigen
                    Von der eigenen charakterliche Fortschrittlichkeit, sind die Kapitalisten & Co in meinem Beispiel auch überzeugt. Da hat jeder das Beste im Sinne des eigenen Weltbildes als Absicht. Da löst aber noch lange nicht das Problem, das deren Vorstellungen vom Besten weit auseinander gehen.
                    Das stimmt, deshalb ist die Definition einer Superintelligenz mMn unerfüllbar, weil es so etwas nicht geben kann. De facto würde eine Superintelligenz sowohl eine perfekte Intelligenz als auch einen perfekten Charakter beinhalten. Damit sind wir aber auch schon bei den folgenden Fragen: Was soll eine perfekte Intelligenz sein? Und was ist ein perfekter Charakter? Und woran soll man diese festmachen?

                    Kommentar


                      #25
                      Zitat von ChrisArcher Beitrag anzeigen
                      Das stimmt, deshalb ist die Definition einer Superintelligenz mMn unerfüllbar, weil es so etwas nicht geben kann. De facto würde eine Superintelligenz sowohl eine perfekte Intelligenz als auch einen perfekten Charakter beinhalten. Damit sind wir aber auch schon bei den folgenden Fragen: Was soll eine perfekte Intelligenz sein? Und was ist ein perfekter Charakter? Und woran soll man diese festmachen?
                      An Uniformität. Wenn alle Menschen die selben Werte haben und sich ihres perfekten Charakters wegen perfekt an das eigene Wertesystem halten so haben alle den perfekten Charakter und alles ist in Butter.

                      Kommentar


                        #26
                        Zitat von Tibo Beitrag anzeigen
                        An Uniformität. Wenn alle Menschen die selben Werte haben und sich ihres perfekten Charakters wegen perfekt an das eigene Wertesystem halten so haben alle den perfekten Charakter und alles ist in Butter.
                        Borg?

                        Da ziehe ich ein weniger perfekte Menschheit, diesen zweifelhaften Ideal vor.
                        Well, there's always the possibility that a trash can spontaneously formed around the letter, but Occam's Razor would suggest that someone threw it out.
                        Dr. Sheldon Lee Cooper

                        Kommentar


                          #27
                          Zitat von Enas Yorl Beitrag anzeigen
                          Borg?
                          Darauf läuft es hinaus. Anders ist konflikfreiheit nicht dauerhaft zu sichern. Allein Identität aller auf allen Ebenen und die wird das sichern. Daraus folgt natürlich bei perfekter Einhaltung der eigenen Werte, dass man keinen freien Willen mehr hat bzw., dass dieser bedeutungslos ist. Dann ist man Borg.

                          Zitat von Enas Yorl Beitrag anzeigen
                          Da ziehe ich ein weniger perfekte Menschheit, diesen zweifelhaften Ideal vor.
                          Ich für mich auch. Wenn ich meine Tochter durch ne Landmiene verlöre mag ich das anders bewerten.

                          Kommentar


                            #28
                            Ich denke, daß die Frage nach einer künstlichen Superintelligenz noch etwas zu weit geht. Wir wissen ja nicht, wie diese physikalisch aufgebaut sein kann (Halbleiter, biologisch, ...) und können im Prinzip auch nicht über mögliche Eigenschaften sagen (Selbstbewustsein => Wunsch nach Selbsterhalt? => Wo liegen dann die Prioritäten? => Den Menschen zu nützen und zu dienen?).

                            Vielleicht sollten wir erstmal einen etwas kürzeren Schritt machen und überlegen, welchen Einflüsse auf die Intelligenz durch technologische Fortschritte zu erwarten wären?
                            Enas Yorl hat ja schon darauf hingewiesen, daß das Gehirn keinen Datenbus hat, den man einfach mit einem Datenleiter verknüpfen kann. Die ''Verarbeitungsgeschwindigkeit'' des Gehirns ist begrenzt.

                            Ein Beispiel: Was wären die Konsequenzen, wenn ein Mensch Augenlinsen-Implantate hätte, die als Monitor arbeiten und den Träger mit Informationen versorgen können? Das muss nicht gigantisch schnell sein, es reiche die gleiche Darstellungsgeschwindigkeit wie bei heutigen Computer-Monitoren. Also eine Versorgung wie bei Internet-Handys oder mit Google-Glass, nur halt in den Kopf ''eingebaut'' - und das ganze mit Sprachsteuerung.
                            Dies hätte doch zur Folge, daß man sich unentwegt in der aktuellen Situation notwendige Daten anzeigen lassen kann.
                            Ein Student bräuchte somit weniger auswendig lernen und könnte sich auf das Verstehen komplexer Zusammenhänge konzentrieren.

                            Natürlich ist klar, daß man Grundlagenwissen in einem Fachgebiet braucht, um Zusammenhänge zu verstehen. Dennoch würde der Fokus der geistigen Tätigkeit darauf liegen, Prozesse oder kausale Zusammenhänge zu verstehen. Würde das (vielleicht über mehrere Generationen) die Art der Informationsverarbeitung im Gehirn beeinflussen?

                            Würde eine entsprechend starke Verbreitung solcher Implantate bei einem Großteil der Bevölkerung nach einer gewissen Zeit die durchschnittliche Intelligenz-Verteilung der Bevölkerung verändern?
                            .

                            Kommentar


                              #29
                              Ihr denkt alle viel zu optimistisch.

                              Eine Superintelligenz, welcher Art auch immer, ist sobald sie existent ist eine reale Gefahr. Noch sind wir nicht soweit, dass es eine solche KI gibt. Denkbar ist es aber, dass es eines Tages eine solche geben wird. Solch eine Maschine wird, sobald sie den Betrieb aufnimmt, zu einer Intelligenzexplosion führen. Das bedeutet, sie wird sich ständig selbst verbessern in einer Art und Weise, dass wir für sie am Ende nichts mehr sein werden als meinetwegen für uns Ameisen.

                              Genauso wenig, wie eine Ameise uns begreifen kann, werden wir eine solche KI begreifen können.

                              Und dann kommt es eben darauf an, was die Ziele dieser KI sind, sofern sie selbständig denkt und ein Bewußtsein hat. Nun ist es vermutlich nicht so, dass sie direkt bösartig sein dürfte, nur bestehen wir alle aus Atomen und benötigen Ressourcen und Rohstoffe und hat diese KI andere Ideen, was man damit anfangen kann.

                              Anders gesagt: dass diese KI die Menschheit ausrotten will, ist dann sehr wahrscheinlich. Das wird sie aber wohl kaum wie Terminator tun, sondern vielleicht mit einem genetisch hergestellten Virus oder dergleichen mehr.

                              So oder so: sollte jemand eine solche Maschine bauen, dann ist es wichtig, dass man ihr vorher gewisse Ethikprotokolle/Grundprotokolle in unserem Sinne einbaut, die sie nicht aushebeln kann. Ansonsten wird das extrem haarig.

                              Ich empfehle die Lektüre dieser Seite zu dem Thema, die ist auf Deutsch:

                              Im Angesicht der Singularität

                              Kommentar


                                #30
                                Ich halte diese Angst vor der ''Technologischen Singularität'' für übertrieben.
                                Ich habe dieses Buch jetzt nicht gelesen, aber es gibt ja genug andere Texte darüber.

                                Ray Kurzweil ist ja ein starker Verfechter dieser Idee (=T.S. in 50 Jahren). Davon halte ich aber ausdrücklich nichts. Zumal ALLE Befürworter dieser Idee, daß die T.S. bereits in einigen Jahrzehnten komme, darin übereinstimmen, daß diese zwingend an das Vorhandensein echter künstlicher Intelligenz (im Sinne von Computer mit eigenem Bewustsein) geknüpft sei.

                                Es mag möglich sein, daß die Computerleistung (egal auf welcher Technik basierend, zB atomare Speicherauflösung, neurales Netz, ...) in 50 Jahren so weit sei, daß sie ein Bewustsein imitieren kann und auch eigene Lösungsstrategien für neue Probleme entwickeln kann. Aber diese Computer werden immer ihre Ergebnisse irgendwie darstellen und an die Menschen weitergeben müssen.

                                Wenn die Menschen aber nicht verstehen oder nachvollziehen können, wie eine computergenerierte Lösung für ein Problem zustande kam, wie sollen sie dann entscheiden, ob diese Lösung genial oder schlicht falsch ist.
                                Als Konsequenz wird man diese Technik nicht weiter verfolgen, bis ein Verständnis vorliegt.
                                An dieser Stelle -so meine Meinung- wird der bisher streng monoton ansteigende Erwerb von Wissen (Technik, Naturwissenschaften) abflachen und ausgebremst. Denn die menschliche Intelligenz wird ganz sicher nicht mit der Computerentwicklung mithalten können. Trotz neuer geistiger Anforderungen. Das haben die letzten zehntausend Jahre gezeigt.

                                Da die Menschheit (insbesondere die Verantwortlichen) in den letzten Jahrzehnten auch nicht so blöd waren, sich mit Atomwaffen auszulöschen, wage ich mal die Vorhersage, daß man auch nicht so blöd sein wird, einen Computer mit Entscheidungsbefugnissen und der Macht zur Durchsetzung auszustatten, solange man seine Ergebnisse nicht vollends versteht.
                                Zuletzt geändert von xanrof; 10.08.2013, 10:27.
                                .

                                Kommentar

                                Lädt...
                                X