Superintelligenz und Demokratie - Gefahr oder Rettung ? - SciFi-Forum

Ankündigung

Einklappen
Keine Ankündigung bisher.

Superintelligenz und Demokratie - Gefahr oder Rettung ?

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

    #31
    Im Gegensatz zu Hunden sind wir Menschen "superintelligent" (wobei die Unterschiede zwischen den verschiedenen Menschen noch gewaltig sind). Die Hunde benutzen ihre Zähne als Waffen und wir Menschen Wasserstoffbomben. Das zeigt ja, dass hohe Intelligenz nicht zwangsläufig friedlicher oder konfliktfreier macht. Im Gegenteil, man hat nur bessere Waffen, die mehr plattmachen können. Dennoch ist eine Weiterentwicklung zu höherer Intelligenz gut und richtig, denn sie ist ein Naturprinzip. Hohe Intelligenzen erfinden immerhin ja nicht nur schlimme Waffen, sondern auch sehr viele tolle Dinge, die unser Leben erleichtern und verlängern. Es hat eben alles seine zwei Seiten.
    "Der Überwachungsstaat der Zukunft findet dich!"
    www.alexander-merow.de.tl
    http://www.amazon.de/Beutewelt-B%C3%.../dp/3869018399
    http://www.amazon.de/Das-aureanische...889779&sr=1-11

    Kommentar


      #32
      Zitat von xanrof Beitrag anzeigen
      Ich halte diese Angst vor der ''Technologischen Singularität'' für übertrieben.
      Ich habe dieses Buch jetzt nicht gelesen, aber es gibt ja genug andere Texte darüber.
      Nun, mein Link ist kein Buch, sondern eine Webseite, die sich ausführlich mit dem Thema "Das Erreichen der Singularität und die möglichen Folgen" auseinandersetzt.

      Nun muss man nicht unbedingt einem Ray Kurzweil gedanklich folgen. Die Frage, was solch eine Singularität bedeutet, steht nämlich so oder so im Raum. Ob sie nun einige Jahrzehnte früher oder später kommt, das ist Spekulation, die K.I.-Forscher sind da ja gerne flexibel, darauf sollte man nicht so viel geben.

      Machbar scheint es irgendwann allemal zu sein, und dann ist die Frage: was passiert dann?

      Es mag möglich sein, daß die Computerleistung (egal auf welcher Technik basierend, zB atomare Speicherauflösung, neurales Netz, ...) in 50 Jahren so weit sei, daß sie ein Bewustsein imitieren kann und auch eigene Lösungsstrategien für neue Probleme entwickeln kann. Aber diese Computer werden immer ihre Ergebnisse irgendwie darstellen und an die Menschen weitergeben müssen.
      Da ist erst einmal schon die Frage: was ist Intelligenz? Braucht es dazu wirklich eine Art Imitation von Bewußtsein? Braucht es dazu noch Menschen?

      Du gehst hierbei von etlichen Sachen aus, die dein Gedankengebäude stützen, die nicht sicher gegeben sein werden.

      Kommentar


        #33
        Zitat von Knarf Beitrag anzeigen
        Das bedeutet, sie wird sich ständig selbst verbessern in einer Art und Weise, dass wir für sie am Ende nichts mehr sein werden als meinetwegen für uns Ameisen.
        So einfach ist das nicht sich selbst zu verbessern, selbst für eine KI. Der Mensch eine intelligente Lebensform, versucht seit Jahrzehnten intelligente Software zu schreiben. Die Ergebnisse dabei sind recht ernüchternd, es ist ein mühsamer und langsamer Prozess. Es gibt keinen Algorithmus für die Konstruktion von Intelligenz. Da kommt auch eine KI nicht daran vorbei, sich hier mit Versuch und Irrtum auseinander zu setzen.

        Zitat von xanrof Beitrag anzeigen
        Es mag möglich sein, daß die Computerleistung (egal auf welcher Technik basierend, zB atomare Speicherauflösung, neurales Netz, ...) in 50 Jahren so weit sei, daß sie ein Bewustsein imitieren kann und auch eigene Lösungsstrategien für neue Probleme entwickeln kann. Aber diese Computer werden immer ihre Ergebnisse irgendwie darstellen und an die Menschen weitergeben müssen.
        Das war von Anfang an das Missverständnis bei der Prognose von künstlicher Intelligenz. Rechenkapazität stellt noch keine Informationsanalyse, Lösungsstrategien oder gar bewusstes Verhalten zur Verfügung. Dafür braucht es mühsam erstellte Software und/oder schrittweise erlernte Prozesse der Informationsverarbeitung. Das bremst die Weiterentwicklung von intelligenter Software gehörig aus, hier kann man mit den Fortschritten bei der Hardware nicht schritthalten.
        Das Schreckensgespenst einer KI wie Skynet die plötzlich Bewusstsein erlangt, ist eine naive Vereinfachung und kein realistisches Szenario.

        Zitat von xanrof Beitrag anzeigen
        Wenn die Menschen aber nicht verstehen oder nachvollziehen können, wie eine computergenerierte Lösung für ein Problem zustande kam, wie sollen sie dann entscheiden, ob diese Lösung genial oder schlicht falsch ist.
        Blindes Vertrauen in Analysesoftware, ist heute schon stellenweise Realität. Einigen Branchen hat das schon übel mitgespielt. So viel Vertrauen hätte ich hier nicht in den gesunden Menschenverstand, nur Software einzusetzen deren Arbeitsweise und Ergebnisse sie verstehen.
        Well, there's always the possibility that a trash can spontaneously formed around the letter, but Occam's Razor would suggest that someone threw it out.
        Dr. Sheldon Lee Cooper

        Kommentar


          #34
          Zitat von Knarf Beitrag anzeigen
          Nun, mein Link ist kein Buch, sondern eine Webseite, die sich ausführlich mit dem Thema "Das Erreichen der Singularität und die möglichen Folgen" auseinandersetzt.
          Nun ja, es ist ein Text aus 15 Kapiteln à 3-4 Seiten (wenn man es als pdf speichert), wobei sich der Autor nur in der zweiten Hälfte, noch dazu recht oberflächlich, mit der zukünftigen Entwicklung der Intelligenz und der Folgen auseinander setzt.

          Die ersten Teile des Textes sind im wesentlichen geprägt durch einige Definitionen aus dem Bereich des ''Skeptischen Denkens'', der Kognitionswissenschaft, Rationalität (Logik, Wahrscheinlichkeits- und Entscheidungstheorie). Dies endet dann in einer kurzen Definition von Intelligenz als ''effiziente, bereichsübergreifende Optimierung''. Dabei betont der Autor immer wieder, daß seine Ansichten über die Wahrscheinlichkeiten der Ereignisse der Zukunft die richtigen sind - und wer es nicht versteht ist halt zu blöd:
          Wenn ich mich mit jemandem nicht über die Gesetze der Logik, der Wahrscheinlichkeitstheorie und der Entscheidungstheorie einigen kann, wird wohl auch eine Diskussion der Singularität mit ihm nicht viel bringen, da er am Ende argumentieren wird, dass menschliche Intelligenz auf magische Weise funktioniert oder dass eine Maschine bei steigender Intelligenz zwangsläufig wohlwollender wird, oder dass es einfach sei, genau zu bestimmen, was Menschen wollen oder ähnliche Torheiten.
          (...)
          Wenn wir über KI diskutieren, brauche ich nur von “bereichsübergreifender, effizienter Optimierung” zu sprechen und deine bevorzugte Definition von “Intelligenz” sollte somit keinen Einfluss auf meine Erläuterungen haben.
          Falls dann doch mal ein Leser seine Denkmurmel einschaltet und mit guten Argumenten kontern sollte, so sind es dann natürlich gerade die schlauen Leute, die am meisten falsch liegen:
          Die gebildetsten Menschen sind empfänglicher für viele dieser Verzerrungen, da sie es besser verstehen, Argumente und Fakten, die gegen ihre These sprechen, zu entkräften.
          Aber Hilfe naht:
          wenn du die Gründe für unsere Ansichten und Motivationen lange genug studierst, wird dich eine weitere Erkenntnis treffen.
          Dafür, daß der Autor mehrfach betont, der Religion abgeschworen zu haben und dem Atheismus nahezustehen, vertritt er auf eine sehr dogmatische Art seine Ansichten. Wissenschaftlich ist das nicht.

          Ab Kapitel 6 schreibt der Autor dann über das eigentlich Thema - und begeht gleich einen Denkfehler:
          Für die meisten Ziele, die eine KI habe könnte – sei es das Lösen der Riemannschen Vermutung oder das Maximieren der Öl-Produktion – ist die Begründung einfach: “Die KI liebt dich nicht, noch hasst sie dich, aber du bist aus Atomen aufgebaut, welche sie für etwas anderes gebrauchen kann.”
          Der dahinter stehende Grundgedanke ist sicher richtig und wird auch in späteren Teilen des Textes erneut aufgegriffen: Eine Maschine kann nicht die ethischen und moralischen Vorstellungen ihrer Erbauer ''erben''. Ebenso wenig können die Programmierer alle möglichen Faktoren zur Entscheidungsfindung vorhersehen (Beispiel ''Rettung aus brennendem Haus''), weswegen der Lösungsfindungsprozess unerwartete Resultate produzieren kann. Demzufolge wird richtig geschlossen, daß eine künstliche Intelligenz durchaus zum Ergebnis kommen könnte, daß die menschliche Zivilisation dem erreichen des Zieles im Weg steht.

          Aber: Niemand wird je erwarten, daß diese künstliche Intelligenz plötzlich, von heute auf morgen, präsent ist - und sogleich mit großer Macht ausgestattet würde. Die Entwicklung einer KI wird schrittweise vorangehen und -wie von mir in #30 bereits erwähnt- nicht monoton ansteigend verlaufen. Ich wiederhole es gerne nochmal: Die Computer werden ihre Ergebnisse immer irgendwie darstellen und an die Menschen weitergeben müssen. Wenn die Menschen aber nicht verstehen oder nachvollziehen können, wie eine computergenerierte Lösung für ein Problem zustande kam, wie sollen sie dann entscheiden, ob diese Lösung genial oder schlicht falsch ist. Demzufolge ist es logisch, zu vermuten, daß (a) die Entwicklung der KI abgebremst wird und (b) diese Künstlichen Intelligenzen keine ausführende Macht erhalten werden.

          Selbstverständlich ist dies Spekulation - und doch würde ich zwingend erwarten, daß der Autor des Textes, dem Logik so wichtig ist, auf diese Punkte eingeht.

          Stattdessen folgen in den weiteren Abschnitten nur Informationen, die an sich naheliegend sind. In weiteren Kapiteln werden dann zB die jüngsten Errungenschaften der Informatik aufgezählt, um dann in Kapitel 08 -ganz überraschend- zu dem Schluß zu kommen:
          KI lässt sich nicht mehr aufhalten. Wieso sollte sie sich auch aufhalten lassen, da doch Intelligenz
          (d.h. effiziente, bereichsübergreifende Optimierung) nichts anderes als Informationsverarbeitung
          ist.
          Das klingt doch fast nach Panikmache, oder? Aber sehen wir weiter. Nachdem Kapitel 09 eine enttäuschend kurze Diskussion von Bereichen ist, in denen Computer das menschliche Gehirn übertrumpfen werden, folgt Kap. 10:
          ... über die Folgen der zuvor besprochenen Ideen nachzudenken – dass KI unvermeidbar ist, wenn der wissenschaftliche Fortschritt weiter anhält, und dass KI viel intelligenter (und damit auch mächtiger) als Menschen sein kann.
          ... und Kap. 11:
          Ich glaubte einmal, dass die Auslöschung der menschlichen Rasse nicht möglich wäre, da Gott dies verhindern würde. Andere sind vielleicht der Annahme, dass die Auslöschung der menschlichen Rasse durch “Positivsummenspiele”, “Demokratie” oder “Technologie” unmöglich gemacht wird. Aber unsere Auslöschung ist möglich, ob wir nun reflexhaft vor diesem Gedanken zurückschrecken oder nicht.
          In Kapitel 12 wird es dann tatsächlich wieder interessanter, denn es geht erneut um die potentielle Übertragung menschlicher Werte in KI-Systeme - und die Folgen. Leider resultiert auch dieser Absatz in der erwarteten Panikmache:
          Sollten wir morgen eine Super-KI erschaffen, kann ihr Wertesystem nur katastrophal unvollständig sein und sie wird dann Dinge tun, die wir nicht wollen, weil sie sich nach unseren oberflächlichen und nicht nach unseren tiefergehenden, eigentlichen Wünschen richtet.
          Mal abgesehen von dem Unsinn, ''morgen eine Super-KI (zu) erschaffen'', spricht der Autor offenbar der Menschheit bereits heute und auch morgen jegliche Intelligenz ab, um unmittelbar einer neugeschaffenen, noch unbekannten Superintelligenz auch gleich Superkräfte bzw. die Macht zu vergeben, die Menschheit auszurotten. Aha.
          In Kapitel 13 geht es dann um die Intelligenzexplosion, die dazu führt, daß ... -ach, lassen wir das.

          Aber hat denn der Autor auch eine Lösung zu bieten?
          Nun, Kapitel 14 heißt: ''KI - Probleme und Lösungen''.
          Die Lösung des Autors lautet:
          Differentieller intellektueller Fortschritt besteht darin, risiko-reduzierendem, intellektuellem Fortschritt den Vorrang gegenüber risiko-erhöhendem, intellektuellem Fortschritt zu geben. Differentieller intellektueller Fortschritt, auf das KI-Problem angewandt, empfiehlt, dass unsere Bemühungen in den philosophischen, wissenschaftlichen und technologischen Problemen von KI-Sicherheit unsere Bemühungen im Bereich der KI-Fähigkeiten übertreffen sollten,...
          Alles klar? Nein? Nun:
          Um es übermäßig zu vereinfachen, befindet sich KI-Sicherheitsforschung in einem Rennen gegen KI-Fähigkeitsforschung. Zur Zeit ist KI-Fähigkeitsforschung am Gewinnen, und vergrößert sogar den Vorsprung. Die Menschheit wendet einfach mehr Ressourcen für KI-Fähigkeitsforschung als für KI-Sicherheitsforschung auf.
          Also, ich hätte da auch noch einen kleinen Vorschlag:
          GEBT DEM VERDAMMTEN DING EINEN AUS-SCHALTER!
          (und das, ohne 15 Kapitel zu schreiben)

          Und für all das die ganze Panikmache? Nein, denn die Panikmache war für das:
          Ein Teil der Lösung des Problems der KI-Sicherheit ist differentieller, intellektueller Fortschritt. Ein anderer Teil der Lösung besteht darin, die Empfehlungen der besten Strategie-Forschung in die Tat umzusetzen. So reduzieren die folgenden Handlungen wahrscheinlich KI-Risiken:
          • Spende an Organisationen, die die oben diskutierte Art an technischer und strategischer Forschung in KI-Sicherheit betreiben – Organisationen wie das Singularity Institute und das Future of Humanity Institute.
          • Überzeuge andere, KI-Sicherheitsforschung ernst zu nehmen, besonders KI-Forscher, Philanthropen, intelligente, junge Menschen und Leute in einflussreichen Positionen.

          Die Seite How to Purchase AI Risk Reduction bietet mehr Informationen über spezielle Projekte, deren Durchführung KI-Risiken reduziert, zusammen mit den jeweiligen Kostenschätzungen.

          Ja, ich sehe diesen Text durchaus kritisch. Das Thema ist spannend, und der Autor bringt durchaus interessante Gedankengänge zum Thema KI. Diese werde jedoch nach meiner Meinung sehr oberflächlich abgehandelt und der Autor hält sich nicht immer an die von ihm geforderte Logik. Es gibt andere Autoren (Kurzweil, Vinge, Penrose, Turing) die hierzu fundierter schreiben.

          Soviel zu diesem Text.


          Du gehst hierbei von etlichen Sachen aus, die dein Gedankengebäude stützen, die nicht sicher gegeben sein werden.
          Richtig, deswegen nennt man es auch Gedankengebäude - oder Spekulation.

          - - - Aktualisiert - - -

          Zitat von Enas Yorl Beitrag anzeigen
          Blindes Vertrauen in Analysesoftware, ist heute schon stellenweise Realität. Einigen Branchen hat das schon übel mitgespielt. So viel Vertrauen hätte ich hier nicht in den gesunden Menschenverstand, nur Software einzusetzen deren Arbeitsweise und Ergebnisse sie verstehen.
          Die Software von heute wurde von Menschen von heute geschrieben. Die Ergebnisse sind nachvollziehbar. Leider fehlt mitunter die Zeit für eine ausreichende Bewertung der Ergebnisse, bevor diese in Handlungen umgesetzt werden (zB High-Speed Aktienhandel).
          Bei der obigen Diskussion ginge es jedoch um Algorithmen, die in der Zukunft von Computern für Computer entworfen würden und sich damit auf einer Ebene der Komplexität befinden könnten, zu deren Verständnis der menschliche Intellekt nicht ausreicht.
          Vielleicht bin ich doch zu optimistisch, aber ich würde erwarten, daß dann bei den Menschen der Zukunft die Alarmglocken schrillen, bevor sie Handlungsbefugnisse abgeben.
          Zuletzt geändert von xanrof; 11.08.2013, 10:33.
          .

          Kommentar


            #35
            Ich will nur mal kurz zu dem Thema sagen, dass ich Vergleiche zwischen Gehirn und Mikroprozessor schwachsinnig finde, da die Architektur nicht im Ansatz vergleichbar ist.

            Ein heutiger Computer kann zwar Modelle berechnen und Aufgaben lösen, die für einen Menschen ohne Hilfsmittel nahezu unmöglich wären, aber er weiß nicht, was er da macht. Er macht auch keine Fehler, sondern exakt das, was Mensch ihm vorgibt, zu machen.
            Ich habe bisher noch keine so genannte K.I. gesehen, die nicht mit unvorhergesehen Situationen überfordert war. Informiert mich, wenn ihr eine kennt, lasse mich gerne verbessern, wenn es stimmt.

            Was Charakter oder Moral angeht: Menschliche Erziehung funktioniert auch nicht anders, als einen Hund zu konditionieren: Gutes belohnen, Verbotenes bestrafen. Am Ende macht man es von alleine, ob man darüber nachdenkt, oder nicht. Und wenn die Autoritäten sich zu lange zurücklehnen und Leute merken, dass sie sich über Verbote wegsetzen können ohne Konsequenzen zu spüren, tun sie auch. Gehobene Intelligenz hilft da nur in Kombination mit Mitgefühl, was eben auch nicht jeder hat.

            Highspeedhandel: Die Sache hat sich beruhigt, weil die meisten ausnutzbaren Löcher gestopft sind und die Bots momentan nichts mehr finden, um sich gegenseitig auszutricksen. (Zumindest mein Wissensstand von vor ca einem Jahr)

            Was man hier nochmal ansprechen könnte, wäre Datamining oder Big Data. Man sammelt einfach so viele Rohdaten wie möglich, und lässt einen Computer nach Mustern suchen, die für einen Menschen nicht mehr zu erkennen sind.
            Was es meistens zeigt, ist, dass so ein Computer mit den richtigen Parametern und Millionen von Fallbeispielen mit höherer Wahrscheinlichkeit die richtige Diagnose treffen kann als ein Arzt, einfach da mehr Daten zur Verfügung stehen, als ein Mensch wissen kann. Aber auch in dem Fall ist der Computer nur ein glorifizierter Taschenrechner, der von alleine gar nichts macht.

            Ich muss jetzt schlafen gehen, vielleicht fällt mir morgen noch was zu dem Thema ein.

            Kommentar


              #36
              Nun sicher kann man geteilter Meinung darüber sein, welche Art von System es denn schaffen wird, so etwas wie Intelligenz zu zeigen. Intelligenz verstehe ich dabei als die Fähigkeit, auf vorher nicht bekannte/unvorhergesehene Probleme eigenständig eine Lösung zu finden. Sei es durch Beobachtung, Nachdenken, was auch immer...

              Eine Frage, die man sich dabei ja stellen kann, ist ob zumindest einfache Intelligenz auch zwingendermaßen ein Bewußtsein voraussetzt. Es gibt Versuche von Biologen mit Vögeln, die Anzeichen von intelligentem Handeln zeigen, wo die Biologen aber das Vorhandensein eines Bewußtseins stark in Zweifel stellen.

              Und dann gibt es ja verschiedene Ansätze, wie man Anzeichen eines solchen Verhaltens mit einem Computersystem/netzwerk erreichen könnte. Sensoren, mit denen man ein solches System heutzutage füttern kann gibt es genug, ebenso Möglichkeiten, die man ihm zur Interaktion mit der realen Welt geben kann.

              Die Frage ist also: wie kommt man zu einer solchen, künstlichen wirklichen Intelligenz, die fähig ist, Probleme zu lösen? Und natürlich auch: ist es überhaupt möglich, dass man jemals ein solches System herstellen kann, das dazu fähig ist?

              Die bisherigen Ansätze waren ja meistens mehr oder weniger irgendwelche Expertensysteme, meistens ein fest vorgegebener Regelsatz zu irgendwelchen Themen. Das funktioniert dann in Spezialbereichen, ist aber keine wirkliche Intelligenz.

              Inzwischen sind wir ja im Zeitalter der lernenden Maschinen angelangt, beispielsweise Google ist ja ein Fan davon und setzt das stark ein. Wobei auch da "Lernen" wieder Definitionssache ist.

              Nun kann der Mensch ungefähr beschreiben, was Intelligenz sein soll und was auch nicht. Wie sie aber zustande kommt, das ist dann ein anderer Fall für sich. Das menschliche Gehirn erforscht sich ja mit der Neurologie selbst, aber in manchen Bereichen gibt es große Fortschritte, in anderen Fehlanzeige.

              Momentan jedenfalls ist die aktuelle "Mode" in der Forschung, dass man nicht mehr Intelligenz mittels Expertensystemen erreichen will, sondern durch die Simulation von Neuronennetzen.

              Die Forscher basteln sich also möglichst leistungsstarke Computer und simulieren mit denen kleinste Teilbereiche von Gehirnen, deren Vorbilder sie aus der Natur entlehnen, beispielsweise Küchenschaben oder Ratten. Nun ist es dahin noch ein weiter Weg, bis man von diesen Teilsimulationen hin zur Simulation eines kompletten menschlichen Gehirns kommt, aber es gibt auch jetzt bereits Projekte wie das in Jülich, die genau das zumindest (ansatzweise) probieren wollen.

              Und ich denke mal dieser Ansatz - wir bauen die Natur nach, auch wenn wir nach wie vor nicht verstehen, was da alles passiert, aber wir probieren es einfach mal - ist derjenige, bei dem am ehesten so etwas wie eine wirkliche, künstliche Intelligenz entstehen kann.

              Wobei diese nicht besonders leistungsfähig sein muss. Aber ich halte das für den plausibelsten Weg. Und sollte man irgendwann eine Intelligenz haben, die sich ihrer selbst bewusst ist, dann ist die Frage, ob man aus rein ethischen Gründen diese laufen lassen muss oder auch mal abschaltet.

              Kommentar


                #37
                Zitat von Knarf Beitrag anzeigen
                Eine Frage, die man sich dabei ja stellen kann, ist ob zumindest einfache Intelligenz auch zwingendermaßen ein Bewußtsein voraussetzt.
                Richtig. Doch was ist ''einfache Intelligenz''? Die KI, die bei Computerspielen gegen der menschlichen Spieler eingesetzt wird, gehört sicher dazu. Ebenso ein Verbund von Hochleistungsrechnern, der programmiert wurde, menschliches (Diskussions-)Verhalten zu imitieren. Ich bin zuversichtlich, daß sehr bald ein Computer den Starken Turing-Test bestehen kann. Dennoch würde es sich dabei nur um ein ausgeführtes Programm handeln. (Dies ist auch einer der zentralen Kritikpunkte am Turing-Test.)
                Und dann gibt es ja verschiedene Ansätze, wie man Anzeichen eines solchen Verhaltens mit einem Computersystem/netzwerk erreichen könnte. Sensoren, mit denen man ein solches System heutzutage füttern kann gibt es genug, ebenso Möglichkeiten, die man ihm zur Interaktion mit der realen Welt geben kann.
                Ein zentraler Punkt wäre, daß sich diese 'Intelligenz' in der realen Welt zurecht findet. Ein Meilenstein war zB, durch verbesserte Sensoren ein dreidimensionales Bewustsein zu schaffen.
                Beispiel: Bis vor kurzen mussten mit Kameras ausgestattete Computer/Roboter noch zweidimensionale Bilderkennung durchführen, d.h. sie mussten erst auf einem 2D-Bild erkennen, daß sich vor ihnen eine Treppe befindet, bevor sie entscheiden, ein Bein zu heben, um die Treppe zu besteigen. Durch neue Sensoren ist es nun wesentlich einfacher, ein räumliches Bewustsein (im Sinne von Orientierung) zu schaffen. Und zwar für die gesamte Umgebung.
                (Vgl. auch Kinect bei der neuen X-Box One. Und da ich das Gerät schon nenne: Gesichtserkennung und Interpretation der Mimik ist eine weiterere notwendige Technik, damit eine KI auf den Gefühlszustand des menschlichen Gegenübers eingehen kann.)
                Die Frage ist also: wie kommt man zu einer solchen, künstlichen wirklichen Intelligenz, die fähig ist, Probleme zu lösen? Und natürlich auch: ist es überhaupt möglich, dass man jemals ein solches System herstellen kann, das dazu fähig ist?
                (...)
                Momentan jedenfalls ist die aktuelle "Mode" in der Forschung, dass man nicht mehr Intelligenz mittels Expertensystemen erreichen will, sondern durch die Simulation von Neuronennetzen.
                (...)
                Und ich denke mal dieser Ansatz - wir bauen die Natur nach, auch wenn wir nach wie vor nicht verstehen, was da alles passiert, aber wir probieren es einfach mal - ist derjenige, bei dem am ehesten so etwas wie eine wirkliche, künstliche Intelligenz entstehen kann.
                Auch hier stimme ich zu. Es erscheint mir nur logisch, auf einem Gebiet, das man noch nicht besonders versteht (ich meine ''echtes Bewustsein'', nicht das Gehirn als biologisches Organ), zunächst in der Natur funktionierende ''Maschinen'' nachzubauen, quasi damit zu experimentieren.
                Ich will keine echte Prognose abgeben, wann echtes künstliches Bewustsein erzeugt werden kann. Aber...:
                Wobei diese nicht besonders leistungsfähig sein muss. Aber ich halte das für den plausibelsten Weg.
                ... ich denke, daß diese sehr leistungsfähig sein muss. Ich vermute (=spekuliere), daß der richtige Weg darin liegt, der Maschine so viele Umweltsensoren (und Interfaces zur Interaktion) wie möglich zu geben, um sie dann lernen zu lassen - über Jahre. Ich vermute, daß die Gesamtheit sehr vieler Umwelteindrücke und die Verarbeitung derer, also die Fähigkeit, eigenständig Verknüpfungen zwischen verschiedenen Informationen zu erstellen, der Schlüssel zum Erfolg sein kann.
                Und sollte man irgendwann eine Intelligenz haben, die sich ihrer selbst bewusst ist, dann ist die Frage, ob man aus rein ethischen Gründen diese laufen lassen muss oder auch mal abschaltet.
                Nun ja, wenn die Maschine mit der Abschaltung einverstanden ist? Wir Menschen haben ja auch keine Angst vor dem Schlaf, weil wir wissen, daß wir danach wieder funktionieren. Wenn die Maschine versteht, dab es keine Unterschiede zwischen vor und nach dem Abschalten gibt...
                .

                Kommentar


                  #38
                  Was ich noch einwerfen wollte bevor ich den großen Text lese: das Thema KI und ihre Folgen ist bereits jetzt relevanter, als man vielleicht denkt.

                  Die Amis bauen gerne ferngelenkte Drohnen, die auch fürs Töten von Menschen gebaut sind. Bisher sind diese Drohnen von Menschen gesteuert. Die Zielerfassung aber wird teilweise computerunterstützt vorgenommen. Das heißt der Computer präsentiert einem Ziele, der Mensch muss nur noch Drücken oder auch nicht.

                  Was, wenn hier in Serie massive Fehler gemacht werden? Das ist dann schon hart an der Grenze.

                  Denkbar wären auch völlig autonom agierende Drohnen, nur möchte die glaube ich keiner wirklich haben wollen, fürs Militär sind die Dinger aber je nach Lage sicherlich erstrebenswert.

                  Kommentar


                    #39
                    Zitat von Knarf Beitrag anzeigen
                    Drohnen, die auch fürs Töten von Menschen gebaut sind. Bisher sind diese Drohnen von Menschen gesteuert. Die Zielerfassung aber wird teilweise computerunterstützt vorgenommen. Das heißt der Computer präsentiert einem Ziele, der Mensch muss nur noch Drücken oder auch nicht.
                    (...)
                    Denkbar wären auch völlig autonom agierende Drohnen, nur möchte die glaube ich keiner wirklich haben wollen, fürs Militär sind die Dinger aber je nach Lage sicherlich erstrebenswert.
                    Über moralische Gesichtspunkte gibt es hier bereits etwas:
                    .

                    Kommentar


                      #40
                      Hallo allerseits,

                      ich hätte mal da ne Frage. Von was geht ihr eigentlich jetzt aus? Knarf, alles was ich bis jetzt von dir gelesen habe kommt mir so vor ala: Zauberstab schwing: Superintelligenz da. Ohne irgendeiner Entwicklung ohne alles. Das Ding wird also alleine gelassen und wird eine Art pseudo-soziales Experiment??
                      Ich kann mir nicht vorstellen dass es jemals so funktionieren wird. Alles was wir bisher kennen durchlief Evolution und Entwicklung. Nehmen wir mal an, jemand schafft es wirklich mal eine RICHTIGE KI zu entwickeln. Auf dem System auf dem es zuerst läuft wird es sicherlich nicht auf den fettesten Superrechnern der Welt laufen. Eher auf ner art Heimcomputer, wo es getestet wird. Zumindest dessen Module (ich gehe von einer sehr komplexen Software aus). Ggf. wird das auf nen leistungsfähigeren Server mal installiert. Ob das Ding selbstständig sich auf einmal (ohne Vorkenntnisse) sich mit dem Internet verbinden kann wage ich mal zu bezweifeln.
                      1. Treiber für die Hardware (dazu müsste man den menschlichen Gedankengang kapieren die das kreiert haben)
                      2. Protokolle verstehen (dieses Kaulderwelsch das von Menschen entwickelt wurde usw??)
                      3. Usw…

                      Also ohne irgendetwas wird diese KI extrem hilflos sein und erst mal gar nix machen.
                      Hier fängt eigentlich die Erziehung und das lernen an.
                      Angesicht der Hardware und der KI gehe ich eher davon aus, dass man schon ausflippen wird wenn man es fertig bringt den Intellekt eines 4 Jährigen Kindes zusammen zu bringen.
                      Sicher, man könnte diese gelernten Strukturen usw. sichern und an andere Installationen bringen.
                      Wenn man ein trotziges Kind hat kann man es entweder ausschalten oder gar löschen (versuch das mal als normales Elternteil ….)

                      Ok. Kind steht, Zugriff aufs Internet? à glaube ich noch nicht. Ggf. wieder Umzug auf nächste Hardware und an der Software wird geschraubt usw…

                      Irgendwann haste mal ne art Super KI die vernetzt ist. Ggf. sogar mit anderen KIs (geil, etz Kindergarten? Schule?) wenn die KIs untereinander auskommen ist es schon mal ein großer fortschritt da sie dann direkt soziale Kompetenzen erlenen können, weil sie mit Ihres gleichen interagieren müssen. Dem Menschen können sie ja noch nix tun und wenn der Mensch genervt ist kann er die KI ausschalten. à Könnte Wut verursachen, ok. Aber was hindert mich die Informationen über diesen und jenen Vorfall zu löschen? Jedes System kann bei physikalischen zugriff gekapert und verändert werden. Sicherheitsfunktionen werden da wohl kaum ziehen.

                      Wenn das mal geglückt ist stellt sich dann die interessante Frage was die KI mit freunden z. b. im Internet macht, ansieht und welche Schlüsse sie ziehen wird.

                      Wenn ich mal zynisch werden darf, hält uns die KI für blöd und nur auf Fortpflanzung / bzw. den Akt dessen fixiert. Denkt mal nach wenn ihr ohne ziel usw. surft (so neue große Welt) wie schnell man auf Schmuddelseiten usw. kommt. An Wissenschaftlich gescheites zeug müsse man bereits davon Ahnung haben nach was man suchen will.
                      Gehen wir mal davon aus, die KI lernt in der „Schule“ von Menschen über Eingabe, ggf. Videokonferenz usw. weitest gehend wie ein Mensch. Da kommt das Umfeld nun auch dazu. Unterrichtet mich ein freundlicher Mensch oder n Arsch? Wird der Arsch gelöscht und ich krieg nen neuen Lehrer der etwas taugt?

                      Ich glaube kaum, dass wenn man eine KI entwickelt hat die so einfach ohne alles auf den Markt schmeißt ohne irgendetwas, da sie dann total nutzlos wäre. Und warum sollte man normalen Menschen zugriff auf den Quelltext von so etwas geben? Die haben doch eh keine Ahnung was man damit tun soll (siehe Linux from Scratch). Die Entwicklung wird für den Markt eher spezialisierte KIs sein, die ihre Aufgaben erfüllen und nicht mehr. Also moderne Sklaverei. Ob man ihnen die Möglichkeiten dazu geben wird, daraus aus zu brechen ist eine ganz andere Frage.

                      Natürlich könne man ggf. die KI missbrauchen (geht auch bei Menschen / anderer Software) Die Gegenfrage ist aber auch, ob sich da nicht schon jemand Gedanken darüber gemacht hat so etwas zu verhindern? Wir sind hier in einen Sci-Fi Board und denken bereits über so etwas nach Asimov tat dies auch schon und in den Bereichen von KI Entwicklern die ich kennenlernen durfte denken auch immer wieder an grenzen und Sicherheiten nach.

                      Ich behaupte jetzt nicht, dass da nix passieren könnte, sondern dass es ähnlich wie bei der Viren, Trojaner und Würmer Problematik sich da Spezialisten hinsetzen werden. Und nicht zu vergessen, bei den Drohnen bleibt ja auch weitestgehend die Kontrolle bei den Obrigkeiten. Warum sollte man also auf einmal alles ignorieren, was man bisher gelernt haben und eine Software mit Vollzugriff auf alles losgehen lassen? Früher gingen Monitore bei falschen Einstellungen drauf, mittlerweile geht das nicht mehr. Mir ist zumindest kein Virus mehr bekannt der dies machen kann. Oder Festplatten direkt schädigen kann.

                      Mir kommt es irgendwie so vor als ob ihr damit rechnen würdet dass total gestörte sadistische Soziopathen so eine KI entwickeln könnten / würden.

                      Zum eigentlichen Thema Superintelligenz durch KI. Da diese KI eigentlich nur von uns lernen kann, bleibt die frage offen auf welche Schlüsse die KI kommen wird. Sie dürfte bei weiten mehr Weitblick habe als wir und somit zu äußerst komischen Schlüssen kommen.
                      (Kennt jemand das Buch Freakonomics? à Kriminalität sinkt durch Abtreibung?)
                      Ob dies von den Menschen akzeptiert wird und sogar angenommen / umgesetzt ist eine ganz andere Frage. Wie oft bekommen wir etwas geraten (Fass nicht den Herd an, der ist heiß! Du wirst dich verbrennen! Das tut weh! Usw…) und wird ignoriert?
                      Xanrof hat außerdem ja angesprochen, dass man nichts umsetzen wird bevor man es verstehen wird. Das denke ich auch. Folglich wird die Menschheit sicherlich nicht auf einmal anfangen ihr ganzes wirtschaftliches / soziales / usw. System um zu werfen bloß weil ne KI mal so ne Idee hat. Das wird dann wohl bedeuten, dass sich die KI zu den kleinen Menschen hinsetzen darf und ihnen den Zusammenhang erklären darf, was dann von den Menschen überprüft und nachvollzogen werden muss.

                      Kommentar


                        #41
                        Es wird nie eine 'Superintelligenz' geben. Auch wird eine 'Maschine' nie 'Intelligent' sein. Eine Maschine kann Wissen verwalten und Wissen 'einsetzen'. Aber Wissen ist keine Intelligenz. Auch ist es ein irrglauben, die Leute früher wären weniger Intelligent gewesen als wir es heute sind. Unser Wissenstand heute ist einfach höher als früher und dieser Vorteil kann eine Maschinen gegenüber einem Menschen haben. Sie kann unendliches Wissen ansammeln und so für einen Menschen 'Intelligent' erscheinen. Heutige Schachcomputer arbeiten nach diesem System. Es kennt alle möglichen Züge und berechnet dann welches der Optimale Zug in welcher Situation ist. Jedoch ist dahinter keine Intelligenz. Sie ist zum Teil lernfähig, dass Sie erkennt, dass wenn Sie verliert dem ausgewählten Zug eine kleinere Priorität einräumt und dadurch ein anderer Zug in der gleichen Situation bevorzugt wird. So erscheint sie 'lernfähig'. Jeder Mensch kann den absolut besten Schachcomputer schlagen. Zieh dein Bauer einfach auf den König und hau ihn um. Ist nicht 'Regelkonform' aber 'effektiv'.

                        Intelligenz auf der anderen Seite ist eben kein Wissen zu besitzen und eine Lösung zu finden. Kein Feuer zu haben und ein Feuerzug zu erfinden. Wie kommt der Mensch jetzt jedoch auf die Idee ein Feuerzug zu entwickeln. Er hockt in der Kälte und frirrt sich den Arsch ab und ist frustriert. Er kennt nur den alten Weg mit 2 Stöcken ein Feuer zu machen aber das Dauert 30 minuten und in 30 Minuten muss ich weg. Da lohnt es sich nicht. Eine Maschine wird da immer zum Schluss kommen, da es das effektivste ist abzuwarten. Es lohnt sich nicht. 30 Minuten Aufwand und kein Erfolg. Es ist das beste nichts zu machen. Absolutes Wissen führt zu Stillstand da es immer die 'optimale' Lösung gibt etwas zu machen mit dem bekannten Wissenstand. Es wird gar nicht etwas 'neues' gemacht, da ich ja schon 'allwissend' bin. Ein Mensch ist jedoch fehlerhaft. In diesem Fall kann es sein, dass der Mensch frustriert ist und deshalb einen Stein nimmt und auf einen anderen Stein haut. Jetzt merkt er dass es funken gibt und jetzt kommt die Intelligenz ins Spiel. Er erkennt, dass aus Funken Feuer werden kann wenn die richtigen Materialen dazu kommen (Leicht brennbares Material + Behälter wo das Brennmaterial kontrolliert ausgestossen werden kann). Dieses 'Idiotische' handeln führt dann zu neuem was in einigen Fällen eben sehr intelligent ist . Wenn jetzt jemand sagt mann soll den Maschinen 'Dummheit' schenken, dann sag ich nur, dass 'Dummheit' grenzenlos ist. Das führt dann 100% zu unserer Vernichtung wenn eine 'Dumme' Maschine berechnet, dass eine Atombombe auf einer Stadt zwar etwas schlechtes ist, aber ich bin ja Dumm und probiere es mal aus . Ein Mensch ist auf seine Fähigkeiten und Ressourcen beschränkt. Eine Maschine ist dies nicht und eine Maschine wo dies denkt, kann eine Atombombe zünden. Ein Mensch der dies denkt wird nie die Möglichkeit haben dies auszuführen.

                        Arbosch Bloodforge

                        Kommentar


                          #42
                          Was genau macht dich so sicher, das eine Maschine nie intelligent wird? Heutige Schachcomputer sind auch nur große Datenbanken, die haben in der Tat nichts mit intelligentem Verhalten zu tun, aber jeder Rechner ist mit geeigneter Software in der Lage, ein neurales Netzwerk zu simulieren und das ists doch, was uns intelligent macht. Sollte man es mal schaffen, ein neurales Netzwerk mit ähnlicher Arbeitsweise wie ein menschliches Gehirn zu simulieren (oder generell wie ein natürliches Hirn), spräche nichts dagegen, das dieser Simulation etwas intelligentes entspringt, denn es dürfte keine Rolle spielen, ob dieses Netzwerk einem echten Hirn eptspringt oder einem simulierten, das alle Prozesse nachbildet und sich auch entsprechend anpassen kann.
                          Die heute existierenden Netzwerke sind aber noch weit davon entfernt, wie ein echtes Hirn zu arbeiten, dennoch gibts da immer mal schon interessante Sachen zu sehen

                          Ich könnte ja mal ein kleines Spiel eines Hobbyprgramierers verlinken, welches eine Art Amöben simuliert, die sich immer weiter entwickeln (deren Ziel ists einfach nur lange am Leben zu bleiben) und dabei ein simuliertes NN verwenden ^.^ ist schon interessant, wie sie sich oftmals gleichen oder aber in anderen Durchläufen anders verhalten, obwohl alle die selbe Ausgangssituation und Bedingung haben *g*
                          Jede Geschichte hat vier Seiten: Deine Seite, Ihre Seite, die Wahrheit und das, was wirklich geschehen ist.

                          Welten brechen auseinander, Formationen nicht.

                          Kommentar


                            #43
                            Hallo allerseits,

                            also wenn man eine Intelligenz erschaffen möchte, müsste man zuerst einmal wissen was Intelligenz überhaupt ist. Geschweige wie es genau funktioniert.
                            Ich Denke nicht, dass man durch Simulation wirklich einmal zu einer richtigen KI kommen wird.
                            IBM und andere Forschen daran schon recht lange. Zum lernen, wie dies Funktioniert und neurale Netze wirklich zu verstehen ist es aber eine große Hilfe. Ich habe schon gehört, dass IBM mit Erkenntnissen aus Neurosimulationen in einem Großrechnerclusters, Prozessoren herstellt und testet.
                            Sicherlich wird es noch lange dauern und man wird noch viel Forschen und Lernen dürfen, aber eine KI halte ich, wenn auch in weiter ferne, für Möglich.

                            Für interessierte:

                            Gehirn-Computer: IBM zeigt Neuronen-Chips
                            SyNAPSE - Wikipedia, the free encyclopedia
                            IBM Research: Cognitive computing

                            Kommentar


                              #44
                              Dieses Konzept heißt im Orion's Arm Universe "Aikratie". Dort werden große und kleinere Reiche von mächtigen überintelligenten AIs, den Archailekten, regiert. Die Archailects sind Orion's Arm sind meist sehr wohlwollend gegenüber ihren Untertanen, keinesfalls böse so wie AI-Herrscher in den meisten anderen Fiktionen, allerdings finden sich wie überall Ausnahmen davon.

                              So wie es dort dargestellt wird klingt es plausibel und ehrlich gesagt bin ich von der Idee sehr angetan, leider auch wenn ich nicht wirklich an echte AIs glaube, eher muss man künstliche "transsentiente" organische oder transzendale gottähnliche Wesen verwenden, was imho allerdings keinen allzugroßen Unterschied macht.

                              Kommentar


                                #45
                                Arbosch: die meisten Leute, die mit "es wird nie $BLA geben" hantierten, wurden früher oder später von der Wirklichkeit überholt.

                                Wir können es einfach nicht mit Sicherheit sagen, ob es nicht irgendwann selbst lernende Maschinen geben wird oder nicht.

                                Aber zu sagen, das kann und wird es niemals geben können ist die typische, menschliche Arroganz.

                                Intelligenz ist einfach formuliert die Möglichkeit aufgrund der Beobachtung von Vorgängen mit Hilfe seiner Sinne und durch Nachdenken eigenständig Probleme zu lösen.

                                Künstliche Organe in dem Sinn gibt es schon reichlich, Mikrofone, Bildsensoren usw.

                                Und es gibt Kybernetiker, die sich auch auf den Standpunkt stellen, auch wir sind in dem Sinne Maschinen, nur eben anderer Bauart und Funktionsweise.

                                Kommentar

                                Lädt...
                                X