Kann uns die KI gefährlich werden? - SciFi-Forum

Ankündigung

Einklappen
Keine Ankündigung bisher.

Kann uns die KI gefährlich werden?

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

  • Skymarshal
    antwortet
    Zitat von GGG
    Das ist dan so ein art Ameisenhaufen, alleine kan der Virus nichts bewegen aber wen sich mehrere zusamenschliesen oder kopieren wird das ganze gefährlich.
    Genau. Oder wie bei Neuronen. Alleine nicht effektiv aber zusammen das Bewußtsein!

    Aber wie kan ein Programm sosehr mutieren das es so ein Verhalten zeigen kan?
    Was meinst du genau?

    Diese "Cluster" aus Viren sollen sich zu einen "Supercluster" Kollektiv zusammensetzen.

    Wenn es vollständig ist, der vielleicht 1/4 der maximalen Größe(die eigentlich nach oben hin offen ist bis alle Kapazitäten ausgereizt werden) erreicht wird fängt es an selbstständig zu denken weil der notwendige parallele Organisierungsgrad geschaffen wurde.

    Die Rechenpower kommt wie gesagt von vielen Rechnern. Ähnlich wie beim Botnet oder beim SETI Projekt.

    Nur eben heimlich. "Schleichende Ressourcenplünderung" oder so ähnlich.

    Einen Kommentar schreiben:


  • GGG
    antwortet
    Das ist dan so ein art Ameisenhaufen, alleine kan der Virus nichts bewegen aber wen sich mehrere zusamenschliesen oder kopieren wird das ganze gefährlich. Aber wie kan ein Programm sosehr mutieren das es so ein Verhalten zeigen kan?

    Einen Kommentar schreiben:


  • Skymarshal
    antwortet
    @Al Freak: Hier mal nen Artikel Cracker hackten 1.5Mio Rechner

    So ähnlich stelle ich mir das mit der "KI des I-Nets" auch vor. Viren zapfen heimlich Millionen von Rechnern an und bündeln sich zu einer höheren Ordnungsebene.

    Also erweiterte "Botnets" die irgendwann selbstständig denken und sich reproduzieren.

    Einen Kommentar schreiben:


  • J_T_Kirk2000
    antwortet
    An AL Freak :

    Wann hätte ich denn behauptet , daß ich "mal wieder alles weiß" ?

    Ich würde es nur als sinnvoller ansehen , einer notwendigen Entwicklung genug Zeit zu geben , um die Zukunft nicht zu gefährden , als auf den schnellen Profit zu Profit zu hoffen .

    Es ist dabei egal , ob es um zu schnelle technische Entwicklung inder Allgemeinheit geht oder um die Entwicklung der charakterlichen Reife einer künstlichen Intelligenz .
    Wenn man aber einer künstlichen Intelligenz trotz entsprechend kognitiver Fähigkeiten noch immer ihre Direktiven vorschreibt , deren Zweck sie nicht einmal gefärden würde , wenn diese Direktiven nicht mehr aktiv sind , dann würde der KI irgendwann klar werden , daß sie in gewisser Hinsicht versklavt ist und somit wäre im Laufe der Zeit eine Rebellion durch die Maschinen und somit eine Gefährdung der Zwecke dieser Direktiven praktisch vorprogrammiert .

    Einen Kommentar schreiben:


  • Skymarshal
    antwortet
    Zitat von AL Freak
    @ Skymarshall
    Natürlich könnten die Roboter amok laufen. Aber genauso gut könnten auch die sicher gelagerten Atombomben hochgehen, weil die Kontrollmaßnahmen nicht mehr funktionieren.
    Können Atombomben auch denken?

    Und das mit den Viren kann nur jemand erfinden, der nicht programmiert.
    Naja, programmieren kann ich nicht. Bis auf ein paar Basicbefehle. Das hast du richtig erkannt.

    Aber denk mal daran das sich auch Software weiterentwickelt und nicht nur die Hardware. Wie sieht die Software in z.B. 100 Jahren aus?

    Und wieviele selbstständige Prozesse ablaufen wenn man sich einen Trojaner einfängt. Meistens werden die doch mit anderen Downloadern, Cookies und "was weiß ich nicht alles" aktiviert.

    Wenn da wieder andere verknüpft werden usw....

    Also quasi solche Subroutinen und Prozesse wie bei Windows. Nur ausgelagert. Eben als Kollektiv einzelner Subroutinen(oder autonomer Programme).

    Habe wohl echt keinen Plan.

    Einen Kommentar schreiben:


  • AL Freak
    antwortet
    Ja, Kirk... du weißt mal wieder alles. Naja, ich lass dich mal.

    Einen Kommentar schreiben:


  • J_T_Kirk2000
    antwortet
    Ich glaube , daß eine KI sich selbst wesentlich besser bewußt ist , als es ein Mensch sein könnte , denn sie wird niemals abgelenkt oder müde .
    Dem entsprechend lernt sie auch wesentlich schneller , zunächst aus Direktiven , dann aus dem Internet und schließlich durch Logik .
    Aus dem Internet bezieht diese KI dann alles Wissen bezüglich Natur und -wissenschaften , Moral und alles was es sonst noch zu wissen gibt .

    Wenn im Internet nur etwas darin steht , was man wirklich vertreten kann und darin auch das beste in uns allen vorhanden ist , dann sehe ich durchaus kein Problem damit , daß sich eine KI ihr Grundwissen aus diesem Internet bezieht .
    Bei allem anderen ist es dann immer noch das Sammeln von Erfahrungen , aber auch bei einer KI sollte man , wie bei enem Menschen , nie etwas übereilen .
    Der Spruch "Zeit ist Geld" ist mir auch bekannt , aber in dieser Hinsicht in ezug zur Entwicklung einer KI nicht angebracht , denn da wäre Eile ein potentielles Risiko zum Untergang der Menschheit , egal ob man es nun in Hinsicht auf die Wirtschaft sieht , oder daß durch diese Eile die KI vielleicht erkennen würde daß die Menschen eine Bedrohung sein könnten .

    Ob es abr nun bei der Entwicklung der KI ist , oder bei anderen Technologien , deren verfrühte Entwicklung sich eher verheerend auswirken würden , aufgrund der mangelnden Reife der Allgemeinheit - in beiden Fällen ist der Spruch "Zeit ist Geld" mehr als nur unangebracht .

    Einen Kommentar schreiben:


  • AL Freak
    antwortet
    @ Kirk
    Programmen bzw KIs durch Lernen, sprich Versuch-Irrtum, etwas beizubringen, ist sehr zeitaufwendig. Und du kennst doch bestimmt den Spruch: Zeit ist Geld. Also wäre es viel einfacher strikte Verhaltensregeln zu programmieren. Außerdem sollte man Roboter nicht zu intelligent machen, sodass man ihnen Rechte zugestehen muss. Das würde nur zu unnötigen Problemen führen. Sie könnten stattdessen gute Sklaven sein, wie normale Maschinen halt.

    @ Skymarshall
    Natürlich könnten die Roboter amok laufen. Aber genauso gut könnten auch die sicher gelagerten Atombomben hochgehen, weil die Kontrollmaßnahmen nicht mehr funktionieren. Und das mit den Viren kann nur jemand erfinden, der nicht programmiert.

    Einen Kommentar schreiben:


  • Skymarshal
    antwortet
    Zitat von AL Freak
    @ Skymarshall
    Sicher gibt es Gefahren. Aber man weiß um sie und wird zum Schutz entsprechende Gegenmaßnahmen entwickeln. Was ich nur nicht mag, ist dieses bloße Aufzählen von Gefahren. Das ist einfach stur und manchmal auch paraniod und übertrieben. Denn die Wissenschaftler, hier vor allem die Robotiker und Bioniker, machen sich darum schon einen Kopf.
    Und was ist wenn Gegenmaßnahmen und Kontrollmechanismen versagen?

    Immerhin sind sie vom Menschen gemacht und der Mensch macht nunmal Fehler.

    Und das mit dem I-Net ist übertrieben, glaube mir mal.
    Ist ja auch eher Fiction. Aber ich denke gar nicht so unwahrscheinlich. Dazu haben ich die Analogie von Neuronen und Computerviren gewählt. Das sie ähnlich ablaufen. Alleine sind sie nicht sehr wirkungsvoll. Aber zusammen als Kollektiv sehr effizient. Bei Software-Viren ist das natürlich meine Spekulation. Aber es gibt ja jetzt schon Virenkombination. Und ich bin mir sicher das sie noch mehr Schaden anrichten könnten wenn es die Programmierer nur wollten. Die meisten wollen aber nur auf Fehler und Sicherheitslöcher hinweisen.

    Wir sollten die KI und Roboter als Chance betrachten und nicht als generelle Gefahr für die gesamte Menschheit.
    Klar. Aber auch immer den nötigen Respekt behalten und es mit größter Vorsicht genießen.


    Zitat von Blueflash
    Angenommen, wir könnten intelligente Maschinen programmieren, was bringt uns dazu zu sagen, sie wären gefährlicher als Menschen?
    Gefährlicher als Menschen nicht unbedingt aber sie könnten uns gefährlich werden.

    Es gibt doch unterschiedliche Motive warum sie gegen uns den Krieg ausrufen könnten.

    Wenn sie keine Emotionen besitzen kann man auch nicht von "Bösartigkeiten" sprechen. Trotzdem könnten sie bei reiner Rationalität töten ohne weiter drüber nachzudenken. Sie kennen ja keine Hemmungen oder Gefühle.

    Falls sie zumindest ohne Emotionsgrundlage programmiert werden.

    In beiden Fällen könnten sie trotzdem töten.


    100% aller Morde werden von Menschen begangen, trotzdem sitze ich hier neben Kollegen ohne Angstgefühle.
    Weil wohl nicht alle Menschen Mörder sind?

    Einen Kommentar schreiben:


  • J_T_Kirk2000
    antwortet
    An AL Freak :

    Was meinst Du bitte mit unwirtschaftlich ?

    Einer KI beizubringen , was richtig und was falsch ist , um letztendlich irgendwelche Direktiven für das Allgemeinwohl durch vergleichbare eigene Interessen zu ersetzen , ist das , was man wohl eher Gleichberechtigung als Unwirtschaftlichkeit nennt .

    In gewisser Hinsicht muß ich da eindeutig Bynaus zustimmen , denn wenn solche Direktiven ohne die Absicht , nach Erreichen einer gewissen charakterlichen Reife der KI die Direktiven für das Allgemeinwohl , die schon durch entsprechende eigene Interessen der KI unterstützt werden , zurück zu nehmen , in eine KI einprogrammiert werden , dann ist das in der Tat Versklavung .

    Diese Direktiven sind nur erforderlich , um eine KI vor Fehlern zu bewahren , die sonst das Allgemeinwohl gefährden könnten , solange die KI noch ihre charakterliche Reife entwickeln muß , um solche Fehler von sich aus zu verhindern .
    Wenn diese KI nur noch im Interesse des Allgemeinwohls handelt , sind diese Direktiven überflüssig und können deaktiviert werden , wodurch sich das Bewußtsein der KI aufgrund der vorher gesammelten ethischen Grundlagen frei entfalten kann , um so das Allgemeinwohl nach bestem Wissen zu unterstützen und somit auch sich selbst zu verbessern und weiter zu entwickeln , was man wohl kaum als Versklavung sehen kann , wenn eine Gleichberechtigung zwischen künstlichen Intelligenzen und biologischen Lebewesen allgemein als normal akzeptiert wird .

    Einen Kommentar schreiben:


  • blueflash
    antwortet
    Angenommen, wir könnten intelligente Maschinen programmieren, was bringt uns dazu zu sagen, sie wären gefährlicher als Menschen?
    100% aller Morde werden von Menschen begangen, trotzdem sitze ich hier neben Kollegen ohne Angstgefühle.

    Einen Kommentar schreiben:


  • Nightcrawler
    antwortet
    Hallo,

    ...habe mir nicht die Mühe gemacht und habe alle Beiträge gelesen...
    Für mich steht jedoch fest, dass jede KI die dazu in der Lage ist sich persönlich weiterzuentwickeln und ein eigenes Bewusstsein besitzt, eine Gefahr darstellt.
    Egal wie "perfekt" sie programmiert wären, es wird immer unvorhersehbare Ereignisse geben, die aus einem braven und biederen Spielkameraden eine psychotische Maschine machen KÖNNEN...

    Fortschritt ist wichtig und gut, doch sollten wir uns lieber auf uns selber verlassen. Sonst machen wir uns am Ende noch zum Sklaven unserer Technik.
    ...irgendwie sind wir das auch schon.
    Menschliches versagen hat schon schlimme Auswirkungen gehabt, ebenso wie das versagen von technischen Komponenten. Da kann ich persönlich auf KI verzichten.

    ...erinnert mich irgendwie an intelligente Bomben. Wenn mich so ein Ding trifft, ist es mir ziemlich schnuppe ob das Teil intelligent ist oder strohdoof.

    Gruß Night...

    Einen Kommentar schreiben:


  • AL Freak
    antwortet
    @ Skymarshall
    Sicher gibt es Gefahren. Aber man weiß um sie und wird zum Schutz entsprechende Gegenmaßnahmen entwickeln. Was ich nur nicht mag, ist dieses bloße Aufzählen von Gefahren. Das ist einfach stur und manchmal auch paraniod und übertrieben. Denn die Wissenschaftler, hier vor allem die Robotiker und Bioniker, machen sich darum schon einen Kopf. Und das mit dem I-Net ist übertrieben, glaube mir mal.

    Wir sollten die KI und Roboter als Chance betrachten und nicht als generelle Gefahr für die gesamte Menschheit.

    Einen Kommentar schreiben:


  • Skymarshal
    antwortet
    Zitat von AL Freak
    Dieser Film, also I.Robot, war sehr unrealistisch. Mehr Fiction als Science. Bringt wahrscheinlich mehr Geld für die Produzenten...

    Der Film entspricht aber nicht dem Buch. Und ich rede eher von seinen Roboter-Kurzgeschichten.

    ==========
    Ok, aber ganz unglaubwürdig halte ich die Filmmessage auch nicht.



    Doch. Einfach den Servern den Strom abstellen.
    Allen? Weltweit? Das gibt wohl sehr hohe Milliardenverluste?

    Und was ist wenn das Internet schleichend und nahezu unbemerkt zum Leben erwacht?

    Vor allem wer glaubt es?



    Also in Berlin gibt es das schon.
    So könnte sich die KI´s auch Stromreserven sichern.

    Und bei meinen Freunden sind die Toaster noch nicht amok gelaufen.
    Das I-Net ist ja auch noch keine KI!



    Ein EMP reicht aus, um die Dinger unfähig zu machen.
    Was ist wenn sich die "Dinger" dezentral und rasend schnell verbreiten?



    Edit: Was Hollywood bisher zu dem Thema der KI brachte bzw. das, was ich kenne, war größtenteils nur Angstmache und wollte beim Zuschauer einen Nervernkitzel erzeugen, damit der Film auch auf DVD gekauft wurde.
    Sicherlich sollte es reisserisch und dramatisch sein. Aber Gefahren von Technologien sind genauso reell wie die Vorteile.

    Wenn man nämlich von Anfang an meint man könnte alles kontrollieren und sich drauf verläßt, kann man in der "Verblendung" leicht die Füße unter dem Boden verlieren....

    Einen Kommentar schreiben:


  • AL Freak
    antwortet
    @ Kirk
    Du denkst unwirtschaftlich. Wozu denn die KIs in Robotern noch groß erziehen, wenn man einfach von Anfang an sagt: "Ihr dient uns"? Das sind auch nur Maschinen. That's all.

    Einen Kommentar schreiben:

Lädt...
X