Ich meinte nur , daß wir vielleicht über unsere eigene Natur nachdenken sollten , bevor wir über eine zukünftige KI dermaßen urteilen .
Die Menschen sind auch nicht gerade das Glanzlicht , wenn es um Gleichberechtigung und Toleranz geht , aber vielleicht hilft uns eine zukünftige KI , uns dermaßen auf unsere Natur zu besinnen , daß wir vielleicht dann über unseren eigenen Schatten springen .
Dies ist aber auch jetzt schon in anderer Hinsicht absehbar , daß wir vielleicht zu neuen sozialen Prinzipien finden , wenn man bedenkt , daß es darum geht , den Arbeitsmarkt wieder stark zu machen und dennoch wissenschaftlichen Fortschritt zu fördern , was durchaus vereinbar ist .
Ankündigung
Einklappen
Keine Ankündigung bisher.
Kann uns die KI gefährlich werden?
Einklappen
X
-
das wäre aber eine recht ironische evolution.... die erschaffer werden von ihren eigenen kreaturen ausgelöscht... ok dieses thema wurde schon in vielen filmen thematisiert, aber ich denke sobald sich 2 Spezies untereinander verständigen könnten, wird eine KO-Existens möglich...zumindest bei einer aufgeklärten/fortschrittlichen gesellschaft und das sind die menschen zum teil immer noch nicht
Einen Kommentar schreiben:
-
Vielleicht kann uns ja die KI in einiger Hinsicht helfen .
Ebenso was die Umwelt und Verwendung regenerativer Energien , wie auch die Gleichberechtigung und Toleranz von Menschen verschiedener Nationalitäten , Religionen und auch jede Art von Lebewesen , sofern diese nicht andere Lebewesen in irgendeiner Hinsicht gefährden .
In letzterem Fall sollte zumindest das naütrliche Gleichgewicht gewahrt bleiben , was in der freien Wildnis nur durch strikte Abwesenheit der Menschen möglich wäre .
Wenn aber trotz aller eingesetzter positiver Intentionen , die KI wirklich eine Bedrohung in uns sehen sollte , dann wird wohl darin der nächste Schritt der "Evolution" liegen , daß diese uns wohl ablösen wird oder wir diese überleben werden , wie es auch in der Geschichte der Evolution unseres Planeten immer wieder hervorging .
Einen Kommentar schreiben:
-
wenn sie uns nicht tolerieren, haben wir etwas falsch gemacht... denn irgendwo her müssen die ja ihre ablehnung haben...
und da wir (die menschheit) ja nun mal sicher eines der ersten dinge sind mit der die KI interagiert wird sie sich auch mit uns beschäftigen.. und da können wir "einfluss" auf die KI nehmen
Einen Kommentar schreiben:
-
Jo, diese moralischen Fragen wurden ja schon in "A.I" oder "Der 200 Jahre Mann" angeschnitten.
Aber was ist wenn die Maschinen uns nicht tolerieren wollen?
Einen Kommentar schreiben:
-
wenn es so weit ist und die maschinen sich ihr eigenes urteil bilden können dann sollten wir gesellschaftlich schon einiges erreicht haben:
bsp:
1. Toleranz... wie muss das für fremde (die maschinen) denn aussehen wenn wir nicht mal unsere eigene art tolerieren trotz kleiner unterschiede wie ethnische herkunft, hautfarbe usw. und dann sollen wir noch künstliche Inteligenzen tollerieren?? das ist doch als würden sich die heutigen rechner sich gegenseitig nicht im interneakzeptieren nur weil sie verschiedene RAM-Riegel oder Prozessoren haben
2. müssten wir uns mal gedanken machen ob die künstlichen inteligenzen für ihre taten dann verantwortlich sind.. falls sie wirklich mal etwas falsch gemacht haben (muss ja nicht immer gleich mord oder ähnliche extremes sein)
3. wir sollten uns gedanken machen wegen der erschaffung... ich meine wenn wir sie erschaffen, dann können wir sie wohl schlecht löschen oder den stecker ziehen.. das würde einem mord gleich kommen. also müsste man ihnen auch eine art gleichberechtigung zugestehen
Einen Kommentar schreiben:
-
Zitat von J_T_Kirk2000Wenn aus unserer Entwicklung eine künstliche Intelligenz hervorgeht , unsere Entwicklung zum entsprechenden Zeitpunkt moralisch korrekt ist und wir dieser KI unsere besten Werte erfolgreich vermitteln können , dann gibt es keine Bedrohung von dieser KI .
Wenn wir aber nicht in der Lage sind , einer KI unsere moralischen Werte zu vermitteln , dann sind wir zumindest als Schöpfer einer KI nicht qualifiziert und dann wäre es nur gerecht , wenn uns vielleicht eine solche Möglichkeit in Zukunft verwehrt bleiben würde .
Es geht um die Möglichkeit das Maschinen diese Werte irgendwann nicht mehr annehmen "wollen". Falls sie dazu in der Lage sein würden.
Und das würde ich nicht ausschließen wollen.
Einen Kommentar schreiben:
-
Irgendwie verstehe ich die offensichtliche Angst vor einer künstlichen Intelligenz nicht , die in der Lage ist , eigene Entscheidungen zu fällen .
Wenn aus unserer Entwicklung eine künstliche Intelligenz hervorgeht , unsere Entwicklung zum entsprechenden Zeitpunkt moralisch korrekt ist und wir dieser KI unsere besten Werte erfolgreich vermitteln können , dann gibt es keine Bedrohung von dieser KI .
Wenn unsere Entwicklung noch nicht einmal unseren eigenen ehrlichen , moralischen Werten entspricht , dann wird es wahrscheinlich dann entsprechende Anpassungen geben , die von dieser KI lediglich katalysiert würden .
Wenn wir aber nicht in der Lage sind , einer KI unsere moralischen Werte zu vermitteln , dann sind wir zumindest als Schöpfer einer KI nicht qualifiziert und dann wäre es nur gerecht , wenn uns vielleicht eine solche Möglichkeit in Zukunft verwehrt bleiben würde .
Einen Kommentar schreiben:
-
du kannst sie auch "künstliche halbintelligenz" nennen nur leider wird sie dann keiner mehr kaufen
Einen Kommentar schreiben:
-
Zitat von La-ForgeAllerdings falls es jemand schafft einem computer Kreativität bei zu bringen dann können wir uns mal gedanken über solche sachen machen..
Umso mehr Effizienz bei paralellen Operationen desto wahrscheinlicher ist doch eine Bewußtseinsbildung. Neuronale Netze sind da der Anfang.
bis dahin: falls euch euer Toaster angreift beschwert euch beim hersteller
@KIRK: Deswegen muß man zwischen heutigen "determinierten" Ki´s und kreativen-bewußten KI`s unterscheiden. Letztere gibt es ja vielleicht in ein paar Jahrzehnten.
Und die werden bestimmt Gesetze und Regeln in Frage stellen. Davon bin ich überzeugt.
Einen Kommentar schreiben:
-
Wenn eine "KI" nur das macht , wozu diese zuvopr programmiert ist und nicht etwa aus eigenen Erfahrungen heraus handeln kann , ist es doch bestenfalls zweifelhaft , ob man diese Programmierung als intelligent bezeichnen kann , auch wenn diese künstlich ist .
Einen Kommentar schreiben:
-
Als kleiner Informatikstudent kann ich euch glaube beruhigen... die derzeitige "KI" macht einzig und allein das was man ihr programmiert hat, d.h. für jedes problem sollte eine lösung im programm existieren...
beispielsweise die selbstfahrenden Autos letzte woche haben Sensoren aus denen sie sich ein bild von ihrer umwelt machen. Mit diesem "bild" analysieren sie dann welches vorgehen das beste wäre, und dieses Vorgehen wurde ihnen einprogrammiert
Allerdings falls es jemand schafft einem computer Kreativität bei zu bringen dann können wir uns mal gedanken über solche sachen machen..
bis dahin: falls euch euer Toaster angreift beschwert euch beim hersteller
Einen Kommentar schreiben:
-
Zitat von KilanaDas ist sogar höchstwahrscheinlich. Allerdings muss für den Fall des Infragestellens alter Regeln ein Mechanismus vorhanden sein, der die AI davon abhält uns gefährlich zu werden
Auf welchen Teil meiner Antwort beziehst du dich.
...dazwischen ist so ziemlich alles möglich, wobei die Gewichtung der möglichen Zukunftswelten wohl eher zum worst case scenario hin geht, da die Gefahr, die von einem "harmlosen" KI-Experiment ausgehen kann, nicht immer richtig bewertet wird.
Was die Zukunft angeht, so ist sicherlich alles spekulation.
Was die Einschätzung "harmloser AI-Experimente" angeht, so beruht die Spekulation hauptsächlich auf der Tatsache, dass in AI Kreisen wenig über Moral für AI diskutiert wird und dass nicht wirklich bekannt ist, wieviele Projekte es zu dem Thema gibt, bzw. wie strukturiert/durchdacht diese Projekte sind.
Das zu müßte man erstmal gucken ob sich die KI von heute so(in etwa) auf die Zukunft extrapolieren läßt und genügend empirische Daten zusammentragen.
Also sind Aussagen über möglichen schlechte oder gute Szenarien rein spekulativ.
Einen Kommentar schreiben:
-
Zitat von SkymarshallIch schätze mal das sie sich irgendwann auch selber umprogrammieren können. Und ihre eigenen Regeln schaffen bzw alte in Frage stellen.
Zitat von SkymarshallIch denke mal man kann gar keine richtige Bewertung darüber abgeben sondern nur spekulieren.
Was die Einschätzung "harmloser AI-Experimente" angeht, so beruht die Spekulation hauptsächlich auf der Tatsache, dass in AI Kreisen wenig über Moral für AI diskutiert wird und dass nicht wirklich bekannt ist, wieviele Projekte es zu dem Thema gibt, bzw. wie strukturiert/durchdacht diese Projekte sind.
Einen Kommentar schreiben:
-
Zitat von KilanaDas wird ganz davon abhängig sein, wieviel Gedanke sich der/die Programmierer zum Thema "Freundlichkeit" oder auch generell "Moral" gemacht haben, als sie die KI programmiert haben, bzw. wie gut die Programmierung dieser Eigenschaften die Weiterentwicklung der KI übersteht.
Ich schätze mal das sie sich irgendwann auch selber umprogrammieren können. Und ihre eigenen Regeln schaffen bzw alte in Frage stellen.
Worst case scenario aus Sicht der Menschheit ist eine Matrix ähnliche Welt, wenn nicht sogar eine Welt auf der jegliches biologisches Leben vernichtet wurde. Best case ist friedliche Ko-existenz. ...dazwischen ist so ziemlich alles möglich, wobei die Gewichtung der möglichen Zukunftswelten wohl eher zum worst case scenario hin geht, da die Gefahr, die von einem "harmlosen" KI-Experiment ausgehen kann, nicht immer richtig bewertet wird.
Einen Kommentar schreiben:
Einen Kommentar schreiben: