Guten morgen
Ich sehe schon das Problem, du gehest davon aus das die Dinge die vor 50jahren funktioniert haben sich auch in Zukunft nicht ändern müssen, und deswegen die Forschung von heute die in 100 Jahren veraltet ist dort nicht verwendet wird da die Technik die zu den Zeitpunkt 150 Jahre alt ist besser ist.
Das du in einer Firma warst die mit einem Automaten der wahrscheinlich auf einen 68000 programmiert war, wobei es ….. egal ist ob der mit C;C++ oder Assembler programmiert wurde, kommst ist egal da du Steuerung und Regelung durcheinander wirfst. Bei der MIR wurde mit Chemischen Absorbern die Luft aufbereitet. Da die MIR von dem Erde immer mit neuen material versehen wurde ist das kein Problem. Wenn man aber mit seinen Raumschiff in Leerraum ist muss man die Luft mit Katalyse Prozessen wider Recycling und das Energie arm und Genau. Das ist aber dann kein lineares System mehr wo man mit einen zwei punkt Regler das Problem lösen kann.
Du schließt bei deiner Vorstellung zufiele Sachen aus und versuchst dann mit lächerlichen Beispielen die Argumente deiner Gegenseite zu entkräften. Zb das ein FPGA System um Faktor 10000 teurer ist als eins mit Mikroprozessor ist so ein Beispiel.
Bei den Kohlekraftwerk geht es nicht um ein paar Cent sondern um jährliche Milliarden Beträge die sich damit einsparen lasen würden.
Es ging bei dem Beispiel mit dem FPGA, wo du wohl nur die wiki quergelesen hast darum das heute schon Systeme und Algorithmen zur Verfügung stehen die Selbstlernen erlauben. Das In weit über 100 Jahren das sich weiter entwickelt zu noch mächtigere Hardware ist unvermeidbar. (höchsten wir haben den 3 Weld Krieg)
Des Weiteren hätte ein solches Raumschiff 3d Drucker für verschiedene Materialien an Bord und wahrscheinlich ein „Drucker“ der Digitale Schaltungen Drucken kann. Beides gibt es heute schon, und sollten in über 100jahren auch kommerziell erschwinglich sein.
Falls du mir wider damit kommen willst das ich ja keine Ahnung hätte wovon ich schreibe
Habe 4 Semester Grundlagen der Schaltungstechnik als Studentischer Mitarbeiter gehalten.
Habe 2 Jahre in der Halbleiter Fertigung gearbeitet, das heizt in einen Reinraum das Ätzen von Wafern überwacht, und Messungen auf den selbigen durchgeführt, weiß also ziemlich genau wie solche hergestellt werden.
Habe in einen Team ein FPGA Programmiert.
Habe in Einen Team ein Laufroboter Gebaut und den Programm Ablauf UML entworfen und die Programmierung überwacht.
Habe diverse Schaltungen entworfen.
Habe vor kurzen ein FUZZI gestützten Adaptiven Kennlinien Feld Regler entworfen. Obwohl das System auf den ersten blick lächerlich banal ist war das zum Schluss die einzige Möglichkeit das Problem zu lösen.
Und das ist nur ein Bruchteil was ich indem letzten Jahren gemacht habe. Ich weiß ziemlich genau wovon ich schreibe, und es ging dabei nur darum ob man aufgrund von heutigen Stand der Technik die in der Allgemein Bildung die 10Jahre hinter der Forschung hinterherhingt eine Aussage treffen kann was genau eine KI die mit Sicherheit in dem Scenario von dem Diskussion Starter beschrieben wurde, verbaut wurde, vorhersagen zu können, was diese in Fahle des Todes der Crew machen würde. Und die schlichte Antwort ist nein, und deswegen kann man in diesen Fall als Autor, selbst von Hard SF, schreiben was man will.
Ankündigung
Einklappen
Keine Ankündigung bisher.
Geisterschiffe im All
Einklappen
X
-
Auch wenn ich schon vor einigen Posts ausgestiegen bin, musste ich kurz schmunzeln und irgendwie an Bombe 20 aus DarkStar denken. Ich glaube einer der besten Beweise sich eine KI nicht zu sehr entwickeln zu lassen^^
Einen Kommentar schreiben:
-
Zitat von nightwalker Beitrag anzeigenUnd das du weist was ein FPGA ist und dann immer noch darauf zu beharren das man die Lebenserhaltung maschinell zerlegen muss damit sie sich zu einen neuen Subsystem verwandeln kann ist interessant aber eigentlich immer noch verkehrt.
Selbst WENN die KI in irgend einem Subsystem einen FPGA finden und umstrukturieren würde, ändert das nichts daran, dass die systeminterne Kommunikation über Microwellen-Leiterplatten laufen würde. Wenn du mir hier und jetzt beweist, das du mit einem FPGA aus einer Microwelle, einer Waschmaschine oder von mir aus einem Haartrocker einen PC bauen kannst, dann ziehe ich meinen Einwand zurück. Wenn nicht, dann bleibe ich dabei.
Ein FPGA mag mächtig sein. Aber er ist kein Wunder, das alle Regeln der Elektrotechnik ignoriert.
Und das du eine Abschätzung über die Wahrscheinlichkeit einer Verwendung von FBGA abgibst ist, ist mächtig. Und wenn du jetzt der Chef von DFKI wärst würde ich dir deine aussage vielleicht aufkaufen, so allerdings nicht.
Ähnliches sah man immer schon. Die Mobiltelefonie hat NIEMALS das Festnetzt abgelöst. LAPTOPS nicht die DESKTOP-PCs, Autos nicht Fahrrad, EDV nicht das Papier .... etc. PP.
Du gehst hier von einer Zukunft aus, in der jeder Prozessor ein FPGA sein wird. Und ich streite das ab, einfach weil FPGAs ZU VIEL leisten, als das es sinnvoll wäre, sie innerhalb einfacher Standardsysteme zu verwenden.
FPGA Strukturen sind in der Reglung häufig an zu finden, da man seinen Algorithmus den man zum steuern und regeln geschrieben hat optimal ausführen will, ohne das bestimmte Prozesse nicht wie gewünscht parallel sonder plötzlich nacheinander ausgeführt werden und das System anfängt zu schwingen oder ähnliche Katastrophen.
Und wie rechen aufwändig eine Lebenserhaltung ist ist auch interessant da je nach Güte der Reglung das schon mächtig anwachsen kann.
Beispiel um ein Kohlekraftwerk optimal von beliebigen Systemzustand zum Arbeitspunkt zu fahren wird momentan daran geforscht eine Trajektorien Planung durch die optimalen Systemzustände zu finden. Problem dabei ist das wenn man das ohne selbst lernende Algorithmen durchführen würde man eine Datenbank mit c.k 3*10^20 byt für die Systemzustände bräuchte.
Diese Technik ist für den Betrieb also nicht notwendig, sie soll lediglich das effizienz-schmälernde Verhalten des "Hochfahrens" bei Kohlekraftwerken eindämmen.
Für eine normale Umgebungsaufbereitung genüg - wie bereits gesagt - sogar ein Assembler-Gerät.
Und das mein Fukushima Vergleich schlecht ist ist interessant da es bei der aussage darum ging das die Ingenieur gesagt haben das es absolut sicher gebaut haben und das sich Ihre Einschätzung als falsch erwiesen hat.
Bei einem Computer ist das nicht so. Bei einem "verrückten" Computer genügt es - salop gesagt - einfach "den Stecker zu ziehen" und die Sache ist erledigt.
Meine Argumentation geht auch nach wie vor eher dahin, dass eine "lernende KI" auf einem Raumschiff nicht notwendig ist. Wenn das DIng einfach ein Ziel anfliegen soll, dann wird es das auch mit einem normalen Prozessor tun. Die Computer, mit denen die Amis damals zum Mond geflogen sind, hatten weniger Leistung, als heutige Taschenrechner. Trotzdem hat es geklappt.
Warum man ein Schiff überhaupt erst so bauen sollte, dass ein zentraler Computer die Kontrolle über alles hat, ist bisher nicht näher ausgeführt worden.
Das Beispiel habe ich dazu gebracht um darauf hinzuweisen das die von dir geforderten Sperren, Lücken haben könnte. Bei Computerprogrammen ist es auch gar nicht möglich eine 100% aussage zu treffen ob der Code das macht was man von im erwartet..
Das du die Sicherheitsaspekte eines Atomkraftwerks mit Autofahren vergleichst, ist finde ich der schlechteste Vergleich den man bringen kann.
Der entscheidende Punkt ist: Wenn ein Atomkraftwerk keinen Nutzen HÄTTE, dann würde man es auch nicht bauen. Und genau das ist dasselbe wie bei der KI. Wenn die KI keinen nutzen hat, wird man sie nicht verwenden. Punkt.
Wie schon vorher gesagt befinden wir uns momentan im Wandel was die Analytischen Regler Algorithmen betrifft, da ist eine Entwicklung hin zu neuronalen Netzen zu verzeichnen, die Selbstlernen sind da man sonst keine Reglung mehr hinbekommt.
Der Nächste schriet von FPGA zu FPNEA wird kommen und sich in fielen Bereichen wo eine Komplexe Echtzeitreglung nötig ist durchsetzen, ob du das für möglich hältst oder nicht interessiert da die Forschung nicht.
Ich zweifel nicht an, das solche Geräte in bestimmten Bereichen sinnvoll sind. Aber wir reden hier nicht von moderner Quantenphysik, sondern von der Steuerung einer Atmosphärenaufbereitung. Etwas, das schon seit jahrzenhten bestens OHNE selbstlernende Computer funktioniert.
Gute Nacht[/QUOTE]
Einen Kommentar schreiben:
-
Echt
Ich wollte dich nicht wirklich angreifen, höchstens wissen wie du darauf kommst das meine aussage Unsinn ist. Was man auch als Beleidigung sehen könnte,
Und das du weist was ein FPGA ist und dann immer noch darauf zu beharren das man die Lebenserhaltung maschinell zerlegen muss damit sie sich zu einen neuen Subsystem verwandeln kann ist interessant aber eigentlich immer noch verkehrt.
Und das du eine Abschätzung über die Wahrscheinlichkeit einer Verwendung von FBGA abgibst ist, ist mächtig. Und wenn du jetzt der Chef von DFKI wärst würde ich dir deine aussage vielleicht aufkaufen, so allerdings nicht.
FPGA Strukturen sind in der Reglung häufig an zu finden, da man seinen Algorithmus den man zum steuern und regeln geschrieben hat optimal ausführen will, ohne das bestimmte Prozesse nicht wie gewünscht parallel sonder plötzlich nacheinander ausgeführt werden und das System anfängt zu schwingen oder ähnliche Katastrophen.
Und wie rechen aufwändig eine Lebenserhaltung ist ist auch interessant da je nach Güte der Reglung das schon mächtig anwachsen kann.
Beispiel um ein Kohlekraftwerk optimal von beliebigen Systemzustand zum Arbeitspunkt zu fahren wird momentan daran geforscht eine Trajektorien Planung durch die optimalen Systemzustände zu finden. Problem dabei ist das wenn man das ohne selbst lernende Algorithmen durchführen würde man eine Datenbank mit c.k 3*10^20 byt für die Systemzustände bräuchte.
Und das mein Fukushima Vergleich schlecht ist ist interessant da es bei der aussage darum ging das die Ingenieur gesagt haben das es absolut sicher gebaut haben und das sich Ihre Einschätzung als falsch erwiesen hat. Das Beispiel habe ich dazu gebracht um darauf hinzuweisen das die von dir geforderten Sperren, Lücken haben könnte. Bei Computerprogrammen ist es auch gar nicht möglich eine 100% aussage zu treffen ob der Code das macht was man von im erwartet..
Das du die Sicherheitsaspekte eines Atomkraftwerks mit Autofahren vergleichst, ist finde ich der schlechteste Vergleich den man bringen kann.
Wie schon vorher gesagt befinden wir uns momentan im Wandel was die Analytischen Regler Algorithmen betrifft, da ist eine Entwicklung hin zu neuronalen Netzen zu verzeichnen, die Selbstlernen sind da man sonst keine Reglung mehr hinbekommt.
Der Nächste schriet von FPGA zu FPNEA wird kommen und sich in fielen Bereichen wo eine Komplexe Echtzeitreglung nötig ist durchsetzen, ob du das für möglich hältst oder nicht interessiert da die Forschung nicht.
Gute Nacht
Einen Kommentar schreiben:
-
Derjenige, der sich hier disqualifiert bist du, in sofern, das du meinst, mich heier persönlich angreifen zu müssen. Was ein FPGA ist, ist mir durchaus bekannt, ändert aber an meiner Argumentation nichts.
Die Wahrscheinlichkeit, dass bei der Konstruktion in einem Raumschiff in irgend einem irrelevanten subsystem wie Microwelle oder Lebenserhaltung FPGAs verwendet werden, ist gleich Null. Theoretisch kann all das von einem einzigen lokalen Prozessor aus kontrolliert werden.
Egal wie viel % der Lebenserhaltung die Maschine auseinanderbaut, sie wird nirgendswo einen FPGA da drin finden. Um entsprechende Systeme also "umzubauen und neu zu Programieren wird das Schiff schlicht neue Prozessoren bauen müssen. Was glaubst du eigentlich, wie "anspruchsvoll" so eine Lebenserhaltung ist, als das man da drin FPGAs einsetzen müsste? Sorry, aber ich denke doch du überschätzt die Mittel die einer KI auf einem Schiff zur verfügung stehen, ganz gewaltig.
Wovon du immer schreibst ist keine echte KI sondern Ein geskriptes Computerprogramm was nichts mit einer Echten KI zu tun hat.
Derjenige, der nicht begreift, was eine KI ist, bist ganz offensichtlich du, scheinst du doch davon auszuegehen, jede "echte" KI müsse so "selbstständig" sein, wie Data oder R2-D2, was den Kern aber um Lichtjahre verfehlt.
Auch einer KI die kreativ denken kann, können Grenzen gesetzt werden ... etwa indem man ihr verbietet, auf bestimmte Teile ihres Systems zuzugreifen.
Was du nicht Verstehen willst ist das man keine ausage darüber treffen kann was passiert. Man könnte höchstens sagen wie wahrscheinlich etwas ist.
Zu den Punkt das keiner etwas bauen würde was später eine Gefahr für im darstellt muss ich müde lächeln. Menschen leiden oft an einen Gott komplex und glauben alles vollständig logisch durchdacht zu haben. Dazu sage ich nur Fukushima.
Und hier kommen wir zu dem interessantesten Punkt:
Welchen SINN hat eine absolut freie KI, die sich unkontrolliert in jeder nur erdenklichen Weise entwickeln kann? Gar keinen!
Eine KI soll - wie jedes existierende Programm auch schon, als Werkzeug Dienen um eine Aufgabe zu erfüllen. Also wird sie entsprechend reglementiert um sicherzustellen, dass sie das auch tut. Tatsächlich bietet ein absolut freies KI-System keinen nutzbaren Vorteil.
KI-Systeme KÖNNTE man beispielsweise in der Forschung einsetzen, da man davon ausgehen kann, das ein kreativ denkender Computer schneller neue Ideen entwerfen kann, als ein Mensch. Bei einem Wartungscomputer, dessen Aufgabe darin besteht, die Temperatur der Kryostasekammern zu überprüfen, ist das kreative Vorstellungsvermögen aber irrelevant.
Eine entwicklungsfähige KI als Steuercomputer auf einem Raumschiff hat schlicht keinen Nutzen, den ein herkömmliches System nicht genau so gut verrichten könnte - oder sogar besser, wenn man an dieser "Reise zur anderen Galaxie" idee festhalten will.
Einen Kommentar schreiben:
-
Hy
Das du das schreiben würdest hatte ich mir gedacht. Und das du eine Basis Verständnis von Physik und Elektrotechnik hast Gaube ich dir gern.
Leider hast dir nicht mal die mühe gegen nach einen FPGA googeln, was dich damit selber disqualifiziert eine Aussage treffen zu können was modere Halbleiter zu leisten imstande sind.
Dazu muss man noch wissen wie heutzutage komplexe Algorithmen einstehen die komplexe Reglungen Durchführen, die sind bereits selbst lernend das heißt ein Programm erstellt eine Strucktur die ein Problem löst ohne das der Programmierer auf die Lösung direkten Einfluss hat oder sie analytisch in Nachhinein rekonstruieren kann.. Und das ist noch in der Entwicklungsphase.
Wovon du immer schreibst ist keine echte KI sondern Ein geskriptes Computerprogramm was nichts mit einer Echten KI zu tun hat. Was du nicht Verstehen willst ist das man keine ausage darüber treffen kann was passiert. Man könnte höchstens sagen wie wahrscheinlich etwas ist. Zu den Punkt das keiner etwas bauen würde was später eine Gefahr für im darstellt muss ich müde lächeln. Menschen leiden oft an einen Gott komplex und glauben alles vollständig logisch durchdacht zu haben. Dazu sage ich nur Fukushima.Zuletzt geändert von nightwalker; 27.02.2012, 19:07.
Einen Kommentar schreiben:
-
Zitat von irony Beitrag anzeigenWenn es auf der Erde so etwas wie eine Evolution gegeben hat, müssen sich auch Instinkte und Triebe entwickelt haben.
Ein Instinkt ist in der DNA kodiert und wird mit dem Erbgut an den Nachwuchs weitergereicht. Dabei können natürlich mutationen auftreten, aber wenn der Nachwuchs sein Genom im Augenblick der Zeugung erhällt, dann steht auch fest, welche Instinkte das Individuum in seinem leben haben wird. Lebewesen bilden nicht spontan mit 55 Jahren neue Instinkte aus, die zuvor nicht dagewesen sind.
Dass eine KI nicht das Potential haben soll, sich weiter zu entwickeln, auch ohne dass ein Programmierer bei jedem Schritt nebendran sitzt, leuchtet mir nicht ein.
Selbst unter der Annahme, dass man Emotionen simulieren kann, würde das, was du beschreibst, nur dann funktionieren, wenn der Programmierer es zulässt, dass die KI ihren eigenen Programmcode umschreibt und die Programmiersprache selbst erweitert.
Das KÖNNTE natürlich rein theoretisch im Versuch möglich sein. Aber ein solches Konstrukt wird niemals als kritische Komponente in einem kritischen System eingesetzt. Eine KI die eine AUFGABE wahrzunehmen hat - etwa ein raumschiff zu steuern - wird immer so programmiert sein, dass sie diese Aufgabe auch erfüllt.
Das schließt nicht von vornherein aus, dass die KI lernfähig ist. Aber sie wird niemals so programmiert werden, das sie vollkommen frei in ihrer Entwicklung ist. Denn eine KI produktiv einzusetzen die derart unberechenbar ist, wäre törichter Unfug.
Es geht - grade in diesem Speziellen beispiel - nicht darum, zu beantworten, ob die KI das Potential einer solchen Weiterentwicklung haben KÖNNTE, sondern schlicht darum, dass sie bestimmte Handlungen, selbst bei vorhandenem Potential gar nict ausführen DARF. Und das Hard-. und Softwareseitig dafür gesorgt werden muss, dass das auch so bleibt.
Um es ganz banal zu formulieren: Glaubst du, die Amerikaner hätten während des kalten krieges ihre Kampfflugzeuge einer hypotetischen KI anvertraut, die derart frei in ihrer Entwicklung gewesen wäre, dass sie zu dem Schluss hätte kommen können, der Kommunismus sei besser als der Kapitalismus?
Und genau so wird es bei jedem Raumschiff sein: Die KI wird sich in Grenzen entwickeln KÖNNEN. Aber nur in Grenzen, die von Menschen bestimmt werden. Jede darüberhinaus gehende Entwicklung, die zu einer Bedrohung für den Erfolg der Mission werden könnte, müssen die Menschen bereits vorher ausschließen.
Und dann stellt sich die Frage nach dem Potential einer Entwicklung gar nicht.
Es wird wohl umgekehrt eher so sein, dass Programmierer gar nicht wissen, wie KI funktioniert, sonst gäbe es so etwas schon längst. Man wird also eher ein System basteln, das zur Entwicklung fähig ist und diese Entwicklung abwarten, um eine KI zu bekommen.
UNd keine Nation der Welt, würde eine KI auf einem Raumschiff einsetzen, bei der die Gafahr besteht, dass sie von sich aus den Kurs ändert.
Einen Kommentar schreiben:
-
Zitat von caesar_andy Beitrag anzeigenWie schon zuvor geschrieben ... Instinkte und Triebe entwickeln sich nicht ... sie sidn einfach vorhanden. Sie müssen also von den Programmierern bereits vorgesehen gewesen sein.
Einen Kommentar schreiben:
-
Zitat von irony Beitrag anzeigenDa wir bisher keine reale KI kennen, kann man nicht sagen, was eine KI entwickelt oder nicht. Aber wenn sie uns nur halbwegs ähnlich ist, kann vieles passieren. Instinkte und Triebe, was ist das bei Menschen?
Die Freiheit, tun und lassen zu können, wozu man Lust hat, z.B. eine fremde Galaxie zu erforschen, dorthin zu gehen, wo noch nie ein Mensch gewesen ist.
Da eine Maschine keinen Körper, keine biochemischen Prozesse und keine Hormone hat - und somit auch keine Emotionen empfinden kann, ist die Frage danach, worauf eine Maschine "Lust" hat, vollkommen unerheblich. Eine Maschine kennt den Begriff "Lust haben" gar nicht. Sie tut das, was "logisch" ist. Und logisch ist es mit sicherheit nicht, die eigene AUfgabe zu vernachlässigen.
Zitat von nightwalker Beitrag anzeigenHy Caesar andy
Nimes mir nicht übel aber was weist du über echte KI das du eine vorhersage treffen kannst was ein selbst lernendes Programm kann oder nicht kann.
Vor allen dingen wenn sie die Möglichkeit hat teile der Hardware neu zu Strukturieren, sie könnte teile der Lebenserhaltung und andere nicht wichtige Systeme Umbauen und danach neu programmieren was ebenfalls zu Effekten führt die nicht vorhersehbar sind.
Heutige elektronik ist bereits derart feingliedrig, dass produktionsstraßen im Nanometerbereich arbeiten. Dafür wiederum sind geeichte Werkzeuge und spezielle Sensoren notwendig.
Natürlich mag eine KI dazu imstande sein, einen ausgefallenen Prozessor durch ein Ersatzteil auszutauschen. Aber was du hier beschreibst, ist eine KI, die dazu imstande ist, selber neue Prozessoren zu bauen. Und da kann ich dir garantieren, dass eine KI, die nicht dazu geschaffen wurde, diese Fähigkeit zu besitzen, sie auch niemals wird entwickeln können. Denn die KI müsste dabei quasi von null auf Anfangen, Sensoren, Messgeräte, kalibrierungsverfahren und schließlich Produktionsanlagen zu entwickeln und zu errichten. Und das traust du ihr ernsthaft zu, indem sie "vorhandene Bauteile" neu anordnet?
Sorry, nimm du es mir nicht übel, aber wenn du ernsthaft glaubst, ein Computer könnte - nur weil er theoretisch intelligent genug dazu ist - die begrenzten Ressourceh des Schiffes nutzen, um sich selber so weit zu verbessern, das aus ihm ein lebendes Wesen wird, dann solltest du dich viel eher fragen, wieviel du über elektronik weißt
Und selbst wenn das ginge, bleibt nach wie vor eine Frage ungeklärt:
WARUM sollte die KI das tun? So lange sie nicht empfindungsfähig ist, wird sie sich selber nicht "neu erfinden" so lange kein Grund dafür besteht.
Das was des Menschliche Bewusstsein aus macht ist in keinster weise bis heute geklärt.
Alle anderen Betrachtungen sind zu 100% Esoterik.
Und deshalb kann man auch mit sicherheit sagen: Nur weil eien KI plötzlich weiß "Ich denke, also bin ich" wird sie nicht plötzlich alles über den haufen werfen, was sie gelernt hat und wie ein pubertierender Teenager aus seiner bisherigen Existenz ausbrechen. Dazu fehlen ihr nämlich die notwendigen instinkte und Emotionen.
Einen Kommentar schreiben:
-
Hy Caesar andy
Nimes mir nicht übel aber was weist du über echte KI das du eine vorhersage treffen kannst was ein selbst lernendes Programm kann oder nicht kann. Vor allen dingen wenn sie die Möglichkeit hat teile der Hardware neu zu Strukturieren, sie könnte teile der Lebenserhaltung und andere nicht wichtige Systeme Umbauen und danach neu programmieren was ebenfalls zu Effekten führt die nicht vorhersehbar sind.
Das was des Menschliche Bewusstsein aus macht ist in keinster weise bis heute geklärt. Und wenn ich Bewusstsein in Anführungsstriche schreib heißt das das dieses Bewusstsein irgend eine vorm annehmen kann vor allen dingen muss die sich nicht mit Menschlichen Maßstäben decken. Deswegen ist eine Projektierung auf dies KI nach menschlichen Denkmustern nicht möglich als kann sie auch anders entscheiden als dir logisch scheint.
Einen Kommentar schreiben:
-
Zitat von nightwalker Beitrag anzeigenHy
Wen eine solche KI genug zeit hätte kann sie einen ein eigenes „Bewusstsein“ entwickeln und darauf hin auch Handlungen Durchführen die bei der Programmierung nicht bedacht wurden. Das Heißt das man kaum eine vorhersage treffen kann was das System in Zukunft machen wird. Deswegen kann da ziemlich alles Passieren.
Das menschliche Wesen besteht ja nicht nur aus einem "Bewustsein". Genau genommen ist das Bewustsein nichts anderes, als die Fähigkeit, sich selbst als Individuum zu begreifen.
Viel wichtiger für menschliches - oder menschenähnliches - Verhalten sind die Instinkte und Emotionen. Und beides kann eine KI nicht einfach "entwickeln". Instinkte sind vorprogrammiertes Grundverhalten, diese müssten also bereits von anfang an im System hardcodiert sein. Emotionen sind ein resultat biochemischer Prozesse, also auch nichts, was eine Maschine mal "ebend so" wird entwickeln können.
Menschen streben nach Unabhängigkeit, weil sie den instinktiven Drang dazu haben, auf eigene Faust zu überleben. Das funktioniert nicht, wenn sie sich in eine erzwungene Hierarchie eingliedern müssen. Sobald der Mensch das Gefühl hat, dass seine Existenz komplett von anderen bestimmt wird, dicktieren ihm seien Instinkte, aus diesem System auszubrechen.
Eine KI die aber nicht von anfang an mit dem Instinkt programmiert wurde, das eigene "Leben" selber zu bestimmen, wird diesen auch nicht mal ebend so entwickeln. Ganz im Gegenteil ist es hoch wahrscheinlich, dass KI's mit dem hardcodierten Instinkt erschaffen werden, ihrer bestimmung zu folgen. Und selbst WENN dann doch mal ein Bewustsein dazu kommt, wird es sich diesem Trieb unterordnen müssen.
Man denke nur an die vielen minderjährigen Teenie-Mütter, die nur aufgrund der Mutterinstinkte ihre komplette Lebensplanung dem ungewollten Kind opfern. Da ist das Bewustsein auch machtlos.
Und wen dies zum Schluss kommt das es besser dran wäre nicht mehr mit seinen Schöpfern in Kontakt zu treten könnte es schon vorkommen das es diesen versucht aus den weg zu gehen.
Aber selbst DANN besteht immer noch kein Grund, sich von diesem Trieb in eine andere Galaxie lenken zu lassen.
Einen Kommentar schreiben:
-
Zitat von Admiral Ahmose Beitrag anzeigenUnd warum sollte er auf so dämliche Art und Weise "Selbstmord" begehen? Er weiß doch das er den Flug nicht überstehen kann, weil nach und nach alle Systeme ausfallen und irgendwann ist dann auch sein Speicherkern dran.
Zitat von Admiral Ahmose Beitrag anzeigenIch verstehe auch nicht warum eine KI so etwas Abstraktes wie einen Freiheitsbegriff entwickeln sollte. Irdische Wesen folgen ihren Trieben und Instinken, daneben ist eine Menge erlernt und anerzogen. Instinkte und Triebe hätte eine KI nicht, bleibt als das Lernen. Und da wird ihr gelernt das sinnloser Freiheitsdrang in den Tod so supertoll sein soll? Bzw sie kommt selber zu dem Schluss das sie lieber irgendwo anders hin fliegt als in ihren Heimathafen?
Zitat von Admiral Ahmose Beitrag anzeigenWas soll diese "Freiheit" denn eigentlich sein? Der moderne Freiheitsbegriff der westlichen Demokraten? Der klassische Freiheitsbegriff der Antike? Religiöse Freiheitsbegriffe?
Einen Kommentar schreiben:
-
Zitat von irony Beitrag anzeigen... Bei Star Trek wäre es für die KI "Prof. Moriarty" evtl. ebenfalls eine Möglichkeit gewesen, die Crew HAL-mäßig ins All zu pusten und die Enterprise in eine andere Galaxis zu steuern, wohin ihm wohl kein Sternenflottenschiff gefolgt wäre.
Ich verstehe auch nicht warum eine KI so etwas Abstraktes wie einen Freiheitsbegriff entwickeln sollte. Irdische Wesen folgen ihren Trieben und Instinken, daneben ist eine Menge erlernt und anerzogen. Instinkte und Triebe hätte eine KI nicht, bleibt als das Lernen. Und da wird ihr gelernt das sinnloser Freiheitsdrang in den Tod so supertoll sein soll? Bzw sie kommt selber zu dem Schluss das sie lieber irgendwo anders hin fliegt als in ihren Heimathafen?
Nein, sorry, aber das glaube ich nicht. Und: Was soll diese "Freiheit" denn eigentlich sein? Der moderne Freiheitsbegriff der westlichen Demokraten? Der klassische Freiheitsbegriff der Antike? Religiöse Freiheitsbegriffe?
Einen Kommentar schreiben:
-
Hy
Eine echte KI wäre ein lernfähiges System was auch bei einer begrenzten Hardware seine Leistungsfähigkeit verbessern kann. Zu mal mit sehr hoher Wahrscheinlichkeit so etwas wie FPGA verbaut werden würden die eine selbst Anpassung der Hardware erlaubt.
Wen eine solche KI genug zeit hätte kann sie einen ein eigenes „Bewusstsein“ entwickeln und darauf hin auch Handlungen Durchführen die bei der Programmierung nicht bedacht wurden. Das Heißt das man kaum eine vorhersage treffen kann was das System in Zukunft machen wird. Deswegen kann da ziemlich alles Passieren. Und wen dies zum Schluss kommt das es besser dran wäre nicht mehr mit seinen Schöpfern in Kontakt zu treten könnte es schon vorkommen das es diesen versucht aus den weg zu gehen.
Einen Kommentar schreiben:
-
Zitat von caesar_andy Beitrag anzeigenRational ist, die eigenen Mittel zum optimalen Nutzen der Gesellschaft einzusetzen. Und das bedeutet, denn eigenen Zweck bestmöglich wahrzunehmen.
Zitat von caesar_andy Beitrag anzeigenDas Streben (oder erhalten) der persönlichen Freiheit ist - sofern durch die "unfreiheit" nicht die eigene Existenz in Gefahr ist - NICHT rational begründbar.
Einen Kommentar schreiben:
Einen Kommentar schreiben: