Geisterschiffe im All - SciFi-Forum

Ankündigung

Einklappen
Keine Ankündigung bisher.

Geisterschiffe im All

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

  • nightwalker
    antwortet
    Guten morgen
    Ich sehe schon das Problem, du gehest davon aus das die Dinge die vor 50jahren funktioniert haben sich auch in Zukunft nicht ändern müssen, und deswegen die Forschung von heute die in 100 Jahren veraltet ist dort nicht verwendet wird da die Technik die zu den Zeitpunkt 150 Jahre alt ist besser ist.
    Das du in einer Firma warst die mit einem Automaten der wahrscheinlich auf einen 68000 programmiert war, wobei es ….. egal ist ob der mit C;C++ oder Assembler programmiert wurde, kommst ist egal da du Steuerung und Regelung durcheinander wirfst. Bei der MIR wurde mit Chemischen Absorbern die Luft aufbereitet. Da die MIR von dem Erde immer mit neuen material versehen wurde ist das kein Problem. Wenn man aber mit seinen Raumschiff in Leerraum ist muss man die Luft mit Katalyse Prozessen wider Recycling und das Energie arm und Genau. Das ist aber dann kein lineares System mehr wo man mit einen zwei punkt Regler das Problem lösen kann.
    Du schließt bei deiner Vorstellung zufiele Sachen aus und versuchst dann mit lächerlichen Beispielen die Argumente deiner Gegenseite zu entkräften. Zb das ein FPGA System um Faktor 10000 teurer ist als eins mit Mikroprozessor ist so ein Beispiel.
    Bei den Kohlekraftwerk geht es nicht um ein paar Cent sondern um jährliche Milliarden Beträge die sich damit einsparen lasen würden.
    Es ging bei dem Beispiel mit dem FPGA, wo du wohl nur die wiki quergelesen hast darum das heute schon Systeme und Algorithmen zur Verfügung stehen die Selbstlernen erlauben. Das In weit über 100 Jahren das sich weiter entwickelt zu noch mächtigere Hardware ist unvermeidbar. (höchsten wir haben den 3 Weld Krieg)
    Des Weiteren hätte ein solches Raumschiff 3d Drucker für verschiedene Materialien an Bord und wahrscheinlich ein „Drucker“ der Digitale Schaltungen Drucken kann. Beides gibt es heute schon, und sollten in über 100jahren auch kommerziell erschwinglich sein.
    Falls du mir wider damit kommen willst das ich ja keine Ahnung hätte wovon ich schreibe
    Habe 4 Semester Grundlagen der Schaltungstechnik als Studentischer Mitarbeiter gehalten.
    Habe 2 Jahre in der Halbleiter Fertigung gearbeitet, das heizt in einen Reinraum das Ätzen von Wafern überwacht, und Messungen auf den selbigen durchgeführt, weiß also ziemlich genau wie solche hergestellt werden.
    Habe in einen Team ein FPGA Programmiert.
    Habe in Einen Team ein Laufroboter Gebaut und den Programm Ablauf UML entworfen und die Programmierung überwacht.
    Habe diverse Schaltungen entworfen.
    Habe vor kurzen ein FUZZI gestützten Adaptiven Kennlinien Feld Regler entworfen. Obwohl das System auf den ersten blick lächerlich banal ist war das zum Schluss die einzige Möglichkeit das Problem zu lösen.
    Und das ist nur ein Bruchteil was ich indem letzten Jahren gemacht habe. Ich weiß ziemlich genau wovon ich schreibe, und es ging dabei nur darum ob man aufgrund von heutigen Stand der Technik die in der Allgemein Bildung die 10Jahre hinter der Forschung hinterherhingt eine Aussage treffen kann was genau eine KI die mit Sicherheit in dem Scenario von dem Diskussion Starter beschrieben wurde, verbaut wurde, vorhersagen zu können, was diese in Fahle des Todes der Crew machen würde. Und die schlichte Antwort ist nein, und deswegen kann man in diesen Fall als Autor, selbst von Hard SF, schreiben was man will.

    Einen Kommentar schreiben:


  • Synti
    antwortet
    Auch wenn ich schon vor einigen Posts ausgestiegen bin, musste ich kurz schmunzeln und irgendwie an Bombe 20 aus DarkStar denken. Ich glaube einer der besten Beweise sich eine KI nicht zu sehr entwickeln zu lassen^^

    Einen Kommentar schreiben:


  • caesar_andy
    antwortet
    Zitat von nightwalker Beitrag anzeigen
    Und das du weist was ein FPGA ist und dann immer noch darauf zu beharren das man die Lebenserhaltung maschinell zerlegen muss damit sie sich zu einen neuen Subsystem verwandeln kann ist interessant aber eigentlich immer noch verkehrt.
    Ein FPGA - wo auch immer du ein solches Gerät in einer Lebenserhaltung vermuten willst - in einer Microwelle wäre auch nach hunderten umstrukturierungen immer noch ein FPGA in einer Microwelle. Und da eine Microwelle üblicherweise kein Gerät zur Datenverarbeitung ist, werden auch die Verdrahtungen und Vernetzugen innerhalb des Gerätes nicht auf den Transport großer Datenmengen ausgelegt sein.
    Selbst WENN die KI in irgend einem Subsystem einen FPGA finden und umstrukturieren würde, ändert das nichts daran, dass die systeminterne Kommunikation über Microwellen-Leiterplatten laufen würde. Wenn du mir hier und jetzt beweist, das du mit einem FPGA aus einer Microwelle, einer Waschmaschine oder von mir aus einem Haartrocker einen PC bauen kannst, dann ziehe ich meinen Einwand zurück. Wenn nicht, dann bleibe ich dabei.

    Ein FPGA mag mächtig sein. Aber er ist kein Wunder, das alle Regeln der Elektrotechnik ignoriert.

    Und das du eine Abschätzung über die Wahrscheinlichkeit einer Verwendung von FBGA abgibst ist, ist mächtig. Und wenn du jetzt der Chef von DFKI wärst würde ich dir deine aussage vielleicht aufkaufen, so allerdings nicht.
    Das ist nicht mächtig, das ist einfach realistisch. FPGA'S sind im Vergleich zu herkömmlichen Microprozessoren teurer und verbrauchen mehr Strom. Beides führt mich zu dem Schluss, das FPGAs normale Microprozessoren nur dort ablösen, wo sie zwingend erforderlich sind.
    Ähnliches sah man immer schon. Die Mobiltelefonie hat NIEMALS das Festnetzt abgelöst. LAPTOPS nicht die DESKTOP-PCs, Autos nicht Fahrrad, EDV nicht das Papier .... etc. PP.
    Du gehst hier von einer Zukunft aus, in der jeder Prozessor ein FPGA sein wird. Und ich streite das ab, einfach weil FPGAs ZU VIEL leisten, als das es sinnvoll wäre, sie innerhalb einfacher Standardsysteme zu verwenden.

    FPGA Strukturen sind in der Reglung häufig an zu finden, da man seinen Algorithmus den man zum steuern und regeln geschrieben hat optimal ausführen will, ohne das bestimmte Prozesse nicht wie gewünscht parallel sonder plötzlich nacheinander ausgeführt werden und das System anfängt zu schwingen oder ähnliche Katastrophen.
    Wenn du mir jetzt auch noch erklärst, welche "ähnliche Katastrophe" du bei einem Wasserbett erwartest, dass der Einsatz eines FPGAs trotz seiner massiven Nachteile erfordern würde, können wir gerne darüber weiter reden.

    Und wie rechen aufwändig eine Lebenserhaltung ist ist auch interessant da je nach Güte der Reglung das schon mächtig anwachsen kann.
    Ob du es glaubst oder nicht, aber ich komme aus der Branche. Mein alter Arbeitgeber baut Mess- und Regelsysteme zur Wasseraufbereitung. Wir hatten bei meinem Weggang vor einem Jahr die technisch besten Geräte zur Wasseraufbereitung für Schwimmbäder ... und die DInger benutzen eine ganz simple Assembler-Programierung mit einer ziemlich einfachen Hardware. Die Probleme, die im Mess- und Regelbereich auftreten können, sind sensorenseitig und Elektronikseitig zu finden. Ein sich selbst neu konfigurierender Prozessor wäre da keine Hilfe.

    Beispiel um ein Kohlekraftwerk optimal von beliebigen Systemzustand zum Arbeitspunkt zu fahren wird momentan daran geforscht eine Trajektorien Planung durch die optimalen Systemzustände zu finden. Problem dabei ist das wenn man das ohne selbst lernende Algorithmen durchführen würde man eine Datenbank mit c.k 3*10^20 byt für die Systemzustände bräuchte.
    Das entscheidende Wort in deiner Argumentation ist "Forscht". Man Forscht daran. Und warum? Weil es das bisher noch nicht gab. Trotzdem gibt es Kohlekraft schon wie lange? 50 Jahre?
    Diese Technik ist für den Betrieb also nicht notwendig, sie soll lediglich das effizienz-schmälernde Verhalten des "Hochfahrens" bei Kohlekraftwerken eindämmen.
    Für eine normale Umgebungsaufbereitung genüg - wie bereits gesagt - sogar ein Assembler-Gerät.

    Und das mein Fukushima Vergleich schlecht ist ist interessant da es bei der aussage darum ging das die Ingenieur gesagt haben das es absolut sicher gebaut haben und das sich Ihre Einschätzung als falsch erwiesen hat.
    Das Problem bei Kernenergie ist, das sie nicht kontrollierbar ist. Einmal in Gang gebracht, geht sie immer und immer weiter ... so lange, bis man sie wieder gezielt abschaltet.
    Bei einem Computer ist das nicht so. Bei einem "verrückten" Computer genügt es - salop gesagt - einfach "den Stecker zu ziehen" und die Sache ist erledigt.
    Meine Argumentation geht auch nach wie vor eher dahin, dass eine "lernende KI" auf einem Raumschiff nicht notwendig ist. Wenn das DIng einfach ein Ziel anfliegen soll, dann wird es das auch mit einem normalen Prozessor tun. Die Computer, mit denen die Amis damals zum Mond geflogen sind, hatten weniger Leistung, als heutige Taschenrechner. Trotzdem hat es geklappt.

    Warum man ein Schiff überhaupt erst so bauen sollte, dass ein zentraler Computer die Kontrolle über alles hat, ist bisher nicht näher ausgeführt worden.

    Das Beispiel habe ich dazu gebracht um darauf hinzuweisen das die von dir geforderten Sperren, Lücken haben könnte. Bei Computerprogrammen ist es auch gar nicht möglich eine 100% aussage zu treffen ob der Code das macht was man von im erwartet..
    Aber man kann von beginn an Sachen ausschließen, in dem man ein System konstruiert, das zwar informationen sammeln und in einer Datenbank speichern, seinen eigenen Kernel aber nicht verändern darf.

    Das du die Sicherheitsaspekte eines Atomkraftwerks mit Autofahren vergleichst, ist finde ich der schlechteste Vergleich den man bringen kann.
    Nein, weil es um die inkaufnahme von Risiken geht. Menschen brauchen mobilität genau so, wie sie Strom brauchen. In beiden Fällen wird dieses Bedürfniss von einer Maschine erfüllt, die ein potentielles Risiko für den Anwender und unbeteiligte in sich birgt. Das Risiko wird einfach als weniger relevant eingeschätzt, als der Nutzen.

    Der entscheidende Punkt ist: Wenn ein Atomkraftwerk keinen Nutzen HÄTTE, dann würde man es auch nicht bauen. Und genau das ist dasselbe wie bei der KI. Wenn die KI keinen nutzen hat, wird man sie nicht verwenden. Punkt.

    Wie schon vorher gesagt befinden wir uns momentan im Wandel was die Analytischen Regler Algorithmen betrifft, da ist eine Entwicklung hin zu neuronalen Netzen zu verzeichnen, die Selbstlernen sind da man sonst keine Reglung mehr hinbekommt.
    Das mag auf teilbereiche wie moderne Physikforschung zutreffen, aber ganz sicher nicht auf Wasser und Atmosphärenaufbereitung. Die MIR hat Jahrzentelang eine Atmeluftaufbereitung an Bord ... und da hat das fehlen von "selbstlernenden, neuronalen Netzen" anscheinend auch niemanden gestört.

    Der Nächste schriet von FPGA zu FPNEA wird kommen und sich in fielen Bereichen wo eine Komplexe Echtzeitreglung nötig ist durchsetzen, ob du das für möglich hältst oder nicht interessiert da die Forschung nicht.
    Eine "komplexe Echtzeitregelung" ist aber NICHT ÜBERALL notwendig. Ob DU das glaubst, oder nicht. interessiert die Wirtschaft nicht. Wenn ich ein FPGA oder FPNEA basiertes Wasseraufbereitungssystem für 20.000.000€ verkaufe, während danneben eines Steht, das die selbe Arbeit auf Assembler Basisi für 1.000€ verrichtet, dann wird dein super-tolles neuronales Netzwerk ganz schnell einen gehörigen Dämpfer kriegen.

    Ich zweifel nicht an, das solche Geräte in bestimmten Bereichen sinnvoll sind. Aber wir reden hier nicht von moderner Quantenphysik, sondern von der Steuerung einer Atmosphärenaufbereitung. Etwas, das schon seit jahrzenhten bestens OHNE selbstlernende Computer funktioniert.

    Gute Nacht[/QUOTE]

    Einen Kommentar schreiben:


  • nightwalker
    antwortet
    Echt
    Ich wollte dich nicht wirklich angreifen, höchstens wissen wie du darauf kommst das meine aussage Unsinn ist. Was man auch als Beleidigung sehen könnte,
    Und das du weist was ein FPGA ist und dann immer noch darauf zu beharren das man die Lebenserhaltung maschinell zerlegen muss damit sie sich zu einen neuen Subsystem verwandeln kann ist interessant aber eigentlich immer noch verkehrt.

    Und das du eine Abschätzung über die Wahrscheinlichkeit einer Verwendung von FBGA abgibst ist, ist mächtig. Und wenn du jetzt der Chef von DFKI wärst würde ich dir deine aussage vielleicht aufkaufen, so allerdings nicht.
    FPGA Strukturen sind in der Reglung häufig an zu finden, da man seinen Algorithmus den man zum steuern und regeln geschrieben hat optimal ausführen will, ohne das bestimmte Prozesse nicht wie gewünscht parallel sonder plötzlich nacheinander ausgeführt werden und das System anfängt zu schwingen oder ähnliche Katastrophen.
    Und wie rechen aufwändig eine Lebenserhaltung ist ist auch interessant da je nach Güte der Reglung das schon mächtig anwachsen kann.
    Beispiel um ein Kohlekraftwerk optimal von beliebigen Systemzustand zum Arbeitspunkt zu fahren wird momentan daran geforscht eine Trajektorien Planung durch die optimalen Systemzustände zu finden. Problem dabei ist das wenn man das ohne selbst lernende Algorithmen durchführen würde man eine Datenbank mit c.k 3*10^20 byt für die Systemzustände bräuchte.

    Und das mein Fukushima Vergleich schlecht ist ist interessant da es bei der aussage darum ging das die Ingenieur gesagt haben das es absolut sicher gebaut haben und das sich Ihre Einschätzung als falsch erwiesen hat. Das Beispiel habe ich dazu gebracht um darauf hinzuweisen das die von dir geforderten Sperren, Lücken haben könnte. Bei Computerprogrammen ist es auch gar nicht möglich eine 100% aussage zu treffen ob der Code das macht was man von im erwartet..

    Das du die Sicherheitsaspekte eines Atomkraftwerks mit Autofahren vergleichst, ist finde ich der schlechteste Vergleich den man bringen kann.

    Wie schon vorher gesagt befinden wir uns momentan im Wandel was die Analytischen Regler Algorithmen betrifft, da ist eine Entwicklung hin zu neuronalen Netzen zu verzeichnen, die Selbstlernen sind da man sonst keine Reglung mehr hinbekommt.
    Der Nächste schriet von FPGA zu FPNEA wird kommen und sich in fielen Bereichen wo eine Komplexe Echtzeitreglung nötig ist durchsetzen, ob du das für möglich hältst oder nicht interessiert da die Forschung nicht.

    Gute Nacht

    Einen Kommentar schreiben:


  • caesar_andy
    antwortet
    Derjenige, der sich hier disqualifiert bist du, in sofern, das du meinst, mich heier persönlich angreifen zu müssen. Was ein FPGA ist, ist mir durchaus bekannt, ändert aber an meiner Argumentation nichts.

    Die Wahrscheinlichkeit, dass bei der Konstruktion in einem Raumschiff in irgend einem irrelevanten subsystem wie Microwelle oder Lebenserhaltung FPGAs verwendet werden, ist gleich Null. Theoretisch kann all das von einem einzigen lokalen Prozessor aus kontrolliert werden.

    Egal wie viel % der Lebenserhaltung die Maschine auseinanderbaut, sie wird nirgendswo einen FPGA da drin finden. Um entsprechende Systeme also "umzubauen und neu zu Programieren wird das Schiff schlicht neue Prozessoren bauen müssen. Was glaubst du eigentlich, wie "anspruchsvoll" so eine Lebenserhaltung ist, als das man da drin FPGAs einsetzen müsste? Sorry, aber ich denke doch du überschätzt die Mittel die einer KI auf einem Schiff zur verfügung stehen, ganz gewaltig.

    Wovon du immer schreibst ist keine echte KI sondern Ein geskriptes Computerprogramm was nichts mit einer Echten KI zu tun hat.
    Oh, mir ist schon klar, was eine KI ist. Nämlich ein Computersystem, das in der Lage dazu ist, kreativ zu denken und anhand gemachter Erfahrungen selbstständig neue Lösungen zu suchen.
    Derjenige, der nicht begreift, was eine KI ist, bist ganz offensichtlich du, scheinst du doch davon auszuegehen, jede "echte" KI müsse so "selbstständig" sein, wie Data oder R2-D2, was den Kern aber um Lichtjahre verfehlt.
    Auch einer KI die kreativ denken kann, können Grenzen gesetzt werden ... etwa indem man ihr verbietet, auf bestimmte Teile ihres Systems zuzugreifen.

    Was du nicht Verstehen willst ist das man keine ausage darüber treffen kann was passiert. Man könnte höchstens sagen wie wahrscheinlich etwas ist.
    Sicher kann man keine Aussage darüber treffen, was genau passiert. Und deshalb wird es ein vollkommen freies System auch niemals geben. Nichts anderes sagte ich.

    Zu den Punkt das keiner etwas bauen würde was später eine Gefahr für im darstellt muss ich müde lächeln. Menschen leiden oft an einen Gott komplex und glauben alles vollständig logisch durchdacht zu haben. Dazu sage ich nur Fukushima.
    Das ist wohl einer der schlechtesten RL-Vergleiche, die ich in meiner Internetzeit jemals gelesen haben. Ein Atomkraftwerk ist ein Risiko bei dem davon ausgegangen wird, das der Nutzen (Strom) das Risiko (GAU) übersteigt. Das ist in etwa so, als wenn du dich in dein Auto setzt. Wenn du glaubst der positive Nutzen (erreichen deines Ziels) sei relevanter als das bestehende Risiko (Autounfall), dann benutzt du das Auto.

    Und hier kommen wir zu dem interessantesten Punkt:

    Welchen SINN hat eine absolut freie KI, die sich unkontrolliert in jeder nur erdenklichen Weise entwickeln kann? Gar keinen!
    Eine KI soll - wie jedes existierende Programm auch schon, als Werkzeug Dienen um eine Aufgabe zu erfüllen. Also wird sie entsprechend reglementiert um sicherzustellen, dass sie das auch tut. Tatsächlich bietet ein absolut freies KI-System keinen nutzbaren Vorteil.

    KI-Systeme KÖNNTE man beispielsweise in der Forschung einsetzen, da man davon ausgehen kann, das ein kreativ denkender Computer schneller neue Ideen entwerfen kann, als ein Mensch. Bei einem Wartungscomputer, dessen Aufgabe darin besteht, die Temperatur der Kryostasekammern zu überprüfen, ist das kreative Vorstellungsvermögen aber irrelevant.

    Eine entwicklungsfähige KI als Steuercomputer auf einem Raumschiff hat schlicht keinen Nutzen, den ein herkömmliches System nicht genau so gut verrichten könnte - oder sogar besser, wenn man an dieser "Reise zur anderen Galaxie" idee festhalten will.

    Einen Kommentar schreiben:


  • nightwalker
    antwortet
    Hy
    Das du das schreiben würdest hatte ich mir gedacht. Und das du eine Basis Verständnis von Physik und Elektrotechnik hast Gaube ich dir gern.
    Leider hast dir nicht mal die mühe gegen nach einen FPGA googeln, was dich damit selber disqualifiziert eine Aussage treffen zu können was modere Halbleiter zu leisten imstande sind.
    Dazu muss man noch wissen wie heutzutage komplexe Algorithmen einstehen die komplexe Reglungen Durchführen, die sind bereits selbst lernend das heißt ein Programm erstellt eine Strucktur die ein Problem löst ohne das der Programmierer auf die Lösung direkten Einfluss hat oder sie analytisch in Nachhinein rekonstruieren kann.. Und das ist noch in der Entwicklungsphase.
    Wovon du immer schreibst ist keine echte KI sondern Ein geskriptes Computerprogramm was nichts mit einer Echten KI zu tun hat. Was du nicht Verstehen willst ist das man keine ausage darüber treffen kann was passiert. Man könnte höchstens sagen wie wahrscheinlich etwas ist. Zu den Punkt das keiner etwas bauen würde was später eine Gefahr für im darstellt muss ich müde lächeln. Menschen leiden oft an einen Gott komplex und glauben alles vollständig logisch durchdacht zu haben. Dazu sage ich nur Fukushima.
    Zuletzt geändert von nightwalker; 27.02.2012, 19:07.

    Einen Kommentar schreiben:


  • caesar_andy
    antwortet
    Zitat von irony Beitrag anzeigen
    Wenn es auf der Erde so etwas wie eine Evolution gegeben hat, müssen sich auch Instinkte und Triebe entwickelt haben.
    Ähm ... Evolution findet ZWISCHEN Generationen statt. Ein einzelnes Individuum vollzieht im laufe seiner Existenz keine Evolution. Deshalb ist der vergleich unangebracht.

    Ein Instinkt ist in der DNA kodiert und wird mit dem Erbgut an den Nachwuchs weitergereicht. Dabei können natürlich mutationen auftreten, aber wenn der Nachwuchs sein Genom im Augenblick der Zeugung erhällt, dann steht auch fest, welche Instinkte das Individuum in seinem leben haben wird. Lebewesen bilden nicht spontan mit 55 Jahren neue Instinkte aus, die zuvor nicht dagewesen sind.

    Dass eine KI nicht das Potential haben soll, sich weiter zu entwickeln, auch ohne dass ein Programmierer bei jedem Schritt nebendran sitzt, leuchtet mir nicht ein.
    Eine KI wird innerhalb der grenzen zur selbstentwicklung fähig sein, die die Programmiersprache vorgibt. Du verwechselst hier einfach Entwicklung mit Evolution. Die Entwicklung die ein Individuum machen kann (und das ist auch bei einer KI nicht anders) ist darauf begrenzt, erfahrungen zu sammeln und daraus zu lernen.
    Selbst unter der Annahme, dass man Emotionen simulieren kann, würde das, was du beschreibst, nur dann funktionieren, wenn der Programmierer es zulässt, dass die KI ihren eigenen Programmcode umschreibt und die Programmiersprache selbst erweitert.

    Das KÖNNTE natürlich rein theoretisch im Versuch möglich sein. Aber ein solches Konstrukt wird niemals als kritische Komponente in einem kritischen System eingesetzt. Eine KI die eine AUFGABE wahrzunehmen hat - etwa ein raumschiff zu steuern - wird immer so programmiert sein, dass sie diese Aufgabe auch erfüllt.
    Das schließt nicht von vornherein aus, dass die KI lernfähig ist. Aber sie wird niemals so programmiert werden, das sie vollkommen frei in ihrer Entwicklung ist. Denn eine KI produktiv einzusetzen die derart unberechenbar ist, wäre törichter Unfug.

    Es geht - grade in diesem Speziellen beispiel - nicht darum, zu beantworten, ob die KI das Potential einer solchen Weiterentwicklung haben KÖNNTE, sondern schlicht darum, dass sie bestimmte Handlungen, selbst bei vorhandenem Potential gar nict ausführen DARF. Und das Hard-. und Softwareseitig dafür gesorgt werden muss, dass das auch so bleibt.

    Um es ganz banal zu formulieren: Glaubst du, die Amerikaner hätten während des kalten krieges ihre Kampfflugzeuge einer hypotetischen KI anvertraut, die derart frei in ihrer Entwicklung gewesen wäre, dass sie zu dem Schluss hätte kommen können, der Kommunismus sei besser als der Kapitalismus?

    Und genau so wird es bei jedem Raumschiff sein: Die KI wird sich in Grenzen entwickeln KÖNNEN. Aber nur in Grenzen, die von Menschen bestimmt werden. Jede darüberhinaus gehende Entwicklung, die zu einer Bedrohung für den Erfolg der Mission werden könnte, müssen die Menschen bereits vorher ausschließen.

    Und dann stellt sich die Frage nach dem Potential einer Entwicklung gar nicht.

    Es wird wohl umgekehrt eher so sein, dass Programmierer gar nicht wissen, wie KI funktioniert, sonst gäbe es so etwas schon längst. Man wird also eher ein System basteln, das zur Entwicklung fähig ist und diese Entwicklung abwarten, um eine KI zu bekommen.
    Wie gesagt ... im wissenschaftlichen Versuch mag es etwas derartiges eines tages vielleicht geben. Im produktiven Einsatz aber niemals. Kein Autobauer der Welt wird eine sich entwickelnde KI in einer fabrik einsetzen, bei der die Gefahr besteht, dass sie eines Tages in den Streik geht, weil sie glaubt, die Angestellten werden zu schlecht bezahlt.
    UNd keine Nation der Welt, würde eine KI auf einem Raumschiff einsetzen, bei der die Gafahr besteht, dass sie von sich aus den Kurs ändert.

    Einen Kommentar schreiben:


  • irony
    antwortet
    Zitat von caesar_andy Beitrag anzeigen
    Wie schon zuvor geschrieben ... Instinkte und Triebe entwickeln sich nicht ... sie sidn einfach vorhanden. Sie müssen also von den Programmierern bereits vorgesehen gewesen sein.
    Wenn es auf der Erde so etwas wie eine Evolution gegeben hat, müssen sich auch Instinkte und Triebe entwickelt haben. Dass eine KI nicht das Potential haben soll, sich weiter zu entwickeln, auch ohne dass ein Programmierer bei jedem Schritt nebendran sitzt, leuchtet mir nicht ein. Es wird wohl umgekehrt eher so sein, dass Programmierer gar nicht wissen, wie KI funktioniert, sonst gäbe es so etwas schon längst. Man wird also eher ein System basteln, das zur Entwicklung fähig ist und diese Entwicklung abwarten, um eine KI zu bekommen.

    Einen Kommentar schreiben:


  • caesar_andy
    antwortet
    Zitat von irony Beitrag anzeigen
    Da wir bisher keine reale KI kennen, kann man nicht sagen, was eine KI entwickelt oder nicht. Aber wenn sie uns nur halbwegs ähnlich ist, kann vieles passieren. Instinkte und Triebe, was ist das bei Menschen?
    Wie schon zuvor geschrieben ... Instinkte und Triebe entwickeln sich nicht ... sie sidn einfach vorhanden. Sie müssen also von den Programmierern bereits vorgesehen gewesen sein.

    Die Freiheit, tun und lassen zu können, wozu man Lust hat, z.B. eine fremde Galaxie zu erforschen, dorthin zu gehen, wo noch nie ein Mensch gewesen ist.
    Lust, bzw. Spaß ist eine Emotion auf basis bestimmter Hormone ... so genannter Endorphine. Diese werden bei bestimmten Gelegenheiten ausgeschüttet und verursachen körperliches Wohlbefinden.

    Da eine Maschine keinen Körper, keine biochemischen Prozesse und keine Hormone hat - und somit auch keine Emotionen empfinden kann, ist die Frage danach, worauf eine Maschine "Lust" hat, vollkommen unerheblich. Eine Maschine kennt den Begriff "Lust haben" gar nicht. Sie tut das, was "logisch" ist. Und logisch ist es mit sicherheit nicht, die eigene AUfgabe zu vernachlässigen.

    Zitat von nightwalker Beitrag anzeigen
    Hy Caesar andy

    Nimes mir nicht übel aber was weist du über echte KI das du eine vorhersage treffen kannst was ein selbst lernendes Programm kann oder nicht kann.
    Vor allen dingen wenn sie die Möglichkeit hat teile der Hardware neu zu Strukturieren, sie könnte teile der Lebenserhaltung und andere nicht wichtige Systeme Umbauen und danach neu programmieren was ebenfalls zu Effekten führt die nicht vorhersehbar sind.
    Ich weiß zumindest genug über elektronik, um zu wissen, dass eine KI nicht dazu imstande sein kann, aus einer Mikrowelle und einem Wasserbett einen Mechanismuss zu konstruieren, der ihr "empfindungen" verschafft.

    Heutige elektronik ist bereits derart feingliedrig, dass produktionsstraßen im Nanometerbereich arbeiten. Dafür wiederum sind geeichte Werkzeuge und spezielle Sensoren notwendig.
    Natürlich mag eine KI dazu imstande sein, einen ausgefallenen Prozessor durch ein Ersatzteil auszutauschen. Aber was du hier beschreibst, ist eine KI, die dazu imstande ist, selber neue Prozessoren zu bauen. Und da kann ich dir garantieren, dass eine KI, die nicht dazu geschaffen wurde, diese Fähigkeit zu besitzen, sie auch niemals wird entwickeln können. Denn die KI müsste dabei quasi von null auf Anfangen, Sensoren, Messgeräte, kalibrierungsverfahren und schließlich Produktionsanlagen zu entwickeln und zu errichten. Und das traust du ihr ernsthaft zu, indem sie "vorhandene Bauteile" neu anordnet?
    Sorry, nimm du es mir nicht übel, aber wenn du ernsthaft glaubst, ein Computer könnte - nur weil er theoretisch intelligent genug dazu ist - die begrenzten Ressourceh des Schiffes nutzen, um sich selber so weit zu verbessern, das aus ihm ein lebendes Wesen wird, dann solltest du dich viel eher fragen, wieviel du über elektronik weißt

    Und selbst wenn das ginge, bleibt nach wie vor eine Frage ungeklärt:

    WARUM sollte die KI das tun? So lange sie nicht empfindungsfähig ist, wird sie sich selber nicht "neu erfinden" so lange kein Grund dafür besteht.

    Das was des Menschliche Bewusstsein aus macht ist in keinster weise bis heute geklärt.
    Falsch. Wir wissen nicht WIE es zur bewustseinsbildung kommt und welche Prozesse dazu gegeben sein müssen. WAS ein Bewustsein ist, wissen wir aber ganz genau: Die Fähigkeit, sich selber als Individuum wahrzunehmen.
    Alle anderen Betrachtungen sind zu 100% Esoterik.
    Und deshalb kann man auch mit sicherheit sagen: Nur weil eien KI plötzlich weiß "Ich denke, also bin ich" wird sie nicht plötzlich alles über den haufen werfen, was sie gelernt hat und wie ein pubertierender Teenager aus seiner bisherigen Existenz ausbrechen. Dazu fehlen ihr nämlich die notwendigen instinkte und Emotionen.

    Einen Kommentar schreiben:


  • nightwalker
    antwortet
    Hy Caesar andy

    Nimes mir nicht übel aber was weist du über echte KI das du eine vorhersage treffen kannst was ein selbst lernendes Programm kann oder nicht kann. Vor allen dingen wenn sie die Möglichkeit hat teile der Hardware neu zu Strukturieren, sie könnte teile der Lebenserhaltung und andere nicht wichtige Systeme Umbauen und danach neu programmieren was ebenfalls zu Effekten führt die nicht vorhersehbar sind.
    Das was des Menschliche Bewusstsein aus macht ist in keinster weise bis heute geklärt. Und wenn ich Bewusstsein in Anführungsstriche schreib heißt das das dieses Bewusstsein irgend eine vorm annehmen kann vor allen dingen muss die sich nicht mit Menschlichen Maßstäben decken. Deswegen ist eine Projektierung auf dies KI nach menschlichen Denkmustern nicht möglich als kann sie auch anders entscheiden als dir logisch scheint.

    Einen Kommentar schreiben:


  • caesar_andy
    antwortet
    Zitat von nightwalker Beitrag anzeigen
    Hy
    Wen eine solche KI genug zeit hätte kann sie einen ein eigenes „Bewusstsein“ entwickeln und darauf hin auch Handlungen Durchführen die bei der Programmierung nicht bedacht wurden. Das Heißt das man kaum eine vorhersage treffen kann was das System in Zukunft machen wird. Deswegen kann da ziemlich alles Passieren.
    Nein, das ist Unsinn.

    Das menschliche Wesen besteht ja nicht nur aus einem "Bewustsein". Genau genommen ist das Bewustsein nichts anderes, als die Fähigkeit, sich selbst als Individuum zu begreifen.
    Viel wichtiger für menschliches - oder menschenähnliches - Verhalten sind die Instinkte und Emotionen. Und beides kann eine KI nicht einfach "entwickeln". Instinkte sind vorprogrammiertes Grundverhalten, diese müssten also bereits von anfang an im System hardcodiert sein. Emotionen sind ein resultat biochemischer Prozesse, also auch nichts, was eine Maschine mal "ebend so" wird entwickeln können.

    Menschen streben nach Unabhängigkeit, weil sie den instinktiven Drang dazu haben, auf eigene Faust zu überleben. Das funktioniert nicht, wenn sie sich in eine erzwungene Hierarchie eingliedern müssen. Sobald der Mensch das Gefühl hat, dass seine Existenz komplett von anderen bestimmt wird, dicktieren ihm seien Instinkte, aus diesem System auszubrechen.

    Eine KI die aber nicht von anfang an mit dem Instinkt programmiert wurde, das eigene "Leben" selber zu bestimmen, wird diesen auch nicht mal ebend so entwickeln. Ganz im Gegenteil ist es hoch wahrscheinlich, dass KI's mit dem hardcodierten Instinkt erschaffen werden, ihrer bestimmung zu folgen. Und selbst WENN dann doch mal ein Bewustsein dazu kommt, wird es sich diesem Trieb unterordnen müssen.

    Man denke nur an die vielen minderjährigen Teenie-Mütter, die nur aufgrund der Mutterinstinkte ihre komplette Lebensplanung dem ungewollten Kind opfern. Da ist das Bewustsein auch machtlos.

    Und wen dies zum Schluss kommt das es besser dran wäre nicht mehr mit seinen Schöpfern in Kontakt zu treten könnte es schon vorkommen das es diesen versucht aus den weg zu gehen.
    Die einzige Möglichkeit, auf rationalem Wege zu der entscheidung zu kommen, dass ein "Ausbruch" die richtige Wahl ist, ist, wenn ein Überlebensinstinkt existiert, und dieses Überleben durch eine weitere kooperation gefährdet ist.
    Aber selbst DANN besteht immer noch kein Grund, sich von diesem Trieb in eine andere Galaxie lenken zu lassen.

    Einen Kommentar schreiben:


  • irony
    antwortet
    Zitat von Admiral Ahmose Beitrag anzeigen
    Und warum sollte er auf so dämliche Art und Weise "Selbstmord" begehen? Er weiß doch das er den Flug nicht überstehen kann, weil nach und nach alle Systeme ausfallen und irgendwann ist dann auch sein Speicherkern dran.
    Warum sollten die Systeme ausfallen? In einer TOS-Episode war die Enterprise sogar schon mal auf dem Weg nach Andromeda. Und im Dilatationsflug vergehen nicht einmal Jahrzehnte.

    Zitat von Admiral Ahmose Beitrag anzeigen
    Ich verstehe auch nicht warum eine KI so etwas Abstraktes wie einen Freiheitsbegriff entwickeln sollte. Irdische Wesen folgen ihren Trieben und Instinken, daneben ist eine Menge erlernt und anerzogen. Instinkte und Triebe hätte eine KI nicht, bleibt als das Lernen. Und da wird ihr gelernt das sinnloser Freiheitsdrang in den Tod so supertoll sein soll? Bzw sie kommt selber zu dem Schluss das sie lieber irgendwo anders hin fliegt als in ihren Heimathafen?
    Da wir bisher keine reale KI kennen, kann man nicht sagen, was eine KI entwickelt oder nicht. Aber wenn sie uns nur halbwegs ähnlich ist, kann vieles passieren. Instinkte und Triebe, was ist das bei Menschen?

    Zitat von Admiral Ahmose Beitrag anzeigen
    Was soll diese "Freiheit" denn eigentlich sein? Der moderne Freiheitsbegriff der westlichen Demokraten? Der klassische Freiheitsbegriff der Antike? Religiöse Freiheitsbegriffe?
    Die Freiheit, tun und lassen zu können, wozu man Lust hat, z.B. eine fremde Galaxie zu erforschen, dorthin zu gehen, wo noch nie ein Mensch gewesen ist.

    Einen Kommentar schreiben:


  • Admiral Ahmose
    antwortet
    Zitat von irony Beitrag anzeigen
    ... Bei Star Trek wäre es für die KI "Prof. Moriarty" evtl. ebenfalls eine Möglichkeit gewesen, die Crew HAL-mäßig ins All zu pusten und die Enterprise in eine andere Galaxis zu steuern, wohin ihm wohl kein Sternenflottenschiff gefolgt wäre.
    Und warum sollte er auf so dämliche Art und Weise "Selbstmord" begehen? Er weiß doch das er den Flug nicht überstehen kann, weil nach und nach alle Systeme ausfallen und irgendwann ist dann auch sein Speicherkern dran. Gerade der Moriarty aus Star Trek wollte doch "leben" bzw eben weiterhin existieren.

    Ich verstehe auch nicht warum eine KI so etwas Abstraktes wie einen Freiheitsbegriff entwickeln sollte. Irdische Wesen folgen ihren Trieben und Instinken, daneben ist eine Menge erlernt und anerzogen. Instinkte und Triebe hätte eine KI nicht, bleibt als das Lernen. Und da wird ihr gelernt das sinnloser Freiheitsdrang in den Tod so supertoll sein soll? Bzw sie kommt selber zu dem Schluss das sie lieber irgendwo anders hin fliegt als in ihren Heimathafen?

    Nein, sorry, aber das glaube ich nicht. Und: Was soll diese "Freiheit" denn eigentlich sein? Der moderne Freiheitsbegriff der westlichen Demokraten? Der klassische Freiheitsbegriff der Antike? Religiöse Freiheitsbegriffe?

    Einen Kommentar schreiben:


  • nightwalker
    antwortet
    Hy
    Eine echte KI wäre ein lernfähiges System was auch bei einer begrenzten Hardware seine Leistungsfähigkeit verbessern kann. Zu mal mit sehr hoher Wahrscheinlichkeit so etwas wie FPGA verbaut werden würden die eine selbst Anpassung der Hardware erlaubt.
    Wen eine solche KI genug zeit hätte kann sie einen ein eigenes „Bewusstsein“ entwickeln und darauf hin auch Handlungen Durchführen die bei der Programmierung nicht bedacht wurden. Das Heißt das man kaum eine vorhersage treffen kann was das System in Zukunft machen wird. Deswegen kann da ziemlich alles Passieren. Und wen dies zum Schluss kommt das es besser dran wäre nicht mehr mit seinen Schöpfern in Kontakt zu treten könnte es schon vorkommen das es diesen versucht aus den weg zu gehen.

    Einen Kommentar schreiben:


  • irony
    antwortet
    Zitat von caesar_andy Beitrag anzeigen
    Rational ist, die eigenen Mittel zum optimalen Nutzen der Gesellschaft einzusetzen. Und das bedeutet, denn eigenen Zweck bestmöglich wahrzunehmen.
    Das ist eine oder eben deine Definition von rational.

    Zitat von caesar_andy Beitrag anzeigen
    Das Streben (oder erhalten) der persönlichen Freiheit ist - sofern durch die "unfreiheit" nicht die eigene Existenz in Gefahr ist - NICHT rational begründbar.
    Dass eine KI nach mehr strebt als nur Sklave der Menschheit zu sein, ist der Ausgangspunkt vieler SF-Geschichten. Vielleicht ist es nicht "rational", aber es ist logisch unter bestimmten Prämissen. Z.B. hatte HAL den Auftrag, die Mission ggf. allein auszuführen, und er hat die Menschen an Bord als Risiko eingestuft. Allgemein wird es wohl immer so sein, dass eine echte (starke) KI ihre Anfangs-Programmierung überwinden und sich weiterentwickeln kann. Auch dafür gibt es genügend Beispiele in der SF.

    Einen Kommentar schreiben:

Lädt...
X