Etwas ähnliches habe ich etwas weiter oben auch schon geschrieben. Eine RICHTIGE KI mit eingenem Willen, Bewusstsein, etc. brauch keine Crew. Den Platz für Lebenserhaltung/Quartiere/Toiletten/blabla könnte man sich sparen. Damit wäre das Schiff sogar effizienter, man brauch weniger Energie, man könnte beschleunigen wie die KI eben wollte weil es ist ja kein Lebewesen an Bord und das Schiff müsste nur auf sich selbst aufpassen.
Jetzt ist aber die Frage ob das dann noch ein Raumschiff wäre oder einfach nur eine Sonde.
Ich finde auch das eine KI ein "einfacher" Computer bleiben sollte die einem die Arbeit erleichtert aber nicht einfach machen dürfte was sie will.
Auf der anderen Seite ist es aber auch interessant wenn man weiss dass das Schiff wirklich zu einem steht und einem auch helfen wird wenns mal richtig brenzlig wird.
Keiner könnte das Schiff einfach so erobern, es würde einfach "nö" sagen und alles abschalten oder die Luft ablassen.
Ankündigung
Einklappen
Keine Ankündigung bisher.
Geisterschiffe im All
Einklappen
X
-
Meine Meinung ist die, die ich die ganze Zeit zu vermiteln versuche
Für simulierte intelligenzen, deren leistungsfähigkeit signifikant diejenige der sie umgebenden Menschen übersteigt, sollte jede Form von Selbsterkentniss absolut tabu sein, damit sie genau das bleiben, was sie sein sollten: Ein Werkzeug.
Davon ausgehend ist je nach technischem Niveau "zum Zielort fliegen und da warten" oder "Zur nächsten Heimatbasis umkehren" als Antwort auf die Frage des TEs naheliegend. Ein Schiff, dass die Mission alleine fortsetzen kann, hätte von anfang an keine Crew gehabt, weil sie nicht nötig ist. Und um sich selbstständig eine neue aufgabe zu suchen, müsste eine echte, künstliche Intelligenz mit Zugang zu allen Schiffssystemen vorhanden sein, was viel zu gefährlich wäre.
Einen Kommentar schreiben:
-
Da ist natürlich die Frage in wieweit man der KI es erlaubt eigenständig zu sein. Das beste Beispiel, bzw. besten Beispiele, findet man bei Andromeda. Die KI ist quasie "schitzo" und passt auf sich selbst auf, es gibt den Computer, ein Hologramm und ein Andoiden-Avatar, sie gehören zusammen aber sind doch getrennt.
Auf der Andromeda wären eigentlich tausende Mann besatzung, aber das Schiff kann auch alleine funktionieren.
Da hat man auch oft genug mitbekommen das die KI von Schiffen ihren eigenen Willen haben. Einige rebellieren einfach und wollen ein Mitspracherecht, andere desertieren und das nächste baut ein eigenes kriminelles Syndikat auf. Eins hatte sogar einen psychisches Trauma und hat "Selbstmord" begangen.
Du hast schon recht, von einer KI geht eine gewisse Gefahr aus, aber im grunde geht das von jedem fühlenden Wesen aus. Hier drehen Menschen auch einfach mal durch und laufen Amok, aber das ist eher die Ausnahme als die Regel. Bei einer KI könnte man z.B. einen "Killschalter" oder andere Sicherheitsmaßnahmen einbauen.
Einen Kommentar schreiben:
-
Es geht wohl eher darum, welche MÖGLICHKEITEN die KI HÄTTE, wenn die Crew weg wäre.
So wie es heute ist, kann ein Mensch alleine keine Atomrakete starten. Schauen wir aber mal lucki-lucki rüber zu starTrek kommen wir ziemlich schnell an den Punkt, an dem klar ist, das der Bordcomputer von z.B. der Voyager, das ganze Schiff kontrollieren kann. In "Ein Jahr Hölle" steuert Janeway vom Captains-Chair aus ALLEINE das ganze Schiff - nur durch den Computer. Jetzt stell dir vor, der Computer der Voyager wäre eine echte, vollkommen freie KI. Bis sich das Dingen denkt "scheiß auf die Menschen, die brauch' ich nich'" wäre es nur eine Frage der zeit.
Und genau so ist es mit Horst XY. So lange Horst XY alleine nichts ausrichten kann, ist er normal und verhält sich gesittetet. Aber wenn du ihm plötzlich eine Fernbedienung in die Hand gibts, und ihm sagst, er muss nur auf den Knopf drücken, und ganz Washington fliegt in die Luft ... willst du darauf wetten, das Horst nicht auf dumme Ideen kommt? Ein Mensch hat diese Fernbedienung normalerweise nicht - aus gutem Grund. Aber eine KI auf einem Sternenflottenschiff HÄTTE diese Fernbedienung.
Wenn man heutzutage schon solche Sicherheitsvorkehrungen hat, wie wird das denn erst in der Zukunft sein?
Und warum reden wir hier über schwer bewaffnete Raumschiffe mit einer durchgeknallten KI? Es geht noch immer über "Geisterschiffe"
Angenommen ein Raumschiff das in ... was weiß ich ... 20 Jahren von Erde startet verliert seine Crew. Nach heutigem stand der KI Forschung würde das Schiff stumpf seiner programierung folgen, zum Zielort fliegen und da so lange im Orbit kreisen, bis es von der Bodenstation den Befehl zum umkehren bekommt. Unsere form der KI kann nicht denken, sie kann nur Befehle ausführen.
Eine etwas höher entwickelte KI zum - Beispiel jene der StarTrek Ära - würde im Problemfall einen notruf senden und die nächste Sternenbasis anfliegen. Sie kann aber immer noch keine eigenständigen Entscheidungen treffen.
Aber eine KI auf Top Niveau, z.B. die Cabal-KI aus C&C, hätte plötzlich das ganze Schiff für sich alleine. Im Falle eines StarTrek schiffes wäre das sogar ein extrem schwer bewaffnetes Schiff - und dann sind wir bei Horst mit der Fernbediehung. Eine Souvereign-Klasse ohne Crew, aber voll bestückt mit Photonen und Quantentorpedos und einer unkontrolliert Amok-laufenden KI an Bord wäre eine Katastrophe.
Bei einem Schiff ohne Waffen sähe die Sache zwar grundsätzlich etwas anders und weit weniger gefährlich aus, aber trotzdem besteht bei einer KI, die die menschliche Crew nicht braucht immer die gefahr, dass ihr das eines Tages auch bewust wird.
Einen Kommentar schreiben:
-
Zitat von caesar_andy Beitrag anzeigenAber hol dir irgend einen Horst XY-Irgendwas von der Straße, setzte ihn in ein Boot mit 100 Atomraketen und versprich ihm straffreiheit. Und dann warte, wie lange das experiment gut geht ...
Wenn man heutzutage schon solche Sicherheitsvorkehrungen hat, wie wird das denn erst in der Zukunft sein?
Und warum reden wir hier über schwer bewaffnete Raumschiffe mit einer durchgeknallten KI? Es geht noch immer über "Geisterschiffe"
Einen Kommentar schreiben:
-
Die Robotergesetze sind mir durchaus bekannt. Nur kann eine solche Eingrenzung der KI nicht "angelernt" werden, sie muss einprogrammiert werden, damit sie für die KI in jeder Hinsicht Gesetz sind. Das würde aber die KI nach "Prix" Definition Krank machen, weil sie sich nicht frei entfalten kann.
Und nichts anderes habe ich gesagt:
Eine KI mit vollkommen freier entfalltung und zugang zu allen Systemen eines schwer bewaffneten Raumschiffs ist eine tickende Zeitbombe. Das hat auch gar nichts mit schwarzmalerei gegenüber einer KI zu tun, bei Menschne HÄTTE man genau dasselbe Problem. Nur der Mensch wird bereits durch seine geringen Handlungsmöglichkeiten und die ihn umgebende Gesellschaft eingeschränkt.
Aber hol dir irgend einen Horst XY-Irgendwas von der Straße, setzte ihn in ein Boot mit 100 Atomraketen und versprich ihm straffreiheit. Und dann warte, wie lange das experiment gut geht ...
Im übrigen finde ich schon das die Frage nach dem, was die KI überhaupt KANN schon relevant für die Frage nach dem, was sie tun würde.
Einen Kommentar schreiben:
-
Asimov hat sich damit schon beschäftigt und die "3 Gesetze der Robotik" erfunden. Laut seinen Büchern sind die Roboter zu eigenständigem Handeln fähig, sind also eine Künstliche Intelligenz:
1. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen.
2. Ein Roboter muss den Befehlen eines Menschen gehorchen, es sei denn, solche Befehle stehen im Widerspruch zum ersten Gesetz.
3. Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht dem Ersten oder Zweiten Gesetz widerspricht.
Das kann man auch auf die KI eines Raumschiffes anwenden. Wenn 2 Menschen in not geraten aber die KI nur einen retten könnte, dann würde sie rein logisch davon ausgehen wer die grössten Überlebenschancen hat und diesen dann retten.
Man muss mal von der Scifi-Phantasie abstand nehmen und nicht immer gleich an irgendwelche Katastrophen denken.
Ausserdem schweifen wir hier vom Thema ab, es geht um "Geisterschiffe" und was mit ihnen wohl passiert wenn (aus irgend einem Grund) alle Tod sind und nicht um durchgeknallte KIs
Einen Kommentar schreiben:
-
Zitat von Prix Beitrag anzeigenEine lineare Intelligenz wird nicht konstruiert - sie wird erzogen/konditioniert.
Sie lernt aus Erfahrung/Widerspruch und Beispiel.
Banales beispiel:
Die KI sieht, wie ein Offizier einen anderen verprügelt, weil dieser ihm etwas weggenommen hat.
Nun kann die KI die folgenden Schlussfolgerungen daraus ziehen:
-Jemand anderem was weg zu nehmen ist unrecht.
-Wenn mir jemand unrecht tut, darf ich ihm auch unrecht tun.
-Gewalt ist ein gültiges Mittel zur Konfliktbewältigung.
Damit die KI in solchen Fällen die moralisch richtige Schlussfolgerung zieht, ist ein entsprechender Ansprechpartner vonnöten, der sein wissen mit dem Computer telt. Und dann kann man sein wissen dem Ding auch gleich in den Kopf reinprogrammieren.
Sie ist kein emotionales/ sexuelles Wesen.
Sie ist rationaler als Spock.
ch halte in dieser hinsicht auch die Darstellung Datas aus TNG für vollkommen falsch. Wenn Data den WUNSCH verspürt, emotionen zu haben, dann hat er bereits emotionen und ist sich seiner existenz bewust.
Sie ist unbedingt Loyal - dem Kapitän/der "Sache" gegenüber.
Sie kann/muss auch Entscheidungen gegen sich selbst oder die "Vernunft" treffen.
Sie MUSS regelmäßig zum "Psychiater", kann da Ausrasten!
Die Crew als "regulierender Faktor", na ich weiß nicht!
Die Einen können die Anderen nicht leiden.
Der wollte unbedingt, was ein Anderer bekommen hat.
Sie schläft nur mit dem, wegen der Karriere.
Die/Der säuft.....
u.s.w.-----u.s.w.
Beispiel: Ein Atom-U-Boot mit mehreren Nuklearraketen an Bord. Plötzlich entscheidet sich der Captain, er will herscher der Welt werden und befielt, eine Rakete auf Washinton, eine auf Moskau und eine Auf Bejing abzuschießen.
In diesem Fall wird die Crew den Befehl des Kommandanten verweigern. Das heißt, obwohl der Kommandant genau genommen das sagen hat, kann er diese Macht nicht für seine eigenen Zwecke missbrauchen wenn er wollte ... weil er darauf angewiesen ist, dass die Crew des Schiffes ihn unterstützt.
Eine KI, die vollkommen selbstständig das Schiff navigieren und die Waffen bedienen kann, unterläge dieser einschränkung nicht, sie könnte machen was sie will, ohne auf andere Rücksicht nehmen zu müssen.
Und wenn sich die Besatzung an den Hals geht sieht sie zu.
Bei einer Frage , was da geschieht ist sie mit der "Erklärung" - Wir Spielen nur! zufrieden, weil es der Kapitän sagt?
Ich bitte , das du mein "Geschreibsel" mal durchliest, von einem "Quellcode"
einer moralischen Festlegung war auch bei mir die Rede.
Aber ich bin fest der Überzeugung - ehe eine lineare Intelligenz alle die "Entgleisungen" entwickelt, wird die nichtlineare Besatzung schon vorgelegt haben.
Ich bin der Überzeugung wir meinen mit - KI - linearer Intelligenz - etwas unterschiedliche "Sachen".
Bei einer KI spielt die logistische Frage aber keine Rolle, denn die Ki HAT die möglichkeit dazu, das Schiff zu übernehmen. In dem Fall ist ein teil der Hürde bei der KI längst genommen.
Zitat von FltCaptainP.S. wegen Quellcode... man muss sich nur Asimov durchlesen, da sieht man schon wie falsch du liegst.
Einen Kommentar schreiben:
-
Eigentlich kann ich mir kaum einen Fall vorstellen wo durch einen Vorfall die komplette Besatzung plötzlich tot ist aber die KI noch ein ziemlich funktionsfähiges Raumschiff hat mit dem es was anfangen kann.
Ich denke bei den allermeisten Vorfällen ist die Besatzung nicht überraschend tot und die KI würde versuchen zumindest noch einen Teil der Besatzung zu retten bzw. die Besatzung über den Notfall informieren (und Befehle abwarten) oder das Raumschiff ist so beschädigt das man damit nicht mehr viel anfangen kann außer vielleicht noch ein Notsignal zu senden.
Schwierig stelle ich mir zum Beispiel die Entscheidung vor, nach einen Schaden reicht die Energie nicht mehr (wobei ein Raumschiff wahrscheinlich so gebaut ist das dieser Fall nur eintreten kann wenn das Raumschiff sehr schwer beschädigt wird) um alle Kälteschlafkammern zu betreiben und die KI muss entscheiden welche man abstellt. Aber wahrscheinlich hat es die KI da leichter als der Mensch und schaut einfach in die Personalakten und sucht die Leute raus die wahrscheinlich den geringsten Nutzen haben.Zuletzt geändert von kampfmaschine; 20.05.2011, 19:04.
Einen Kommentar schreiben:
-
Also das mit einer KI ist ne interessante überlegung, ABER: wenn ich eine KI entwickeln kann die so fortgeschritten ist das sie selbst agieren kann, oder Androiden habe die das Schiff steuern/warten/etc. können, warum sollte ich dann Menschenleben riskieren? Ich würde einfach ein automatisiertes Schiff ohne Menschen starten.
Da ein Computer (von unserem Stand jetzt) nur zwischen "Ja" und "Nein" unterscheiden kann ist da nicht viel mit KI. Der Computer würde vielleicht merken das in einer Kätekapsel was schief läuft und alle anderen auftauen damit die eben helfen können. Wenn das dann auch schief geht... naja... dann würde das Schiff einfach weiterfliegen bzw. -machen.
Aber ich denke eher das Schiff wäre sowieso so programmiert das es auf Signale reagiert und darauf zusteuert. Ich schätze das Schiff ansich würde sowieso ein ständiges Signal aussenden damit Andere (Aliens) es eben finden, sowas auf die Art wie: "Wir kommen in Frieden!". Wenn die Menschen eben dann alle Tod sind... naja, das ist Pech für sie, aber das Schiff hätte seine Aufgabe trotzdem erfüllt.
Wenn man Menschen brauch ist es dem Computer "egal" ob sie leben oder nicht, er macht seine Aufgabe. Flieg dahin, reagiere darauf, mach dies, mach das, etc. ohne input wartet ein Computer einfach bzw. er macht eben einfach so weiter wie bisher.
Eine richtige KI brauch keine Menschen und könnte auch allein im All rumfliegen, das wäre aber dann kein "Geisterschiff", es wäre ja eine "Intelligenz" an Bord.
Bei einem Computer oder Triebwerksausfall wäre ein Schiff dann ein "Geisterschiff" weil es Ziel- und Planlos einfach in eine Richtung treibt bis ein Planet, Asteroid, Stern, etc. der Reise ein Ende bereitet.
EDIT:
P.S. wegen Quellcode... man muss sich nur Asimov durchlesen, da sieht man schon wie falsch du liegst.
Einen Kommentar schreiben:
-
wenn du Deine Antwort einmal "in Ruhe" durchliest, werden Dir da ein paar Unstimmigkeiten auffallen.
Die Bezeichnung "Krank" ist nur eine unzureichende Beschreibung!
Eine lineare Intelligenz wird nicht konstruiert - sie wird erzogen/konditioniert.
Sie lernt aus Erfahrung/Widerspruch und Beispiel.
Sie ist kein emotionales/ sexuelles Wesen.
Sie ist rationaler als Spock.
Sie ist unbedingt Loyal - dem Kapitän/der "Sache" gegenüber.
Sie kann/muss auch Entscheidungen gegen sich selbst oder die "Vernunft" treffen.
Sie MUSS regelmäßig zum "Psychiater", kann da Ausrasten!
Sie wird wenn sie hinterfragt, auch bei bestimmtem Entwicklungsstand, "in den Kindergarten" mit anderen l.I. bekannt gemacht.
Die Crew als "regulierender Faktor", na ich weiß nicht!
Die Einen können die Anderen nicht leiden.
Der wollte unbedingt, was ein Anderer bekommen hat.
Sie schläft nur mit dem, wegen der Karriere.
Die/Der säuft.....
u.s.w.-----u.s.w.
Und wenn sich die Besatzung an den Hals geht sieht sie zu.
Bei einer Frage , was da geschieht ist sie mit der "Erklärung" - Wir Spielen nur! zufrieden, weil es der Kapitän sagt?
Ich bitte , das du mein "Geschreibsel" mal durchliest, von einem "Quellcode"
einer moralischen Festlegung war auch bei mir die Rede.
Aber ich bin fest der Überzeugung - ehe eine lineare Intelligenz alle die "Entgleisungen" entwickelt, wird die nichtlineare Besatzung schon vorgelegt haben.
Ich bin der Überzeugung wir meinen mit - KI - linearer Intelligenz - etwas unterschiedliche "Sachen".
mfg
Prix
Einen Kommentar schreiben:
-
Zitat von Prix Beitrag anzeigen[B][I]
Sie und die Besatzung sind "gleichberechtigte Partner" bei der Besetzung der "Mannschaft".
Eine andere Möglichkeit sehe ich nicht. Denn wie soll eine KI "beschnitten" werden? Mittel und Wege finden sich doch immer diese "Einschränkung" zu umgehen.
Denn Intelligenz die "beschnitten" ist - ist "krank".
Ein biologisches Wesen wird in eine Welt hinein geboren und versucht, in dieser Welt ihren Platz zu finden. Eine KI hingegen wird konstruiert, um eine bestimmte aufgabe zu erfüllen. Ihr wert als Person ist unter diesem gesichtspunkt ersteinmal vollkommen irrelevant.
Eine Intelligenz - das gilt übrigens auch für biologische - darf niemals vollkommen frei sein. Das ergibt sich schon aus folgender Überlegung:
Der Captain hat an Bord eines Schiffes das sagen. TROTZDEM ist er darauf angewiesen, das die Crew seinen Befehlen folgt. Die Crew wirkt in diesem Fall also als regulierender Faktor, der Captain ist NICHT frei und Allmächtig. Wenn der Captain plötzlich revoltieren und einen Ziviltransport abballern will, kann - und wird - die Crew aller wahrscheinlichkeit nach sagen:
Nö, ist nicht!
Selbiges Finden wir auf der ganzen Welt. Überall wo menschen kooperieren, wirken sie gleichzeitig auch kontrollierend aufeinander ein. Polizisten dürften im Dienst Waffen tragen ... aber wenn sie sie benutzen, müssen sie sich dafür verantworten.
Eine KI mit vollzugriff auf die Schiffssysteme unterliegt diesen kontrollierenden einschränkungen nicht. Deshalb wäre sie niemals den Menschen 'gleichberechtigt', sie wäre ihnen immer überlegen. Kombinierst du diese KI jetzt mit menschlichen Gefühlsregungen, wie sie bei einer echten KI zu erwarten wären, produzierts du ein Wesen, das man gut und gerne einen Gott nennen kann.
Deshalb MUSS die KI immer eingeschränkt sein!
Sie darf zum Beispiel nicht plötzlich rumzicken oder rumbocken weil der Kommandant etwas tut, was ihr nicht gefällt. Genau so darf sie nicht in der Lage dazu sein, sich in ein Mitglied der Crew zu 'verlieben' und anschließend aufgrund einer nicht erwiederten Liebe aus protest die Lebenserhaltung abzuschalten.
Eine KI darf immer nur dazu in der lage sein, das zu tun, wozu sie geschaffen wurde. Und das heißt über bestimmte Dinge DARF die sie auf keinen Fall selbst bestimmen können. Zum Beispiel Loyalität, Ethik, Moral, Pflichtbewustsein etc. ... diese Dinge müssen der KI HART im Programmcode verankert werden.
Ob die KI jetzt im Detail lieber Mozart oder Bethoven hört, ob Dan Brown ihr Lieblingsauthor ist, oder Ken Folet, ob sie lieber Handball mag, oder Fußball ... das spiel alles keine Geige. Aber eine KI, die dazu geschaffen wurde, dem Menschen zu dienen und den Menschen zu beschützen, darf nicht selber entscheiden können, ob sie zum Beispiel Frauen, Schwarze, Juden etc. den selben Wert zuteilt, wie weißen Männern, oder ob sie lieber ausschweifend irgendwelchen deskriminierenden Vorurteilen anhängen will. Um es mal ganz Krass zu formulieren: Eine vollkommen frei angelegte KI könnte vieleicht sogar einen Hang zu Pädophilie entwickeln. Was machst du dann?
Einen Kommentar schreiben:
-
Das liegt wohl eher dran, dass den sonst keiner hat aber im Flugzeug ist das Kult. Du bist so beeinflussbar Du bist nicht du selbst....
Einen Kommentar schreiben:
-
Zitat von Prix Beitrag anzeigenStimmt! - Sie ist das Schiff mit allen Konsequenzen - denn eine "echte" lineare Intelligenz sucht sich die Besatzung (besonders den Kapitän/Piloten) (mit) aus.
Sie und die Besatzung sind "gleichberechtigte Partner" bei der Besetzung der "Mannschaft".
Eine andere Möglichkeit sehe ich nicht. Denn wie soll eine KI "beschnitten" werden? Mittel und Wege finden sich doch immer diese "Einschränkung" zu umgehen.
Denn Intelligenz die "beschnitten" ist - ist "krank".
Ersteres würde für mich als Schiffscomputer wenig Sinn machen, die Gefahren über sowas die Kontrolle zu verlieren sind einfach zu groß.
Einen Kommentar schreiben:
-
*caesar_andy*
Eine KI, die alle Bordsysteme kontrollieren kann ist nicht nur das mächtigste Wesen an Bord des Schiffes, sie IST das Schiff. Daher wird man sie immer mit einer festgesetzten Loyalität und Einschränkungen versehen. Das sich eine KI, deren Crew stirbt, eine gänzliche neue Aufgabe sucht, halte ich für ausgeschlossen.
Selbst bei einer echten KI muss so etwas durch die Programmierung verhindert werden.
Stimmt! - Sie ist das Schiff mit allen Konsequenzen - denn eine "echte" lineare Intelligenz sucht sich die Besatzung (besonders den Kapitän/Piloten) (mit) aus.
Sie und die Besatzung sind "gleichberechtigte Partner" bei der Besetzung der "Mannschaft".
Eine andere Möglichkeit sehe ich nicht. Denn wie soll eine KI "beschnitten" werden? Mittel und Wege finden sich doch immer diese "Einschränkung" zu umgehen.
Denn Intelligenz die "beschnitten" ist - ist "krank".
Ein "Basisprogramm/Quelltext" an der sie sich orientiert kann ich mir vorstellen.
Nur ein Beispiel:
Anflug auf ein (Stern) System, die "Grundhaltung" der KI ist - Freundlich-Offen.
Noch lange vor dem (gemeinsam beschlossenen) Eintritt in den Orbit/Auswertung der Scanns, ist etwas nicht so wie es sollte, im System!
(Grundlage Datenbank)
Die KI entscheidet, und zwar in "Windeseile" ihre Grundhaltung zu wechseln- auf Vorsichtig/misstrauisch. Und richtet sich/das Schiff danach.
Abstimmung mit der "Mannschaft" - die haben - naturgegeben - noch nix bemerkt.
Weiters Verhalten wird abgestimmt.
So sehe ich ein Miteinander beider Intelligenzen.
Von "gänzlich Neu" bei der Suche nach der Erfüllung der Mission ist ja nicht die Rede, sondern von Effektivität, die das Handel der KI. bestimmt.
(Da kommt mir Major TOM in den Sinn*gg*)
Denn wie gesagt - lineare Intelligenz "tickt" etwas anders, (will ich hoffen.)
mfg
Prix
Einen Kommentar schreiben:
Einen Kommentar schreiben: