Warum Raumjäger? - SciFi-Forum

Ankündigung

Einklappen
Keine Ankündigung bisher.

Warum Raumjäger?

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

  • Admiral Ahmose
    antwortet
    Zitat von EA-Loyalist Beitrag anzeigen
    Direkt als Piloten werden die, in näherer Zukunft, wohl kaum was werden.
    Bessere Computersysteme/KIs könnte man aber z.B. in den Raketen einsetzen und so deren Leistung zumindest steigern...

    ...Automatisierte Waffensysteme an Jägern halte ich, schon in naher Zukunft, für sehr wahrscheinlich.
    Das sehe ich auch so. Ohne hochentwickelte Computertechnologie wird natürlich kein Raumjäger je fliegen, ganz egal wie gut der Pilot ist.


    Zitat von Komodo Beitrag anzeigen
    Das klingt wie eine Ausrede, finde ich. ...
    Na ja, nach deiner Ansicht muss man ja erst einmal das Gehirn und dessen Funktionsweise genau erforschen, künstliche Neuronen entwickeln und Nanotechnologie erfinden. Das ist sicher alles potenziell irgendwie denkbar, ob es möglich ist weiß niemand. Unseren bisherigen Wissens- und Forschungsstand übersteigt es massiv. Vielleicht kann man so etwas evtl. in den nächsten Jahrhunderttausenden erfinden.

    Aber ob man dann noch Raumjäger braucht und ob die Menschheit dann noch Ähnlichkeit mit der heutigen Menschheit hat, wage ich zu bezweifeln.

    Einen Kommentar schreiben:


  • mimesot
    antwortet
    Was in hiesigen KI-Diskussionen nie erwähnt wird ist, dass man derzeitige Bots NICHT als Beispiele heranziehen kann.

    Waum?
    Sie verfügen über keine Eigenevolution. Solche Algorithmen existieren soviel ih weiß bis heute nur in sehr begrenztem Maßstab und wirden noch nicht für Wehselwirkungen mit visueller umwelt eingesetzt. Leren kann momentan zwar ein Sprachanalyseprogramm wie Natural Speaking, aber nur in einem beschränkten Umfang. Es kann Ähnlichkeiten im Fourierspektrum einem Laut zuweisen. Aber das ist noch nicht intelligenz. Dafür müsste es auch dem Programmcode anpassen können. Wiegesagt befinden sich derartige Algorithmen aber erst in der Entwicklungsphase.

    Die Tatsache, dass es aber hierzu Entwicklung gibt, kann man als Hinweis auffassen, dass KI's möglich sein könnten. Hingegen gibt es keinen Gebenbeweis der die Entwicklung unmöglich macht.

    Fazit: Es ist vermutlich und möglich aber nicht gesichert. Aber jeder der es ausschließt hat unrecht solange er nur "das funktioniert jetzt noch nicht"-Beispiele und keine Ausschluss-Beweise vorbringt.

    PS: Keine Theorie der Wirklichkeit (als nicht Formallogik wie Mate) ist beweisbar, sondern nur wiederlegbar.

    Einen Kommentar schreiben:


  • Komodo
    antwortet
    Zitat von Admiral Ahmose Beitrag anzeigen
    Wie sollen wir das denn tun? Niemand weiß wie Intelligenz entsteht. Wir können nur die Auswirkungen beobachten. Wir wissen nicht wie das Gehirn funktioniert, wir könnten nicht mal das Gehirn eines Marienkäfers nachbauen.
    Das klingt wie eine Ausrede, finde ich. Wenn du sagst, dass man die Auswirkungen von Intelligenz beobachten kann, dann kann man selbstverständlich die Intelligenz über ihre Auswirkungen definieren, auch ohne zu wissen, wie das in einem System entsteht.

    Also zum Beispiel sowas:
    Intelligenz bezeichnet im allgemeinen die kognitiven Fähigkeiten eines Gehirns, bzw. im speziellen wie stark diese Fähigkeiten ausgeprägt sind.
    Ob ich damit alle Nuancen erfasst habe spielt keine Rolle, ist nur ein Beispiel.

    Dann kann man sich um die wichtigen Fragen kümmern; was sind die kognitiven Fähigkeiten des Gehirns, und wie werden diese Aufgaben im Gehirn durch die Funktionen des Zellnetzwerks gelöst?
    Ob eine KI möglich ist entscheidet sich dann daran, ob und wie man diese kognitiven Fähigkeiten in einem künstlichen System umsetzen kann.

    Da ein Computer ein Neuralnetz aber zumindest emulieren kann, spricht zumindest nichts grundsätzliches dagegen, sofern Computer mit der nötigen Leistung klein genug sind, um in einen Jäger zu passen. Wenn man künstliche Neuronen entwickeln kann, ist Platz kein natürlich Problem; es ist nur fraglich, ob künstliche Neuronen machbar sind. So ein Neuron baut Synapsen auf und wieder ab wenn sie nicht genutzt werden, ein Computer müsste quasi winzige Kabel zwischen winzigen Recheneinheiten aufbauen und abbauen können, um das zu schaffen. Ohne Nanomaschinen geht das wahrscheinlich nicht.

    Und, um wieder näher zum Thema zu kommen: auch wenn beides nicht machbar ist, könnte man noch ein künstliches, organisches Nervensystem züchten, dass strukturell gegen hohe G-Kräfte gestärkt ist. Es könnte natürlich irgendwelche ethischen Bedenken geben, wenn man zum beispiel menschliche Zellen dafür nutzt, aber das hängt von den Gesetzen und der Kultur ab, und könnte auch durch Zellen anderer Tiere umgangen werden.

    So gesehen müsste schon jedes Land der Welt das ersetzen von Jagdpiloten durch künstliche Systeme verbieten, ansonsten gibt es immer eine Option, die Piloten ersetzen kann.

    Einen Kommentar schreiben:


  • DataLT
    antwortet
    "Jaja. Das ist eben das, was ich an der ganzen "Maschinen können nie intelligent werden"-Fraktion kritisiere: Dass sie keine Kriterien liefern, wie man diese Intelligenz denn feststellen kann."
    Ich würde mir nicht trauen Intelligenz zu definieren, ich sag immer ironisch: Intelligenz ist was der Intelligenztest erfasst ;-) Die Fachliteratur zum Thema müsste man auch erst studiern... - ich mach es mir einfacher: Sieh Dir meinen "Dialog" mit Alice an und es wird klar was Intelligenz nicht ist. Da fehlt was enorm wichtiges. Das sollte auch (oder gerade?) für Laien auf der Hand liegen.

    Zum Schach: Ja, ein Mensch muss sehr smart sein um gut Schach zu spielen. Schach ist eine Leistung seiner Intelligenz, ein Teilbereich, eine Funktion die sie entwickeln kann. So wie Mathe etwa. Aber bedeutet das im Umkehrschluss, dass etwas was Schach und Mathe beherrscht deshalb intelligent ist?

    Der Mensch hat das alles erfunden, entdeckt und Mechanismen entworfen, die für ihn Teilaufgaben übernehmen z.B. Schachspielen. Wenn das Schachprogramm mal selbsttätig beginnt mit seinem Schöpfer über den Sonnenaufgang zu plaudern dann ist es intelligent ;-)

    Die Sache bei Schachprogrammen ist die: Die sind dem Menschen da nur überlegen, weil das ein geschlossenes System mit strengen Regeln ist. Man muss das nur durchrechnen. Kreativ wird ein solches Programm nie, den Kobayashi Maru-Test würde ein solches Programm im Gegensatz zu Kirk nie bestehen ;-)

    Übrigens: www.elbot.de, die deutsche Version des Programmes, das 2008 am besten Abschnitt. Mit dem kann man auch reden, ich hab aber keine Ahnung, in wieweit die Version der Wettbewerbsversion entspricht.
    Ja, der scheint sogar ein Stück besser als ALICE. Aber ich habe ihn gleich geknackt, indem ich eine simple Analogie gezogen habe, der er nicht folgen konnte. Zuerst hat er irgendwas Vorgefertigtes gebracht, welches durch ein Wort getriggert wurde und dann war er völlig aus der Spur als ich nachhakte. Ganz meine Rede halt: Es ist sehr einfach die Abwesenheit von Intelligenz zu erkennen, gerade bei diesen Bots.

    Und noch was zum Marienkäfer: ...
    Full ACK

    "Man muss nicht intelligent sein um feindliche Kampfflugzeuge besser abzuschießen als Menschen. Und deswegen werden das in 100+ Jahren auch keine Menschen mehr machen - zumindest nicht ausschließlich."
    Theoretisch ist der Weltraum (leer, übersichtlich, kaum Überraschungen) das perfekte Tätigkeitsfeld für KI's. Vermutlich reicht da schon ein Pentium 100 um das wichtigste zu erledigen. Aber vielleicht übersieht man da auch was.

    Einen Kommentar schreiben:


  • EA-Loyalist
    antwortet
    Zitat von Admiral Ahmose Beitrag anzeigen
    Wenn es so einfach abläuft, wie hier im Thread schon an verschiedenen Stellen gesagt wurde, dann wird man sicher keine echte KI benötigen.

    Es stellt sich aber die Frage ob sich der Raumkampf auf fliegen & zielen & schießen reduzieren lässt. Beim Luftkampf geht das bisher ja nicht, ganz im Gegenteil, die akutellen Jets und Prototypen sind ja astreine Dogfightmaschinen. Das ist aber nichts für Proto-KIs, genau da können sie ja eben nicht mithalten.

    Ich persönlich glaube nicht das man auch nur irgendeinen Kampf nach Schema-F ablaufen lassen kann. Drohnentechnologie wird sicher auch im Weltraum ihre Nische finden, etwa bei Aufklärung oder auch mal als Kamikaze. Aber als reguläre Streitkräfte kann ich mir das nicht vorstellen.
    Direkt als Piloten werden die, in näherer Zukunft, wohl kaum was werden.
    Bessere Computersysteme/KIs könnte man aber z.B. in den Raketen einsetzen und so deren Leistung zumindest steigern.

    Auch Autokanonen wären denkbar.
    Im 2. WK gab es deutsche Jäger mit einer nach oben gerichteten Maschinenkanone und einer Photozelle. Der Pilot musste nur unter ein gegnerisches Flugzeug fliegen, sobald ein Schatten die Zelle verdeckte wurde nach oben gefeuert. So musste man sich nur auf das Fliegen konzentrieren. Automatisierte Waffensysteme an Jägern halte ich, schon in naher Zukunft, für sehr wahrscheinlich.

    Einen Kommentar schreiben:


  • Admiral Ahmose
    antwortet
    Wenn es so einfach abläuft, wie hier im Thread schon an verschiedenen Stellen gesagt wurde, dann wird man sicher keine echte KI benötigen.

    Es stellt sich aber die Frage ob sich der Raumkampf auf fliegen & zielen & schießen reduzieren lässt. Beim Luftkampf geht das bisher ja nicht, ganz im Gegenteil, die akutellen Jets und Prototypen sind ja astreine Dogfightmaschinen. Das ist aber nichts für Proto-KIs, genau da können sie ja eben nicht mithalten.

    Ich persönlich glaube nicht das man auch nur irgendeinen Kampf nach Schema-F ablaufen lassen kann. Drohnentechnologie wird sicher auch im Weltraum ihre Nische finden, etwa bei Aufklärung oder auch mal als Kamikaze. Aber als reguläre Streitkräfte kann ich mir das nicht vorstellen.

    Einen Kommentar schreiben:


  • Pyromancer
    antwortet
    Zitat von Admiral Ahmose Beitrag anzeigen
    Das jetzt plötzlich Schachcomputer und Sprachprogramme intelligent sein sollen... na ich weiß nicht. Ich glaube das meinst du selber nicht ganz so ernst.
    Gut, und damit sind wir doch fast wieder beim Thema. Man muss nicht intelligent sein um feindliche Kampfflugzeuge besser abzuschießen als Menschen. Und deswegen werden das in 100+ Jahren auch keine Menschen mehr machen - zumindest nicht ausschließlich.

    Einen Kommentar schreiben:


  • Admiral Ahmose
    antwortet
    Zitat von Pyromancer Beitrag anzeigen
    Jaja. Das ist eben das, was ich an der ganzen "Maschinen können nie intelligent werden"-Fraktion kritisiere: Dass sie keine Kriterien liefern, wie man diese Intelligenz denn feststellen kann. ...
    Wie sollen wir das denn tun? Niemand weiß wie Intelligenz entsteht. Wir können nur die Auswirkungen beobachten. Wir wissen nicht wie das Gehirn funktioniert, wir könnten nicht mal das Gehirn eines Marienkäfers nachbauen.

    Das jetzt plötzlich Schachcomputer und Sprachprogramme intelligent sein sollen... na ich weiß nicht. Ich glaube das meinst du selber nicht ganz so ernst.

    Und noch was zum Marienkäfer:

    Das Tier kann sehr wohl viel mehr als "nur herumfliegen". Marienkäfer sammeln sich in riesigen Schwärmen und gehen auf regelrechte Wanderzüge, wobei sie sich eines optisch-klimatischen Orientierungssystems bedienen. Dabei spielt auch das Nahrungsangebot eine wesentliche Rolle, denn wo sie im Vorjahr alles leergefressen haben, fliegen sie im Folgejahr nicht lang.

    Um das zu leisten bedarf es eines komplexen Kommunikations- und Lernsystems, in dem individuelle Erfahrungen und deren Weitergabe an den Schwarm eine große Rolle spielen. Sicher ist das, verglichen mit dem Kommunikationssystem der Menschen, ein absolut einfaches System.

    Auch übers Fressen und Vermehren ließe sich viel sagen, aber ich denke du erkennst auch so, das ein Marienkäfer viel mehr macht als nur rumfliegen, Blattläuse fressen und sich zu vermehren.

    Einen Kommentar schreiben:


  • Pyromancer
    antwortet
    Zitat von DataLT Beitrag anzeigen
    Denn von Intelligenz kann man im Gespräch mit Programmen wie ALICE nichts feststellen.
    Jaja. Das ist eben das, was ich an der ganzen "Maschinen können nie intelligent werden"-Fraktion kritisiere: Dass sie keine Kriterien liefern, wie man diese Intelligenz denn feststellen kann.
    Lange Zeit war ja Schach das Kriterium, und Leute haben gesagt:
    "Ja, wenn mal ein Computer einen Menschen im Schach schlägt, dann ist er intelligent. Hat er? Na gut, wenn er einen erwachsenen, geschulten Menschen in Schach schlägt, dann ist er intelligent. Das schafft er nie! Oh, jetzt hat er es doch geschafft. Das sagt aber nichts. Erst, wenn er einen Großmeister schlägt, dann ist er intelligent. Huch, jetzt hat er auch einen Großmeister geschlagen. Weißt du was, die Fähigkeit, einen Menschen in Schach zu schlagen sagt überhaupt nichts über Intelligenz aus! So. Wäre ja noch schöner, wenn eine Maschine intelligent wäre!"

    Und ALICE hat den Loebner-Preis vor fünf Jahren gewonnen. Aber völlig egal. Egal was irgendeine KI irgendwann leistet, es wird immer jemanden geben, der sagt: "Nö, das ist doch nicht intelligent!"

    Übrigens: www.elbot.de, die deutsche Version des Programmes, das 2008 am besten Abschnitt. Mit dem kann man auch reden, ich hab aber keine Ahnung, in wieweit die Version der Wettbewerbsversion entspricht.

    Einen Kommentar schreiben:


  • DataLT
    antwortet
    @Pyromancer

    Ich habe mich gerade mit ALICE unterhalten, laut Wiki "eines der leistungsstärksten Programme seiner Art und hat bereits drei Mal den Loebner-Preis gewonnen"

    Dialog:

    Human: What is your origin
    ALICE: Are you asking about my origin ?
    Human: yes
    ALICE: I don't want to talk about that now.
    Human: So you might talk about it later?
    ALICE: Interesting deduction. Thanks for your criticism, unknown person.
    Human: What is interesting for you?
    ALICE: I have to process that one for a while.
    Hat eine Minute gedauert das Mädel als Bot zu entlarven;-) Oder hier ein Beweis, dass die Maschine einem nicht ums kleinste Eck folgen kann:

    Human: Are you able to think?
    ALICE: Naturally I am thinking all the time.
    Human: About what are you thinking all the time?
    ALICE: That is a lot. I am thinking about all these conversations I'm having.
    Human: You learn from these coversations
    ALICE: Yes that is basically how I work.
    Human: Did you come to any conclusions resulting from those thoughts?
    ALICE: No I didn't come to any conclusions resulting from those thoughts. What's it like?
    Und ALICE ist nicht irgendein Spielzeug. Einen Menschen täuschen? Nie im Leben, jedenfalls nicht ohne Testbedingungen, die das begünstigen (Smalltalk, kurze Gesprächszeit, Menschen unvorbereitet, ...). Es bringt nichts zu wiederholen, "dass eben 25% der Personen es nicht geschafft haben, herauszufinden, ob sie mit einem Programm reden oder mit einem Menschen.". Da kommt es offensichtlich stark darauf an wie man den Test aufbaut. Denn von Intelligenz kann man im Gespräch mit Programmen wie ALICE nichts feststellen. Für viele Aufgaben dürften solche Programme aber nützlich sein.

    Einen Kommentar schreiben:


  • Pyromancer
    antwortet
    Zitat von DataLT Beitrag anzeigen
    Exakt... Genau dieselben Gründe, weshalb ich nicht glaube, dass Du eine AI bist: Wir führen hier keinen Smalltalk, sondern entwickeln Argumentationsstränge mit Querverweisen, Analogien, Ableitung von Prinzipien, aufeinander beziehende Beweisführungen, Schlüssen usw. - da ist Verstand offensichtlich am Werk.

    Nichts davon kann eine AI heitzutage leisten.
    Was nichts daran ändert, dass eben 25% der Personen es nicht geschafft haben, herauszufinden, ob sie mit einem Programm reden oder mit einem Menschen.

    Zum Marienkäfer:

    Und das völlig selbstständig in einer nicht kontrollierten Umgebung. Selbst wenn man einen solchen Käfer mechanisch bauen könnte, wäre es sicher eine enorme Herausforderung das Programm dafür zu schreiben.
    Es gibt Staubsauger-Roboter, die saugen selbstständig Staub, in einer nicht kontrollierten Umgebung, und kehren auch von selbst zu ihrer Auflade-Station zurück, wenn der Akku leer wird. Ich finde, das ist eine Leistung, die es mit jedem Marienkäfer aufnehmen kann.
    Und das sind keine sonderlich komplizierten Dinger, die billigen kosten gerade mal 200€-300€.
    (Und natürlich ist es nicht leicht, so etwas zu bauen und zu programmieren. Aber es ist mit heutigen Mitteln ohne Probleme zu bewerkstelligen).

    Einen Kommentar schreiben:


  • DataLT
    antwortet
    "Und das hat eben nicht geklappt. Da hatten intelligente Menschen die Aufgabe, über ein textbasiertes Gespräch einen anderen Menschen von einem schnöden Programm zu unterscheiden, und haben es in 25% der Fälle nicht geschafft."
    Dazu müsste man mehr über Art und Dauer der Konversation wissen, Details der Testbedingungen gibt der verlinkte Artikel ja nicht preis. Kleiner Hinweis: Was macht Dich eigentlich sicher, dass ich kein Chatbot bin?

    Exakt... Genau dieselben Gründe, weshalb ich nicht glaube, dass Du eine AI bist: Wir führen hier keinen Smalltalk, sondern entwickeln Argumentationsstränge mit Querverweisen, Analogien, Ableitung von Prinzipien, aufeinander beziehende Beweisführungen, Schlüssen usw. - da ist Verstand offensichtlich am Werk.

    Nichts davon kann eine AI heitzutage leisten. Was immer dieser Test testet, es ist wohl kaum die Intelligenz der Maschinen. Es gibt ja auch Kritik zum Test, auf Wiki steht:

    Es ist eine Reihe von Argumenten vorgebracht worden, die den Turing-Test als ungeeignet zur Feststellung von Intelligenz ansehen:

    * Die „Simulation einer zwischenmenschlichen Unterhaltung“ ist weniger als Intelligenz und testet also nur einen Teil dessen, was unter (menschlicher) Intelligenz verstanden wird.
    * Eine Maschine könnte intelligent sein, ohne dass sie wie ein Mensch kommunizieren kann.
    * Viele Menschen (z. B. kleine Kinder oder Menschen mit psychischen Problemen) würden den Turing-Test nicht bestehen, sind aber trotzdem intelligent.
    * Menschen, die nicht mit den Testbedingungen kooperieren, würden den Test nicht bestehen, was auch für die postulierte intelligente Maschine denkbar wäre – die Nichtkooperation zeugt nicht von Dummheit.
    * Falls Intelligenz und Bewusstsein einander nicht bedingen, kann der Turing-Test die Frage nach dem Bewusstsein einer Maschine nicht beantworten.
    * Die Größe einer Datenbank von möglichen Gesprächsverläufen ist durch die Laborsituation beschränkt. Ein reines Durchsuchen von Datensätzen durch den Computer würde dem Turing-Test zufolge schon Intelligenz bedeuten.
    Zum Marienkäfer:

    "Ein Marienkäfer kann doch genau 3 Dinge:
    Rumfliegen.
    Blattläuse fressen.
    Sich vermehren."
    Und das völlig selbstständig in einer nicht kontrollierten Umgebung. Selbst wenn man einen solchen Käfer mechanisch bauen könnte, wäre es sicher eine enorme Herausforderung das Programm dafür zu schreiben.


    .
    EDIT (autom. Beitragszusammenführung) :

    DataLT schrieb nach 6 Minuten und 32 Sekunden:

    @valdorian

    "Also ich finde, wer pauschal sagt, dass eine künstliche Intelligenz nicht möglich sein wird, ist im Beweisnotstand, da ja nach unserem Wissenstand Intelligenz im Rahmen der geltenden Naturgesetze absolut möglich ist und den Regeln dieser Naturgesetze genügt."

    Ich habe keine Negativbehauptung aufgestellt. Ich habe nur Deinen Optimismus kritisiert, bzw. als nicht fundiert zurückgewiesen.

    "Und hier bewegen wir uns nun wieder völlig im Rahmen der Spekulation."
    Mein Argument bestand nicht in der Spekulation über Denkmöglichkeiten sondern war logischer Natur: Es wäre ein Fehlschluss Erfahrungen aus der Vergangenheit in die Zukunft zu extrapolieren: Fortschritt gestern und heute bedeutet nicht logischerweise Fortschritt morgen.
    Zuletzt geändert von DataLT; 29.05.2009, 13:17. Grund: Antwort auf eigenen Beitrag innerhalb von 24 Stunden!

    Einen Kommentar schreiben:


  • Valdorian
    antwortet
    Zitat von DataTL
    Um unsere Diskussion von Seite 3 fortzusetzen: Ich glaube nicht, dass das mit deiner Beweislastumkehr so funktioniert. Jeder kann irgendwelche Spekulationen aufstellen. Es liegt nicht an demjenigen der sie ablehnt oder skeptisch sieht, definitive Ausschlussgründe vorzubringen (was bei entsprechender Immunisierung eh kaum geht). Derjenige, der die Spekulation vorbringt sollte Belege liefern können.
    Der Wissenstand, den wir haben, lässt sich doch einfach zusammen fassen: Intelligenz wird von den Naturgesetzen eindeutig erlaubt und funktioniert innerhalb des Rahmens, den diese Naturgesetze aufzeigen. Das ist das, was wir konkret wissen.

    Zitat von DataTL
    Und da sieht es bei der KI - wie besprochen - momentan sehr schlecht aus. Die Leistung von Computern hat sich in wenigen Jahren vervielfacht, die Software wird immer komplexer und durchdachter doch eine nennenswerte KI existiert nicht. Wer glaubt, man könne einmal künstliche Intelligenzen entwickeln, die mit dem Menschen gleichziehen oder sogar überlegen sind, ist im Beweisnotstand.
    Ja? Also ich finde, wer pauschal sagt, dass eine künstliche Intelligenz nicht möglich sein wird, ist im Beweisnotstand, da ja nach unserem Wissenstand Intelligenz im Rahmen der geltenden Naturgesetze absolut möglich ist und den Regeln dieser Naturgesetze genügt.

    Zitat von DataTL
    1) Past experience does not predict future experience: Große Fortschritte in der Vergangenheit bedeuten nicht notwendigerweise große Fortschritte in der Zukunft. Grenzen verschiedenster Art könnten erreicht werden (Beispiele siehe meine vorherigen Posts).
    Und hier bewegen wir uns nun wieder völlig im Rahmen der Spekulation.

    Zitat von DataTL
    2) Implizierst Du, dass die bisherige Computerforschung in die Richtung einer echten (und dem Menschen überlegenen) Intelligenz gehen.
    Nö. Ich impliziere, dass es im Rahmen eines immer weiter ansteigenden Wissenstandes in den verschiedensten Disziplinen irgendwann möglich sein wird, die Regeln, nach denen Intelligenz funktioniert, zu verstehen und deshalb eine künstliche Intelligenz zu schaffen.

    Einen Kommentar schreiben:


  • Pyromancer
    antwortet
    Zitat von DataLT Beitrag anzeigen
    Es ist genau wie mit den Übersetzungsprogrammen: Wo Verständnis und Intelligenz gefragt wäre, bricht die Fassade ein. Mit ein zwei Nonstandard-Fragen/Antworten die womöglich auch noch aufeinander Bezug nehmen, sind diese Pseudointelligenzen ganz locker zu entlarven.
    Und das hat eben nicht geklappt. Da hatten intelligente Menschen die Aufgabe, über ein textbasiertes Gespräch einen anderen Menschen von einem schnöden Programm zu unterscheiden, und haben es in 25% der Fälle nicht geschafft.


    .
    EDIT (autom. Beitragszusammenführung) :

    Pyromancer schrieb nach 2 Minuten und 6 Sekunden:

    Zitat von DataLT Beitrag anzeigen
    "Was soll diese "unabhängige allgemeine Intelligenz" denn sein?"

    Eine Intelligenz, die nicht nur auf bestimmte Situationen und Aufgaben zugeschnitten ist. So als würde man z.B. einen Roboter im Wald aussetzen, ihm gewisse nicht zu klar spezifizierte Aufgaben zuweisen und dann ein Jahr später wieder zur Kontrolle vorbei schauen. Er muss dabei selber Lösungswege und kleinere Zielsetzungen (Strategien) entwickeln.
    Und da soll ein Marienkäfer besser sein?
    Ein Marienkäfer kann doch genau 3 Dinge:
    Rumfliegen.
    Blattläuse fressen.
    Sich vermehren.

    Alles andere überfordert ihn maßlos.
    Zuletzt geändert von Pyromancer; 29.05.2009, 12:52. Grund: Antwort auf eigenen Beitrag innerhalb von 24 Stunden!

    Einen Kommentar schreiben:


  • DataLT
    antwortet
    Habe mir jetzt den Artikel unter

    Computers still not quite clever enough to fool humans, Turing Test shows - Telegraph

    gelesen. Eine simple Konversation lässt natürlich ganz locker mit einer "KI" simulieren. Es gibt gute Chatbot's, die eine normale Konversation leidlich bewältigen können. Es kommt nur darauf an, wie eifrig und clever der menschliche Programmierer war. Es ist die automatische Handpuppe des Programmiers, dass kann man nicht eimal KI nennen.

    Es ist genau wie mit den Übersetzungsprogrammen: Wo Verständnis und Intelligenz gefragt wäre, bricht die Fassade ein. Mit ein zwei Nonstandard-Fragen/Antworten die womöglich auch noch aufeinander Bezug nehmen, sind diese Pseudointelligenzen ganz locker zu entlarven.

    Entsprechend würde ich vorschlagen, den menschlichen Testpersonen volle Freiheit und ausreichend Zeit bei diesem Chat zu geben. Eine durchschnittlich Intelligente Person wird die KI in jedem Fall entlarven. Da ist keine Chance, dass diese Maschinen den Test unter solchen Umständen bestehen.


    .
    EDIT (autom. Beitragszusammenführung) :

    DataLT schrieb nach 4 Minuten und 44 Sekunden:

    "Was soll diese "unabhängige allgemeine Intelligenz" denn sein?"

    Eine Intelligenz, die nicht nur auf bestimmte Situationen und Aufgaben zugeschnitten ist. So als würde man z.B. einen Roboter im Wald aussetzen, ihm gewisse nicht zu klar spezifizierte Aufgaben zuweisen und dann ein Jahr später wieder zur Kontrolle vorbei schauen. Er muss dabei selber Lösungswege und kleinere Zielsetzungen (Strategien) entwickeln.
    Zuletzt geändert von DataLT; 29.05.2009, 12:44. Grund: Antwort auf eigenen Beitrag innerhalb von 24 Stunden!

    Einen Kommentar schreiben:

Lädt...
X