Humanoide Roboter - Entwicklung und Perspektiven - SciFi-Forum

Ankündigung

Einklappen
Keine Ankündigung bisher.

Humanoide Roboter - Entwicklung und Perspektiven

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

  • down1343
    antwortet
    Zitat von i_make_it Beitrag anzeigen
    Kreativität hat nichts mit Intelligenz zu tun.

    Der Zufall kann kreativ sein, das Chaos kann kreativ sein.
    Ein intelligentes Wesen kann kreativ sein muß es aber nicht sein (Das tägliche leben beweist uns denke ich zur genüge)
    Ich finde, die menschliche Intelligenz zeichnet sich aber gerade in ihrer kreativen Problemlösung aus. Der Mensch ist fähig, ein neues Problem anhand der seinen bisherigen Erfahrung und durch Überlegen und Vergleichen mit ähnlichen Problemen zu lösen.

    Einen Kommentar schreiben:


  • Phoenow
    antwortet
    Zitat von Warlie Beitrag anzeigen
    Kreativität kann ich nicht anders schaffen, sorry.
    Nun, es gibt schon einem Unterschied zwischen dem, was wir mit unserer abstrakten Weltsicht, als Kreativität bezeichnen und dem, was diesem Phänomen dann wirklich konkret zugrunde liegt. Und ob da wirklich der Zufall eine Rolle spielt (und ob wir dementsprechend den Zufall brauchen, um "Kreativität nachzubauen") ist keinesfalls als Fakt zu betrachten.

    Einen Kommentar schreiben:


  • i_make_it
    antwortet
    Kreativität hat nichts mit Intelligenz zu tun.

    Der Zufall kann kreativ sein, das Chaos kann kreativ sein.
    Ein intelligentes Wesen kann kreativ sein muß es aber nicht sein (Das tägliche leben beweist uns denke ich zur genüge)

    Intelligenz bedingt aber nicht zwingend kreativität genauso wenig wie umgekehrt.

    Du müsstest schon detailieren was du bezweckst.
    Ein System das alles was es sensorisch erfassen kann, analysieren und verstehen soll, benötigt nicht umbedingt Kreativität sondern Regelwerke zum maschinellen lernen. Zufall ergibt sich von alleine wenn duch Versuch und Irtum Varianten die zur Lösung führen können durchprobiert werden.
    Kreativität ist nur bedingt nötig um Globale Optima zu finden und nicht in lokalen Optima hängen zu bleiben.
    Dies kann man aber genauso auch analytisch schaffen, also gänzlich ohne Zufall.
    Wobei dann auch sicher bewiesen wird daß es nicht doch noch ein günstigeres Optimum gibt.
    Was bei zufälligen prozessen nicht der Fall ist.

    Einen Kommentar schreiben:


  • Warlie
    antwortet
    Kreativität kann ich nicht anders schaffen, sorry.

    Einen Kommentar schreiben:


  • i_make_it
    antwortet
    Zitat von Warlie Beitrag anzeigen
    Juhu, warum habe ich dieses Forum nicht schon viel früher gefunden?

    Zum Thema KI's kann ich vielleicht was beisteuern. Seit kurzem schreibe ich an einem "Evolutions-Programm". Die Basis dabei ist, etwas mehrfach auszuprobieren und die Ergebnisse zu bewerten. Das Thema an sich interessiert mich allerdings schon seid ca. 13 Jahren.

    Die Programmierung ist dabei eigentlich minimal, denn das Ding muß sehr abstrakt aufgebaut sein. Außerdem ist eine KI ein "nichtdeterministischer" Algorithmus. Das heißt, er hat eigentlich keine echte Programmierung. Der Kern des Ganzen wäre ein semantisches Netz.

    Eine Starke KI wird trotzdem nicht dabei herauskommen.

    Was mich seid langem interessiert ist die Qualität der Zufälle des Zufallsgenerator auf eine KI! Sie sind nämlich das Einzige, das die KI zur KI macht.
    Was zum Geier hat Zufall mit Intelligenz zu tun? Außer vieleicht das es wie ein Zufall anmutet das manche Menschen als intelligent durchgehen.

    Intelligenz (lat.: intelligentia „Einsicht, Erkenntnisvermögen“, intellegere „verstehen“)
    Siehe dazu: Intelligenz - Wikipedia

    War da vieleicht eher Evolution gemeint, dort hat Zufall eine gewisse bedeutung.

    Einen Kommentar schreiben:


  • Phoenow
    antwortet
    Zitat von Warlie Beitrag anzeigen
    Was mich seid langem interessiert ist die Qualität der Zufälle des Zufallsgenerator auf eine KI! Sie sind nämlich das Einzige, das die KI zur KI macht.
    Naja, das ist dann doch eher Ansichtssache bzw. nicht erwiesen.

    Einen Kommentar schreiben:


  • Warlie
    antwortet
    Juhu, warum habe ich dieses Forum nicht schon viel früher gefunden?

    Zum Thema KI's kann ich vielleicht was beisteuern. Seit kurzem schreibe ich an einem "Evolutions-Programm". Die Basis dabei ist, etwas mehrfach auszuprobieren und die Ergebnisse zu bewerten. Das Thema an sich interessiert mich allerdings schon seid ca. 13 Jahren.

    Die Programmierung ist dabei eigentlich minimal, denn das Ding muß sehr abstrakt aufgebaut sein. Außerdem ist eine KI ein "nichtdeterministischer" Algorithmus. Das heißt, er hat eigentlich keine echte Programmierung. Der Kern des Ganzen wäre ein semantisches Netz.

    Eine Starke KI wird trotzdem nicht dabei herauskommen.

    Was mich seid langem interessiert ist die Qualität der Zufälle des Zufallsgenerator auf eine KI! Sie sind nämlich das Einzige, das die KI zur KI macht.

    Einen Kommentar schreiben:


  • i_make_it
    antwortet
    Roboter Sumo zeigt wie weit das aufstehen aus unterschiedlichen Positionen schon ist.
    YouTube - ROBOT BATTLE

    Einen Kommentar schreiben:


  • Wolf310
    antwortet
    Hab gerade ein interessantes Video gefunden:
    Festo - Aqua_ray - Aqua_ray

    Einen Kommentar schreiben:


  • i_make_it
    antwortet
    Vektorprozessoren: JAIN, es gibt etwas Beschleunigung gegenüber einer klassischen CPU.
    In einem Neurónalen Netz müssen kaum Speicherdaten verarbeitet werden sondern die Zustände der umliegenden Neuronen.

    Vektorrechner sind spitze wenn itterative Abläufe mit Ergebnissen die monotnen Folgen entsprechen zu berechnen sind. (weshalb bei Stürmen wo der Atraktor ständig springt die Berechnung erheblich langsamer ist als wenn es nur um "Normalwetter" geht)
    Bei vielen gleichartigen Neuronen sind das zwar auch je die gleichen Berechnungen, aber die zeitsparende Aufteilung der Teiloperationen ist nicht möglich da jedes Neuron erst vollständig berechnet werden muß um seinen Endzustand zu erhalten bevor das nächste davon abhängige berechnet werden kann.
    Da diese Werte zeitlich sequenziell vorliegen und nicht parallel müssen sie zwichengespeichert werden und wieder eingelesen, was ebenfalls Zeit beansprucht.
    Im FPGA werden die Zustände einfach in den Verbindungen gespeichert. Solange sich alles in einem FPGA abspielt, bei Verwendung von Matrixschaltern müssen noch zusätzliche Eingangs und Ausgangspuffer verwendet werden um mit den Durchlaufverzögerungen der Puffer wieder eine Gleichzeitigkeit zu erhalten.
    In wie weit sich das ganze realisieren lässt wenn es Signalverzögerungen gibt die Laufzeitunterschiede des vielfachen eines Gatterduchlaufs ausmachen, weis ich nicht. Wäre mal eine Frage für die nächste Ce-Bit.
    Da hüpfen bestimt ein paar rum die sich auch mit so was befassen.

    Die Schaltmöglichkeiten müssen nicht sooooo groß sein, auch in unserem Gehirn etablieren sich ja Neuronengruppen die sich kaum noch verändern und erfüllen spezifische Aufgaben.
    Beim gesunden Normalmenschen ist das Sehzentrum auch nicht direkt mit dem Tastsinn und dem Hörzentrum verbunden, sondern höhere ebenen verknüpfen die Sinneseindrücke.

    Prinzipiell könnte mann Teilnetze in software simulieren und ab einem bestimmten Optimierungsgrad in Hardware implementieren. Allerdings weis ich nicht wie stark sich die Netzwerke doch noch gegenseitig durch feedback aus den höheren ebenen beeinflussen.

    Bei uns Menschen ist das ja auch so bei meinem letzten Hörtest vor zwei Wochen wurde mir ein für mein Alter überdurchschnittliches Gehör bescheinigt, aber in täglichen Leben höre ich vielfach nicht was man mir sagt, wenn entsprechende Hintergrundgeräusche da sind. Allerdings höre ich Sirenen wenn alle andere nichts warehmen. Wird dann z.B.: der Fernseher ausgemacht hören die anderen das auch. Mein Hörzentrum ist halt eher auf Alarmsignale und Geräusche die nicht da hin gehören Trainiert.
    Zuletzt geändert von i_make_it; 05.11.2007, 16:50.

    Einen Kommentar schreiben:


  • Mondkalb
    antwortet
    Die Autos beim DARPA Urban Challenge werden auch immer besser, obwohl sie auch noch offensichtliche Schwächen haben:
    Darpa Urban Challenge: US-Universität gewinnt Roboterrennen - Netzwelt - SPIEGEL ONLINE - Nachrichten

    Einen Kommentar schreiben:


  • BongoMercury
    antwortet
    Man merkt das du dich mit der Materie beschäftigst und auskennst. Und du bist der Meinung das es sich nur mit FPA`s realisieren läßt?

    Mit Vektorprozessoren müßte es doch auch machbar sein oder?

    Vektorprozessor - Wikipedia

    Ich glaube der "CELL" Prozessor ist auch so einer. Mit mehreren Kernen.

    So könnte ein(oder mehrere) "Kern(e)" eines solchen Prozessors sich auf die Netzwerksynchronisation spezialisieren. Im Netzwerk wird das dann hochgerechnet. So bleibt dann immer noch genug Rechenpower für die Berechnung der Neuronen und Axone.

    Bei Standard Prozessoren welche parallel angeordnet werden könnte man bestimmte Prozessoren darauf zuteilen.

    Wie ich Wikipedia entnehmen konnte können FPGA´s noch nicht so hoch getaktet werden wie herkömmliche CPU´s. Dafür aber mehr parallel verarbeiten.

    Unterm Strich ist wohl ein Netzwerk aus Vektorenrechnern leistungsfähiger und kann durch gezielte Aufgabenteilung bestimmt auch in Echtzeit synchronisieren. Allerdings wäre das wohl sehr teuer.


    Und beim Hirn müßten sich die Schaltmöglichkeiten irgendwie auf 10*10^9*10*10^2 belaufen. Nämlich die Anzahl der Neuronen im Gehirn multipliziert mit den möglichen synaptischen Verknüpfungen pro Zelle. Natürlich ist das jetzt kein mathematisch korrekte stochastische Darstellung. Aber du weißt bestimmt wie ich es meine.

    Einen Kommentar schreiben:


  • i_make_it
    antwortet
    Zitat von BongoMercury Beitrag anzeigen
    Also das Problem ist dabei das wenn die Komplexität steigt es immer stärkere Verzögerungen gibt? Also wenn es über Software simuliert wird?

    Kann man nicht einen Clusterrechnen auch so umfunktionieren wie FPGA´s? Das z.B ein Prozessor-Kern so und sovielen Neuronen entspricht?
    Eine CPU arbeitet sequenziell (Je Takt ein Befehl, sachen wie ein Befehl an der steigenden Flanke einen an der fallenden lassen wir mal außen vor)
    Da ein neuronales Netz nicht nur vorärtsgerichtet arbeitet sondern durch Feedback auch rückwärtsgerichtet.
    Haben wir das Problem ,das die Zustände eines Neurons in Verarbeitungsrichtung mehrere Neuronen der Nächsten Ebene beeinflussen können, Quer zur Verarbeitungsrichtung mehrere Neuronen der gleichen Verarbeitungsebe sowie entgegen der Verarbeitungseben Neuronen der vorgelagerten Verarbeitungsebenen.

    Jedes sequenziel arbeitende Verarbeitungssytem hat damit ein Problem.
    Deshalb hat Intel ja zwei Pipes inden Core gesetzt und mittlerweile sogar Dualcore CPU's da Multitasking systeme teilweise auf die selben Probleme stoßen. Nur die Abhängigkeit ist nicht so hoch.

    Auch massiv Parallel Rechner wie Beowulf Cluster oder Deep Blue würden schlußendlich die meiste zeit damit zubringen die Knoten zu synchonisieren anstelle Neuronen Zustände zu berechnen.

    Wenn man FPGA's in einem Raster anordnet und an den Kreuzungen zwichen je vier FPGA's einen vielkanaligen Matrixschalter anordnet, kann je ein FPGA mehrere (hundert) Neuronen simmulieren und Dentriten / Axon Verknüpfungen die ein FPGA verlassen werden durch die Matrixschalter realisiert so das ein neuronales Netz nicht auf die Größe eines einzigen FPGA beschränkt ist.
    So laufen "Nervenimpulse" durch Netz ähnlich dem Laufzeitverhalten in einem realen Gehirn.
    Die Simulierung neuronaler Netze auf klassisch organisierten Computern macht meiner Meinung nach nur Sinn um Anfangszustände von Teilnetzen reifen zu lassen. die dann auf die FPGA's übertragen werden und so die Entwicklung dort beschleunigen können.
    Wenn wir mal davon ausgehen das wir 200 Neuronen auf einen FPGA bekommen und mit allen Matrixschaltern und weiteren Bauteilen, 32 FPGA auf eine 8 fach Eurokarte. Dann Gaben wir 6HE (Höheneinheiten) im 19" Rack in das wir 21 Steckkarten bekommen. Ein Rechenkluster hat also
    21*32*200=134.400 Neuronen.
    Je Rack mit 42HE passen 7 Einschübe=940.800 Neuronen.
    Im RZ (Rechenzentrum) rechnet man mit 1,4m² je Rack.
    in Ein 1000m² RZ passen also rund 700 Racks. Macht 658.560.000 Neuronen

    Die menschliche Großhirnrinde (Cortex) hat etwa 12 Milliarden Neuronen.

    Selbst bei 1000 Neuronen pro FPGA kommen wir grade auf knapp 3,3 Milliarden.
    Wenn man sich mal alleine die Hardware Kosten und die Betriebskosten des RZ ansieht, weis man daß das nur NSA & Co stemmen könnten.

    Wir sind wohl jetzt schon in der Lage die technischen Vorraussetzungen zu schaffen. (Das RZ in dem ich arbeite hat 4 mal 1200m² plus 2 mal 500m².
    Sowie die passende Klimatisierung und Stromversorgung.
    Die Komplette HW ist so heute realisierbar.

    Die Entwicklung dürfte, falls sie nicht schon in einem Save liegt, in einer Dekade zu schaffen sein.
    Die Entwicklung des Netzes durch selbstlernen und selbst Modulation würde vermutlich 20 bis 40 Jahre dauern.
    Es ist davon auszugehen das wir danach vor einer KI stehen würden die einem menschlichen Teen bis jungen Erwachsenem entspricht.
    Ob sich allerdings ein Bewustsein und eine eigene Persönlichkeit entwickeln würde kann wohl keine sagen. Und so lannge das nicht mitsicherheit auszuschließen ist werden NSA & Co da wohl nichts investieren.
    (Wer steckt schon gerne milliarden in ein Projekt das dan einfach sagt "Ich habe jetzt alle Daten analysiert, und bin zu dem Schluß gekommen die andere Seite ist im Recht. Ich werde nichts tun im ihr zu schaden."
    TILT..................

    Einen Kommentar schreiben:


  • BongoMercury
    antwortet
    Also das Problem ist dabei das wenn die Komplexität steigt es immer stärkere Verzögerungen gibt? Also wenn es über Software simuliert wird?

    Kann man nicht einen Clusterrechnen auch so umfunktionieren wie FPGA´s? Das z.B ein Prozessor-Kern so und sovielen Neuronen entspricht?

    Einen Kommentar schreiben:


  • i_make_it
    antwortet
    Zitat von BongoMercury Beitrag anzeigen
    Könnte man nicht solche evolutionären Programme auf diesen großen CLusterrechnern laufen lassen? Solche welche auch das Wetter berechnen.

    Dann wäre es bestimmt irgendwann machbar. Zumal diese Rechner ja immer leistungsfähiger werden und sich gegenseitig überbieten. Wenn die dann noch mit Quantenzuständen rechnen geht die Post richtig ab.
    Ja man kann, Transputer sind ja auch nichts anders wie masiv parallel arbeitende Rechencluster. Nur waren die halt mal 20 Jahre ihrer Zeit vorraus.

    Das Problem gegenüber FPGA's ist aber das die Neuronen simuliert werden und itterativ, Zeitschritt für Zeitschritt einzeln die Netzzustände und Feedbackeffekte simuliert werden müssen.
    Ab einem Netzwerk mit 3 oder mehr Schichten und Rückkopplung wird das ähnlich langsam die Wetterberechnung bei sich selbst beeinflussenden Systemen.

    Da bei FPGA's die Neuronen durch Hardware dargestellt werden, werden Feedbacks nur durch die Laufzeitverzögerung der Gatter gebremst und ein ähnliches Laufzeitverhalten wie in einem realen Gehirn erreicht.

    Bei meinen bisherigen Versuchen mit in Turbopascal programierten Neuronalen Netzen ist ab ca. 300 Neuroen schluß mit Echtzeit gewesen.

    Einen Kommentar schreiben:

Lädt...
X