Zitat von i_make_it
Beitrag anzeigen
Ankündigung
Einklappen
Keine Ankündigung bisher.
Humanoide Roboter - Entwicklung und Perspektiven
Einklappen
X
-
-
Zitat von Warlie Beitrag anzeigenKreativität kann ich nicht anders schaffen, sorry.
Einen Kommentar schreiben:
-
Kreativität hat nichts mit Intelligenz zu tun.
Der Zufall kann kreativ sein, das Chaos kann kreativ sein.
Ein intelligentes Wesen kann kreativ sein muß es aber nicht sein (Das tägliche leben beweist uns denke ich zur genüge)
Intelligenz bedingt aber nicht zwingend kreativität genauso wenig wie umgekehrt.
Du müsstest schon detailieren was du bezweckst.
Ein System das alles was es sensorisch erfassen kann, analysieren und verstehen soll, benötigt nicht umbedingt Kreativität sondern Regelwerke zum maschinellen lernen. Zufall ergibt sich von alleine wenn duch Versuch und Irtum Varianten die zur Lösung führen können durchprobiert werden.
Kreativität ist nur bedingt nötig um Globale Optima zu finden und nicht in lokalen Optima hängen zu bleiben.
Dies kann man aber genauso auch analytisch schaffen, also gänzlich ohne Zufall.
Wobei dann auch sicher bewiesen wird daß es nicht doch noch ein günstigeres Optimum gibt.
Was bei zufälligen prozessen nicht der Fall ist.
Einen Kommentar schreiben:
-
Zitat von Warlie Beitrag anzeigenJuhu, warum habe ich dieses Forum nicht schon viel früher gefunden?
Zum Thema KI's kann ich vielleicht was beisteuern. Seit kurzem schreibe ich an einem "Evolutions-Programm". Die Basis dabei ist, etwas mehrfach auszuprobieren und die Ergebnisse zu bewerten. Das Thema an sich interessiert mich allerdings schon seid ca. 13 Jahren.
Die Programmierung ist dabei eigentlich minimal, denn das Ding muß sehr abstrakt aufgebaut sein. Außerdem ist eine KI ein "nichtdeterministischer" Algorithmus. Das heißt, er hat eigentlich keine echte Programmierung. Der Kern des Ganzen wäre ein semantisches Netz.
Eine Starke KI wird trotzdem nicht dabei herauskommen.
Was mich seid langem interessiert ist die Qualität der Zufälle des Zufallsgenerator auf eine KI! Sie sind nämlich das Einzige, das die KI zur KI macht.
Intelligenz (lat.: intelligentia „Einsicht, Erkenntnisvermögen“, intellegere „verstehen“)
Siehe dazu: Intelligenz - Wikipedia
War da vieleicht eher Evolution gemeint, dort hat Zufall eine gewisse bedeutung.
Einen Kommentar schreiben:
-
Zitat von Warlie Beitrag anzeigenWas mich seid langem interessiert ist die Qualität der Zufälle des Zufallsgenerator auf eine KI! Sie sind nämlich das Einzige, das die KI zur KI macht.
Einen Kommentar schreiben:
-
Juhu, warum habe ich dieses Forum nicht schon viel früher gefunden?
Zum Thema KI's kann ich vielleicht was beisteuern. Seit kurzem schreibe ich an einem "Evolutions-Programm". Die Basis dabei ist, etwas mehrfach auszuprobieren und die Ergebnisse zu bewerten. Das Thema an sich interessiert mich allerdings schon seid ca. 13 Jahren.
Die Programmierung ist dabei eigentlich minimal, denn das Ding muß sehr abstrakt aufgebaut sein. Außerdem ist eine KI ein "nichtdeterministischer" Algorithmus. Das heißt, er hat eigentlich keine echte Programmierung. Der Kern des Ganzen wäre ein semantisches Netz.
Eine Starke KI wird trotzdem nicht dabei herauskommen.
Was mich seid langem interessiert ist die Qualität der Zufälle des Zufallsgenerator auf eine KI! Sie sind nämlich das Einzige, das die KI zur KI macht.
Einen Kommentar schreiben:
-
Roboter Sumo zeigt wie weit das aufstehen aus unterschiedlichen Positionen schon ist.
YouTube - ROBOT BATTLE
Einen Kommentar schreiben:
-
-
Vektorprozessoren: JAIN, es gibt etwas Beschleunigung gegenüber einer klassischen CPU.
In einem Neurónalen Netz müssen kaum Speicherdaten verarbeitet werden sondern die Zustände der umliegenden Neuronen.
Vektorrechner sind spitze wenn itterative Abläufe mit Ergebnissen die monotnen Folgen entsprechen zu berechnen sind. (weshalb bei Stürmen wo der Atraktor ständig springt die Berechnung erheblich langsamer ist als wenn es nur um "Normalwetter" geht)
Bei vielen gleichartigen Neuronen sind das zwar auch je die gleichen Berechnungen, aber die zeitsparende Aufteilung der Teiloperationen ist nicht möglich da jedes Neuron erst vollständig berechnet werden muß um seinen Endzustand zu erhalten bevor das nächste davon abhängige berechnet werden kann.
Da diese Werte zeitlich sequenziell vorliegen und nicht parallel müssen sie zwichengespeichert werden und wieder eingelesen, was ebenfalls Zeit beansprucht.
Im FPGA werden die Zustände einfach in den Verbindungen gespeichert. Solange sich alles in einem FPGA abspielt, bei Verwendung von Matrixschaltern müssen noch zusätzliche Eingangs und Ausgangspuffer verwendet werden um mit den Durchlaufverzögerungen der Puffer wieder eine Gleichzeitigkeit zu erhalten.
In wie weit sich das ganze realisieren lässt wenn es Signalverzögerungen gibt die Laufzeitunterschiede des vielfachen eines Gatterduchlaufs ausmachen, weis ich nicht. Wäre mal eine Frage für die nächste Ce-Bit.
Da hüpfen bestimt ein paar rum die sich auch mit so was befassen.
Die Schaltmöglichkeiten müssen nicht sooooo groß sein, auch in unserem Gehirn etablieren sich ja Neuronengruppen die sich kaum noch verändern und erfüllen spezifische Aufgaben.
Beim gesunden Normalmenschen ist das Sehzentrum auch nicht direkt mit dem Tastsinn und dem Hörzentrum verbunden, sondern höhere ebenen verknüpfen die Sinneseindrücke.
Prinzipiell könnte mann Teilnetze in software simulieren und ab einem bestimmten Optimierungsgrad in Hardware implementieren. Allerdings weis ich nicht wie stark sich die Netzwerke doch noch gegenseitig durch feedback aus den höheren ebenen beeinflussen.
Bei uns Menschen ist das ja auch so bei meinem letzten Hörtest vor zwei Wochen wurde mir ein für mein Alter überdurchschnittliches Gehör bescheinigt, aber in täglichen Leben höre ich vielfach nicht was man mir sagt, wenn entsprechende Hintergrundgeräusche da sind. Allerdings höre ich Sirenen wenn alle andere nichts warehmen. Wird dann z.B.: der Fernseher ausgemacht hören die anderen das auch. Mein Hörzentrum ist halt eher auf Alarmsignale und Geräusche die nicht da hin gehören Trainiert.Zuletzt geändert von i_make_it; 05.11.2007, 16:50.
Einen Kommentar schreiben:
-
Die Autos beim DARPA Urban Challenge werden auch immer besser, obwohl sie auch noch offensichtliche Schwächen haben:
Darpa Urban Challenge: US-Universität gewinnt Roboterrennen - Netzwelt - SPIEGEL ONLINE - Nachrichten
Einen Kommentar schreiben:
-
Man merkt das du dich mit der Materie beschäftigst und auskennst. Und du bist der Meinung das es sich nur mit FPA`s realisieren läßt?
Mit Vektorprozessoren müßte es doch auch machbar sein oder?
Vektorprozessor - Wikipedia
Ich glaube der "CELL" Prozessor ist auch so einer. Mit mehreren Kernen.
So könnte ein(oder mehrere) "Kern(e)" eines solchen Prozessors sich auf die Netzwerksynchronisation spezialisieren. Im Netzwerk wird das dann hochgerechnet. So bleibt dann immer noch genug Rechenpower für die Berechnung der Neuronen und Axone.
Bei Standard Prozessoren welche parallel angeordnet werden könnte man bestimmte Prozessoren darauf zuteilen.
Wie ich Wikipedia entnehmen konnte können FPGA´s noch nicht so hoch getaktet werden wie herkömmliche CPU´s. Dafür aber mehr parallel verarbeiten.
Unterm Strich ist wohl ein Netzwerk aus Vektorenrechnern leistungsfähiger und kann durch gezielte Aufgabenteilung bestimmt auch in Echtzeit synchronisieren. Allerdings wäre das wohl sehr teuer.
Und beim Hirn müßten sich die Schaltmöglichkeiten irgendwie auf 10*10^9*10*10^2 belaufen. Nämlich die Anzahl der Neuronen im Gehirn multipliziert mit den möglichen synaptischen Verknüpfungen pro Zelle. Natürlich ist das jetzt kein mathematisch korrekte stochastische Darstellung. Aber du weißt bestimmt wie ich es meine.
Einen Kommentar schreiben:
-
Zitat von BongoMercury Beitrag anzeigenAlso das Problem ist dabei das wenn die Komplexität steigt es immer stärkere Verzögerungen gibt? Also wenn es über Software simuliert wird?
Kann man nicht einen Clusterrechnen auch so umfunktionieren wie FPGA´s? Das z.B ein Prozessor-Kern so und sovielen Neuronen entspricht?
Da ein neuronales Netz nicht nur vorärtsgerichtet arbeitet sondern durch Feedback auch rückwärtsgerichtet.
Haben wir das Problem ,das die Zustände eines Neurons in Verarbeitungsrichtung mehrere Neuronen der Nächsten Ebene beeinflussen können, Quer zur Verarbeitungsrichtung mehrere Neuronen der gleichen Verarbeitungsebe sowie entgegen der Verarbeitungseben Neuronen der vorgelagerten Verarbeitungsebenen.
Jedes sequenziel arbeitende Verarbeitungssytem hat damit ein Problem.
Deshalb hat Intel ja zwei Pipes inden Core gesetzt und mittlerweile sogar Dualcore CPU's da Multitasking systeme teilweise auf die selben Probleme stoßen. Nur die Abhängigkeit ist nicht so hoch.
Auch massiv Parallel Rechner wie Beowulf Cluster oder Deep Blue würden schlußendlich die meiste zeit damit zubringen die Knoten zu synchonisieren anstelle Neuronen Zustände zu berechnen.
Wenn man FPGA's in einem Raster anordnet und an den Kreuzungen zwichen je vier FPGA's einen vielkanaligen Matrixschalter anordnet, kann je ein FPGA mehrere (hundert) Neuronen simmulieren und Dentriten / Axon Verknüpfungen die ein FPGA verlassen werden durch die Matrixschalter realisiert so das ein neuronales Netz nicht auf die Größe eines einzigen FPGA beschränkt ist.
So laufen "Nervenimpulse" durch Netz ähnlich dem Laufzeitverhalten in einem realen Gehirn.
Die Simulierung neuronaler Netze auf klassisch organisierten Computern macht meiner Meinung nach nur Sinn um Anfangszustände von Teilnetzen reifen zu lassen. die dann auf die FPGA's übertragen werden und so die Entwicklung dort beschleunigen können.
Wenn wir mal davon ausgehen das wir 200 Neuronen auf einen FPGA bekommen und mit allen Matrixschaltern und weiteren Bauteilen, 32 FPGA auf eine 8 fach Eurokarte. Dann Gaben wir 6HE (Höheneinheiten) im 19" Rack in das wir 21 Steckkarten bekommen. Ein Rechenkluster hat also
21*32*200=134.400 Neuronen.
Je Rack mit 42HE passen 7 Einschübe=940.800 Neuronen.
Im RZ (Rechenzentrum) rechnet man mit 1,4m² je Rack.
in Ein 1000m² RZ passen also rund 700 Racks. Macht 658.560.000 Neuronen
Die menschliche Großhirnrinde (Cortex) hat etwa 12 Milliarden Neuronen.
Selbst bei 1000 Neuronen pro FPGA kommen wir grade auf knapp 3,3 Milliarden.
Wenn man sich mal alleine die Hardware Kosten und die Betriebskosten des RZ ansieht, weis man daß das nur NSA & Co stemmen könnten.
Wir sind wohl jetzt schon in der Lage die technischen Vorraussetzungen zu schaffen. (Das RZ in dem ich arbeite hat 4 mal 1200m² plus 2 mal 500m².
Sowie die passende Klimatisierung und Stromversorgung.
Die Komplette HW ist so heute realisierbar.
Die Entwicklung dürfte, falls sie nicht schon in einem Save liegt, in einer Dekade zu schaffen sein.
Die Entwicklung des Netzes durch selbstlernen und selbst Modulation würde vermutlich 20 bis 40 Jahre dauern.
Es ist davon auszugehen das wir danach vor einer KI stehen würden die einem menschlichen Teen bis jungen Erwachsenem entspricht.
Ob sich allerdings ein Bewustsein und eine eigene Persönlichkeit entwickeln würde kann wohl keine sagen. Und so lannge das nicht mitsicherheit auszuschließen ist werden NSA & Co da wohl nichts investieren.
(Wer steckt schon gerne milliarden in ein Projekt das dan einfach sagt "Ich habe jetzt alle Daten analysiert, und bin zu dem Schluß gekommen die andere Seite ist im Recht. Ich werde nichts tun im ihr zu schaden."
TILT..................
Einen Kommentar schreiben:
-
Also das Problem ist dabei das wenn die Komplexität steigt es immer stärkere Verzögerungen gibt? Also wenn es über Software simuliert wird?
Kann man nicht einen Clusterrechnen auch so umfunktionieren wie FPGA´s? Das z.B ein Prozessor-Kern so und sovielen Neuronen entspricht?
Einen Kommentar schreiben:
-
Zitat von BongoMercury Beitrag anzeigenKönnte man nicht solche evolutionären Programme auf diesen großen CLusterrechnern laufen lassen? Solche welche auch das Wetter berechnen.
Dann wäre es bestimmt irgendwann machbar. Zumal diese Rechner ja immer leistungsfähiger werden und sich gegenseitig überbieten. Wenn die dann noch mit Quantenzuständen rechnen geht die Post richtig ab.
Das Problem gegenüber FPGA's ist aber das die Neuronen simuliert werden und itterativ, Zeitschritt für Zeitschritt einzeln die Netzzustände und Feedbackeffekte simuliert werden müssen.
Ab einem Netzwerk mit 3 oder mehr Schichten und Rückkopplung wird das ähnlich langsam die Wetterberechnung bei sich selbst beeinflussenden Systemen.
Da bei FPGA's die Neuronen durch Hardware dargestellt werden, werden Feedbacks nur durch die Laufzeitverzögerung der Gatter gebremst und ein ähnliches Laufzeitverhalten wie in einem realen Gehirn erreicht.
Bei meinen bisherigen Versuchen mit in Turbopascal programierten Neuronalen Netzen ist ab ca. 300 Neuroen schluß mit Echtzeit gewesen.
Einen Kommentar schreiben:
Einen Kommentar schreiben: