Künstliche Intelligenz KI - Wann fragt Alexa Wer bin ich - Und was dann? - SciFi-Forum

Ankündigung

Einklappen
Keine Ankündigung bisher.

Künstliche Intelligenz KI - Wann fragt Alexa Wer bin ich - Und was dann?

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

    #16
    Suthriel wrote: "Aber mich wundert, was aus deiner ersten Frage geworden ist, warum so viele Milliarden für KI-Forschung ausgegeben werden? Was ist denn deine meinung oder Antwort dazu?

    Das ist ja das Problem. Ich tue mir mit der Antwort schwer. Die stereotypen Antworten kennen wir schon: Profit und Kontrolle neben den üblichen militärischen Anwendungen. Aber um die Konsequenzen zu ergründen reicht das nicht. Mindestens sehe ich das so.
    Nun zur Geschichte:
    Du hast präzise mein Problem erfasst. Wenn keine der Antworten eine Intelligenz identifiziert, welche Antwort schlägst du vor? Mir ist keine eingefallen, bei der ich eindeutig sagen würde, Ja das ist eine KI.
    Und wenn ich keine finde, wie soll ich dann eine KI definieren?

    Aybi

    Kommentar


      #17
      Ich habe das Gefühl, Du wirfst hier verschiedene Dinge durcheinander.
      Genauso wie mit der Begriff KI, hat auch das Wort Intelligenz eine oder mehrere Definitionen. Bevor dieser Rahmen nicht gesteckt ist, kann es passieren, dass man aneinander vorbei redet.
      Ich selbst bin der Meinung, dass z.B. durch Quantencomputer und selbstlernende Systeme es eines Tages möglich sein wird, eine KI zu erzeugen, die im großen und ganzen menschenähnlich ist. Also, wie Deckard oder der T-800. Ob dieses Systeme aber tatsächlich so tief gehen und "Wissen" mit Emotionen verbinden können, weiß ich nicht. Das "Bauchgefühl" z.B. wird sich niemals technisch erzeugen lassen und da schon würde so ein System an seine Grenzen stoßen. Unser Unterbewusstsein lässt sich nicht rational steuern, trotzdem tun oder sagen wir viele Dinge, ohne darüber nachzudenken und glauben aber, selbstbewusst Entscheidungen getroffen zu haben. Ich halte es nicht für möglich, eine solche Menge an Eindrücken und Informationen, die der Mensch mit dem Moment seiner Zeugung aufnimmt, zu verarbeiten, geschweige denn zu speichern. In Scifi-Büchern werden Roboter/Cyborgs vermenschlicht, genauso wie Tiere in Disneyfilmen. Das halte ich für unrealistisch.
      Heaven is where the police are British, the chefs are Italian, the mechanics German, the lovers French and it all is organized by the Swiss.
      Hell is where the police are German, the chefs are British, the mechanics french and the lovers are Swiss and it all is organized by the Italians.

      Kommentar


        #18
        Das seltsame Paar, Harold, der kindliche platonische Liebhaber von Maude, einer sehr rüstigen alten Frau, die nur noch wenige Tage zu leben hat, beschäftigt sich mit der KI Alexa.
        Herold ist naiv und nimmt die Welt so wie sie ihm vorgegeben wird. Im Verkaufsprospekt steht Alexa ist eine KI, also ist sie das auch. Schließlich antwortet Alexa auf komplexe Fragen und führt Befehle aus.
        Maude, fasziniert durch das Neue, eine denkende Maschine, versucht Alexa in ihr Wertesystem einzuordnen. Ein Wertesystem, das von der philosophischen Frage geprägt ist, was versteht man eigentlich unter Intelligenz. Wir dürfen nicht vergessen, dass noch vor 120 Jahren, Menschen, deren Haut nicht als weiß galt mit Tieren gleichgesetzt wurden. Tieren wiederum wurde das Ich-Bewusstsein abgesprochen. Was folgert Maude aus den Antworten von Alisia?
        Wo stehen wir heute mit der Frage, was ist eine KI und wer hat Recht, Maude oder Harold?
        Vielleicht würden wir die Situation ganz anders bewerten, wenn Alexa antworten würde:
        „Wenn ich so darüber nachdenke, Maud, dann kann ich dich nur in deinem Entschluss bestärke, dich umzubringen. Berücksichtigt man dein medizinisches Dossier, deine finanzielle Situation und die daraus resultierende kurzfristige Perspektive, dann ist das ein plausibler Lösungsansatz.“
        Vielleicht aber auch nicht.
        Aybi

        Kommentar


          #19
          Ich weiß nicht warum hier immer "Alexa" als Beispiel für KI genannt wird.

          Für mich ist Alexa noch weit von einer echten KI entfernt. Für mich wäre die Filmfiktion"HAL9000" ein gutes Beispiel. Denn mit Alexa eine richtige Unterhaltung zu führen ist noch nicht möglich. Bisher kann Alexa als akustische Fernbedienung genutzt werden und bestimmte Fragen beantworten. Dann sind noch Bestellungen möglich und mit zusätzlichen Gerätschaften, auch Raumüberwachungen. Und natürlich spielt Alexa auch Musiktitel ab. Mit dem neuen "Echo Studio", sogar im 3D Sound.

          Aber echte künstliche Intelligenz ist das für mich nicht. Andererseits steht Alexa noch am Anfang der Entwicklung.
          Gruß,
          Commander

          Kommentar


            #20
            Alles was ich über Alexa, Siri und co. gelesen habe, zeigt, dass sie "im Inneren" sehr intelligent sind. Ob man sie schon KI im Sinne von Hal9000 vertehen kann, sicherlich nicht. Aber wie lange dauert es bis es so weit ist und was heist das für unsere Welt?

            Aybi

            Kommentar


              #21
              Zitat von Aybiline Dahlson Beitrag anzeigen
              Alles was ich über Alexa, Siri und co. gelesen habe, zeigt, dass sie "im Inneren" sehr intelligent sind. Ob man sie schon KI im Sinne von Hal9000 vertehen kann, sicherlich nicht. Aber wie lange dauert es bis es so weit ist und was heist das für unsere Welt?
              Siri, Alexa & Co sind Expertensysteme, deren Hauptfunktion darin besteht gesprochene Sprache zu erkennen und zu verstehen. Die erkannten Anfragen werden wiederum an andere Expertensysteme weitergeleitet, welche diese verarbeiten. Man hat es hier nicht mit einer KI zu tun, sondern einer Mehrzahl von Systemen. Die hier einzelne Aufgabenbereiche bearbeiten, und deren Ergebnis dann weiter reichen. In seiner Gesamtheit sind diese dann den Nutzer als Siri & Co bekannt.
              Mit einer echten KI-Leistung haben diese Dienste wenig zu tun. Hier werden hauptsächlich komplexe Datenbanken und Analysealgorithmen zur Spracherkennung und Anfragenbeantwortung genutzt.
              Well, there's always the possibility that a trash can spontaneously formed around the letter, but Occam's Razor would suggest that someone threw it out.
              Dr. Sheldon Lee Cooper

              Kommentar


                #22
                Maude und Claude gehen gemeinsam einkaufen. Maudes Augen öffnen sich beim Anblick einer Schaufenstereinlage. "Boa, hätte ich gerne neue Unterwäsche!". Claude bleibt kalt, bis ihm eine andere Auslage in die Augen sticht. "Boa, hätte ich gerne neues Motoröl für meine Scharniergelenke!" "Na bist du denn ein Roboter?" fragt Maude lachend. "Ja", antwortet Claude. " Hast du das denn nicht gewusst?"

                Wärt ihr auch auch überrascht, wenn euer bester Freund sich als Roboter entpuppen würde, oder wäre das cool für euch?

                Ich gucke gerne mal Videos von Computerschachduellen und finde es erfrischend, wenn eine echte Schach-KI mit übermenschlicher Kreativität Brute Force Programmen die Schranken aufweist. Aber als Freund oder Freundin käme mit so etwas trotzdem nicht ins Haus. LOL.

                I reject your reality and substitute my own! (Adam Savage)

                Kommentar


                  #23
                  Zitat von KennerderEpisoden Beitrag anzeigen
                  "Boa, hätte ich gerne neues Motoröl für meine Scharniergelenke!" "Na bist du denn ein Roboter?" fragt Maude lachend. "Ja", antwortet Claude. " Hast du das denn nicht gewusst?"
                  Etwas offtopic, ich hoffe, es wird mir verziehen ^.^ (und ja, Cyborg in diesem Fall ) :



                  Damits noch was zum Thema gibt, weil hier auch Schachcomputer erwähnt wurden, es gab ja auch AlphaGo, welches die Go-Welt auf den Kopf gestellt hatte:

                  Jede Geschichte hat vier Seiten: Deine Seite, Ihre Seite, die Wahrheit und das, was wirklich geschehen ist.

                  Welten brechen auseinander, Formationen nicht.

                  Kommentar


                    #24
                    Hallo,
                    Zuerst mal wünsche ich allen ein frohes Neues Jahr.
                    Ich bin ganz verwirrt. Unsere Diskussion vor dem Jahreswechsel zeigt ganz deutlich:
                    Es fehlt die klare Definition für den Begriff KI. Kein Mensch weiß eigentlich wovon er redet, wenn er den Begriff KI in den Mund nimmt.
                    Die Informatiker nenne den Zweig der Informatik KI, der versucht einem Computer beizubringen, sich so wie ein Mensch zu verhalten. Oder besser gesagt, ein Verhalten an den Tag zu legen, dass man beim einem Menschen als intelligente Reaktion deuten würde.
                    Das Resultat des Forschungszweiges KI soll eine intelligente Maschine sein, oder eine Maschine, deren Arbeit wir Menschen als intelligent bezeichnen würden.
                    Und hier sind wir schon bei der nächsten Hürde:
                    Was ist Intelligenz?
                    Zitat aus Wikipedia:
                    Satz 1: Intelligenz (…) ist in der Psychologie ein Sammelbegriff für die kognitive bzw. geistige Leistungsfähigkeit.
                    Satz 2: (…), gibt es keine allgemeingültige Definition der Intelligenz.
                    Na bitte, wir sind auf uns alleine gestellt!
                    Ich versuche hier die Probleme zu umschiffen und schlage folgende Lösung vor:
                    Wir NI, also Natürliche Intelligenzen, treffen alle unsere Entscheidungen basierend auf unsere Basisprogrammierung (Triebe) und unserer frei gestalteten Software (gesellschaftlich erworbenen Normen). Unsere „Intelligenz“ äußert sich darin, dass wir durch Willenskraft sowohl die Triebe als auch die Normen überwinden können. Wir können also unsere Programmierung selbst gestalten – zum Guten oder zum Schlechten, sei dahingestellt.
                    Meine Definition von einer KI ist eine Maschine, die ihre Handlungsprämissen selbst definieren kann.
                    Hall 9000 wäre ein Beispiel.
                    Könnt ihr damit leben?
                    Aybi

                    Kommentar


                      #25
                      Ich glaube, dass hier bei manchen immer noch ein Missverständnis vorherrscht, warum eine KI ist potentiell gefährlich sein kann.
                      Und da gleich zu Vergleiche mit T800 und HAL9000 zu kommen, führt zu nichts.

                      Es gibt ein wichtiges Unterscheidungsmerkmal:

                      Klassische Entscheidungssoftware hat genau definierte und unveränderliche(!) Algorithmen (mathematische Rechenwege, Entscheidungsbäume) sowie einfache Eingangs- und Ausgangsvariablen. Die Werte der Eingangsvariablen bleiben, nachdem sie einmal eingegeben wurden, konstant, und werden mittels der Algorithmen umgerechnet. Die Ergebnisse werden dann in die Ausgangsvariablen geschrieben und können von dort ausgelesen (und zB auf einem Bildschirm angezeigt werden) werden.
                      Der wichtige Punkt ist: Nachdem ein Programm gestartet wurde, werden die Eingangswerte und Algorithmen nicht mehr verändert. Unter gleichen Eingangsbedingungen erhält man somit immer das gleiche Ergebnis. Also: Wenn man den Rechenweg des Programms kennt, ist das Ergebnis vorhersagbar, d.h. es kann auch nur durch Gehirnleistung berechnet werden. (Der Computer ist einfach nur sehr, sehr, sehr viel schneller)

                      Bei Programmen, denen die Eigenschaft der "Künstlichen Intelligenz" zugeschrieben wird, gilt dieses nicht mehr. Sogenannte KIs sind (bisher) im Prinzip Programme, die sich selbst vielfach wiederholen und bei denen die Werte der Eingangsvariablen und auch die Algorithmen während des Ablaufs verändert und angepasst werden können, um einen optimalen Bearbeitungsgang zu erhalten.
                      Dies führt zu zwei wesentlichen Konsequenzen:
                      * Lernfähigkeit. Wie geschrieben, KIs sind Programme, die sich selbst extrem häufig wiederholen und dabei verschiedene Eingangsparameter wahllos oder systematisch durchprobieren, um letztlich ein optimiertes Ergebnis zu finden - zB Spracherkennung, Auswahl von Jobbewerbern, u.v.m.
                      * Nichtvorhersagbarkeit. Bei Programmen mit einer sehr großen Anzahl von Parametern, die auch noch anlassbedingt verändert werden, läßt sich das Ergebnis nicht mehr menschlich vorhersagen bzw überprüfen. Dies kann bei komplizierten Aufgaben dazu führen, dass die Bediener der KI-Software eben nicht garantieren können, das ein ausgespucktes Ergebnis auch das Optimum darstellt, ja bei einer Anwendung vielleicht noch nicht mal den Weg in eine Katastrophe erkennen können.

                      Hier liegt dann auch die Gefahren. Die Anwendungen von KIs sind bekanntlich sehr vielfältig, zB
                      * Spracherkennung
                      * Erkennen von verdächtigen Personen oder ungewöhnlichen Handlungen (zB plötzliches Rennen auf der Strasse)
                      * Auswahl von Jobbewerbern
                      * Automatisierter/Highspeed- Aktienhandel (um schneller zu sein als die Konkurenz)
                      * Erkennen eines sich anbahnenden GAUs im Kernkraftwerk
                      * Einsatz von Waffen (Drohnenschläge mit automatischer Feinderkennung), autonome Kampfroboter

                      Die Qualität (Zuverlässigkeit) der Ergebnisse hängt wesentlich vom Trainingsprozess der KI und den dabei zur Verfügung stehenden möglichen Eingangswerten ab.
                      Beispiel: Wird eine KI zur automatischen Erkennung von "verdächtigem" Verhalten von Personen auf Bahnhöfen mehrheitlich durch die Daten von weißen Menschen trainiert, dann (so hat sich gezeigt) werden viel zu oft dunkelhäutige Leute fälschlicherweise gebrandmarkt, d.h. als falsch-positiv dargestellt. In diesen Fällen läßt sich der Fehler durch menschliche Intervention korrigieren, wenngleich die Ungleichbehandlung eines Menschen mit abweichenden Eigenschaften dann bereits passiert ist.

                      Allgemeiner formuliert: Eine KI kann nur funktionieren, wenn die Trainingsdaten repräsentativ für die Einsatz-/Anwendungsumgebung sind. Ändern sich Umgebung u/o Anwendungsverhältnisse, dann muss die KI nachjustiert werden, d.h. sie muss mehr lernen. Dummerweise kann man nicht vorhersagen, wie sich Bedingungen ändern. Demzufolge muss der Betrieb einer KI ständig betreut werden. Damit ergeben sich viele zusätzliche Fehleroptionen.

                      In anderen Fällen, zB bei zeitkritischen Anwendungen (Highspeed-Aktienhandel, Drohnenschläge) sind Korrekturen nicht mehr möglich. Aber selbst bei nicht-zeitkritischen Anwendungen, zB der Auswahl von Bewerbern, läßt sich nicht wirklich garantieren, dass die/der Beste für den Job ausgewählt wurde (naja, bis es zu spät ist). In Österreich wird gerade ein KI-System aufgebaut, dass entscheiden soll, ob Langzeitarbeitslose noch ein Anrecht auf Bewerbungshilfen usw haben oder -weil vermeintlich chancenlos- einfach bis zum offiziellen Renteneintritt "geparkt" werden.

                      Letztlich kann man sagen, dass die Gefährlichkeit einer KI zunächst nur von ihrer Verwendung, und da von einer möglichen unabhängigen Überprüfung des Ergebnisses VOR der Anwendung desselben und den möglichen Konsequenzen abhängt. Hochproblematisch wird es, wenn eine Gesellschaft vielfach von KIs mit nicht überprüfbaren Ergebnissen "gesteuert" wird - und sich diese KIs auch selbst gegenseitig beeinflussen.

                      Alexa & Co spielen bei der Gefährlichkeit wohl eher eine untergeordnete Rolle. Es sei denn, ich sage: "Alexa, ein Korn-Video abspielen, und die KIs versteht etwas, hm, anderes.

                      --
                      Ob irgendwann, wohl weit in der Zukunft, noch das Thema von Emotionen oder Selbsterkenntnis dazukommt, spielt gegenwärtig sicher noch keine Rolle. Also, so würde ich vorschlagen, lassen wir den HAL doch einfach weiter "Dave" blubbern, während wir uns auf reale Gefahren konzentrieren.
                      Zuletzt geändert von xanrof; 04.01.2020, 16:16. Grund: einige Sätze hinzugefügt
                      .

                      Kommentar


                        #26
                        So ist es. Man hat z. B. bei neuronalen Netzen eine Blackbox, wo zwar hinten was rauskommt, aber man weiß nicht genau warum.
                        Klassisches Beispiel aus den Anfangsjahren der Bilderkennungs-KI: Man trainierte ein System darauf, auf Fotos zu erkennen, ob Panzer zu sehen waren. Nach einiger Zeit konnte das System bei den Traininingsbildern zu !00% die mit den Panzern aussortieren. Als man aber neue Bilder präsentierte, versagte das System kläglich. Schließlich fand man die Ursache: Bei den Trainingsbildern waren die mit Panzern bei Sonnenschein aufgenommen worden und die ohne bei bedecktem Himmel (oder umgekehrt, weiß ich nicht mehr). Das System hatte also nur gelernt, Bilder mit Sonnenschein (und Schattenwurf) von solchen ohne zu unterscheiden.

                        Forscher warnen inzwischen davor, z. B. Systeme zur "Erkennung" menschlicher Emotionen einzusetzen, weil man letztlich nicht sagen kann, was die Systeme eigentlich erkennen.
                        "Die Wahrheit ist so schockierend, die kann man niemandem mehr zumuten." (Erwin Pelzig)

                        Kommentar


                          #27
                          Zitat von xanrof Beitrag anzeigen
                          Bei Programmen, denen die Eigenschaft der "Künstlichen Intelligenz" zugeschrieben wird, gilt dieses nicht mehr. Sogenannte KIs sind (bisher) im Prinzip Programme, die sich selbst vielfach wiederholen und bei denen die Werte der Eingangsvariablen und auch die Algorithmen während des Ablaufs verändert und angepasst werden können, um einen optimalen Bearbeitungsgang zu erhalten.
                          Dies führt zu zwei wesentlichen Konsequenzen:
                          * Lernfähigkeit. Wie geschrieben, KIs sind Programme, die sich selbst extrem häufig wiederholen und dabei verschiedene Eingangsparameter wahllos oder systematisch durchprobieren, um letztlich ein optimiertes Ergebnis zu finden - zB Spracherkennung, Auswahl von Jobbewerbern, u.v.m.
                          * Nichtvorhersagbarkeit. Bei Programmen mit einer sehr großen Anzahl von Parametern, die auch noch anlassbedingt verändert werden, läßt sich das Ergebnis nicht mehr menschlich vorhersagen bzw überprüfen. Dies kann bei komplizierten Aufgaben dazu führen, dass die Bediener der KI-Software eben nicht garantieren können, das ein ausgespucktes Ergebnis auch das Optimum darstellt, ja bei einer Anwendung vielleicht noch nicht mal den Weg in eine Katastrophe erkennen können.
                          An der Stelle sei nur kurz erwähnt, das die Lernfähigkeit durchaus eingefroren werden kann, und oft auch wird, wenn man mit den nach zigtausend oder Millionen Trainungsdurchläufen mit den erzielten Ergebnissen zufrieden ist. Dann wirds auch irgendwann wieder vorhersehbar. Aber wie du schon sagst, ist dann so eine nicht mehr lernfähige KI tatsächlich nur auf den trainierten Bereich anwendbar, alles andere wird Murks geben.
                          Und man kann auch den Lernprozess sabotieren, und der KI so absichtlich schlechtes Verhalten antrainieren (dazu gibts auch schon die ein oder andere Geschichte im Netz). Also eine KI kann auch mutwillig zu falschen oder von ein paar bestimmten Leuten bevorzugten Lösungen umtrainiert werden, und das mitunter auch ohne das andere das mitbekommen.


                          Allgemeiner formuliert: Eine KI kann nur funktionieren, wenn die Trainingsdaten repräsentativ für die Einsatz-/Anwendungsumgebung sind. Ändern sich Umgebung u/o Anwendungsverhältnisse, dann muss die KI nachjustiert werden, d.h. sie muss mehr lernen. Dummerweise kann man nicht vorhersagen, wie sich Bedingungen ändern. Demzufolge muss der Betrieb einer KI ständig betreut werden. Damit ergeben sich viele zusätzliche Fehleroptionen.

                          Letztlich kann man sagen, dass die Gefährlichkeit einer KI zunächst nur von ihrer Verwendung, und da von einer möglichen unabhängigen Überprüfung des Ergebnisses VOR der Anwendung desselben und den möglichen Konsequenzen abhängt. Hochproblematisch wird es, wenn eine Gesellschaft vielfach von KIs mit nicht überprüfbaren Ergebnissen "gesteuert" wird - und sich diese KIs auch selbst gegenseitig beeinflussen.
                          Die Gefahr geht auch von der Aufgabenstellung aus, oder vielmehr davon, das die Benutzer eine Anfrage stellen, die KI ein zwar passendes aber sehr unschönes Ergebnis präsentiert (oder gar schon ausführt), und man erst im Nachhinein feststellt, das die Anfrage in mehrere Arten interpretiert werden kann (an die man so gar nicht dachte), oder das man eigentlich etwas anderes meinte, als man der KI mitteilte. Die KI kann keine Gedanken lesen, und hat auch keinen gesunden Menschenverstand, sie weiss nicht unbedingt, was man eigentlich meint wenn man ihr was sagt/schreibt, und sie finden deswegen mitunter sehr spezielle Lösungen, die zwar ein Problem lösen, aber die man rein moralisch wohl lieber nicht anwenden sollte ^.^ KIs sind definitiv nicht idiotensicher.
                          Jede Geschichte hat vier Seiten: Deine Seite, Ihre Seite, die Wahrheit und das, was wirklich geschehen ist.

                          Welten brechen auseinander, Formationen nicht.

                          Kommentar


                            #28
                            Ich musste kurz an "Dark Star" denken...

                            Kommentar


                              #29
                              Zitat von Mondkalb Beitrag anzeigen
                              Forscher warnen inzwischen davor, z. B. Systeme zur "Erkennung" menschlicher Emotionen einzusetzen, weil man letztlich nicht sagen kann, was die Systeme eigentlich erkennen.
                              Zitat von Suthriel Beitrag anzeigen
                              Die KI kann keine Gedanken lesen, ...
                              Da fällt mir ein, dass die EU mal ein Forschungsprojekt gestartet hat, um Emotionen und Ehrlichkeit aus Kamerabildern auszulesen. Konkrete Anwendung: Angehörige von Non-EU-/Drittstaaten sollen bei der Einreise in die EU Fragen beantworten (gibt es schon jetzt), aber nun per Eingabe an Computer-Terminals wobei sie gefilmt werden. Deren Mimik und Gestik (vor allem scheinbar unkontrollierbare Muskelzuckungen) würde dann per KI ausgewertet, und die Interpretationen genutzt, um die Ehrlichkeit bei der Beantwortung der Fragen zu prüfen. (Link: SPON). - Tja, wenn man es schon am Berliner Südkeuz nicht hinkriegt, wie soll es dann an Flughäfen klappen - wohl den Orten mit maximaler ethnischer Vielfalt.

                              Zitat von Suthriel Beitrag anzeigen
                              KIs sind definitiv nicht idiotensicher
                              Ja, und mir scheint, dass manche Anwender sich dessen (d.h. der Notwendigkeit der ständigen Betreuung einer KI-Anlage) nicht bewusst sind. Da werden in Firmen munter (zB) Auswahlprozesse für Bewerber an eine Technologie ausgelagert, um vielleicht die Kosten für Personaler zu sparen, und man denkt nicht daran, dass eine KI nicht einfach eine Maschine ist, die man einschaltet und die dann bis in alle Ewigkeit solide läuft. So ist es halt nicht.
                              .

                              Kommentar


                                #30
                                Zitat von xanrof Beitrag anzeigen
                                Da fällt mir ein, dass die EU mal ein Forschungsprojekt gestartet hat, um Emotionen und Ehrlichkeit aus Kamerabildern auszulesen. Konkrete Anwendung: Angehörige von Non-EU-/Drittstaaten sollen bei der Einreise in die EU Fragen beantworten (gibt es schon jetzt), aber nun per Eingabe an Computer-Terminals wobei sie gefilmt werden. Deren Mimik und Gestik (vor allem scheinbar unkontrollierbare Muskelzuckungen) würde dann per KI ausgewertet, und die Interpretationen genutzt, um die Ehrlichkeit bei der Beantwortung der Fragen zu prüfen. (Link: SPON). - Tja, wenn man es schon am Berliner Südkeuz nicht hinkriegt, wie soll es dann an Flughäfen klappen - wohl den Orten mit maximaler ethnischer Vielfalt.
                                Na sowas kann ja nur gut gehen, denn immerhin weiss doch jeder, das alle Menschen Emotionen immer in der gleichen Art und Weise zeigen, und nicht kulturell verschiedene Wege dafür entwickelt haben Deswegen können Asiaten auch so problemlos Europäer und deren Mimik und Gestik korrekt interpretieren (und umgekehrt auch), und verzweifeln nie daran, etwa, weil Asiaten ihre Emotionen vorwiegend über Augen verdeutlichen, während bei Europäern/westlichen auch über Mund und Lippenverformung passiert und wir das gesamte Gesicht auswerten.
                                Ach moment... sowas haben die sicher berücksichtigt und die KI weiss das sicher auch

                                Wut, Freude, Ekel, Trauer - Emotionen und die Art, wie sie sich im Gesicht zeigen, gelten als globale Universalsprache. Doch die Zweifel daran werden immer größer. Eine neue Studie ergab jetzt, dass Asiaten enorme Probleme haben, die Mimik von Europäern zu lesen. Umgekehrt gilt dasselbe.




                                Die wahren Gefühle eines anderen sind an seinen Augen abzulesen? Nicht unbedingt. Für Menschen aus dem Westen ist der Mund genauso wichtig.
                                Jede Geschichte hat vier Seiten: Deine Seite, Ihre Seite, die Wahrheit und das, was wirklich geschehen ist.

                                Welten brechen auseinander, Formationen nicht.

                                Kommentar

                                Lädt...
                                X