Tags

, , , , , , ,

Nachdem mal wieder fast alle Medien auf den Zug aufgesprungen sind, ohne groß zu hinterfragen (klar, es geht ja um Klicks!), rudern sie nach einem Tag Recherche wieder zurück:

Ich war gespannt, als ich den ersten Artikel anklickte, aber leider konnte der Artikel meine Sensationslust nicht befriedigen… Tatsächlich gibt es genug Kritikpunkte an diesem speziellen Test. Und es gibt einige Kritik an Turing-Test selbst.

Worum gings im Turing Test?

Vor 50 Jahren wagte Turing für das Jahr 2000 die Prognose, dass ein Computer:

  • nach einer 5 minütigen Unterhaltung mit Mensch und Maschine,
  • bei reinem Schriftverkehr –  kein Sehen, Zeigen, Sprechen, etc –
  • bereits in 30% der Tests als Mensch durchgeht.1

Ein netter Wettbewerb, ein erster Schritt und schon schwer genug, wie man feststellt. Mit der Realität hat das aber wenig zu tun.

Eine weitere wichtige <implizite> Einschränkung im Turing-Test ist: die Versuchsteilnehmer WISSEN alle, dass sie beim Turing-Test mitmachen. Von daher ist durchaus vorstellbar, dass Menschen, die damit nicht rechnen, und die daher keine investigativen Fragen stellen, in Chats-Foren – auch länger als 5 Minuten – getäuscht werden.

Aber es gibt Wege dagegen anzugehen:

Turing Test für Spam-Bots

Turing Test für Spam-Bots, (von xkcd.com)

Lustig.

Doch – verdammt! – auch bei Captchas sind die Maschinen uns auf den Fersen:

Vicarious – Turing Test 1: Captcha from Vicarious Inc on Vimeo.

Nicht mehr lange und sie sehen auch noch so aus wie echte Menschen!!!

 

Ab wann haben wir keine Chance mehr sie von uns zu unterscheiden?!?

Hier könnte man nun die übliche 50 Jahres Prognose einsetzen, aber ich wage eine etwas iterativere Herangehensweise.

Erst einmal muss man die Grundfrage überdenken. Turing fragte ursprünglich „Can Machines Think“ und ersetzte die Frage letztlich durch seinen schriftlichen Turing-Test. Die Einschränkung auf 30%, 5 Minuten war nur in Bezug auf seine 50 Jahres Prognose gedacht. Er war, so denke ich, der Überzeugung, dass das letztendliche Ziel – der ultimative Test – sein müsste, dass die Maschinen uns dauerhaft und zu 100% überzeugen, ein Mensch zu sein.

Die Einschränkung auf schriftliche Kommunikation mag man für einen überarbeiteten Test noch zulassen. Aber die Kommunikation mit dem Menschen sehe ich auch als unverzichtbares Kriterium an, um zu beurteilen „Can Machines Think?“

Einige Kritiker bemängeln, dass ein Computer denken kann, ohne dass er mit Menschen kommunizieren können muss. Das mag möglich sein. Aber wenn sich eine Maschine uns nicht erklären kann, wie können wir es dann wissen?

Das ist ein bisschen, wie wenn ich behaupte: „Ein Stein ist lebendig, woher willst du wissen, dass es anders ist?“ Ja, ok – aber was meinst du dann mit lebendig?2

Was meint man mit „Denken“?

Jetzt könnte man Definitionen für „Intelligenz“ wälzen von Anpassung an die Umwelt bis zum IQ-Test. Tiere können sich intelligent verhalten, intelligenter als manche Menschen. Und auch Taubstumme können Denken, die nie Sprechen gelernt haben, oder? Oder nicht?

Aber das ist irreführend. Worte sind zur Orientierung da.

Ich meine, letztlich erkennt man „Denken“ – im menschlichen Sinne – daran, dass wir uns gegenseitig erklären können, was wir denken (netter Ringschluss :-). Turing lag da vollkommen richtig. Manche können das besser, manche schlechter.3 Manche erklären sich mit Worten, andere mit Zeigen oder Vormachen. Manche brauchen bei gewissen Themen länger. Manche haben nicht genug Lebenszeit, um ein Thema überhaupt noch zu verstehen.

Aber das ist der Punkt. Das eigene Denken zu Erklären ist nicht auf ein Thema festgelegt. Wir können beim Erklären eines Themas feststellen, dass wir unser Denk-Ziel, unser Erklär-Ziel anpassen müssen. (Denk-)Ziele zu wählen und zu ändern und erklären zu können (ob gemeinsam oder nur uns selbst), das ist meiner Meinung nach das, was uns von Maschinen unterscheidet.

Ein neuer Turing-Test!

Der Unterschied zum heutigen Verständnis des Turing-Tests ist dabei der, dass es nicht darum geht, einen Menschen so gut wie möglich nachzuahmen. So zu tun, als ob man etwas nicht verstünde, oder nicht so gut Englisch kann, oder auf bestimmte Themen keine Lust hat; das ist alles menschlich und super, wenn man einen Chat-Bot entwerfen will.

Aber ein echter „Turing-Test“ sollte meiner Meinung nach testen, ob die Maschinen (Denk-)Ziele haben, und diese ändern können, ob ich Ihnen den Umgang mit einem Objekt, einer Gegebenheit, einer Situation beibringen kann, die sie noch nicht kennen. Das wird einigermaßen schwierig, wenn ich nur schriftlich kommunizieren kann. Ich werd ihr nicht beibringen können, wie man ein Taschenmesser hält, um eine Figur aus einem Holzklotz zu schnitzen.

Doch Situationen, die auf Worte beschränkt sind, die könnte ich ihr erklären. Beispielsweise wie ein Vorstellungsgespräch abläuft, oder wie man seinen Vater überzeugt ihn zu einem Konzert gehen zu lassen, oder – es liegt auf der Hand –  wie der Turing-Test funktioniert! Ich bringe Ihnen bei, diese Situationen nachzuspielen. Zeige Ihnen typische Antworten und lasse sie aus Ihrem Erfahrungen „ähnlich“ antworten. Sie müssen also fähig werden „sinnvolle Ähnlichkeiten“ zu erkennen. Zugegeben: Das klingt ein wenig wage.

Ein gutes Beispiel zu Ähnlichkeiten ist in diesem Interview Douglas Hofstadter mit zu finden:

The people in large companies like IBM or Google, they’re not asking themselves, what is thinking? They’re thinking about how we can get these computers to sidestep or bypass the whole question of meaning and yet still get impressive behavior.
Q
How do we even begin to answer those giant questions?
A
[Here’s one example:] My research group has focused on building programs that look at letter strings and are able to perceive them at abstract levels. For example, I could ask you the question, if the letter string ABC changed to ABD, how could the string PPQQRR have the same thing happen to it? Well you could say that PPQQRR would also change to ABD. Now that’s the dumbest answer but it’s defensible. You could be less rigid—but still somewhat rigid—and say, it changes to PPQQRD, where the last letter changes to a D. But even more sophisticated is to notice that PPQQRR is just like the 3 letters of the alphabet ABC, but doubled, and so you say, PPQQSS where the last two letters change to their successors.

Vermutlich fehlen einer Maschine dann einige (alle?!) Begrifflichkeiten, Erfahrungen und Handhabungs-Möglichkeiten, um solche Schlussfolgerungen zu ziehen. (Wenn sie bspw die Reihenfolge des ABC nicht kennt, wird ihr die Schlussfolgerung aus dem Beispiel oben schwer fallen) Sie wird nicht wissen, wie sie mit gewissen Situationen oder Personen mit gewissen Rollen umgehen muss. Vermutlich muss ich ihr erst erklären, was das ABC, ein Chef ist, was Gehalt ist, was ein Konzert ist, und überhaupt: was das ist, das „Ziel zu einem Konzert zu gehen“. Oder was das Ziel eines Vorstellungsgesprächs ist.4

Sollten Maschinen einmal einen solchen Test bestehen können, dann können wir Beginnen von „Denken“ zu reden. Sicher werden die Maschinen sich erst seltsam verhalten. Vielleicht werden Sie autistisch aber lernfähig, unermüdlich aber unemphatisch wirken. Aber vermutlich nur zu Beginn. Wenn sie verstehen und erklären können, dann werden sie sich auch auf andere einstellen können, sich auf sie orientieren können. Erklären und Verstehen: Orientieren und orientiert werden gehört zum Denken, wie Selbsterhaltung zum Leben.

Wie lange wird es also dauern, bis sie wie wir denken?

Um Verstehen zu lernen und sich selbst erklären zu können, brauchen manche Menschen ein ganzes Leben. Ich vermute, dass es bei Maschine nicht viel anders sein wird. Vermutlich werden sie schneller lernen und erklären können als wir, aber sie werden sich mit uns als Gesprächspartner begnügen müssen – zu Beginn. Eine menschenähnliche „starke KI“ wird also – wie ein Kind – erst einmal viel von uns lernen müssen, um sich uns erklären zu können.

Vermutlich lässt sich das Wissen einer Maschine kopieren und für das nächste Software-Update weiternutzen. Aber sogar ab dem Zeitpunkt, ab dem wir in den Startlöchern einer solche Technologie stehen, wenn wir einmal die Grundkonzepte durchschauen, wie wir Denken, Verstehen und Erklären (einer starken KI) modellieren können – selbst ab da wird es schon wegen der Lern-Prozesse noch Jahrzehnte dauern, bis die Maschine soweit ist, diesen „neuen Turing-Test“ zu bestehen.

Wenn die Maschinen dann einmal voneinander lernen können, dann sieht die Sache nochmal ganz anders aus. Vielleicht fragen sich die Maschinen dann, ob die Menschen in Ihrer Langsamkeit Ihr Denken überhaupt erklären können…

  1. http://mind.oxfordjournals.org/content/LIX/236/433, Seite 442 []
  2. Meine kurze Antwort: Autopoiesis – Stein fällt also aus :-) []
  3. Klar, manche Menschen können es der Umstände halber nicht; weil sie gelähmt sind, im Koma liegen etc. Trotz der Unfähigkeit sich mitzuteilen, käme niemand im Traum darauf, diesen Menschen die Möglichkeit des Denkens abzuerkennen. Aber das sind Randfälle und die Diskussion verschiebe ich auf später. Mindestens „potentiell“ können diese Menschen denken. []
  4. und ich glaube einfach nicht, dass man alle Antworten wie in einem Karteikasten – oder in PROLOG – hinterlegen kann. Das ist ein nettes Gedanken-Experiment –  siehe Chinesischen Zimmer – aber letztlich muss ich bzw. die Maschine lernen mit den Begriffen umzugehen und sie genau dann anzuwenden, wenn sie nützlich sind. []