Tags
AI, begreifen, delegieren, entscheidung, intelligenz, ki, konzepte, lernen, motivation, vertrauen, ziel
Im Rahmen des Artikels zum Internet der Dinge unternahm ich einen kleinen Exkurs in den Unterschied von Maschinen und Menschen. Das Übertragen von komplexen Entscheidungskompetenzen an Computerprogramme halte ich für problematisch. Unerwartete Empfehlungen von Google Now, Autos mit Autopiloten und Börsenprogramme, die so schnell Kaufentscheidungen durchführen, dass wir sie nicht stoppen könnten, selbst wenn wir wollten. Sie haben alle das gleiche Problem: Die Entscheidungen sind nicht nachvollziehbar.
Delegation an Maschinen oder Menschen?
Auch Menschen können sich irren und Fehler machen oder sogar böswillig sein, wobei das glücklicherweise kein hoher Prozentsatz ist. Es gibt jedoch zwei grundlegende Unterschiede zur Delegation an Maschinen, die unser Vertrauen in diese reduzieren, wie ich denke:
1. Lern- und Anpassungsfähigkeit
Ein ABS-System ist etwas anders als ein Autopilot. Ich kann mir als Software-Mensch gut vorstellen, dass die Entwicklung der ABS-Programme bereits komplex ist – aber die Auslösebedingungen und Schwellenwerte sind noch recht gut reproduzierbar: Bremsen auf verschiedensten Oberflächen.
Der Autopilot eines Autos dagegen muss viel anpassungsfähiger sein. Er muss unter verschiedensten Umgebungsbedingungen erkennen und entscheiden in welcher Situation er sich befindet. Er muss aus verschiedensten Aktionsmöglichkeiten wählen, wie zu reagieren ist.
Der Irrwitz ist zu glauben, dass man für solch komplexe Systeme einfach alle Schwellenwerte und Aktionen definieren kann. Das wird innerhalb normaler getesteter Situationen machbar sein, aber nicht in Situationen wo Kombination und Anpassung notwendig ist.
Was solche einfachen Regel-Systeme gut können, ist schnell sein – in vorhergesehenen Grenzfällen können sie uns daher gut unterstützen. Aber eben nicht in unvorhergesehenen. Und da kommt die Kreativität des Menschen ins Spiel.
Die einzigen wirklich anpassungsfähigen Systeme, die wir kennen, sind lebendige Systeme – und da setzen wir uns Menschen gern an die Spitze ( mir fällt da auch nix besseres ein :-). Maschinelle Lernfähigkeit gibt es, aber gelernt wird dabei die Verbesserung einer einzelnen Tätigkeit, wie die Gesichtserkennung. Die Fortschritte dabei sind beachtlich und kommen Autopiloten sicher zu Gute!
Allerdings verbessern diese Systeme nicht ihre Urteilsfähigkeit – die Fähigkeit Handlungsmuster von einer Situation auf eine andere zu übertragen. Sie können lernen, Dinge besser zu erkennen und Aktionen genauer auszuführen. Aber ob und welche Aktion hier und jetzt noch angemessen ist, können Programmen sehr schwer beurteilen. Letztlich entscheiden dann wieder ihr Programmcode und die Ihnen einprogrammierten Erfahrungen.
Und das ist ein gravierendes Problem – Programme entscheiden nur auf Basis der Vergangenheit, nie wählen sie ein Ziel in der Zukunft, das es zu erreichen gilt! Kommt es nun zu unvorhergesehenen Situationen, in denen sich zwei Programme gegenseitig aufschaukeln, kommt es zwangsläufig zur Katastrophe.
2. Nachvollziehbarkeit und Vertrauen
Menschen nutzen Ihre Urteilsfähigkeit auch nicht immer – vor allem dann nicht, wenn es schnell gehen muss. Auch Ihnen können „Schwellenwerte“ fehlen aufgrund dessen sie falsche Entscheidungen treffen. Menschen haben aber den großen Vorteil gegenüber Maschinen, dass ich sie fragen kann.
Warum möchten Sie das so und nicht anders machen? Ein Mensch kann mir erklären, welchen Zweck oder welches Ziel er mit dieser oder jener Aktion verfolgen. Das ist der große Unterschied zu einer Maschine. Ihre Handlungen sind selbst erklärten Ziel unterworfen – selbst wenn sie reden könnte, könnte sie mir Ihre Aktionen nicht erklären. Ein Programmierer mag Sie nachvollziehen können1, aber auch das erst im Nachhinein.
Konzepte wie „Prozess“, „Motiv“, „Zweck“ und „Ziel“ sind meist nicht sehr konkret – je komplexer ein Prozess ist, desto weniger wissen wir genau wann wir wie handeln werden, um ein Ziel zu erreichen. Aber die Begriffe reichen als Handlungsmuster, als Orientierungen, um zu wissen was jemand anderes vorhat. Menschen werden damit nachvollziehbar.
Auf dieser Basis können wir Vertrauen aufbauen. Wir müssen nicht mehr jeden einzelnen Schritt nachvollziehen können, solange wir wissen, was derjenige erreichen will. Bei einem Computerprogramm geht das nicht. Vertrauen kann sich bei diesem nur dann einstellen, wenn es in 99,9999% der Fälle bereits erfolgreich war (oder mir das entsprechend verkauft wurde…)
Bei einem Menschen kann es reichen, wenn er nachvollziehbar und damit vertrauenswürdig ist. Er wird damit auch berechenbar – aber auf einer ganz anderen Ebene als ein Computerprogramm.2 „Vertrauen ist ein Mechanismus der Reduktion sozialer Komplexität“3. Intuition und Empathie spielt hier eine große Rolle. Bei einem Programm hilft mir Empathie wenig – da kann ich nur hoffen.
Das gemeinsame Ganze: Ziele
Anpassungsfähigkeit und Nachvollziehbarkeit gründen sich somit auf einem gemeinsamen Ganzen: Ziele zu haben und diese erklären zu können.
Ich glaube nicht, dass „ein Ziel zu haben“ eine transzendente Fähigkeit ist, die nur Menschen haben können. Grob gesprochen ist ein Ziel auch nur eine Ansammlung von Schwellenwerten, bei deren Erreichen ich sagen kann: Mission accomplished! Das gibt es bereits! und das ist in der KI mit verschiedenen Algorithmen umsetzbar. Selbst die Wahl zwischen mehreren Zielen können Maschinen lernen.
Der Unterschied ist die Anpassungsfähigkeit, die wiederum auf tiefer verankerten Zielen fußt. Wenn mir der Weg zu einem Ziel nicht gut tut, kann ich Schwellenwerte ändern, das Ziel komplett austauschen, oder gar den Weg zum Ziel erklären. Hauptsache, es tut mir gut!4
Ich denke, dass auch Maschinen die Fähigkeit Ziele zu bilden eines Tages haben werden – die Frage ist allerdings, ob wir sie dann noch Maschinen nennen. Denn ein System, dass sich selbstständig Ziele suchen kann, dass sich „frei“ die Wege aussuchen kann, um diese zu erreichen, wird sich nicht mehr sehr von uns unterscheiden.5
Darüber was „frei“ und was „ein Ziel haben“ bedeutet, kann man sicherlich streiten. Letztendlich ist es die Fähigkeit, Dinge in den den richtigen Mustern oder Ballungen zusammenzufassen, damit diese nachvollziehbar werden, damit sie für mich Sinn ergeben, damit ich mit Ihnen umgehen kann.
Was meine ich damit? Man kann den zweiten Weltkrieg sicher in einer Unzahl von Gleichungen über die Bewegungsmuster aller Elementarteilchen auf der Erde ausdrücken6. Aber was ist damit gewonnen? Verstehen tue ich dadurch nichts. Viel nützlicher ist es die Motive und Ziele der einzelnen Mitwirkenden nachzuvollziehen. Dann kann ich dadurch Handhabungsmuster für meine Zukunft ableiten – wie gehe ich mit Personen um, die solche Ziele haben?
Konzepte wie „Ziele“, „frei“, „Motiv“ sind letztlich starke Vereinfachungen von ganz vielen sich bewegenden Elementarteilchen, aber sie machen Sinn, sie sind nützlich, denn sie passen in den meisten Fällen – beim Menschen. Ein Computerprogramm hat diese Konzepte nicht. Deshalb kann ich sie auch nicht auf dieses anwenden, und deshalb kann ich auch so schwer vorhersagen, wie es reagieren wird, wenn etwas für das Programm Unvorhergesehenes passiert.
Vetorecht des Menschen – denn nur bei Ihnen können wir empathisch sein
Daher ein klares Votum meinerseits für ein Vetorecht des Menschen bei Programm-Abläufen, die sich gegenseitig hochschaukeln können. Feedback-Schleifen von Programmen, die beispielsweise zu Kursabstürzen an der Börse führen haben wir bereits erlebt.
Feedback-Schleifen sind kein neues Phänomen. Außerhalb des Internets kennt man ähnliche Phänomene wie die Eigenfrequenz von Brücken, bei der kleine Windgeschwindigkeiten ausreichen können um die Brücke zum Einsturz zu bringen. In sozialen Systemen kommt das genauso vor: Es gab auch Kursabstürze an der Börse vor den Börsenprogrammen. Aber bei Menschen haben wir im Gegensatz zu den Programmen immerhin die Möglichkeit unsere Ziele abzugleichen, zu verstehen worauf sie reagieren, oder um es mit Peter Kruse zu sagen: Dann kann man „ein Gefühl für die Resonanzmuster der Gesellschaft“ entwickeln [2:35].
- Und das wird in so komplexen parallel arbeitenden Systemen, die gegebenenfalls noch mit anderen in Feedback-Verbindungen stehen, äußerst schwer. Das weiß jeder Programmierer aus Erfahrung. [↩]
- Der Pilot erklärt sich mir im Zweifel nicht persönlich. In diesem Fall vertraue ich Menschen, die Menschen vertrauen, die ihm vertrauen. Alles auf Basis von Nachvollziehbarkeit der Ziele und Motive jedes einzelnen in dieser Kette. Am Ende der Kette kann dann auch ein Computerprogramm stehen, aber irgendjemand muss immer hingehen und dem Programm vertrauen – und da es sich nicht erklären kann steht hier immer Testen, Testen Testen [↩]
- nach Niklas Luhmann [↩]
- Beziehungsweise: Hauptsache, ich meine, es tut mir gut. Das Menschen sich dabei wiederum komplett irren können wissen wir: Gründe werden erfunden oder wegrationalisiert, wir folgen gewohnten Handlungsmustern, vermeiden Änderungen, verurteilen die Außenwelt um uns nicht mit uns selbst auseinandersetzen zu müssen [↩]
- Eine Vorstufe könnten vielleicht Systeme sein, die ein Ziel vorgegeben haben. Das müsste aber – ungleich zu einprogrammierten Schwellenwerten – recht un-konkret sein, damit das System sich auch unterschiedliche Wege suchen kann, das Ziel zu erreichen. Ähnlich einem Instinkt wie bspw. Hunger, der ein System dazu treibt Wege zu finden dieses Ziel zu befriedigen. Das Thema lohnt eine genauere Betrachtung. The Society of Mind ist ein guter Einstieg. [↩]
- Irgendwo hab ich das Beispiel mal gelesen – es ging um Reduktionismus – war es bei Steven Pinker? Bei Gelegenheit muss ich das nochmal suchen. Nichts desto trotz passt es hier auch gut. Danke :-) [↩]
[…] zu können.1 Ohne Ziele können wir kein Vertrauen in komplexe Programme entwickeln. (Den Exkurs zu den beiden Punkten und ihren Zusammenhang mit Zielen, habe ich in den vorherigen […]
[…] eines Themas feststellen, dass wir unser Denk-Ziel, unser Erklär-Ziel anpassen müssen. (Denk-)Ziele zu wählen und zu ändern und erklären zu können (ob gemeinsam oder nur uns selbst), das ist meiner Meinung nach das, was uns von Maschinen […]
[…] Ziele in anderen zu erkennen, ist dabei ein wichtiges Feature. […]
[…] Im Video sieht man aber auch schön, wo die Grenzen liegen. Das System erkennt recht gut, welche Auto-Bilder einander ähnlich sind. Es erkennt aber nicht von alleine, welche die Vorderseite oder die Rückseite abbilden, da diese sich – im Vergleich seitlichen Aufnahmen oder Aufnahmen von Rädern – sehr ähneln. Hier muss wieder der Mensch ran, um zu sagen was ihm wichtig ist – denn er hat ein Ziel und möchte Handeln. Das Deep Learning System hat kein Ziel. […]