… und ganz schwer nachvollziehbare Algorithmen

Es gibt – wie kürzlich beschrieben – Algorithmen, die schwerer nachvollziehbar sind als andere. Eine Art Königsdisziplin in dieser Hinsicht stellen evolutionäre Algorithmen dar. Bei diesen wird nicht beschrieben, wie genau ein (Teil-) Problem gelöst wird, sondern es wird nur definiert, wie vorhandene Problemlösungsalgorithmen kombiniert und modfiziert werden (änlich wie bei der biologischen Fortpflanzung ja auch die Erbmasse kombiniert und modifiziert wird). Das Ergebnis ist dann eine Überraschiung, dahingehend, das auch die Ersteller nicht vorhersagen können, zu welchen Ergebnissen die Algorithmen im Zuge der verschiedenen Generationen kommen.

Das hört sich erstmal komplex an, ist aber ganz gut beschrieben in einem Roman von William Hertling: SINGULARITY (2): A.I. APOCALYPSE.

 

Werbeanzeigen

Algorithmen – Das GIGO Prinzip

Auch wenn Algorithmen teilweise keine korrespondierende Erklärung in der abgebildeten Welt haben, beziehen sie sich auf diese Welt. Beim maschinellen Lernen versucht das System, die Muster (Bilder –  darauf abgebildete Gegenstände) aus einem Satz von Lehrdaten zu „verstehen“, also es versucht, seine Millionen Parameter so zu setzen, dass sein Algorithmus möglichst oft ein Bild dem darauf abgebildeten Gegenstand zugeordnet wird.

Wenn nun ein solches System zur Bewerberauswahl (oder -vorauswahl) eingesetzt wird, dann werden ihm auch vorhandene Datensätze „gelehrt“ – also Paare von Bewerberprofilen und den Entschedungen zu diesen Bewerbern.

Das System wird daraufhin optimiert, möglichst oft so zu entscheiden, wie bei den Lehrdatensätzen entschieden wurde. Und dann ist es so , wie immer in der Datenverarbeitung: Die Qualität der Eingangsdaten (hier die Lehrdatensätze) bestimmt die Ergebnisse massgeblich – oder anders fomuliert: „Müll rein“ produziert auch nur wieder Müll („Garbage in – Garbage out“ : GIGO).

Wenn man sich nun vor Augen führt, dass

a) dem Algortithmus beim maschinellen Lernen keine Kausalketten der modellierten Welt zuzuordnen sind (er also „nicht erklärbar ist“)

b) Lehrdatensätze aus der realen Welt stammen, die bekanntlich nicht immer richtig ist

sieht man leicht, dass solche Systeme die Fehler, die man früher schon machte, ebenfalls lernen. Ein sehr deutliches Beispiel zeigt das System zur automatisierten Personalauswahl bei Amazon.

Das System wurde anhand früherer Personalauswahlentscheidungen trainiert und hatte dann die Entscheidungskriterien aus diesen früheren Entscheidungen mit Hilfe mathematischer Modelle herausgearbeitet. Dabei werden alle zur Verfügung stehenden Kriterien genutzt. Bspw. Zeugnisnoten, Soziales Engagement, Alter und Geschlecht. Im konkreten Fall bei Amazon stellte sich heraus, dass Frauen in der Vergangenheit im Bewerbungsprozeß benachteiligt wurden und deshalb wurde dieser Aspekt vom System auch so gelernt. (Das System ist rein datenbasiert und nimmt keinerlei moralische Wertung der gelernten Daten vor. Das geschlcht ist ein weiteres Kriterium wie Noten oder Softskills.) Als dieser Umstand offensichtlich wurde, hat man die Nutzung des Systems gestoppt.

Wegen des GIGO Prinzips gilt es, den Lehrdatensätzen beim Maschinelles Lernen noch mehr Bedeutung zuzumessen. Oder anderherum gesagt: Mit dieser Art Maschinen kann man die Fehler der Vergangenheit viel leichter wiederholen.

Leicht und schwer nachvollziehbare Algorithmen

Algorithmen sind die gedankliche Basis der Datenverarbeitung. Ein Computerprogramm – egal wie kompliziert es ist – arbeitet eine zuvor festgelegte Berechnungsvorschrift (einen Algorithmus) ab. Diese Algorithmen können Parameter aus der Umgebung berücksichtigen (bspw. nutzt die Glatteiswarnung am Bordcomputer des Autos die Umgebungstemepratur als Parameter). Um gerade bei Computerspielen echte Zufälligkeit zu nutzen, können Computer auch auf Zufallsgeneratoren zurückgreifen. Aber allen diesen Programmen liegen Algorithmen zugrunde, und diese bestimmen die Logik.

Und diese Logik ist mal leicht nachzuvollziehen und manchmal schwer.

So erscheint die o.g. Glatteiswarnung im Auto eigentlich immer dann, wenn die Umgebungstemperatur einen gewissen Wert untersteigt. Also ein recht einfacher Algorithmus.

Schwieriger ist schon die Berechnung der verbleibenden Reichweite eines Autos. Diese wird mithilfe des Tankinhalts und des durchschnittlichen Benzinverbrauch der letzten Strecken ermittelt. Dies kann dazu führen, dass man, bei zunächst hohem Verbrauch (bspw. durch hohe Geschwindigkeit) und danach sehr niedrigen Verbrauch (bei idealer Geschwindigkeit) die etwas widersprüchliche Situation erleben kann, dass die verbleibende Reichweite des Fahrzeugs zeitweise steigt, obwohl gefahren (und somit Treibstoff verbraucht) wird.

Dieser Algorithmus ist also schwierig zu erklären, aber immer noch verständlich.

Und die Algorithmen des maschinellen Lernens schließlich nutzen eine mathematische Modellierung, die gar keine korrespondierende Erklärung mehr in der uns bekannten Welt haben.

Sie haben Millionen Parameter, die einfach so berechnet werden, dass die Lerneingangsmuster (bspw. Bilder) bei entsprechender Verarbeitung mit diesen Parametern möglichst häufig zu den vorgegebenen Ergebnissen (abgebildete Gegenstände) führen.

Wenn diese Algorithmen dann mit den o.g. Parametersätzen auf neue (ungelernte) Eingangsmuster (also unbekannte Bilder) wirken, ist der so ermittelte Ausgabewert eine Näherung für die tatsächliche Interpretation des Bildes. Für diese Interpretation gibt es aber keine Garantie. Die Ergebnisse sind in vielen Anwendungsfälln einfach nur gut genug, um weiterzuhelfen.

Thermomix – update

Und wieder ist beim Thermomix zu erkennen, wie sich die Welt im Zuge der Digitalisierung ändert.

Offensichtlich macht Vorwerk ohne vorherige Information ein neues Modell kurzfristig verfügbar (zum 1.4.19 – das Datum lässt zunächst einmal zweifeln, aber es scheint ernst gemeint zu sein). Diejenigen, die in den letzten Wochen ein neues Gerät der letzten Generation gekauft haben, fühlen sich nun  ungerecht behandelt, weil diese Systeme nun plötzlich Ausaufmodelle sind. Mithilfe sozialer Medien können sich die Betroffenen nun organisieren, um sich gemeinsam Recht zu verschaffen (Sammelklagen etc.).

Der Verbraucher erwartet also auch in diesem Bereich proaktive Kommunikation und er kann seine Position besser durchsetzen mithilfe der Segnungen der Digitalisierung.

Daten und ihre Verarbeitung – aktuelle Leistungsfähigkeit

Ein paar interessante Zahlen:

In zwei Minuten werden heute weltweit mehr Fotos gemacht als im gesamten 19. Jahrhundert! (ok, es geht hier um die Menge, nicht um die Sinnhaftigkeit…)

Das System „Watson“ von IBM kann in 10 Minuten das vollständige Genom eines Menschen analysieren (und ggf. Therapieempfehlungen erstellen). Menschliche Ärzte würden für diese Aufgabe 160 Stunden benötigen.

Nach einer Studie der Kantar TNS erwartet die Bevölkerung in Deutschland im Durchschnitt weder eine Verschlechterung noch eine Verbeserung des Lebens durch künstliche Intelligenz.

Und nach der Zielfunktion?

Nun, wenn die Zielfunktion definiert ist, kann das System ja lernen und dann wird es angewandt. Bei Poker und bei Schach und Go zeigen sich dann gute Ergebnisse, das System ist besser als die menschlichen Spieler.

Aber nach welchen Strategien und welchen Taktiken spielt das System und was können wir machen, um genauso gut zu spielen?

Jetzt kommt ein ganz großes und schwieriges Feld: Erklärung von KI.

Derzeit ist das, was man gemeinhin KI nennt, nur ein System, das gut darin ist, die Verknüpfung von Eingangs- mit Ausgangssignalen herzustellen. Die Systeme sind aber so angelegt, dass sie nicht nur gelernte Eingangsignale verarbeiten, sondern auch andere Eingangssignale zulassen. Und der Erfolg der Systeme zeigt sich dann darin, dass sie bei ungelernten Eingangssignalen gute Ergebnisse erzielen.

Das Problem ist nun aber, dass die Signale auf eine mathematische Art und Weise verknüpft werden, die sich nicht in logische formale Schritte zurückverfolgen lässt, sondern zunächst quasi eine Blackbox ist. Man legt Eingangssignale an (eine Position eines Brettspiels) und das System schlägt einen nächsten Zug vor. Man weiß aber nur, dass das System in „ähnlichen“ Situationen mit diesem Zug Erfolg hatte.

Die meisten der heute existierenden Systeme sind so aufgebaut, dass sie solche Parallelschlüsse ziehen, ohne das sie eine genauere Erklärung dazu abgeben können.

Das macht auch die „Magie“ der Technik aus (berechtigter Weise). Das Problem der mangelnden Erklärbarkeit ist sinnvoller Weise auch ein Hinderungsgrund für die Verbreitung der Technik. So hat Google sich selbst ein langsameres Tempo verordnet um die Erklärbarbeit sicherzustellen (Link).

Die Zielfunktion (keine Büroklammern mehr)

Nachdem die Zielfunktion so wesentlich ist für ein selbstlernendes System wollen wir diese genauer anschauen.

Die typischen heute verfügbaren Systeme machen dass dann beispielsweise mithilfe der Spielregeln für Schach oder Go. Ganz stark vereinfacht: Das System bekommt als Maßstab definiert, schließlich den gegnerischen König zu schlagen. Dann spielt es Millionen Partien gegen sich selbst. Die ersten Partien sind grottenschlecht, aber das System lernt von „Null“ an und bildet anhand dieses Lernprozesses seinen eigenen Stil.

Während früher Spielprogramme für ein bestimmtes Spiel (Schach, Poker, Go…) konzipiert wurden, wurde das System AlphaZero für beliebige Brettspiele konzipiert. Das konkrete Spiel mit sinen Spielregeln und Siegbedingungen wird ihm dann eingegeben und in Übungspartien wird dann die Spielstrategie ermittelt. Auf diese Art konnte AlphaZero die besten verfügbaren Schach und Go Programme mit einigen Stunden Lernzeit besiegen.

Hier zeigt sich, der Ansatz zur Verallgemeinerung vom System für ein spezielles Spiel hin zu einem generischen System für Brettspiele.