Es ist Donnerstag und wir schreiben das Jahr 1979 als Robert Williams ein 25 Jahre alter Werksmitarbeiter die Hallen von Ford betritt. Robert ist zuständig für die Bedienung des Roboters an seiner Linie. Nach einer Fehlfunktion klettert der Ingenieur zum Roboter, um das Problem zu lösen. Bereits einige Sekunden später trifft der schwere metallene Arm des Roboters ihn am Kopf. Robert Williams erliegt seinen Verletzungen und stirbt. Das Gericht entscheidet deutlich, der Roboter Hersteller muss 15 Millionen Dollar Strafe zahlen.

Wir schreiben das Jahr 2030 und Sophia betritt gerade den Bereich Airbag Produktion. Sie arbeitet bereits einige Jahre als Qualitätsingenieurin für einen kleinen Zulieferer in Baden-Württemberg und ist zuständig für zwei Bereiche in der Fertigung, unter anderem für die soeben betretene Airbag Produktion. Vor einigen Jahren noch wurde der Airbag unter anderem zweimal händisch aufgeblasen, um zu prüfen ob die geforderten Qualitätsstandards eingehalten werden. Doch vor einigen Jahren entschied man sich das neuronale Netz „Ivie“ einzusetzen. In der ersten Zeit überwachte Ivie alle Produktionsschritte akribisch und wurde am Ende über das entsprechende Testergebnis informiert. Seit bereits einem Jahr sind eine ganze Reihe an Test gestrichen und Ivie entscheidet bereits während der Produktion ob ein Teil gut oder schlecht ist. Es ist bereits Nachmittag als Sophias Telefon klingelt und sich ein Kunde meldet. Er verlangt die Qualitätsdaten der Airbags, da gravierende Unstimmigkeiten aufgefallen sind. Sophia wird morgen in der Zeitung lesen, dass bei einer Reihe von Autounfällen der Airbag nicht funktionierte und daraufhin die Insassen tödlich verunglückten. 

KI-TÜV – Wer haftet für nicht-symbolische Algorithmen?
Foto: Sven Teschke, CC BY-SA 3.0 de, https://commons.wikimedia.org/w/index.php?curid=46965736

Das Problem mit nicht-symbolischen Algorithmen?

In unserem Beispiel ist Ivie ein neuronales Netz, ivie basiert also auf einem nicht-symbolischen Algorithmus. Bei Algorithmen des maschinellen Lernens unterscheidet man zwischen symbolischen Ansätzen, in denen sowohl die Beispiele als auch die induzierten Regeln explizit repräsentiert sind, und nicht-symbolischen Ansätzen, wie Ivie, die zwar ein berechenbares Verhalten besitzen, die jedoch keinen Einblick in die erlernten Lösungswege erlauben; hier ist das Wissen implizit repräsentiert. Sophia weiß nicht wieso Ivie Teile gut oder schlecht bewertet; es wird Sophia daher schwer fallen die geforderte Dokumentation zu erbringen. Anders als in unserem ersten Beispiel bei dem der Fehler aufgrund von klaren Verhältnissen einfacher nachzuweisen war. Robert Williams war der erste bekannte Mensch der von einem Roboter getötet wurde. 

Das Potential von nicht-symbolische Algorithmen ist gigantisch und wir stehen ganz am Anfang. Aber wie können nicht-symbolische Algorithmen in kritischen Umgebungen eingesetzt, in denen Qualität und der Nachweis dieser unabdingbar sind?

Der KI-TÜV

 

Es wird kein Weg an Zertifizierungen für Algorithmen vorbeiführen oder? Die große Herausforderung in der heterogenen Welt ist, dass nicht alleine die Zertifizierung des Algorithmus reichen wird. Zusätzlich muss der Einsatzort bzw. das -szenario Zertifiziert werden müssen. Wie wurde Ivie entwickelt und trainiert, wie leitet sie Entscheidungen ab und welche Trainingsmuster wurden angewandt. Phasen der Prüfung:

Der KI-TÜV

Von Krauss – Eigenes Werk, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=37333449

  • Phase 1 – Entwicklung
  • Phase 2 – Training im Zielszenario
  • Phase 3 –  Validierung und Risikoabschätzung

Explainable Artificial Intelligence (XAI)  soll eindeutig nachvollziehbar machen, auf welche Weise nicht linear programmierte Systeme wie Beispielsweise Ivie zu Ergebnissen kommen. Mit unterschiedlichen Methoden werden die Blackbox-Algorithmen aufwändig “reverse engineert”, um im Anschluss ein Verständnis dafür zu erlangen wie Entscheidungen zustande kommen. Explainable Artificial Intelligence steckt in den Kinderschuhen und muss dringend weiterentwickelt werden, damit die genutzten Methoden fester Bestandteil in Prüfprozessen werden können.

Mein erster Gedanke: Ziemlich viel Aufwand für die Prüfstände von Sophia. Mein zweiter Gedanke: Wir stehen aktuell am Anfang einer Entwicklung und ich kann das Potenzial von nicht-symbolische Algorithmen aktuell nicht erfassen. Mein dritter Gedanke gilt dem Algorithmus-Paradoxon.