Wieso viele Menschen die Möglichkeiten von Algorithmen und Daten zugleich massiv über- und unterschätzen.

Der Gedanke an das Algorithmus-Paradoxon kommt mir als ich 2019 auf der „Hannover Messe“ in einem Einzelgespräch erkläre welche Schritte noch ungefähr notwendig sind um intelligente Algorithmen einzusetzen, die die Fehlerzustände seiner 25 Jahre alten Maschine vorhersagen können. Es sind nicht wenige Schritte und ab Schritt 3 nehme ich einen leichten Hauch von Enttäuschung war. Ich beende das Gespräch mit motivierenden Worten und ich glaube wir sind beide ziemlich verwundert. Nur einige Stunden später laufe ich über den Stand von Microsoft und mein Alter wird vom Service „Realtime Crowd Insights“ erstaunlich präzise geschätzt. Das Alter meine Begleitung jedoch katastrophal schlecht. Trotzdem bleiben alle Leute fasziniert stehen und machen Fotos von dem Bildschirm auf dem sie selber zu sehen sind; ich auch. Wer das Ganze selber einmal ausprobieren möchte findet auf der Seite https://www.how-old.net/ eine gute Anlaufstelle.

Genau hier setzt das Algorithmus-Paradoxon an, es beschreibt, dass viele Menschen die Möglichkeiten von Algorithmen und Daten zugleich massiv über- und unterschätzen. Zum einem lässt sich das auf die Unwissenheit vieler zurückführen. Zum anderen gibt es genügend prominente Beispiele, welche zeigen das Vorhersagen trotz Fachwissen oft nicht zutreffen. Klar unterschieden werden muss zwischen Vorhersagen für zukünftige Entwicklung und Aussagen über die aktuellen Möglichkeiten. Insbesondere für Letzteres hilft uns eine Übersicht aktueller Algorithmen.

There is no reason anyone would want a computer in their home.

Ken Olsen

Gründer, Digital Equipment Corp

We will never make a 32 bit operating system

Bill Gates

Gründer, Microsoft

Was können Algorithmen?

Klassische Algorithmen sind im Grunde Sequenzen von Anweisungen, die sich bei Wiederholung immer gleich verhalten. Da liegt der Wunsch nach einem „Super Algorithmus“ sehr nahe. Getreu dem Motto: „Daten rein – Magic Happens – Perfektes Ergebnis“ und das Ganze am besten für all unsere Probleme. Pedro Domingos Professor an der University of Washington nennt diese Art Algorithmus “Master Algorithmus“ und hat sogar ein Buch über ihn verfasst. Spoiler – es gibt (noch) keinen. Aber was können Algorithmen eigentlich dann?

Beim Schreiben des Artikels habe ich mich gefragt: „Wie kategorisiere ich Algorithmen eigentlich am besten?“ Eine Möglichkeit ist es nach der Komplexität zu sortieren, also Platzkomplexität vs. Zeitkomplexität: Eine Andere nach der Maschinenfähigkeit, also deterministische, nicht-deterministische, quantenmechanische oder randomisierte Algorithmen. Auch möglich wäre es nach dem Verfahren zu kategorisieren. Ich probiere es mal mit etwas untypischen aber für meinen Artikel hinreichendem: Klassische Algorithmen und Maschinelles Lernen.

Klassische Algorithmen funktionieren immer nach dem Prinzip eindeutige, endlich viele und wohldefinierte Handlungsvorschriften abzuarbeiten. Solche Algorithmen können sehr komplex werden und begegnen uns andauernd im täglichen Leben. Im Grunde ein sehr präzises geschriebenes Kochrezept. Wer selbst noch keine Berührungspunkte mit Programmieren und klassischen Algorithmen hatte dem empfehle ich „CodeCombat“ auszuprobieren. Weiter Infos unter https://codecombat.com/

Maschinelles Lernen

Beim maschinellen Lernen gibt es keine vordefinierten Handlungsanweisungen mehr. Dabei muss grob zwischen zwei Klassen unterschieden werden. Dem überwachten Lernen und dem unüberwachten Lernen.

Überwachtes Lernen funktioniert in dem wir dem Algorithmus eine erwartete Eingabe vorgeben und das zugehörige Ergebnis. So lernt der Algorithmus Assoziationen zwischen Ein- und Ausgabe herzustellen. Ein tolles Beispiel hierfür ist die Handschrifterkennung. Es wäre unfassbar aufwändig eine Handlungsanweisung für die Erkennung von Handschriften zu programmieren. Mit der Hilfe von überwachtem Lernen ist dies aber gar nicht mehr notwendig.  Wir geben dem Algorithmus eine Reihe von Beispielen und im Anschluss ist er in der Lage eigenständig Handschriften zu lesen.

Im Gegensatz hierzu steht das unüberwachte Lernen. Der Algorithmus erzeugt für eine gegebene Menge von Eingaben ein statistisches Modell, das die Eingaben beschreibt und erkannte Kategorien und Zusammenhänge enthält und somit Vorhersagen ermöglicht. Ein Beispiel hierfür sind Cluster-Algorithmen, wir geben dem Algorithmus die Wetter Daten von Deutschland aus 30 Jahren und können im Anschluss beobachten wie die Kategorien Sommer, Herbst, Winter und Frühling entstehen und 365 Tage fast gleichmäßig auf die Kategorien aufgeteilt werden. Die Vorhersage des Programms – nach dem Frühling kommt der Sommer. Algorithmen des maschinellen Lernens sind faszinierend aber keine Zehnkämpfer, sondern Spezialisten für bestimmte Anwendungsfälle und vielleicht deshalb oft zugleich unter- und überschätzt.

 Der Turing Test

Alan Turing formulierte im Jahr 1950 eine Idee, wie man feststellen könnte, ob ein Computer, ein dem Menschen gleichwertiges Denkvermögen hätte. Der test läuft so ab:

Der Turing-Test basiert in seiner Grundform auf Konversationen per Tastatur und Bildschirm, ohne Hör- und Sehkontakt zwischen den Teilnehmern. Beteiligt sind ein Computer mit dem zu testenden System (A) und zwei echte Personen (B und C). Eine Person stellt den Tester (C) dar. Der Computer (A) und die verbleibende Person (B) bilden das Gegenüber. Sowohl der Computer, als auch Person B versuchen ihren Gesprächspartner (C) in aufeinanderfolgenden Konversationen davon zu überzeugen, dass sie denkende Menschen sind. Kann Person C nicht mehr zweifelsfrei zuordnen, welche der beiden Konversationen von der Person und welche von dem Computer geführt wurde, gilt der Test als bestanden und die Intelligenz der Maschine als der des Menschen ebenbürtig.

Von jaai.de

Ob der Turing-Test bereits erfolgreich durchgeführt wurde ist umstritten. Klar ist jedoch, dass der Loebner-Preis seit 1991 ausgeschrieben ist und an das Computerprogramm verliehen werden soll, das als erstes einen erweiterten Turing-Test besteht, bei dem auch Multimedia-Inhalte wie Musik, Sprache, Bilder und Videos verarbeitet werden müssen. Die Silbermedaille gibt es für den klassischen, textbasierten Test. Bisher konnte kein Algorithmus die nötigen Voraussetzungen erfüllen. 

Turing selbst vermutete, dass im Jahr 2000 der durchschnittliche Anwender eine höchstens 70-prozentige Chance habe, Mensch und Maschine erfolgreich zu unterscheiden. Ein klassischer Fall des Algorithmus-Paradoxon.