• Wilfried Wöber

Der Mensch im Zentrum von AI-Vorhaben

Auf dieser Plattform können Sie die unterschiedlichsten technischen Inhalte erlernen. Von deep learning über unüberwachte Merkmalsextraktion decken wir ein breites Spektrum an Modellen und Methoden der Künstlichen Intelligenz ab. Dennoch bleibt ein Punkt hier offen: welche Rolle spielt der Mensch in AI Projekten? Können vielleicht berechtigte Ängste und Zweifel an der Technologie ein Projekt zum Scheitern bringen?


Mit diesen Fragen beschäftigen wir uns in diesem Beitrag und arbeiten dabei die Empfehlungen unseres Partners, der Plattform Industrie 4.0, für Sie auf. Die vollständige Conclusio für menschenzentrierte Projektdurchführung der Plattform Industrie 4.0 finden Sie hier.


Wir beginnen unsere Diskussion bei potenziellen Quellen von nachvollziehbaren Ängsten. Wie Sie bereits auf unserer Plattform gesehen haben, ist die Nutzung von maschinellem Lernen eine komplexe Aufgabe. Die meisten realen Probleme scheinen zunächst simpel – stellen sich im Laufe der Zeit aber als komplex heraus. Ein bekanntes Problem in diesem Kontext haben wir bereits dargestellt – das clever Hans Phänomen. Das autonome Aufdecken und Nutzen von Kausalitäten basierend auf Daten ist häufig getrieben durch Schein-Zusammenhänge und in der Realität sehr schwierig umzusetzen. Einzelne Forschungsgruppen haben sich auf diese Probleme spezialisiert, die auf komplexen statistischen Methoden basieren.


Was wir immer im Hinterkopf haben, wenn wir mit AI-Systemen arbeiten, ist, dass die eingesetzten Methoden und Modelle reale Zusammenhänge aufdecken. Das muss nicht immer so sein. Allerdings ist dies heute nicht mehr ein rein akademisches Problem. Setzen wir ein AI-System in einem Fertigungsbetrieb, in der Robotik, oder anderen Domänen ein, arbeitet dieses „intelligente“ Programm mit Menschen. Es ist sehr nachvollziehbar, dass Menschen Unbehagen empfinden, wenn ein Stück Software Entscheidungen für sie trifft. Die meisten Menschen sind keine AI-Expert:innen und können den Entscheidungsprozess nicht nachvollziehen. Des Weiteren sind deep-learning-basierte Modelle sogenannte black-boxes. Die gelernten Faktoren, die die Entscheidungsfindung definieren, sind also unbekannt. Wie kann also die Einführung eines AI-basierten Systems in der Realität überhaupt funktionieren? Bevor wir uns mit dieser Frage beschäftigen, werden wir Ihnen noch zwei kurze symbolische Beispiele näherbringen, um die Gefahr des Missverstehens von AI-Methoden aufzeigen.


Beginnen wir mit einem Spiel – nämlich Flipper. Stellen Sie sich einen Flipperautomaten vor. Was machen Sie, um einen Highscore zu erlangen? Es ist eine Mischung aus Geschick und Reaktion. Nun stellen Sie sich folgendes Szenario vor: In Ihrem Lieblingslokal haben Sie seit Jahren den Highscore! Dieser entstand durch monatelanges Training, gekrönt durch den ersten Platz auf der Punktetafel. An einem Nachmittag sehen Sie, dass eine Person den Flipper seitlich anhebt und die Kugel im Automaten dadurch in einem Bereich eingeschlossen ist. Die Kugel kann nicht mehr verloren gehen und nach wenigen Minuten ist Ihr Highscore pulverisiert. Was denken Sie nun über diese Person? Merken Sie sich diese Gefühle und lassen Sie uns dieses Beispiel ein wenig ändern: Sie spielen auf einem digitalen Flipper. Dieser ist in folgender Abbildung dargestellt.


Abbildung 1: Der digitale Flipperautomat von https://github.com/Kojoley/atari-py/ (Abbildung übernommen aus https://www.instructables.com/NEAT-OpenAI-Atari-Games/)



Auch hier stehen Sie auf der Punkteliste weit oben. Nun spielt ein Programm, also eine „AI“, gegen Sie. Diese AI nutzt einen Fehler im Programm aus. Die Kugel wird in einen Bereich geschleudert und dort basierend auf einer „ungeschickten“ Programmierung und mit einem virtuellen rütteln am Tisch festgehalten (detaillierte Diskussion siehe hier). Auch hier wird Ihr Rekord sehr schnell eingestellt. Empfinden Sie gleich wie im vorhergehenden Beispiel mit einem Menschen?


Gehen wir einen Schritt weiter: Das Programm ist „besser“ als Sie. Versetzen Sie sich in den/die Programmierer:in – sein/ihr Programm hat einen Menschen geschlagen. Für den „Auftraggeber“ ist es also ein Gewinn!


Aber für Sie? Sie wissen, dass die Regeln gebrochen wurden. Die AI hat kein Geschick, Ausdauer oder Können. Wie wäre das Beispiel im Arbeitsleben? Ziemlich frustrierend für alle Beteiligten Menschen mit Ausnahme des „Auftraggebers“.

Wechseln wir das Thema und diskutieren wir kurz ein Problem der Sprachverarbeitung. Diese werden mit Datenbanken trainiert, um Zusammenhänge zu lernen. Damit können Schlussfolgerungen wie „X verhält sich zu Y wie A zu ?“ beantwortet werden. Basierend auf dem Trainingsdatensatz werden diese Schlussfolgerungen „Bias“ beinhalten – also falsche Zusammenhänge werden aufgedeckt. Das Modell kann basierend auf den Daten nicht zwischen Korrelation und Kausalität unterscheiden. Auch hier ein ähnliches Gedankenexperiment: Wenn ein so trainiertes System Entscheidungen über Ihre Tätigkeiten treffen würde, wie empfinden Sie? Ist das fair?


Die hier nur aufgeworfenen und nicht beantworteten Fragen in den Gedankenexperimenten sind die Ausgangslage für das Projekt AI for Good der Plattform Industrie 4.0. Aber wie können trotzdem AI-Projekte sinnbringend und für alle Seiten vorteilhaft in Unternehmen integriert werden? Diese Frage wurde von der Plattform Industrie 4.0 in einem Leitfaden diskutiert. Die Empfehlungen für die erfolgreiche Einführung von AI-Systemen sind nach den Expert:innen von folgenden Faktoren abhängig:


Der erfolgreiche und zielführende menschenzentrierte Einsatz von KI-Systemen in der Praxis ist von einer Reihe an Faktoren abhängig und kann in drei Phasen eingeteilt werden: vor, während und nach der Einführungsphase. Vor der Einführungsphase ist einerseits die intensive Einbindung der zukünftigen Nutzer:innen, als auch die daraus entstehende konkrete Definition des Einsatzgebietes und der Nutzendefinition entscheidend. Dadurch werden Missverständnisse und überzogene Erwartungen an das System reduziert und ein „Vorbeientwickeln“ an der eigentlichen Zielsetzung vermieden. Neben der offensichtlichen Beachtung der gesetzlichen Rahmenbedingungen (Stichwort DSGVO), ist auch die sorgfältige Prüfung der Daten, die vom KI-System genutzt werden sollen, hochrelevant. Jene sind nämlich ausschlaggebend darüber, ob ein System Bias-behaftet ist und somit eventuell falsche und benachteiligende Rückschlüsse zieht. Diese Betrachtungsweise sollte ebenfalls während der Einführungsphase angewandt werden. Darüber hinaus ist es ratsam, ausreichende Maßnahmen zur Schulung und ggf. Weiterbildung der Nutzer:innen zu setzen, damit die Funktionsweise des Programms im Hintergrund ausreichend verstanden wird. Dies verbessert die subjektive Aussagekraft der Ergebnisse des KI-Systems und erhöht das Vertrauen der Beteiligten. Nach der Einführungsphase sollte evaluiert werden, ob die eingangs gesetzten Ziele auch erreicht wurden und sich ein merk- und messbarer Mehrwert eingestellt hat. Über alle Phasen des Einführungsprozesses hinweg, ist die regelmäßige Prüfung der Daten zur Vermeidung von Bias sowie eine möglichst starke Anonymisierung der Daten (sobald personenbezogene Daten genutzt werden) von zentraler Bedeutung.


Abschließen möchten wir diesen Beitrag mit einer Erfolgsstory (ebenfalls basierend auf den Ergebnissen des Projekts AI for Good). Diese Erfolgsstory beschreibt die Entwicklung eines Systems zur autonomen Bewertung der Qualität von Baumstämmen. Vor dem Vorhaben wurde dies von Menschen durchgeführt. Die Intention in diesem Projekt ist es, einerseits die Zeit von Mitarbeiter:innen für repetitive und langweilige Arbeit zu reduzieren und andererseits die subjektive Entscheidung der Mitarbeiter durch ein System in Zahlen zu fassen. Dieses Vorhaben wurde als Pilotprojekt in AI4Goods implementiert und baut auf das dreiphasige Modell auf.


Vor der Einführungsphase wurden zwei Kernfaktoren definiert. Das AI-System muss zweckmäßig und zielführend sowie datenschonend implementiert werden. Das bedeutet, dass das AI-System nur auf das verlässliche Lösen des beschriebenen Problems ausgelegt werden soll – keine weiteren Analysen sollen durchgeführt werden. Des Weiteren muss die Erklärbarkeit des Systems für die beteiligten Personen zu jeder Zeit gegeben sein. Entscheidungen müssen erklärbar sein.


Während der Einführungsphase waren die potenziellen Anwender:innen immer eingebunden. Der Schwerpunkt des AI-Systems – die Abnahme einer mühsamen und monotonen Arbeit – ist Kern dieser Phase. Der Umgang mit dem System für Menschen sowie die Angst hinsichtlich Entwertung des Arbeitsplatzes sind potenzielle Gefahren für das Vorhaben. Fehlende Kommunikation und fehlende Einbindung der Mitarbeiter:innen könnten nach der Einführungsphase zum Scheitern des Projekts führen. Weiters musste Verständnis hinsichtlich technischer Funktionsweise des AI-Systems geschaffen werden. Wie lernt ein AI-System? Warum braucht man Trainingsdaten? Diese Fragen gehören zu den Kernaspekten.


Nach der Einführungsphase wurde die Performance und auch die Akzeptanz durch die Mitarbeiter:innen evaluiert.


Die oben beschriebenen Schritte zeigen, wie die erfolgreiche Einführung von AI-Systemen in einem Unternehmen geschehen kann. Weitere Erfolgsstories finden Sie im Endbericht des AI4Goods Projekts. An dieser Stelle wollen wir unserer Pflicht als Wissensdrehscheibe nachkommen und einen weiteren und noch nicht beantworteten Punkt aufbringen: Die Erklärbarkeit von AI-Systemen, besonders neuronaler Netze, ist ein schwieriges und bis heute ungelöstes Vorhaben. Yoshua Bengio argumentiert in einer seiner Arbeiten:


„An AI must fundamentally understand the world around us, and we argue that this can only be achieved if it can learn to identify and disentangle the underlying explanatory factors hidden in the observed milieu of low-level sensory data.“


Was bedeutet das in dem oben beschriebenen Vorhaben? Was bedeutet „fundamental Verstehen“? Was sind die erklärenden Faktoren?


Es gibt Methoden, welche die Entscheidung einer „AI“ (z.B.: ein neuronales Netzwerk) visualisieren. So ist beispielsweise der Fokus eines neuronalen Netzwerks auf den virtuellen Flipperautomaten visualisierbar. Sind wir damit glücklich? Man nennt solche Visualisierungen post-hoc Analysen, also Analysen des Verhaltens nach der Analyse eines neuen Beispiels. Konkret können wir also beispielsweise ein convolutional neural network zur Objektklassifizierung basierend auf einem Bild nutzen und das Ergebnis zur Aufdeckung der Gründe für die Entscheidung nutzen.


Jetzt ist der Moment, wo Sie die letzten zwei Absätze noch einmal in Ruhe lesen sollten. Sind die Gründe für die post-hoc Analyse (also basierend auf einem Beispiel) die erklärbaren Faktoren? Nur dann, wenn diese Faktoren fix sind und sich nicht für jedes Beispiel ändern. Leider ist es aber genau das, was ein neuronales Netzwerk auszeichnet.


Wir beenden dieses Kapitel mit der Frage: Reicht Ihnen für Ihre Anwendung die post-hoc Erklärbarkeit oder benötigen Sie statische erklärende Faktoren?

6 Ansichten

Aktuelle Beiträge

Alle ansehen