KI-Experte Matthias Hein steht vor einem blauen Hintergrund. Die Grafik zeigt eine stark vergrößerte Computerplatine.
Matthias Hein

Grenzen und Möglichkeiten der Künstlichen Intelligenz

Im Gespräch mit dem Bosch-Stiftungsprofessor an der Universität Tübingen

6 Minuten

08.02.2019

Was kann Künstliche Intelligenz und was nicht? Matthias Hein forscht an der Universität Tübingen im Bereich maschinelles Lernen und sagt: Die KI muss die Grenzen ihres Wissens kennenlernen.

„Ich weiß, dass ich nichts weiß.“ Es waren die Denker der Antike, diese mit diesen Worten die Grenzen menschlichen Wissensstrebens beschrieben. Gut 2000 Jahre später versucht Matthias Hein, die Fähigkeit menschlicher Intelligenz, Wissensgrenzen zu erkennen, auf Maschinen zu übertragen – und sie damit klüger zu machen. Der Informatiker beschäftigt sich seit mehr als zwei Jahrzehnten mit Künstlicher Intelligenz. Er weiß, dass das Vertrauen der Gesellschaft in lernende Maschinen, neuronale Netze und Deep Learning maßgeblich davon abhängt, wie die KI zu ihren Entscheidungen kommt. „Die derzeit größten Herausforderungen sind die Robustheit, die Erklärbarkeit und die Fairness der Entscheidungsprozesse“, sagt Hein.

Kleine Fehler, gravierende Folgen

KI-Experte Matthias Hein im Gespräch

Für die bislang mangelnde Robustheit, also die Fehleranfälligkeit der Entscheidungen, hat der Wissenschaftler ein eindrückliches Beispiel: Automatische Bilderkennung im Straßenverkehr. „Wenn auf einem Stoppschild kleine Sticker kleben, kann sich die Künstliche Intelligenz davon überlisten lassen und es für ein Vorfahrtsschild halten.“ Solche Fehler können gravierende Folgen haben. Das gilt auch in der Medizin, wo – bei allen Möglichkeiten dieser Technologie – durch Irrtümer der KI auch Fehldiagnosen drohen. Wenn die KI bei Unsicherheiten auf ihrer falschen Entscheidung beharrt statt zu signalisieren „ich weiß es nicht“, vergrößert sich das Risiko.

Ablehnung hinterfragen

KI-Experte Matthias Hein im Gespräch

Ebenso wichtig: die Erklärbarkeit. „Wenn eine KI erklären kann, warum sie zu einer anderen bestimmten Entscheidung gekommen ist, sind die Ergebnisse besser nachzuvollziehen. Fehler im Prozess können somit einfacher identifiziert werden.“ Hein verweist auf Kreditanträge und Bewerbungen: „Ein ‚Nein‘ ohne Begründung sorgt nicht für Vertrauen.“ Weist die Maschine jedoch darauf hin, dass der Ablehnung ein bestimmter Parameter zugrunde liegt, kann der Mensch eventuell Anpassungen am intelligenten Algorithmus vornehmen. Oder er versteht den Entscheidungsprozess, was gleichzeitig die Glaubwürdigkeit der Künstlichen Intelligenz fördert.

„Wir müssen ein realistisches Bild zeichnen von dem, was die Technologie kann, und dem, was sie nicht kann. Vor allem, was sie nicht kann!“

Matthias Hein

Damit einher geht auch ein verbessertes Fairnessverständnis. Hein will die Künstliche Intelligenz beispielsweise so trainieren, „dass die Wahrscheinlichkeit, dass sie sich bei Bewerbungen für eine Frau oder für einen Mann entscheidet, genau gleich ist.“ Bei der Maschine sollen soziale Diskriminierungen ausgeschlossen sein. Dass dieses Ziel stark von den Daten abhängt, mit denen der Algorithmus rechnet, ist Hein natürlich bewusst. Basieren diese beispielsweise auf einer bislang grundsätzlichen Neigung zu männlichen Bewerbern, können auch intelligente Systeme nicht gegensteuern. „Ich denke aber, dass es einfacher ist, die maschinellen Entscheidungsprozess fair zu gestalten als Vorurteile aus Menschen heraus zu bekommen“, sagt er. Klar ist jedoch auch: Eine Debatte darüber, was Fairness genau bedeutet, muss weiter in der Gesellschaft geführt werden.

Transparenz ist das Ziel

Auch die Diskussion über die Zukunft der Künstlichen Intelligenz soll nach dem Willen von Matthias Hein öffentlich geführt werden: „Es ist deshalb wichtig, dass die Menschen verstehen, was hinter Künstlicher Intelligenz steckt.“ Gedankenspiele über eine künstliche Superintelligenz sind für Hein Science-Fiction, die Realität hält für den Doktor der Physik andere Herausforderungen bereit: „Künstliche Intelligenz kann einen positiven Einfluss auf die Gesellschaft haben. Deswegen müssen wir sie transparenter machen.“ Und Transparenz heißt auch, sagen zu können: „Ich weiß es nicht.“

Porträt Matthias Hein

Matthias Hein, 42

Universität Tübingen

Die Vorstellung, einen guten Beitrag für die Gesellschaft zu leisten, treibt mich an.

Matthias Hein arbeitet seit 2018 als Bosch-Stiftungsprofessor an der Universität Tübingen im Bereich maschinelles Lernen. Zuvor forschte er von 2002 bis 2007 am Max-Planck-Institut für biologische Kybernetik und anschließend als Professor für Mathematik und Informatik an der Universität des Saarlandes in Saarbrücken über maschinelles Lernen.

Fazit

Um Glaubwürdigkeit und Vertrauen der Gesellschaft in Künstliche Intelligenz zu fördern, will Matthias Hein die maschinellen Entscheidungsprozesse robust, erklärbar und fair machen. Er will zeigen, wie Maschinen denken – und den Menschen damit die Skepsis nehmen.

Teile diese Seite auf