Digital Think Tank (DTT)

Wie man Künstliche Intelligenz überlistet - Mensch gegen Maschine.

KI-Computersysteme halten Einzug in viele Bereiche unseres Lebens und bieten ein großes Potenzial, von selbstfahrenden Fahrzeugen über die Unterstützung von Ärzten bei der Diagnose bis hin zu autonomen Such- und Rettungsrobotern.

Eines der wichtigsten ungelösten Probleme, vor allem im Hinblick auf den als "neuronale Netze" bekannten Zweig der KI, ist jedoch, dass die Wissenschaftler oft nicht erklären können, warum etwas schief geht. Dies ist auf ein mangelndes Verständnis des Entscheidungsprozesses innerhalb von KI-Systemen zurückzuführen. Dieses Problem wird als "Blackbox"-Problem bezeichnet.

Wer ist schlauer?

Ein neues 15-monatiges Forschungsprojekt der University of Lancaster, an dem auch die University of Liverpool beteiligt ist, will die Geheimnisse des Black-Box-Problems entschlüsseln und einen neuen Weg zum "Deep Learning" von KI-Computermodellen finden, der Entscheidungen transparent und erklärbar macht.

Das Projekt "Towards responsible and explainable autonomous robotic learning systems" wird eine Reihe von Sicherheitsüberprüfungs- und Testverfahren zur Entwicklung von Algorithmen der Künstlichen Intelligenz entwickeln. Diese werden dazu beitragen, dass die von den Systemen getroffenen Entscheidungen robust und erklärbar sind.

Bild Quelle: Pixabay


Training

Die Forscher werden eine Technik verwenden, die "Reverse Training" genannt wird. Sie besteht darin, das System in einer gegebenen Situation zu präsentieren, in der es lernt, wie es eine Aktion ausführt - z. B. das Erkennen und Anheben eines Objekts. Die Forscher ändern dann verschiedene Elemente des Szenarios wie Farbe, Form, Umgebung und beobachten, wie das System durch Versuch und Irrtum lernt. Die Forscher glauben, dass diese Beobachtungen zu einem besseren Verständnis darüber führen können, wie das System lernt und Einblicke in den Entscheidungsprozess gewährt.


Durch die Entwicklung von Möglichkeiten zur Schaffung von Systemen mit neuronalen Netzen, die Entscheidungen verstehen und vorhersagen können, wird die Forschung der Schlüssel zur Erschließung von autonomen Systemen in sicherheitskritischen Bereichen wie Fahrzeugen und Robotern in der Industrie sein.

Dr. Wenjie Ruan, Dozentin an der School of Computing and Communications der Lancaster University und leitende Forscherin des Projekts, sagte: "Obwohl die Deep Learning als eine der bemerkenswertesten Techniken der Künstlichen Intelligenz in vielen Anwendungen äußerst erfolgreich war, hat sie bei der Verwendung in sicherheitskritischen Systemen ihre eigenen Probleme, einschließlich undurchsichtiger Entscheidungsfindungsmechanismen und Anfälligkeit für gegnerische Angriffe. "Dieses Projekt ist eine hervorragende Gelegenheit für uns, die Forschungslücke zwischen tiefgreifenden Lerntechniken und sicherheitskritischen Systemen zu schließen.