Künstlicher Intelligenz wird in der Regel eine große Zukunft im Wirtschaftsleben zugeschrieben. Doch nach der anfänglichen Euphorie zeigen sich auch die noch bestehenden Schwächen des „Maschine Learnings“ deutlicher. Vor allem das „Halluzinieren“, also Falschantworten und frei erfundene Statements, zählen noch zu den großen Schwachstellen der Künstlichen Intelligenz: Chat-GPT & Co erfinden in ihren Antworten trotz „deep learnings“ plötzlich abenteuerliche Rechenergebnisse, streuen täuschend echt wirkende Erklärungen ein oder setzen beim Schachspiel den Gegner schachmatt, indem sie mit einer Figur ziehen, die sich gar nicht am Brett befindet.
Teure Fehler
„KI-Modelle halluzinieren mitunter auch bei ihrem Einsatz in Fabriken“, sagt auch Michael Haslgrübler. „Wir nennen es nur anders.“ Der Informatiker arbeitet im COMET-Center „Pro2Future“ an Methoden, mit denen Künstliche Intelligenz den Menschen in der Produktion durch Sammeln und Auswerten von Daten unterstützen soll. Dabei kann es durchaus vorkommen, dass KI-Modelle Fehler machen, die nicht nur lästig, sondern unter Umständen auch teuer sind und im schlimmsten Fall auch für Menschen ein Risiko darstellen können.
Besonders deutlich zeigt sich das bei KI-Systemen von der Stange, das heißt bei vortrainierten Systemen, die man sich von Websites downloaden kann, die aber noch nicht auf ihre konkreten Arbeitsumgebungen adaptiert worden sind. In diesem Zustand der KI zählen falsche Antworten mehr oder weniger zum Normalfall: „Da kann es durchaus vorkommen, dass Kopfhaare fälschlicherweise als Sicherheitshelme identifiziert werden“, sagt Haslgrübler – ein Phänomen, von dem sich auch Besucher bei der Langen Nacht der Forschung in Linz selbst überzeugen konnten.
Fatal wäre es, selbst bestens trainierten KI-Modellen die Entscheidungshoheit über das Hoch- und Niederfahren von Produktionsanlagen zu überlassen, etwa in Anlagen für die Zelluloseproduktion, für die Haslgrüblers Team im Projekt REWAI eine KI-Prozesskontrolle entwickelt. Denn obwohl die KI gelernt hat, aus komplexen Mustern von Sensordaten Maschinendefekte frühzeitig zu erkennen: Interpretationsfehler der KI seien nie 100-prozentig auszuschließen, so der Forscher.