Ralf Krauter: Auf der weltgrößten Industriemesse, die zur Zeit in Hannover stattfindet, beherrschen vor allen Dingen die Themen "Industrie 4.0" und der Einsatz künstlicher Intelligenz die Diskussion. EU-Kommissar Günther Oettinger hat am Montagmittag bei seinem Messebesuch erhebliche Fördergelder für die KI-Forschung in Aussicht gestellt. Bundeskanzlerin Angela Merkel hat zur Eröffnung der Messe am Sonntagabend zur Aufholjagd gegenüber China und den USA in Sachen KI-Anwendung aufgerufen. Das Thema ist also auch in der Politik angekommen.
Wie sind denn die Signale der Politik in Sachen künstlicher Intelligenz bei den Entwicklern und Anbietern auf der Industriemesse angekommen?
Peter Welchering: Insbesondere die KI-Entwickler nehmen das Geld gerne mit, das die Politik ihnen geben will. Sie trauen aber weder der Bundesregierung noch der EU-Kommission eine Forschungs- und Industriepolitik zu, die den KI-Einsatz in Europa oder Deutschland nach vorn bringen würde.
Kontrollsysteme und Verifikationsmethoden
Krauter: Worauf beruht diese Skepsis?
Welchering: Zum einen, weil die Einsatzbereiche von Systemen maschinellen Lernens in der politischen Diskussion viel zu stark auf das selbstfahrende Auto verkürzt werden. Und zum zweiten, weil eine wesentliche technische Voraussetzung für den Einsatz von KI-Systemen in der Diskussion überhaupt keine Rolle spielt. Dabei geht es um Kontrollsysteme und Verifikationsmethoden.
Der Hintergrund: KI-Systeme müssen ständig lernen. Sie müssen Entscheidungen auf der Basis des aktuell Gelernten treffen. Deshalb sind Methoden so wichtig, mit denen genau nachvollzogen werden kann, was und wie ein System gelernt hat und wie eine bestimmte Entscheidung zustande kam.
Beispiel: Ein selbstfahrendes Auto hatte einen Unfall. Es ist in einen Lieferwagen gefahren. Um herauszufinden, warum der Unfall passiert ist, werden die einzelnen geloggten Systemzustände zum Zeitpunkt der Entscheidung nachvollzogen. Und dabei stellt sich dann heraus: Der Lieferwagen hatte einen himmelblauen Anstrich. Deshalb hat das KI-System des selbstfahrenden PKW ihn nicht als Auto, sondern als Horizont eingestuft und hat nicht gebremst. Unfallursache war also eine falsche Mustererkennung.
Deutschland führend bei Erforschung von Kontrollsystemen
Krauter: Wie kann solch eine falsche Mustererkennung verhindert werden?
Welchering: Da gibt es zwei Methoden. Die erste ist: Die Entscheidungen des KI-Systems müssen ständig von einem Kontrollsystem gegengecheckt werden. Und zweitens: Die Entscheidungen des KI-systems müssen transparent gehalten werden. Immer wieder muss bei einem systemmaschinellen Lernens geprüft werden, wie kam die Entscheidung zustande und was war die gelernte Wissensbasis.
Bei einem neuronalen Netz müssen zudem ständig die Gewichtungen an den Entscheidungsstellen überprüft werden. Das macht man mit ausgefeilten Verifikationsmethoden. Bei der Entwicklung dieser Methoden zu Kontrollwerkzeugen ist die Forschung in Deutschland führend. Aber diese Kontrollsysteme werden nur dort nachgefragt, wo sie von den Kunden und durch gesetzliche Regulierung verlangt werden.
Es braucht Diskussion um Risiken von KI-Systemen
Krauter: Wie stark ist da der Druck des Marktes, also das Verlangen der Kunden nach solchen Kontrollsystemen und Verifikationsmethoden?
Welchering: Das ist im Augenblick nicht sehr ausgeprägt. Nach dem tödlichen Unfall eines selbstfahrenden PKW in den USA sind solche Kontrollwerkezuge einige Tage in der öffentlichen Diskussion gewesen, aber eben nur wenige Tage. Dann war diese Diskussion beendet. Bei Call-Centern, die KI-Assistenzsysteme einsetzen, beschweren sich immer mal wieder Kunden, dass sie mit ihrem Anliegen falsch behandelt wurden. Das liegt dann daran, dass die Beschwerden oder das Anliegen des Kunden vom KI-System nicht richtig zugeordnet wurde.
Da sagen die Call Center eben: Das ist bedauerlich, kommt hin und wieder mal vor. Aber deshalb viel Geld in Kontrollsysteme zu investieren, das sehen wir nicht ein. Hier brauchen wir eine gesetzliche Regulierung. Und die setzt natürlich eine gesellschaftliche Diskussion voraus, welche Risiken wir beim Einsatz von KI-systemen eingehen wollen und welche wir von vornherein ausschließen wollen. Diese Diskussion ist aber von der Politik noch nicht einmal im Ansatz wahrgenommen worden. Und das wird hier in Hannover auf den entsprechenden Konferenzen und Veranstaltungen am Rande der Industriemesse auch kritisiert.
Krauter: Wo werden denn KI-Systeme in der industriellen Fertigung heute schon am verbreitetsten eingesetzt?
Welchering: Dazu hat der Verein Deutscher Ingenieure (VDI eine Untersuchung auf der Industriemesse vorgestellt. Und da führt mit 27 Prozent ganz klar die Datenanalyse, also das, was so landläufig mit Big Data beschrieben wir. Allerdings die Vorhersage von Kundenverhalten, die liegt bei nur mageren 5,4 Prozent der Unternehmen. Das wird sich bis 2023 auf über 30 Prozent der Unternehmen steigern. Die beiden großen Themen beim Einsatz von KI-systemen in der industriellen Fertigung sind Assistenzsysteme, die dem Menschen bei seiner Tätigkeit zuarbeiten, und die vorausschauende Instandhaltung, also bevor eine Maschine ausfällt werden Maschinenteile, die demnächst mit hoher Wahrscheinlichkeit kaputtgehen, ersetzt.
Und gerade solche Anwendungen sind auch hier in den Messehallen enorm nachgefragt. Bis zum Jahr 2023 will jedes zweite Unternehmen KI für die vorausschauende Instandhaltung einsetzen. Aber eines muss man sehr deutlich sehen: Die Akzeptanz von KI-Systemen, auch in der industriellen Fertigung, wird sehr stark von Verifikationsmethoden und gut funktionierenden Kontrollsystemen abhängen. Auch deshalb ist es so dringend notwendig, dass dieses Thema in der Politik endlich ankommt.