Das Leitungsboard Digitalisierung ist kürzlich im BMVgBundesministerium der Verteidigung zusammengetreten. Aus diesem Anlass das folgende Interview zum Thema Künstliche Intelligenz (KIKünstliche Intelligenz). Die Redaktion der Bundeswehr sprach mit Uwe Beyer, Abteilungsleiter im Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS.
Was ist Künstliche Intelligenz – lässt sich dieser facettenreiche Begriff mit möglichst einfachen Worten griffig erklären?
Es gibt keine allgemein anerkannte Definition dieses Begriffs. Im militärischen Umfeld definieren wir künstlich intelligente Systeme als „Systeme, die Aufgaben durchführen können, die normalerweise von kognitiv höherstehenden Lebewesen erledigt werden“. Hierbei reicht „kognitiv höherstehend“ von der Schwarmintelligenz einer Ameise über die motorischen Fähigkeiten von Lasttieren bis hin zur Lösung von komplexen Aufgaben durch Menschen.
Lassen Sie uns bitte etwas weiter differenzieren: Was ist unter schwacher und starker Künstlicher Intelligenz zu verstehen?
Schwache KIKünstliche Intelligenz bezeichnet Verfahren, die für eine klar umgrenzte Aufgabe entwickelt werden. Hierbei wählt der Mensch die geeigneten Verfahren aus. Solche Systeme können in ihrem Anwendungsbereich häufig bessere Ergebnisse erzielen als ein Mensch, z.B. beim Schach oder Go-Spielen. Moderne Systeme können lernen und sich in ihrem Anwendungsbereich verbessern. Trotzdem sind diese Systeme sehr limitiert. Je enger der Anwendungsbereich ist, umso leistungsstärker sind die Systeme in der Regel. Sie versagen meistens auf groteske Weise, wenn sie in Bereichen eingesetzt werden, für die sie nicht entworfen wurden. Ein Schachprogramm spielt Schach und kann sonst eben gar nichts. Schwache KIKünstliche Intelligenz „versteht“ nicht was sie tut, sie ist einfach nur ein „besserer Taschenrechner“. Die intuitive Verwendung des Begriffs „Intelligenz“ ist in diesem Zusammenhang also eher irreführend. Alle heute bekannten KIKünstliche Intelligenz-Anwendungen gehören in diese Klasse.
Was können Sie weiter dazu sagen?
Starke Künstliche Intelligenz beschreibt die Vision von einem System, das denkt wie ein Mensch, also komplexe Zusammenhänge wirklich versteht, sich neue Fragestellungen aktiv erschließt, in dem es bekanntes Wissen überträgt, aus eigenem Antrieb handelt und vieles mehr. Solche Systeme gibt es heute noch nicht. Mir erscheinen solche Systeme grundsätzlich möglich. Dies würde aber erfordern, dass eine komplexe Architektur von sehr vielen Einzelverfahren in flexibler Weise zusammenarbeitet. Ich arbeite seit über 40 Jahren im Bereich der KIKünstliche Intelligenz und kann in dieser Zeit keine deutliche Weiterentwicklung von Ansätzen erkennen, die zu solchen Systemen führen würden. Für mich fühlt sich die Starke KIKünstliche Intelligenz so an, wie die Forschung zur Kernfusion, es wird 20-40 Jahren dauern, richtig teuer sein und am Ende könnte es funktionieren.
Wo sehen Sie auf diesem Themenfeld Anwendungsmöglichkeiten für die Bundeswehr?
KIKünstliche Intelligenz kann grundsätzlich in allen Teilbereichen der Bundeswehr und in allen Facetten des Führungs-, Aufklärungs-, Wirkungs- und Unterstützungs-Verbundes greifen. Allgemeine Aussagen der Art „machen wir mal KIKünstliche Intelligenz“ nutzen jedoch nichts. Es muss in jedem Einzelfall untersucht werden, welche Funktionen das System haben soll, welche Hardware (neben der ITInformationstechnik) noch eingesetzt wird und wie das System im Verbund mit dem Menschen in die Fähigkeiten und Ressourcenverbünde der Bundeswehr eingefügt wird. Die Bandbreite kann von leistungsstarken Entscheidungsunterstützungssystemen, intelligenter Massenauswertung von Daten in der Aufklärung bis hin zu autonomen Waffen, Chatbots als Wirkmittel der Operativen Kommunikation und selbstoptimierenden Logistiksystemen reichen.
Lernende Systeme lösen vorgegebene Aufgaben selbstständig und reagieren auf ihre Umwelt. Wie sind diese Fähigkeiten im Kontext von Krisen und Konflikten zu beurteilen?
Heutige KIKünstliche Intelligenz-Systeme arbeiten nur in eng umgrenzten Anwendungsbereichen und können mit neuen überraschenden Situationen nicht gut umgehen. Sie sind also eher weniger geeignet, um Führungsaufgaben in komplexen Krisen und Konflikten wahrzunehmen. Dies soll aber nicht darüber hinwegtäuschen, dass die Systeme sehr wohl selbstständig handeln können. Große Stückzahlen an kostengünstigen autonomen Systemen können z.B. große Räume überwachen und aufklären. Dies kann einen wichtigen Beitrag zur Sicherung von Einsatzräumen leisten. Hierbei ist ein situatives Verhalten (bei Wetter, Feindwirkung, …) wichtig für die Durchhaltefähigkeit und Effektivität. KIKünstliche Intelligenz ermöglicht neue Denkansätze im Bereich der Aufklärung, Sicherung und Logistik. Autonome schnelle, tieffliegende Drohnen könnten z.B. neue Konzepte im Bereich der Logistik oder Evakuierung von Verwundeten ermöglichen.
Kann Künstliche Intelligenz menschliche Empathie und Verständnis, auch beim Einsatz von Waffen, ersetzen?
Aus meiner Sicht sollte dies nicht der Fall sein. Die aktuell verfügbare schwache KIKünstliche Intelligenz ist nicht in der Lage, komplexe Zusammenhänge auf taktischer oder operativer Ebene zu verstehen. Die Systeme versagen in der Regel in Situationen, auf die sie nicht vorbereitet sind. Es ist also schon aus rein militärischer Sicht nicht zweckmäßig, KIKünstliche Intelligenz umfangreiche Führungsaufgaben zu übertragen. Aus meiner Sicht schaffen KIKünstliche Intelligenz-Systeme effektivere Wirkmittel (und Fähigkeiten), deren Freigabe wie bei jedem anderen Wirkmittel von den zuständigen Menschen in rechtlicher, politischer und ethischer Hinsicht verantwortet werden muss. Im Fall einer starken KIKünstliche Intelligenz müsste diese Diskussion sicherlich noch einmal sehr gründlich geführt werden. Hier gibt es aber aus meiner Sicht derzeit keinen Diskussionsbedarf, da nicht klar ist, ob und wann eine starke KIKünstliche Intelligenz kommen wird.
Was würde es bedeuten, wenn die Entscheidungsgewalt über Leben und Tod an künstlich intelligente Systeme abgetreten werden würde?
In gewisser Weise entscheidet auch der Auslöser eines klassischen Sperrmittels (z.B. einer Mine) über Leben und Tod. Es ist nur vorher ziemlich klar, wie diese Entscheidung ausgehen wird. KIKünstliche Intelligenz stellt hier aus meiner Sicht keine grundsätzliche Veränderung dar, die Entscheidung ist nur etwas ungewisser. Wer ein KIKünstliche Intelligenz-Wirkmittel zum Einsatz bringt, hat dessen Freigabe mit allen Konsequenzen zu verantworten, wie bei jedem anderen Wirkmittel auch. Es ist nur aufgrund des Verhaltens des Wirkmittels möglicherweise schwieriger, unerwünschte Effekte auszuschließen. In letzter Konsequenz entscheidet also nicht das KIKünstliche Intelligenz-Wirkmittel über Leben und Tod (genauso wenig wie eine Mine), sondern derjenige, der es zum Einsatz bringt.
Das Thema Künstliche Intelligenz löst starke gesellschaftliche Emotionen aus. Können Sie zu einer Versachlichung beitragen?
Nebulöse Vorstellungen von „Wunderwaffen“ oder „Teufelswerk“ sind nicht angebracht. Die äußere Sicherheit Deutschlands ist ein zu hohes Gut und erfordert eine rationale Diskussion. Ich erlebe zur Zeit die dritte KIKünstliche Intelligenz-Welle. Schon in der ersten Welle hat man sich gefragt, ob der KIKünstliche Intelligenz-Schachweltmeister nicht das Ende der Menschheit ist. In der zweiten Welle wurde diskutiert, wann man sein Gehirn auf den Rechner „uploaden“ kann um unsterblich zu werden. Fakt ist, es gibt keine starke KIKünstliche Intelligenz, die diesen Namen verdient und dem Menschen auch nur annähernd das Wasser reichen kann. Aus meiner Sicht gibt es keine nennenswerten Fortschritte in diese Richtung…also keine Panik, es kann noch dauern, bis „Skynet“ die Welt beherrscht.
Und die schwache KIKünstliche Intelligenz?
Die aktuelle schwache KIKünstliche Intelligenz bietet sehr clevere Verfahren, die eng umgrenzte Aufgaben besser lösen als ein Mensch; das können Taschenrechner oder Autos aber auch. Vermutlich verursacht der Begriff Intelligenz die Emotionen. Dieser Begriff ist aber irreführend, sonst wäre ein Auto auch intelligent. Die meisten Menschen fürchten sich aber nicht vor Autos. Am Ende ist es mit der KIKünstliche Intelligenz wie bei jedem Thema: Man muss sich damit befassen, um verantwortungsbewusst zu entscheiden. Die Kombination aus KIKünstliche Intelligenz-Verfahren, dem technischen System, in dem die KIKünstliche Intelligenz eingebettet ist, sowie das Zusammen- bzw. Einwirken auf den Menschen macht den Effekt aus. Man muss sich für jeden Anwendungsfall der Mühe unterziehen, dies zu verstehen und verantwortungsvoll zu beurteilen.
Welche ethischen Leitplanken müssen nach Ihrer Ansicht für den Einsatz von Künstlicher Intelligenz gesetzt werden?
Im Fall von Systemen mit schwacher KIKünstliche Intelligenz sollte eine politische Meinungsfindung erfolgen. Ich sehe die Fragestellungen hier ähnlich wie bei anderen Wirkmitteln. Man sollte sich hierbei nicht an der „Intelligenz“ orientieren, sondern an der Wirkungscharakteristik der Waffe. Ist die Waffe eine Massenvernichtungswaffe? Ist die Waffe unnötig grausam? Möchte der deutsche Staat solche Waffen einsetzen? usw. Es wäre wenig fair, wenn die Politik hier keine Vorgaben macht und die Verantwortung ausschließlich auf den militärischen Führer abwälzt.
Ist der Themenkomplex Künstliche Intelligenz mit all seinen Auswirkungen völkerrechtlich adäquat geregelt – oder ist das noch ein mehr oder weniger unbeackertes Feld?
Das Thema KIKünstliche Intelligenz benötigt definitiv massive Anstrengungen zu adäquaten völkerrechtlichen Regelungen. Mittelfristig ist die Relevanz durchaus mit ABCAtomar, Biologisch, Chemisch-Massenvernichtungswaffen vergleichbar. Wenn hier keine vergleichbaren Regulierungen gefunden werden, droht ein globales Wettrüsten sowie eine massive Verschärfung der Asymmetrie von Konflikten.
Sollte Künstliche Intelligenz, die dem Menschen die Entscheidung über den Einsatz von Waffen abnimmt, geächtet werden?
Falls es jemals eine starke KIKünstliche Intelligenz geben sollte, so sollte sich die Menschheit an und für sich fragen, ob es tolerabel ist, dass es eine nicht-menschliche Überintelligenz gibt, die Macht über Menschen ausüben kann, unabhängig davon, ob dies militärisch erfolgt. Hier sehe ich Grundsatzfragen, die durchaus mit den Fragen der Gentechnik oder der Nutzung von Kernenergie vergleichbar sind.
Wie ist Ihre ganz persönliche Meinung dazu?
Ich persönlich neige derzeit dazu, solche Technologien zu ächten. Immerhin hat die Geschichte der Menschheit gezeigt, dass die intelligente Art langfristig alle anderen dominiert. Warum sollte das bei superintelligenten, unsterblichen, aus eigenem Antrieb handelnden KIKünstliche Intelligenz-Wesen anders sein? Hierbei liegt die Hauptgefahr aus meiner Sicht nicht ausschließlich in der militärischen Nutzung der KIKünstliche Intelligenz. Es ist ungleich viel bedrohlicher, dass eine solche KIKünstliche Intelligenz auch das wirtschaftliche und soziale Leben der Menschheit dominieren würde. Derzeit stellt sich diese Frage aber nicht, da nicht klar ist, ob und wann eine starke KIKünstliche Intelligenz kommt.
Vertreter der Wirtschaft sehen den Einsatz künstlicher Intelligenz künftig als wettbewerbsentscheidend an. Gilt das auch für den militärischen Kontext, also für Fähigkeiten der Krisen- und Konfliktlösung?
Gewinnen bedeutet zuerst einmal nicht zu verlieren. Es ist von entscheidender Bedeutung, dass man auf KIKünstliche Intelligenz-Fähigkeiten des Gegners adäquate Antworten in seinen eigenen Fähigkeiten hat. Es ist unverzichtbar, sich mit allen Facetten der KIKünstliche Intelligenz zu befassen, unabhängig davon, ob man selber die entsprechenden Fähigkeiten aufbauen möchte bzw. darf. KIKünstliche Intelligenz kann die Charakteristik des militärischen Handelns auf drei Ebenen verändern.
Erläutern Sie bitte?
a) Es treten Skaleneffekte auf, weil KIKünstliche Intelligenz-Systeme bei gleichem Preis deutlich effektiver sind, man bekommt mehr Wirkung für dasselbe Geld.
b) Die KIKünstliche Intelligenz der Gegner schafft neue Fähigkeiten, durch die Fähigkeitslücken bei den eigenen Kräften entstehen. Man benötigt entsprechende Gegenmaßnahmen, sonst droht eine Unterlegenheit.
c) KIKünstliche Intelligenz löst einen Game Change aus, indem sich z.B. die Charakteristik von Gefechten komplett ändert. In diesem Fall droht eine massive Überlegenheit des Gegners. Bei einem Game Change ist sofortiges Handeln angesagt, da die äußere Sicherheit gefährdet ist.
Zum Schluss ein Ausblick: Welche Entwicklungslinien sehen Sie auf dem Feld der Künstlichen Intelligenz – und welchen Einfluss wird sie auf die Bundeswehr der Zukunft haben?
Aus meiner persönlichen Erfahrung weiß ich, dass das Thema KIKünstliche Intelligenz extrem von Hype-Zyklen getrieben wird. Der aktuelle Hype wird abflachen, das Thema wird aus der Öffentlichkeit verschwinden und zunehmend kritischer in den Medien dargestellt. Das heißt aber nicht, dass dieses Thema irrelevant wird. Schwache KIKünstliche Intelligenz ist nichts anderes als die permanente Verbesserung von ITInformationstechnik-Systemen für Anwendungen in der realen Welt. Diese Entwicklung wird weitergehen, es wird immer bessere Bilderkennungssysteme geben, die Internet-Provider werden immer cleverer mit den Daten ihrer Nutzer umgehen, usw. Diese Entwicklung ist Teil des Wirtschaftskreislaufs. Kleine Schritte gewinnen und bringen manchmal auch Fortschritt. Die Entwicklung einer starken KIKünstliche Intelligenz erfordert hingegen erheblichen Aufwand über eine lange Zeit. Aus meiner Sicht ist IBM mit seiner Entwicklungs-Roadmap, erst Schach, dann Quiz-Show, jetzt der Computer-Arzt, einer der wenigen Akteure, der dies wirklich über einen langen Zeitraum, d.h. über Jahrzehnte, konsequent betreibt. Obwohl IBM hier schon fast ein ganzes Menschenleben lang unterwegs ist, ist klar erkennbar, dass der Weg zur menschgleichen Intelligenz noch ein sehr weiter ist. Ich persönlich glaube nicht, dass ich diese Entwicklung noch erleben werde.
Was ist darüber hinaus zu sagen?
KIKünstliche Intelligenz in der Rüstung ist nicht mehr aufzuhalten. Die Asymmetrie wird deutlich zunehmen. Wer sich nicht intensiv und permanent mit diesem Thema beschäftigt, riskiert Fähigkeitslücken und wird unterliegen. KIKünstliche Intelligenz bedeutet auch immer einen hohen Anteil an ITInformationstechnik und Information. Das Thema KIKünstliche Intelligenz darf also nicht getrennt von den Fähigkeiten im Cyber- und Informationsraum gesehen werden. Die Verfügbarkeit von überlegenden KIKünstliche Intelligenz-Systemen nutzt nichts, wenn diese gerade nicht funktionieren, weil sie im Cyber- und Informationsraum angegriffen wurden. KIKünstliche Intelligenz kann das Tempo in der Rüstung erheblich beschleunigen. Auf neue Fähigkeiten des Gegners müsste innerhalb von Monaten reagiert werden, was deutlich agilere Rüstungsprozesse erfordern würde. Ein kompletter Game Change wäre eine extreme Herausforderung. Die Bundeswehr sollte auf diese, nicht gänzlich unwahrscheinliche, Option vorbereitet sein.
Zum Interviewpartner
Uwe Beyer ist Abteilungsleiter im Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS. Fraunhofer IAIS hat einen starken Schwerpunkt im Bereich der Künstlichen Intelligenz. Die Abteilung von Uwe Beyer verantwortet u.a. das Geschäftsfeld Präventive Sicherheit. IAIS führt seit vielen Jahren technische und nicht-technische Studien für verschiedenste Themen der Bundeswehr durch. |
---|
Inhalte teilen via