IP

29. Juni 2018

Eine Frage der Zeit

Künstliche Intelligenz wird die Weltpolitik durcheinanderwirbeln

In den kommenden Jahren wird KI Politik, Wirtschaft und Gesellschaft überall auf der Welt durchdringen und auch die Außenpolitik bestimmen. Deutschland läuft den Entwicklungen hinterher. Aber es hat noch Chancen, sich zu profilieren: bei Fragen der Ethik und der Entwicklung eines smarten, wegweisenden Betriebssystems für die Datenökonomie.

„Es gibt viele Netze auf der Welt. Aber das World Wide Web übertrifft sie alle.“ Als Hillary Clinton, damals US-Außenministerin, im Januar 2010 versuchte, die außen- und sicherheitspolitische Bedeutung des Internets zu erklären, hielten das viele Experten für Zeitverschwendung. Sollte das wirklich eine Priorität der amerikanischen Außenpolitik sein? Schließlich gab es doch, so die weit verbreitete Meinung, wichtigere Themen wie das Erdbeben in Haiti oder den globalen Terrorismus.

Gut acht Jahre später, nach den Enthüllungen von Edward Snowden, den digital geführten Offensiven des so genannten Islamischen Staates und den Debatten über „fake news“, tut kaum jemand mehr das Internet als Ablenkung von ernsthafter Außenpolitik ab – auch wenn das Netz vielen nun nicht mehr als große Segnung gilt (gerade Clinton durfte das im Präsidentschaftswahlkampf 2016 schmerzhaft erfahren). Außenpolitik ohne Internet ist heute nicht mehr denkbar. Dieser Meinungswandel sollte eine Warnung für all diejenigen sein, die heute eine andere Technologie als wenig relevant für Außenpolitik abqualifizieren: Künstliche Intelligenz (KI). Genauso wie das Internet in den vergangenen zehn Jahren Politik, Wirtschaft und Gesellschaft weitgehend durchdrungen hat, wird KI in den nächsten zehn Jahren überall auftauchen und die Dinge durcheinanderwirbeln. Ein Land, das diese Entwicklung zu ignorieren versucht, wird an Relevanz verlieren.

Wer sich in diesen Tagen im außenpolitischen Berlin und darüber hinaus umtut, der bekommt allerdings schnell den Eindruck, dass KI für viele noch „Neuland“ ist. Entweder hält man es für ein weiteres „buzzword“ aus Kalifornien, nach dem Motto: „Hieß das nicht gestern noch Big Data?“ Oder es wird Weltuntergangsstimmung verbreitet: KI werde bald eine allmächtige Superintelligenz hervorbringen, die versuchen werde, die Menschheit zu unterwerfen wie in der Actionfilm-Reihe „Terminator“.

Solche Fehleinschätzungen fußen auf einem mangelnden Verständnis davon, was KI eigentlich ist. Sie wird oft verwechselt mit der allgemeinen („starken“) Künstlichen Intelligenz, die menschlichem Denken überlegen wäre –aber auf absehbare Zeit (oder, wie manche glauben, für immer) Science Fiction bleiben wird. Die KI von heute lässt sich besser verstehen als „kollektive Intelligenz“: Sie ist oft ein digitales Extrakt von Daten, die von Menschen erzeugt werden. Maschinelles Lernen, worunter fast alle wichtigen KI-Techniken fallen, ist meistens zweistufig. Neuronale Netze, ein statistisches, vom menschlichen Gehirn inspiriertes Verfahren, werden zunächst mit Unmengen von Daten gefüttert (etwa mit Bildern von Katzen), damit sie lernen, Muster zu erkennen (wie Katzen aussehen). In der zweiten Stufe werden ihnen dann neue Daten präsentiert, auf die sie das Gelernte anwenden. Vereinfacht ausgedrückt: KI-Code wird nicht, wie andere Software, von Programmierern geschrieben, sondern von Daten.

Dank der großen Rechenkraft von Cloud-Computing-Firmen wie Amazon und Microsoft können KI-Dienste oft schon besser Objekte und Sprache erkennen als Menschen. Die beste Gesichtserkennungs-Software kann bereits mit einer Erfolgsquote von 99 Prozent Gesichter identifizieren, allerdings nur unter Laborbedingungen. Spracherkennungsdienste verzeichnen fast ebenso gute Resultate. Andere Programme können krakelige Handschriften gut lesen, nachdem sie rund hundert Probeseiten verdaut haben.

Solche Basisdienste lassen sich zu komplizierten Angeboten verbinden, wie der Online-Riese Google im Mai auf einer Konferenz in Kalifornien eindrücklich zeigte. Seine neueste KI-Entwicklung, Google Duplex, schaffte es, einen Friseurtermin zu buchen, ohne dass der Gesprächspartner am anderen Ende der Leitung mitbekam, dass er mit einer Maschine telefonierte. Für diese Demonstration musste Google mindestens drei KI-Dienste kombinieren: Sprach­erkennung, Satzverständnis und Wortbildung.

KI als Wachstumsfaktor

Große Technologiefirmen dominieren die KI-Branche. Sie verfügen über die besten und meisten Daten, Programmierer und Computersysteme. Aber in jüngster Zeit machen auch andere Unternehmen von KI Gebrauch. Der Textilhändler H&M nutzt sie beispielsweise, um Modetrends zu erkennen. Unilever, ein Hersteller von Haushalts- und Verbrauchsgütern, setzt KI-Anwendungen ein, um Job-Bewerber zu bewerten. Das Energieunternehmen Repsol will seine Raffinerien mit KI effizienter machen, Siemens optimiert damit den Betrieb seiner Gasturbinen.

Wieviel Wachstum KI genau schaffen wird, lässt sich nur schwer vorhersagen. Aber die Zahlen werden nicht gerade klein sein: Die Wirtschaftsprüfer von PricewaterhouseCoopers schätzen, dass KI die Weltwirtschaftsleistung bis 2030 um fast 16 Billionen Dollar vergrößern wird – mehr als China und ­Indien heute gemeinsam jährlich erwirtschaften. Die Zahl entspricht dem Fünffachen des aktuellen deutschen Bruttoinlandsprodukts. Der wichtigste ökonomische Effekt von KI ist, dass sie die Kosten von Vorhersagen stark senkt und damit Unternehmen produktiver macht, sagt Ajay Agrawal, Professor an der Universität von Toronto und Mitautor des kürzlich erschienenen Buches „Prediction Machines“. Genauso wie Elektrizität Licht viel billiger gemacht hat – im Vergleich zum Beginn des 19. Jahrhunderts sanken die Kosten um das 400-Fache – wird KI es sehr viel einfacher machen, in die Zukunft zu schauen.

„KI ist wie Strom“, heißt es denn auch unter Experten. Irgendwann wird sie überall eingesetzt. Und es ist nur eine Frage der Zeit, bis das auch in der Außen- und Sicherheitspolitik – und in den Außenministerien – der Fall ist. Aber in welcher Form? In der Anfang des Jahres veröffentlichten Studie „­Artificial Intelligence and Foreign Policy“ identifizierte der Berliner Thinktank Stiftung Neue Verantwortung (SNV) drei Schwerpunkte: autonome ­Waffen, wirtschaftliche Auswirkungen sowie Konsequenzen für Demokratie und Gesellschaft.

Autonome Waffen, die sich mit Hilfe von KI selbst kontrollieren, sind die vielleicht bedrohlichste Folge der technischen Entwicklung. Sie können verschiedenste Formen annehmen, von automatisierten Hacker-Angriffen bis hin zu sich selbst steuernden Drohnen-Schwärmen. Daraus ergeben sich eine Reihe schwieriger Fragen, nicht zuletzt die danach, inwieweit Menschen die Kontrolle über solche Systeme behalten sollen und können. Rüstungsexperten in den USA befürchten vor allem eine ethische Asymmetrie: Länder wie China könnten auf den „human in the loop“ völlig verzichten, während westliche Staaten diese rote Linie unter Umständen nicht überschritten.

Nach langen konzerninternen Diskussionen entschied sich Google im Mai, seine Teilnahme am „Project Maven“ einzustellen. Unter dem Namen entwickelt das Pentagon Software, die Menschen und Dinge in Drohnen-Aufnahmen unterscheiden soll. Chinesische Online-Konzerne wie Alibaba und Tencent haben da weniger Bedenken, schon weil sie eingebunden sind in die „zivil-militärische Fusion“, wie die Regierung in Peking ihre enge Zusammenarbeit mit Technikfirmen nennt.

Nachzügler Deutschland

Was die wirtschaftlichen Folgen von KI angeht, sind die Auswirkungen auf die Außenpolitik schwerer abzuwägen. Einigen Ländern könnte die Technik helfen, ganze Entwicklungsstufen zu überspringen. China will Weltmarktführer der Branche werden und plant, bis 2030 eine KI-Wirtschaft von fast 60 Milliarden Dollar pro Jahr aufzubauen. Andere Länder werden verlieren, wahrscheinlich auch Deutschland, das als Nachzügler gilt. Überall geht die Angst um, dass viele Jobs verloren gehen werden, obwohl solche Ängste wahrscheinlich übertrieben sind. Das McKinsey Global Institute schätzt, dass mit bisher bekannter Technik nur 5 Prozent aller Berufe wegautomatisiert werden können (allerdings dürften bei mehr als der Hälfte aller Tätigkeiten Maschinen Teilaufgaben übernehmen).

Mehr noch als bisher stellt sich auch die Frage nach wirtschaftlicher Konzentration: Amazon, Google und Co. sind heute schon weltweit dominant; KI könnte sie noch mächtiger machen. Dänemarks Entscheidung, einen Botschafter ins Silicon Valley zu schicken, wurde in vielen Hauptstädten als Werbegag abgetan; sie könnte sich als vorausschauend erweisen.

Die Auswirkungen von KI auf Demokratie und Gesellschaft werden die Außenpolitik voraussichtlich vor die größten Herausforderungen stellen. Schon das Internet hat gezeigt, dass Menschenrechte und Technik nicht immer zu­einander passen: Während Hillary Clinton 2010 das „Netz aller Netze“ pries, nutzte es die National Security Agency, um weltweit massenhaft Menschen abzuhören, wie die Enthüllungen des früheren NSA-Mitarbeiters Snowden ein paar Jahre später zeigten.

Bei KI werden diese „Snowden-Widersprüche“, wie es die Autoren der SNV-Studie nennen, noch deutlicher. Die Technik ist nicht nur das perfekte Überwachungswerkzeug: Videokameras, die mit speziellen Chips ausgestattet sind, verfolgen schon heute Menschen automatisch. KI kann auch zur Massenmanipulation eingesetzt werden, die weit über die jüngsten Desinformationskampagnen hinausgeht. Amerikanische Forscher fanden jüngst heraus, dass die chinesische Regierung Quelle von fast 450 Millionen Online-Kommentaren jährlich ist, die oft nur zur Ablenkung dienen. Die meisten werden derzeit noch von Menschen geschrieben, aber in Zukunft dürften mehr und mehr künstlich intelligente „Bots“ zum Einsatz kommen.

Neben solch fundamentalen Problemen drängen sich andere, eher praktische auf. Daten sind der wichtigste Rohstoff für KI. China verfügt über den weltweit tiefsten Datenpool, vor allem, wenn es um Verbraucher geht. Die 772 Millionen Internetnutzer des Landes sind für Neues offen: Viele haben kein Bargeld mehr in der Tasche und zahlen nur noch mit ihrem Smartphone. Andere Länder, gerade auch Deutschland, sind aus kulturellen und rechtlichen Gründen viel datenärmer. In Zukunft dürften Daten, wie andere Rohstoffe, auf nationaler Ebene gemanagt werden. Daten-Protektionismus ist ein immer größeres Problem für globale Unternehmen, konstatierte kürzlich die Financial Times. Die Zahl von Gesetzen, die Firmen verbieten, Daten zu exportieren, hat sich in den vergangenen zehn Jahren mit 84 fast verdreifacht.

Schließlich stellt sich die Frage, wie Außenpolitik beziehungsweise die ­Ministerien und sonstige Institutionen, die sie betreiben, selbst KI nutzen. In einer im Juni vom britischen Thinktank Chatham House veröffentlichten Studie werden drei Einsatzmöglichkeiten beschrieben: KI könnte komplizierte internationale Verhandlungen modellieren und vereinfachen; sie könnte geopolitisch wichtige Ereignisse voraussagen; und sie könnte dabei helfen, die Einhaltung von Waffenkontrollverträgen zu überwachen. Zumindest in beiden letzten Fällen ist das keine Zukunftsmusik mehr: Recorded Future, ein schwedisch-amerikanisches Unternehmen, setzt bereits auf maschinelles Lernen, um Hackerangriffe und andere Bedrohungen früh zu erkennen. Die Software von Palantir, einem vom Pentagon mitfinanzierten KI-Unternehmen mit Sitz im Silicon Valley, hilft Inspektoren der Internationalen Atomenergie-Behörde IAEA in Wien bei ihrer Arbeit im Irak.

Ausgangspunkt: eine gute KI-Innenpolitik

Wie kann die Politik auf diese Vielzahl an Herausforderungen reagieren? Eine gute KI-Außenpolitik beginnt mit einer guten KI-Innenpolitik. Mehrere Länder haben diese Schlüsseltechnologie bereits zur nationalen Priorität erhoben und umfangreiche Strategiepläne veröffentlicht, darunter die Vereinigten Staaten und China, aber auch Frankreich, Südkorea und selbst kleinere Nationen wie Finnland. Im Gegensatz dazu hat die Regierung in Deutschland – das sich generell mit den Fragen der Digitalisierung schwer tut – gerade erst damit angefangen, sich ernsthaft mit dem Thema zu beschäftigen.

Deutschland  ist bei der Entwicklung und Nutzung von KI allenfalls Mittelmaß. Laut einer Antwort auf eine Kleine Anfrage im Bundestag fördert die Bundesregierung die KI-Forschung mit ungefähr 27 Millionen Euro im Jahr, was im Vergleich zu anderen Industrienationen wenig sein dürfte (genaue Vergleichszahlen gibt es nicht). Mit wenigen Ausnahmen sind auch deutsche Unternehmen nicht vorne mit dabei. Die Expertenkommission Forschung und Innovation kam Anfang 2018 in einer Studie zu dem Schluss, dass andere Länder in vielen Bereichen der KI eine „deutlich größere Dynamik“ aufweisen.

Nicht Pionier zu sein, bedeutet, dass Deutschland von den Erfahrungen anderer Länder lernen kann, argumentiert die SNV in einem weiteren, Anfang Juni veröffentlichten Papier („Eckpunkte einer nationalen Strategie für KI“). Die Bundesregierung müsse wesentlich ambitionierter werden, als nur die Erforschung von einzelnen KI-Technologien stärker zu fördern. Stattdessen sollte sie „den Aufbau und die Förderung eines starken und international wettbewerbsfähigen KI-Ökosystems in den Mittelpunkt stellen“.

Kurz: Benötigt wird ein Werk mit vielen Rädern. Forschungsförderung ist sicherlich eines davon, aber wahrscheinlich nicht das wichtigste. Bedeutender ist ein stabiles Fundament. KI-Kompetenzen müssen nicht nur in der Informatik, sondern auch in vielen anderen Studiengängen vermittelt werden. Ausreichende Rechenleistung und Wagniskapital müssen leichter verfügbar sein. Statt wie China und die USA auf Datenquantität zu setzen, sollte in Deutschland die Datenqualität im Vordergrund stehen, da sich mit wenigen, aber gut standardisierten und relevanten Daten oft bessere Ergebnisse erzielen lassen. Wenn die Mischung stimmt, wird ein solches Ökosystem wettbewerbsfähige KI-Dienste schaffen – schneller als staatliche Forschungsprogramme. Für die Außenpolitik muss ein solcher Handlungsleitfaden erst noch geschrieben werden. Aber einige Grundsätze lassen sich schon erkennen. Der wichtigste ist, dass Alleingänge in einer Sackgasse enden werden. Deutschland ist zu klein, um auf sich allein gestellt im internationalen KI-Wettbewerb mithalten zu können. Eine deutsche Strategie muss in eine europäische eingebunden sein. Als Partner bietet sich vor allem Frankreich an, das bei der Entwicklung und Anwendung von KI schon viel weiter ist.

Wettbewerb um Spitzenkräfte

Deutschland muss sich auch darüber klar werden, für welche Art von KI es stehen will. Zwischen Chinas staatskapitalistischem Ansatz und den amerikanischen Daten-Monopolisten liegt ein weites Feld, das noch kaum beackert ist. Dort kann sich Deutschland profilieren. Dabei geht es nicht nur um die Ethik der Anwendung von KI, sondern um ein neues, smartes Betriebssystem für die Datenökonomie. Wie lassen sich Märkte mit diesem ungewöhnlichen Rohstoff organisieren? Wie lassen sich personenbezogene Daten sicher anonymisieren? Sollen Menschen für die von ihnen erzeugten Daten bezahlt werden?

Die Antworten werden Folgen auch für das Angebot an Spitzenkräften haben. Bei KI geht es um Rechenkraft und mehr noch um Daten, aber ohne eine kritische Masse von Datenwissenschaftlern wird sich Deutschland schwer tun, mit dem Rest der Welt mitzuhalten. Sie ins Land zu locken und dort zu halten, ist nicht nur eine Frage des Gehalts (obwohl sie nicht vernachlässigt werden darf: Selbst OpenAI, eine gemeinnützige Organisation im Silicon Valley, zahlt seinen Spitzenforschern fast zwei Millionen Dollar Jahresgehalt). Wichtiger ist, ob Deutschland im Ausland als attraktiver KI-Standort gilt. So verhält es sich nicht zuletzt auch bei Außenministerien: Wer keine Mitarbeiter mit KI-Wissen anzieht oder sie ausbildet, wird auf Dauer an Bedeutung verlieren.

Die von Hillary Clinton früh beschriebenen außenpolitischen Folgen des Internets wurden zunächst nur langsam deutlich; dann aber entfaltete das Netz seine globale politische Wirkung mit voller Wucht. Mit Künstlicher Intelligenz wird es wahrscheinlich ähnlich kommen. Außenpolitiker sollten sich besser jetzt darauf einstellen, als später den Ereignissen hinterherrennen zu müssen.

Ludwig Siegele ist Technologie-Ressortleiter beim britischen Wirtschaftsmagazin The Economist.

Bibliografische Angaben

Internationale Politik 4, Juli-August 2018, S. 8 - 13

Teilen