Über Chancen und Risiken künstlicher Intelligenz
von Kai Grunwitz
Wie jede neue Technologie bringt auch die KI Chancen und Risiken mit sich. Die zahlreichen Vorteile sind hinreichend beschrieben, immer stärker in den Fokus rücken aber die Gefahren. Unweigerlich führt das zu zentralen Fragen der „Maschinenethik“, die die Moral von Maschinen zum Gegenstand hat.
Ausgehend von der Tatsache, dass wir es als Menschen bisher nicht geschafft haben, hohe und – vor allem global einheitliche – moralische Standards in unserem Leben und Handeln zu verankern, könnte man die berechtigte Frage aufwerfen: Warum sollten wir dies von den Maschinen und der Künstlichen Intelligenz (KI) erwarten, die von eben diesen Menschen geschaffen werden und von ihnen lernen?
Auch wenn etwa aus kulturellen oder religiösen Gründen global betrachtet jeweils ein unterschiedlicher Wertekanon existieren mag und verschiedene Normensysteme anzutreffen sind, die für die Moral immer konstitutiv sind, so gilt doch: In einem bestimmten Kulturkreis herrscht immer weitgehend Einigkeit über die Definition des moralischen Handelns. Und mit gleichem Recht kann man postulieren, dass Gleiches für Maschinen und KI gelten muss. Ein Ignorieren des Themas „Moral der Maschinen“ ist deshalb kein gangbarer Weg. Dafür sind die Risiken, die die verstärkte KI-Nutzung mit sich bringt, einfach zu groß, genannt seien nur nicht mehr nachvollziehbare Ergebnisse und Entscheidungen oder die soziale Diskriminierung etwa beim Racial Profiling oder Predictive Policing.
Die Schaffung von ethischen Rahmenbedingungen für die Entwicklung und Nutzung von KI ist folglich unverzichtbar, und sie wird von Politik, Wissenschaft und Unternehmen inzwischen auch verstärkt in Angriff genommen.
So versucht etwa die EU mit den „Ethics Guidelines for Trust-worthy AI“ beim Thema KI Maßstäbe zu setzen; sie könnten auch – wie bereits bei der DSGVO geschehen – weltweit Beachtung finden.
Die Guidelines sind ein erster Schritt, allerdings auch nicht mehr. Es fehlt an Konkretisierungen, so wurden keine „eindeutigen ethischen Leitplanken“ gesetzt, es wird nur von „critical concerns“ gesprochen. Gerade auch die Zusammensetzung der Expertengruppe ist nicht unbedingt ideal: 52 Personen und darunter nur vier Philosophen beziehungsweise Ethiker.
Auch in Deutschland wird das Thema KI und Ethik aufgegriffen, etwa von der Datenethikkommission, die bis Herbst 2019 Handlungsempfehlungen geben und Regulierungsmöglichkeiten vorschlagen soll. Das Ergebnis bleibt abzuwarten. Ebenfalls problematisch ist aber auch hier die Zusammensetzung der Kommission mit 16 Mitgliedern, Juristen dominieren und nur drei Ethiker sind vertreten.
Die Schaffung von ethischen Rahmenbedingungen für die Entwicklung und Nutzung von KI ist folglich unverzichtbar, und sie wird von Politik, Wissenschaft und Unternehmen inzwischen auch verstärkt in Angriff genommen.
Kai Grunwitz
Die beiden Beispiele zeigen aber immerhin, dass für den häufig anzutreffenden Skeptizismus im Sinne einer KI-Dystopie aktuell noch kein Anlass besteht, denn die KI-Problematik ist inzwischen in der Politik angekommen. Und auch Unternehmen und Wissenschaft greifen das KI-Ethik-Thema verstärkt auf, wie das von Facebook unterstützte Institute for Ethics in Artificial Intelligence der TU München zeigt.
Aus Sicht von NTT sind gegenwärtig vor allem folgende Maßnahmen erforderlich:
Der Diskurs in Politik, Wissenschaft und Unternehmen muss konsequent fortgesetzt werden, um ethische Rahmenbedingungen zu schaffen. Ziel muss sein, klare Regelungen und vor allem Grenzen für den künftigen KI-Einsatz zum Wohl von Gesellschaft und Wirtschaft zu finden.
Eine Selbstverpflichtung der Unternehmen ist unerlässlich: NTT Data beispielsweise hat die „AI Guidelines“ entwickelt, die folgende fünf Richtlinien umfassen:
- Realisierung von gesellschaftlichem Wohlbefinden und Nachhaltigkeit
- Mitgestaltung von Innovationen durch KI
- Entwicklung fairer, zuverlässiger und erklärbarer KI
- Berücksichtigung von Datenschutz und -sicherheit
- Förderung der gesellschaftlichen Akzeptanz für KI-Anwendungen
Google und Co. darf nicht das Feld überlassen werden. Hier ist der Gesetzgeber gefordert, gerade auf europäischer und nationaler Ebene. Wie bei Datenschutz und -sicherheit können beziehungsweise dürfen auch bei KI und Maschinenethik nicht die USA oder China der Maßstab sein.
Auf jeden Fall muss aber eine KI, um die Würde und Selbstbestimmung des Einzelnen zu wahren, drei Komponenten beinhalten – wie es auch die Ethikrichtlinien der EU vorsehen. Sie muss erstens gesetzeskonform und zweitens ethisch sein. Drittens ist aus technischer und sozialer Sicht eine hohe Robustheit erforderlich, das heißt, es kommt immer auch auf das richtige Anlernen der Maschinen an, denn schlechte Daten können – auch unbeabsichtigt – erheblichen Schaden verursachen. //