Schwache und starke KI

Hat man KI als Muster erkennende, „selbst­ständig“ lernende und letztlich auch Entschei­dungen treffende Systeme definiert, so bietet sich eine Unterscheidung in eine schwache KI – die heute ausschließlich vorherrschende KI – und eine starke KI – möglicherweise für immer Zukunftsmusik – an. Bei der schwachen KI wird Intelligenz simuliert (und eben nicht du­pliziert). Heißt: Man kann nicht wirklich von Intelligenz sprechen, sondern von einem intel­ligenzartigen Verhalten. Wir erinnern uns an die Definition McCarthys, der nur von Maschi­nen sprach, die sich verhalten, als verfügten (!) sie über menschliche Intelligenz.

Siri und Ale­xa sind geschaffen, Intelligenz vorzutäuschen, gehören also zur schwachen KI. Dasselbe gilt für die inzwischen sehr weit fortgeschrittenen KI-Systeme für verschiedene Spiele, die regel­mäßig Großmeister im Schach oder im noch komplexeren, weil mehr Kombinationsmög­lichkeiten erlaubenden asiatischen Strategie­spiel Go besiegen. So eindrucksvoll die Züge im Schach – man denke an die Partie des Com­puters Deep Blue gegen den Schachweltmeister Garri Kasparow – oder im Go – hier schlug ein Google-Programm namens AlphaGo den Go-Weltmeister Lee Sedol in vier von fünf Partien – sein mögen: Sie beruhen auf vorher eingegebenen Daten; das KI-System „denkt“ nicht wirklich, sondern gleicht Algorithmen ab.

Das gilt auch für eines der am weitesten ge­diehenen KI-Programme namens Watson (be­nannt nach dem ersten Präsidenten von IBM Thomas J. Watson), das als Teil eines DeepQA-Forschungsprojekts entwickelt wurde, um Ant­worten auf Fragen zu geben, die „in digitaler Form in natürlicher Sprache eingegeben wer­den(7)“, und somit eine hochwertige Suchma­schine zu schaffen. In der Quizsendung Jeo­pardy! gewann das System das Spiel gegen zwei Quizchampions deutlich mit einem Endstand von 77 147 Dollar gegenüber den 24 000 bzw. 21 600 Dollar der menschlichen Konkurren­ten.(8) Sogar KI-Systeme, die im Pokern ge­winnen, müssen noch zur schwachen KI ge­zählt werden, so bspw. das KI-System Pluribus, das in zwei Turnieren gegen Weltklasse-Pro­fis antrat und dabei deutlich häufiger als sei­ne menschlichen Konkurrenten gewann und mehr Geld einspielte.

Der Unterschied etwa zu Schach oder Go, bei denen perfekte Informa­tionen vorliegen, besteht darin, dass die Infor­mationen beim Pokern unvollständig sind, und viel vom Bluffen, eigentlich auch vom Schluss­folgern aus menschlichen Reaktionen, abhängt. Bei Pluribus handelt es sich zwar um ein ler­nendes System, denn es spielt zunächst wieder­holt gegen Kopien von sich selbst und verbes­sert sich selbst, dennoch ist auch dieses System immer noch ein Beispiel für eine schwache KI.(9) Es tut so, als wäre es intelligent, es simu­liert Intelligenz, es ist nicht autonom; es dient für eine bestimmte Aufgabe, nämlich für das Pokerspiel, und kann nicht etwa als Börsenma­nager fungieren, obwohl auch dies ein Feld mit nicht perfekten Informationen ist.

Bei der star­ken KI geht es um Systeme, die tatsächlich den­ken können, die also menschliche Intelligenz nicht nachahmen, sondern duplizieren und (auf einer höheren Stufe) abbilden, wozu dann auch Autonomie, sprich Eigenständigkeit und Selbstbestimmtheit, zählen. Im Zusammen­hang mit der Singularität wird darauf zurück­zukommen sein.


Lesen Sie auf der nächsten Seite:
Überwachtes Lernen, unüberwachtes Lernen und Verstärkungslernen

Quellen

7.) Wikipedia, Watson (Künstliche Intelligenz), aufgerufen am 3.11.2019
8.) s.o.
9.) KI gewinnt gegen Pokerprofis: Künstliche Intelligenz siegt erstmals im Poker mit mehreren Mitspielern, scinexx das Wissensmagazin vom 4.11.2019