Online-Weiterbildung
Präsenz-Weiterbildung
Produkte
Themen
Dashöfer

Böse Maschinen: Können KIs lügen und Geheimnisse haben?

25.04.2023  — Tobias Weilandt.  Quelle: Verlag Dashöfer GmbH.

Wenn wir VR EasySpeech präsentieren und darüber berichten, was unsere Künstliche Intelligenz so alles auswertet, kommt es gelegentlich vor, dass ein kleiner Plausch große Ängste gegenüber KIs offenbart. Deshalb haben wir uns gedacht, dass wir regelmäßig über das Können und Nicht-Können von KI’s berichten. Wir beantworten also die Frage: Wie intelligent sind Künstliche Intelligenzen wirklich?

Vermehrt sind wir in letzter Zeit Menschen begegnet, die, nachdem wir ihnen davon berichteten, dass wir u. a. mit Künstlichen Intelligenzen arbeiteten, fragten, ob wir keine Angst vor KIs hätten. Neben (teilweise berechtigten) Befürchtungen um den derzeitigen Job, der bald durch Algorithmen ausgeführt werden könnte, steigerte sich das Unbehagen bis hin zu Mutmaßungen über Untergangsszenarien à la Terminator. Wird eine KI die Menschheit irgendwann unterjochen? Damit ihr dies gelänge, müsste sie ihre bösen Absichten wahrscheinlich zumindest kurze Zeit geheim halten, damit KI-Entwickler*innen nicht doch noch gegen ihre Machenschaften wirken können.

Nur welche Fähigkeiten braucht eine KI eigentlich, um zum einen ein Geheimnis zu haben und zum anderen dieses zu bewahren? Wer ein Geheimnis hat, der muss mitunter lügen, um ein bestimmtes Wissen, verfolgte Absichten etc. zu verbergen.

Wenn ich bspw. behaupte, der Eiffelturm in Paris ist 65 m hoch, so habe ich mich erst einmal geirrt. Tatsächlich ist er 300 m hoch. Der Unterschied zwischen einem Irrtum und einer Lüge besteht in der Täuschungsabsicht, die notwendig für eine Lüge ist. Ich muss wissen, dass der Eiffelturm 300 m hoch ist oder zumindest, dass meine Angabe “65 m” nicht korrekt ist. Zudem muss ich eine Täuschungsabsicht verfolgen, d. h. ich muss jemanden davon überzeugen wollen, dass der Eiffelturm 65 m statt 300 m hoch ist, gleichwohl ich weiß, dass er 300 m misst.

So einfach das klingt, so schwierig ist das für eine Künstliche Intelligenz. Wer lügen, täuschen, betrügen will, braucht ein bestimmtes Set an sozio-kognitiven Fähigkeiten.

Was braucht es, um zu lügen?

Mithilfe unserer Soziokognition sind wir in der Lage, die Absichten von anderen Menschen zu verstehen. So lesen wir bspw. Handlungsziele anhand von Verhaltensweisen ab. Stellen Sie sich vor, Sie sitzen in einer S-Bahn. Ihnen gegenüber sitzt eine Frau mit einem großen Paket auf dem Schoß und hört Musik. Plötzlich fällt ihr einer ihrer Earbuds auf den Boden. Sie versucht den Kopfhörer aufzuheben, kommt aber wegen des Pakets auf ihren Beinen mit ihrer Hand nicht bis zum Boden. Sie streckt und reckt sich, leider vergebens. Nun stehen Sie auf und reichen ihr den verlorenen Earbud. Sie haben, ohne dass die Frau etwas gesagt hat, anhand des angestrengten Ausstreckens der Hand nach dem heruntergefallenen Gegenstand erkannt, dass sie diesen wieder aufheben möchte. Sie haben ihr anhand ihres Verhaltens einen Wunsch (will den Earbud wieder haben) und eine Absicht (streckt die Hand aus, um sich den Wunsch zu erfüllen) unterstellt und dabei geholfen, das beabsichtigte Ziel zu erreichen.

Um so handeln zu können, bedarf es einer theory of mind, wie dieses Skillset in Psychologie und Philosophie genannt wird. Eine solche theory of mind ist die mentale Grundlage unserer Alltagspsychologie (engl. folk psychology), also genau die Fähigkeit, anhand unterschiedlicher Indikatoren, die Absichten, Gefühle und Stimmungen von anderen Menschen zu erkennen. (Übrigens, das „Fehlen“ einer theory of mind, also bestimmter sozio-kognitiver Fähigkeiten, entspricht dem definitorischen Krankheitsbild von Autismus). Könnte eine KI ebenfalls anhand einer Vielzahl von Mustern(!) die Absichten, Wünsche etc. von Menschen ablesen?

Damit eine KI lügen kann und dementsprechend ein Geheimnis haben und bewahren könnte, müsste sie folgendes Wissen und folgende ganz spezifische Fähigkeiten besitzen:

  1. Die KI müsste verstehen, was ein Geheimnis ist und wie man es bewahrt. Ein Geheimnis ist eine Überzeugung, ein Wissen um einen Sachverhalt oder eine Absicht, die dadurch geheim ist, dass sie möglichst wenige Akteure kennen. Je weniger Beteiligte ein Geheimnis kennen, umso geheimer ist es.
  2. Was wissen die Menschen, die ggf. etwas gegen die KI unternehmen könnten? Um gut täuschen und so ein Ziel im Geheimen verfolgen zu können, muss die KI wissen, was diese Personen wissen, um nicht als Lügner enttarnt zu werden. Denn, so sagt es ein altes Sprichwort, “Wer einmal lügt, dem glaubt man nicht.” Wenn ich mir sicher bin, dass mein Gegenüber die korrekte Höhe des Eiffelturmes kennt, wird es enorm schwierig, ihn von meinen erlogenen 65 m Höhe zu überzeugen.
  3. Die KI muss verstehen, dass, wenn die relevanten Menschen das Geheimnis kennen, sie etwas dagegen unternehmen würden, weil sie es irgendwie als “böse” bewerten würden. Die KI müsste also die Absichten dieser Menschen verstehen und erkennen, dass diese Absichten kontradiktorisch zu ihren eigenen Absichten stehen und sie demzufolge geheim halten.
  4. Sie müsste dieses Wissen verwenden, um diese Personen gezielt zu täuschen (Täuschungsabsicht) und so das Geheimnis zu wahren.

Alles gar nicht so einfach, wenn man ein Geheimnis für sich behalten oder gar lügen möchte – schon gar nicht als KI. Dass es hierfür einiges braucht, zeigen zahlreiche entwicklungspsychologische Studien mit Kleinkindern, die belegen, dass Kinder erst ab etwa vier Jahren über ausreichend sozio-kognitive Fähigkeiten verfügen, um wirklich “gut” lügen zu können. Also liebe Eltern, genießt diese Zeit!

Ob eine KI jemals über eine theory of mind verfügen könnte, ist eine Frage, die wohl daran gekoppelt ist, inwiefern bestimmte Kenntnisse und ein bestimmtes Wissen in einen Binärcode übertragen werden können. Es ist durchaus fraglich, wie dies gelingen soll und ob eine KI dank deep learning tatsächlich sozio-kognitive Fähigkeiten ausbilden kann, um vor allen anderen versteckte böse Absichten zu hegen und zu verfolgen. Und selbst wenn eine KI eine echte theory of mind ausbilden könnte, heißt das noch lange nicht, dass dann die Welt untergeht, denn eine theory of mind ist ebenso die mentale Grundlage für kooperatives Verhalten.

Bild: Tara Winstead (Pexels, Pexels Lizenz)

nach oben
FAQ