Können KI-Systeme etwas wissen?

Der Einsatz von KI-Systemen führt im Zivilrecht zu zahlreichen Problemen, weil das BGB in seiner ursprünglichen Konzeption Rechtsfolgen allein an das menschliche Handeln knüpft. Zu diesem Problemkreis zählt unter anderem die Frage, ob von einem KI-System ausgehend dem Verwender eines solchen Systems Wissen zugerechnet werden kann. Hierzu müssen KI-Systeme jedoch etwas im zivilrechtlichen Sinne wissen können. Der Beitrag spürt dieser Frage nach.

Ein Artikel von Friedrich Biermann

Für diesen Beitrag hielt ich es für angemessen, das KI-System ChatGPT zu fragen, ob KI-Systeme etwas im zivilrechtlichen Sinne wissen können. Es antwortete mir wie folgt: “Nein, KI-Systeme können kein Wissen im zivilrechtlichen Sinne haben, da sie keine menschlichen Eigenschaften wie Bewusstsein, Willen oder Verantwortung besitzen. KI-Systeme arbeiten auf der Grundlage von Algorithmen und Daten, aber sie haben kein Verständnis oder Bewusstsein für rechtliche Konzepte.” Eine bemerkenswerte Antwort, die zeigt, wozu frei verfügbare KI-Systeme fähig sind. Ob die von ChatGPT geäußerte Ansicht auch tatsächlich überzeugt, bedarf jedoch einer menschlichen Überprüfung.

Der zivilrechtliche Begriff des Wissens

In einem ersten Schritt ist zu klären, was Wissen im zivilrechtlichen Sinne eigentlich meint. Obwohl zahlreiche Wissensnormen an das Tatbestandsmerkmal des Wissens oder Wissenmüssens Rechtsfolgen knüpfen, findet sich im BGB keine Definition für den Begriff des Wissens. Allein der Begriff des Wissensmüssens wird in § 122 II BGB definiert, wonach Wissenmüssen die auf Fahrlässigkeit beruhende Unkenntnis meint. Entscheidend sind für die Bestimmung des Wissensbegriffs systematische und teleologische Erwägungen. In systematischer Hinsicht ist die Unterscheidung zwischen absoluten und relativen Wissensnormen maßgebend. Absolute Wissensnormen knüpfen Rechtsfolgen allein an das Tatbestandsmerkmal des Wissens (z. B. § 124 II 1 Alt. 1 BGB), wohingegen relative Wissensnormen Rechtsfolgen alternativ an das Tatbestandsmerkmal des Wissens oder des Wissenmüssens knüpfen (z. B. § 199 I Nr. 2 BGB). Wegen dieser strikten Trennung zwischen absoluten und relativen Wissensnormen, verbietet sich eine Gleichstellung von Wissen und Wissenmüssen. In teleologischer Hinsicht ist maßgeblich, dass alle Wissensnormen nachteilhafte Rechtsfolgen an Handeln bzw. Unterlassen trotz Wissen(müssen)s knüpfen (Grigoleit, ZHR 181 (2017), 160 (177)). Von Gesetzes wegen wird erwartet, dass eine natürliche Person einen rechtlich relevanten Umstand bei ihrer Handlungsauswahl berücksichtigt, wenn diese von einem rechtlich relevanten Umstand weiß oder wissen müsste. Die Wissensnormen sollen also für einen Risikoausgleich zwischen den Teilnehmern am Rechtsverkehr sorgen. Sehr schön lässt sich dies anhand des § 199 I Nr. 2 BGB nachvollziehen: Die Nichtgeltendmachung eines Anspruchs, obwohl man weiß bzw. wissen müsste, dass ein solcher besteht, lässt die regelmäßige Verjährungsfrist beginnen. Nach Ablauf der Frist, kann sich der Schuldner auf die Verjährung berufen.

Grundsätzlich muss zwischen Wissen im subjektiven und normativen Sinne unterschieden werden. Beim subjektiven Wissensbegriff handelt es sich um einen Bewusstseinszustand. Nach der hier vertretenen Auffassung liegt Wissen im subjektiven Sinne immer dann vor, wenn der Betroffene einer Wissensnorm vom Vorliegen eines tatsächlich bestehenden rechtlich relevanten Umstandes in nicht völlig ungerechtfertigter Weise überzeugt ist. Bei einer Überzeugung handelt es sich um einen mentalen Zustand in Form einer intentionalen Einstellung. Anders ist dies beim normativen Wissensbegriff. Hierbei handelt es sich um keinen mentalen Ist-, sondern einen mentalen Sollzustand (vgl. Schrader, Wissen im Recht, 14). Ein in subjektiver Hinsicht Unwissender wird auch dann als wissend behandelt, wenn seine Unkenntnis auf (grober) Fahrlässigkeit beruht (nur in Bezug auf relative Wissensnormen) oder seine Unkenntnis rechtsmissbräuchlich erscheint (in Bezug auf relative als auch absolute Wissensnormen).

Übertragung des subjektiven Wissensbegriffs auf KI-Systeme

Probleme bereitet bei der Übertragung des subjektiven Wissensbegriffs auf KI-Systeme die Überzeugungsbedingung, weil den heute zum Einsatz kommenden KI-Systemen keine Bewusstseinszustände in tatsächlicher Hinsicht zugeschrieben werden können. Jedoch widerspricht dieses Ergebnis der Alltagssprache. Im alltäglichen Sprachgebrauch geschieht es häufig, dass technischen Systemen Bewusstseinszustände wie Überzeugungen oder Wünsche zugeschrieben werden. Dies liegt dem Philosophen Daniel C. Dennett zufolge darin begründet, dass man oft gegenüber informationsverarbeitenden Systemen die sog. intentional stance einnimmt. Man schreibt hierbei technischen Systemen bestimmte Überzeugungen und Wünsche zu, um das Verhalten dieser Systeme zu erklären. Voraussetzung zur Einnahme der intentional stance ist die Erwartung, dass sich ein technisches System hinsichtlich seiner Ziele oder Zwischenziele und gegebenen oder generierten Informationen rational verhält. Sobald diese Voraussetzungen vorliegen, können die Informationen als Überzeugungen und die Ziele/Zwischenziele als Wünsche bezeichnet werden. Mittels der Zuschreibung von Überzeugungen und Wünschen lässt sich dann das Verhalten des in Frage stehenden technischen Systems erklären. Wenn man einem technischen System gegenüber die intentional stance einnimmt, bedeutet dies nicht, dass dieses System in tatsächlicher Hinsicht über mentale Zustände in Form von intentionalen Einstellungen verfügt. Vielmehr handelt es sich um eine metaphorische Zuschreibung. Fraglich ist, ob man diesen sehr pragmatischen Ansatz Dennetts auf das Zivilrecht übertragen kann. Hierfür ist entscheidend, warum das Haben einer Überzeugung bei einer natürlichen Person Voraussetzung für Wissen im subjektiven Sinne ist. Wenn eine natürliche Person vom Vorliegen eines rechtlich relevanten Umstandes überzeugt ist, wird von dieser erwartet, dass diese den rechtlich relevanten Umstand bei ihrer Handlungsauswahl berücksichtigt und sich in zivilrechtlicher Hinsicht rational verhält. Daher lässt sich die intentional stance immer dann auf das Zivilrecht übertragen, wenn ein KI-System bei seiner Entscheidungsfindung auf eine rechtlich relevante Information zugreift und eine in zivilrechtlicher Hinsicht rationale Handlung erwartet werden kann. Dies ist jedenfalls immer dann der Fall, wenn es um explizite Informationen des In- oder Outputs geht. Diese Informationen können bei dem Training oder der Programmierung des KI-Systems im Vorhinein berücksichtigt werden. Diese Gedanken lassen sich anhand des folgenden Beispiels verdeutlichen:

Man soll sich ein Unternehmen vorstellen, das ein KI-System zur Abwicklung von gemeldeten Schadensfällen einsetzt. Dazu überprüft das KI-System, ob ein Anspruch wahrscheinlich besteht oder nicht. Wenn das KI-System feststellt, dass der Sachverhalt Anhaltspunkte dafür bietet, dass ein Anspruch besteht, soll es eine Zahlungsaufforderung an den Schuldner übersenden, anderenfalls nicht. Die Zahlungsaufforderung wird also von der expliziten Information „Der Anspruch besteht wahrscheinlich (+/-)“ abhängig gemacht. Wenn das KI-System eine Zahlungsaufforderung versendet, ließe sich sagen, dass es von dem rechtlich relevanten Umstand „überzeugt“ ist, dass ein Anspruch tatsächlich besteht. Wenn das KI-System hingegen keine Zahlungsaufforderung versendet, liegt dies daran, dass es nicht davon „überzeugt“ ist, dass ein Zahlungsanspruch besteht. Sollte die „KI-Überzeugung“ der Wahrheit entsprechen, kann dem KI-System Wissen im zivilrechtlichen Sinne in metaphorischer Sprechweise zugeschrieben werden. Dieses subjektive Wissen wäre für den Fristbeginn nach § 199 I Nr. 2 Alt. 1 BGB entscheidend. Sollte sich das KI-System jedoch „geirrt“ und keine Zahlungsaufforderung versendet haben, „wusste“ dieses bei der Unterlassung der Zahlungsaufforderung nicht im subjektiven Sinne, dass ein Anspruch besteht.

Übertragung des normativen Wissensbegriffs auf KI-Systeme

Weil es grundsätzlich möglich ist, KI-Systemen Wissen im subjektiven Sinne in metaphorischer Sprechweise zuzuschreiben, ist es auch möglich den „mentalen Istzustand“ eines KI-Systems mit einem „mentalen Sollzustand“ abzugleichen. Daher ist es grundsätzlich möglich, den normativen Wissensbegriffs auf KI-Systeme zu übertragen. Es stellt sich jedoch die Frage nach dem richtigen Maßstab zur Ermittlung des „mentalen Sollzustands“. In Betracht kommt ein anthropo-paralleler oder ein KI-spezifischer Maßstab. Bei ersterem wäre eine sich in objektiver Hinsicht „richtig“ verhaltende natürliche Person Bezugspunkt, bei letzterem ein sich „richtig“ verhaltendes KI-System. Bei dem anthropo-parallelen Maßstab müsste man sich nur fragen, was eine natürliche Person als objektiver Dritter anstelle des KI-Systems gewusst hätte. Dieser Maßstab wäre leicht umsetzbar. Beim KI-spezifischen Maßstab ist entscheidend, was ein ordnungsgemäß konstruiertes und nicht (weit) hinter dem Stand der Technik zurückbleibendes KI-System „gewusst“ hätte. Nach der hier vertretenen Auffassung ist der KI-spezifische Maßstab der überzeugendere. Insbesondere ermöglicht dieser eine flexible Anpassung des anzustellenden Maßstabs. Wäre allein der Mensch als objektiver Dritter ausschlaggebend, würde die tatsächliche und ggf. sogar höhere Leistungsfähigkeit eines KI-Systems keine Berücksichtigung finden. Aus Gründen der Nachvollziehbarkeit soll erneut ein Beispiel gebildet werden:

Es soll auch hier von einem KI-System ausgegangen werden, das zur Abwicklung von gemeldeten Schadensfällen eingesetzt wird. Weiter soll angenommen werden, dass sich das eingesetzte KI-System „irrt“. Es schickt also keine Zahlungsaufforderung an den Schuldner, weil es davon „überzeugt“ ist, dass kein Zahlungsanspruch besteht. Jedoch griff es hierbei auf Informationen zurück, die bei einer natürlichen Person ohne Weiteres zu der Überzeugung geführt hätten, dass ein Zahlungsanspruch besteht. Fraglich wäre im vorliegenden Fall, ob die Frist nach § 199 I Nr. 2 Alt. 2 BGB zu laufen begann. Bei § 199 I Nr. 2 BGB handelt es sich um eine relative Wissensnorm. Diese knüpft negative Rechtsfolgen alternativ an das Vorliegen von Kenntnis oder grob fahrlässiger Unkenntnis. Insbesondere müsste man sich vorliegend fragen, ob das KI-Systems grob fahrlässig „unwissend“ war. Wie zuvor dargestellt, verbietet sich die Frage, ob das Unwissen einer natürlichen Person anstelle des KI-Systems grob fahrlässig gewesen wäre. Es ist nur entscheidend, ob das eingesetzte KI-System (weit) hinter dem Stand der Technik zurückbleibt und deswegen „unwissend“ war. Ist dies nicht der Fall, finge die Verjährungsfrist nach der hier vertretenen Auffassung nicht an zu laufen, obwohl eine natürliche Person anstelle des KI-Systems als wissend behandelt worden wäre.

Fazit

Nicht nur Menschen, sondern auch KI-Systeme können also im Ergebnis etwas im zivilrechtlichen Sinne wissen. KI-Systeme so zu behandeln, als ob diese über Bewusstseinszustände verfügten, mag zwar befremdlich wirken, doch kann nur so der Realität begegnet werden, dass KI-Systeme unlängst zur Abgabe und Annahme von Willenserklärungen eingesetzt werden oder andere Aufgaben übernehmen, die einst allein natürlichen Personen vorbehalten waren. Das hier gefundene Ergebnis steht im Widerspruch zu der eingangs von ChatGPT getätigten Aussage. Als ich ChatGPT daraufhin schrieb, dass ich eine andere Meinung vertrete, antwortete es wie mir folgt:

“Das ist in Ordnung, Meinungsverschiedenheiten sind Teil jeder Diskussion. Es ist wichtig, respektvoll und offen für andere Perspektiven zu sein.”

Ganz in diesem Sinne beende ich diesen Beitrag. Die Entscheidung darüber, wer von uns beiden Recht hat, ist nun Ihnen überlassen.

Published under licence CC BY-NC-ND. 

Detaillierte Ausführungen zur Thematik finden sich in der Dissertationsschrift „Wissenszurechnung und Künstliche Intelligenz – KI-Systeme als Zurechnungsausgangssubjekte für zivilrechtliches Wissen im Rahmen der klassischen und wertenden Wissenszurechnung“.

This Blogpost was written by

Author

  • Friedrich Biermann

    Friedrich G. Biermann ist Rechtsreferendar in Sachsen-Anhalt. Der Artikel befasst sich überblicksartig mit einem Teilbereich seines Dissertationsthemas „Wissenszurechnung und Künstliche Intelligenz – KI-Systeme als Zurechnungsausgangssubjekte für zivilrechtliches Wissen im Rahmen der klassischen und wertenden Wissenszurechnung“. Die Dissertationsschrift ist im Nomos Verlag Ende November 2022 erschienen.

Friedrich Biermann Written by:

Friedrich G. Biermann ist Rechtsreferendar in Sachsen-Anhalt. Der Artikel befasst sich überblicksartig mit einem Teilbereich seines Dissertationsthemas „Wissenszurechnung und Künstliche Intelligenz – KI-Systeme als Zurechnungsausgangssubjekte für zivilrechtliches Wissen im Rahmen der klassischen und wertenden Wissenszurechnung“. Die Dissertationsschrift ist im Nomos Verlag Ende November 2022 erschienen.