Künstliche Intelligenz und Robotik: Herausforderungen für Gesellschaft und Recht

Künstliche Intelligenz (KI) und smarte Robotik durchdringen in zunehmendem Maße unser tägliches Leben und nehmen Einfluss auf unsere Gesellschaft. Daraus ergeben sich zahlreiche Herausforderungen für die Rechtsordnung.

Szenario

KI-Systeme, die auf selbstlernenden Algorithmen und Big Data-Analysen basieren, können heutzutage Aufgaben erledigen, die zuvor alleine Menschen bewältigen konnten. Nahezu jeder Lebensbereich ist betroffen:

  • Selbstlernende Algorithmen bestimmen, welche Suchergebnisse, Nachrichten, Werbeanzeigen und Kaufvorschläge wir im Internet angezeigt bekommen.
  • Dynamische Preisalgorithmen werten das Geschehen auf (Online)Märkten automatisch aus, damit Händler ihre Preise im Sekundentakt an die jeweilige Marktsituation anpassen können.
  • Software-Agenten erarbeiten ohne menschliche Mitwirkung Marktanalysen, optimieren Portfolios von Handelswaren, bewerten Kreditrisiken und nehmen die günstigsten Transaktionen im Währungshandel autonom vor. Auf den Finanzmärkten generiert der algorithmische Handel (insb. der Hochfrequenzhandel) mittlerweile über 70% des Handelsumsatzes. Im FinTech-Markt kommen Robo-Advisor bei der Anlageberatung sowie bei der Vermittlung und Vermögensverwaltung zum Einsatz.
  • Nahezu sämtliche Branchen greifen auf das algorithmusbasierte Scoring zurück: Ein Verfahren, das riesige Datenmassen automatisch auswertet, um Wahrscheinlichkeitswerte (Scorewerte) für ein bestimmtes zukünftiges – individuelles und/oder kollektives Verhalten – zu bilden. Die verwendeten Scores können für die Betroffenen existentielle Auswirkungen haben: Sie entscheiden häufig, ob jemand einen Kredit bekommt, eine Versicherung abschließen kann oder einen zusätzlichen Sicherheitscheck am Flughafen durchlaufen muss.
  • Medizinische Expertensysteme werten patientenbezogene klinische Daten sowie allgemeines medizinisches Wissen aus, um Ärzte bei der Diagnose und klinischen Entscheidungen zu unterstützen.
  • KI-basierte Agentensysteme steuern maschinelle Produktionsabläufe und Organisationsketten. Als autonome Systeme sind sie wichtiger Bestandteil intelligenter Roboter, die sich derzeit in der Entwicklung befinden, so insb. Haushalts- und Pflegeroboter, intelligente Flugkörper (Drohnen) und selbstfahrende Fahrzeuge.
  • Aufgrund ihrer Eigenschaft, die ihnen übertragenen Aufgaben selbständig und ohne menschliche Mitwirkung umzusetzen, bilden KI-basierte Softwareagenten schließlich die zentrale technische Grundlage für Szenarien einer „Smart Factory“, des „Smart Office“ und des „Smart Home“. Autonom agierende KI-Systeme sind damit ein wichtiger Baustein für die Entwicklung der Industrie 4.0 und dem sich herausbildenden Internet der Dinge, in welchem sich die digitale Vernetzung, die wir aus dem Internet kennen, auf die reale Welt ausdehnen.

Herausforderungen für Gesellschaft und Recht

Der rasante Fortschritt auf dem Gebiet der Künstlichen Intelligenz, insb. des maschinellen Lernens, stellt sowohl die Gesellschaft als auch das Recht vor erhebliche Herausforderungen:

  • Welche Vorkehrungen sind zu treffen, um einem gefährlichen Missbrauch von KI-Systemen vorzubeugen?
  • Wer haftet und ist eventuell auch strafrechtlich verantwortlich, wenn intelligente Softwareprogramme von ihrer Umgebung lernen, sich dabei jedoch in unvorhersehbarer Weise verhalten – etwa wenn sie einen Personenschaden verursachen oder sonstige Rechtsgüter, wie beispielsweise die Privatsphäre oder Immaterialgüterrechte, verletzen?
  • Wie beeinflussen algorithmische Entscheidungsprozesse den gesellschaftlichen Diskurs? Welche Gefahren gehen von Filterblasen, Echokammern, fake news und social bots für die Demokratie aus? Bedürfen die Meinungsbildungsfreiheit und Meinungsfreiheit auf den neuen digitalen Marktplätzen einer (besseren) rechtlichen Absicherung?
  • Wie lässt sich verhindert, dass Algorithmen den Einzelnen oder bestimmte Gruppen diskriminieren? Welche Rechte haben die Betroffenen, wenn ihnen ein algorithmusbasiertes Scoring existentielle Betätigungs- und Geschäftsfelder versagt?
  • Wie lassen sich die Transparenz und Erklärbarkeit der KI-Systeme erhöhen, um das black box-Problem zu bewältigen?
  • Welche vertragsrechtlichen Konsequenzen ergeben sich, wenn KI mit KI kontrahiert?
  • Inwieweit führt der Einsatz von KI-Systemen gegenüber Kunden zu einem Verlust der Privatautonomie? Welche Schutzinstrumente stehen zur Verfügung, wenn Kunden (Verbraucher) durch die Technik des behavioral microtargeting beeinflusst und manipuliert werden? Welche rechtlichen Rahmenbedingungen sollte der Gesetzgeber für digitale Agenten (algorithmic consumers) schaffen?
  • Welche Konsequenzen ergeben sich aus der fortschreitenden Automatisierung für den Arbeitsmarkt? Inwieweit dürfen Arbeitgeber bei der Einstellung und Überwachung ihrer Arbeitnehmer auf KI-Systeme zurückgreifen?
  • Welche Rahmenbedingungen müssen vorliegen, um einen Wettbewerb um die besten KI-Systeme zu eröffnen und Monopole zu verhindern? Brauchen wir besondere Datenzugangsrechte? Welche (wettbewerbsrechtlichen) Maßnahmen müssen ergriffen werden, um ein kollusives Verhalten von KI-Systemen zu unterbinden?
  • Wem „gehören“ personenbezogene und nicht-personenbezogene Daten, die Algorithmen automatisch generieren und verwerten?
  • Ist das (europäische) Datenschutzrecht mit BigData und KI-Systemen kompatibel?
  • Brauchen wir neue Regeln für das Immaterialgüterrecht, um Algorithmen und computergenerierte Erfindungen zu schützen?
  • Welche Herausforderungen ergeben sich für das Kapitalgesellschaftsrecht, wenn Künstliche Intelligenz zukünftig ein Unternehmen steuert?
  • In welchem Umfang darf der Staat Verwaltungshandeln und -entscheidungen, Verbrechensbekämpfung oder die Rechtsdurchsetzung an KI-Systeme delegieren?
  • Ist es sinnvoll, einen Roboter oder ein KI-System für (teil-)rechtsfähig zu erklären?
  • Wie können Anwälte und Mandanten von den Vorteilen innovativer KI-Technologien profitieren? Welche Tätigkeiten lassen sich durch LegalTech automatisieren? Welche Möglichkeiten und neuen Geschäftsfelder eröffnen die Blockchain-Technologie und smart contracts? Besteht insoweit (De-)Regulierungsbedarf?
  • Sollte der Gesetzgeber auf Big Data und KI-Systeme zurückgreifen, um personalisierte Normen zu schaffen, also Rechtsregeln, die auf den Einzelnen zugeschnitten sind?

Diese und eine Vielzahl weiterer Fragen werden mit der fortschreitenden Verbreitung von KI-Systemen und Robotern an Brisanz gewinnen.

Nationale KI-Strategien

Derzeit verfügt kein einziges Land auf der Welt über ein Rechtssystem, das den Besonderheiten von KI-Systemen und smarter Robotik spezifisch Rechnung trägt.

Viele Regierungen haben in den letzten Jahren jedoch damit begonnen, eine nationale Strategie zur Förderung, Entwicklung und Nutzung von KI-Systemen zu entwickeln. Dabei gleicht allerdings keine Strategie der anderen. Vielmehr konzentrieren sich die nationalen Initiativen auf ganz unterschiedliche Aspekte (Forschung und Entwicklung, Wissenschaft und Nachwuchsförderung, Qualifikation und Ausbildung, digitale Infrastruktur und Datenzugangsrechte, technische Standardisierung, Rechtsnormen und ethische Leitlinien). Ein guter Überblick über die unterschiedlichen KI-Strategien auf nationaler Ebene findet sich hier.

In Deutschland hat der Bundesregierung Mitte 2018 sowohl eine Datenethik-Kommission als auch einen Digitalrat geschaffen. Daneben hat der Bundestag die Enquete-Kommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche Potenziale“ eingesetzt. Die Bundesregierung arbeitet derzeit an einem Masterplan für Künstliche Intelligenz, der bis November 2018 beschlossen und beim Digitalgipfel im Dezember 2018 präsentiert werden soll. Erste Überlegungen hierzu wurden bereits am 18. Juli 2018 in einem 12-seitigen Eckpunkte-Papier vorgestellt. Zu den wichtigsten Punkten zählt einerseits die Vernetzung bestehender Kompetenzzentren mit Forschungseinrichtungen von Bund und Ländern zu einem nationalen Forschungskonsortium. Parallel hierzu sollen neue KI-Lehrstühle gefördert und die Attraktivität von Arbeits- und Entlohnungsbedingungen für junge Wissenschaftler gesteigert werden, um den akuten Fachkräftemängel zu bekämpfen. Daneben kündigt die Bundesregierung an, dass sie die Menge an nutzbaren, qualitativ hochwertigen Daten deutlich erhöhen und dabei auch untersuchen will, ob es neuer Regeln zu Datenzugang und -nutzung bedarf. Konkret heißt es: „Daten der öffentlichen Hand und der Wissenschaft werden verstärkt für die KI-Forschung geöffnet und deren wirtschaftliche und gemeinwohldienliche Nutzung im Sinne einer Open Data Strategie ermöglicht“. Die Ankündigung schweigt sich aber zu der Frage aus, wie der Gesetzgeber das Ziel konkret bewerkstelligen will.

EU: Ein europäisches Konzept für KI

Auch auf europäischer Ebene kam es in den letzten zwei Jahren zu mehreren Initiativen. Nachdem das Europäische Parlament bereits Anfang 2017 eine Resolution mit Empfehlungen zu zivilrechtlichen Vorschriften im Bereich der Robotik veröffentlicht und der Europäische Wirtschafts- und Sozialausschuss Ende Mai 2017 eine Stellungnahme zur KI vorgelegt hatte, stellte die EU Kommission Ende April 2018 ein europäisches Konzept für KI vor. Das Konzept der Kommission enthält vor allem drei Zielvorgaben: (1) Förderung der technologischen und industriellen Leistungsfähigkeit der EU sowie der weiteren Verbreitung von KI in der gesamten Wirtschaft, (2) Vorbereitung auf sozioökonomische Veränderungen, sowie (3) Gewährleistung eines geeigneten ethischen und rechtlichen Rahmens.

Zu den übergreifenden Elementen der Initiative zählt zum einen das Ziel, die privaten und öffentlichen Investitionen in KI von derzeit 4–5 Milliarden Euro pro Jahr bis Ende 2020 auf mindestens 20 Milliarden Euro pro Jahr zu steigern.

Zum anderen hat die Europäische Kommission Mitte 2018 eine High-Level Group on Artificial Intelligence eingesetzt, die mit Unterstützung der European AI Alliance einen Entwurf für ethische Leitlinien für KI ausarbeiten soll. Der Entwurf soll dabei u.a. auf den Vorarbeiten der European Group on Ethics in Science and New Technologies aufbauen.

Daneben beabsichtigt die Kommission – mit Hilfe weiterer Expertengruppen – bis Mitte 2019 einen Leitfaden zur Auslegung der Produkthaftungsrichtlinie sowie einen Bericht über die Auswirkungen von KI auf den Haftungs- und Sicherheitsrahmen zu veröffentlichen.

Selbstregulierung auf internationaler Ebene

Schließlich sind in den letzten Jahren zahlreiche Initiativen, Firmenkonsortien und -allianzen sowie private Institutionen entstanden, die es sich zur Aufgabe gemacht haben, ethische Prinzipien, best practices und Verhaltenskodizes für die Entwicklung und den Einsatz von KI-Systemen und Robotern zu entwickeln. Hervorzuheben sind (in alphabetischer Reihenfolge) vor allem folgende Organisationen bzw. Initiativen: AI for Good, AI Now Institute, Association for Computing Machinery’s Committee on Professional Ethics, Future of Life Institute, Googles AI Principles, The Institute of Electrical and Electronics Engineers (IEEE) Global Initiative on Ethics of Autonomous and Intelligent Systems, OpenAI, Partnership on AI sowie The World Economic Forum’s Center for the Fourth Industrial Revolution.

In Deutschland gibt es seit Ende 2015 die Advocacy-Organisation AlgorithmWatch: Sie hat sich zum Ziel gesetzt, über die gesellschaftlichen Auswirkungen automatisierter Entscheidungsfindung aufzuklären und Lösungsstrategien zu entwickeln.

Für die Wissenschaft ist schließlich die Ende 2017 – u. a. vom Verfasser dieses Beitrags – gegründete Rechtswissenschaftliche Gesellschaft für Künstliche Intelligenz und Robotik – Robotics & AI Law Society (RAILS) zu nennen. RAILS verfolgt das Ziel, die Diskussion um den gegenwärtigen und zukünftigen nationalen und internationalen Rechtsrahmen für Künstliche Intelligenz (KI) und Robotik in (rechts-)wissenschaftlicher Hinsicht aktiv mitzugestalten – dafür will sie den regulatorischen Handlungsbedarf identifizieren und konkrete Handlungsempfehlungen erarbeiten.

Ausblick

In den kommenden Jahren wird es aus regulatorischer Sicht vor allem darum gehen, ein besseres Verständnis für KI-Systeme und Robotik und ihre gesellschaftlichen Implikationen zu entwickeln. Gelingen kann das nur in einem interdisziplinären Diskurs, bei dem Juristinnen und Juristen eng mit Personen, Unternehmen und Institutionen zusammenarbeiten, die sich einerseits mit Softwareentwicklung, Robotik, Neurobiologie sowie andererseits aus ökonomischer, soziologischer, psychologischer und philosophischer Sicht mit den (gesamt)gesellschaftlichen Auswirkungen der Künstlichen Intelligenz und Robotik beschäftigen. Da die technischen Innovationen keine Grenzen kennen, ist zudem eine internationale Perspektive notwendig. Insofern sind die Initiativen auf europäischer Ebene sehr zu begrüßen.

Eine vorschnelle, innovationshemmende Überregulierung sollten die politischen Akteure andererseits unbedingt vermeiden – sondern zunächst eher Forschungs- und Entwicklungsvorhaben fördern, die sich europäischen Werten verschreiben. Ob es die gegenwärtige Entwicklung erforderlich macht, zwingendes (Sonder-)Recht zu erlassen oder ob vielmehr Soft-Law-Tools ausreichen, ist eine wichtige Frage, die offen und kritisch diskutiert werden sollte. Auch ein One-Size-Fits-All-Ansatz verbietet sich: Zielführend ist es vielmehr, den gesetzgeberischen Handlungsbedarf sektorspezifisch für konkrete KI- und Robotik-Anwendungen zu ermitteln und Regulierungsstrategien unter Berücksichtigung der jeweiligen Risiken und betroffenen Rechtsgüter zu erarbeiten. Dabei handelt es sich zwar um einen mitunter mühsamen und kleinteiligen Weg – so vielfältig aber die Szenarien sind, wie sich KI und Robotik künftig auf unser Leben auswirken, so ausdifferenziert sollte ihr indessen auch die Rechtsordnung begegnen.

Hinweis: Der Artikel erscheint unter der Creative Common Lizenz CC BY-NC-ND.

Author

  • Dr. iur. habil. Martin Ebers ist Privatdozent an der Humboldt-Universität zu Berlin. Er ist Mitgründer und Vorstandsvorsitzender der RAILS (Robotics & AI Law Society – Rechtswissenschaftliche Gesellschaft für Künstliche Intelligenz und Robotik e.V.).

Martin Ebers Written by:

Dr. iur. habil. Martin Ebers ist Privatdozent an der Humboldt-Universität zu Berlin. Er ist Mitgründer und Vorstandsvorsitzender der RAILS (Robotics & AI Law Society – Rechtswissenschaftliche Gesellschaft für Künstliche Intelligenz und Robotik e.V.).