Werbung

Bildnachweis: vegefox.com – stock.adobe.com.

Künstliche Intelligenz zählt zu den zentralen Zukunftsthemen. Gerade in der Medizin verspricht ihr Einsatz in Kombination mit Big Data nichts weniger als eine Revolution. Die Medizin blickt derzeit auf geradezu ungeahnte Chancen, insbesondere in den Bereichen Monitoring, Diagnostik und Therapie. Das Rechtssystem indes steht vor der Herkulesaufgabe, einen Rahmen zu schaffen, der auf der einen Seite weit genug ist, um Innovationen und Chancen Raum zu geben, auf der anderen Seite jedoch so eng, dass Risiken aufgefangen und dem bestehenden Regelungsbedarf unter Berücksichtigung der Interessen ­aller Beteiligten Genüge getan wird. Dieser Beitrag befasst sich mit einigen ausgewählten Rechtsfragen zu künstlicher ­Intelligenz. Von Marc L. Holtorf und Dr. Julia Traumann

 

Eine allgemeingültige und von allen Akteuren konsistent genutzte Definition von künstlicher Intelligenz (KI) gibt es nicht. Für die Zwecke dieses ­Beitrags soll KI als Oberbegriff für komplexe Algorithmen und Systeme verstanden werden, die auf Computerprogrammen oder computergestützten Algorithmen und Simu­lationen beruhen und die selbstständig lernen, Muster zu erkennen und vorherzusagen sowie mit Unsicherheiten und Wahrscheinlichkeiten umzugehen, um ­daraus selbstständig Handlungsweisen ­abzuleiten.

Digitale Ethik

Die aktuellen Entwicklungen haben sowohl Gesetzgeber auf nationaler und europä­ischer Ebene als auch Marktteilnehmer dazu bewogen, über eine neue digitale Ethik nachzudenken. Im Bereich der Medizin ergeben sich neue Herausforderungen, die vor allem einer ethischen Abwägung bedürfen, insbesondere aus der neu entstehenden Dreiecksbeziehung zwischen KI, Ärzten und Patienten. Im Einklang mit den Vorgaben des Koalitionsvertrags hat die deutsche Bundesregierung eine Daten­ethikkommission eingesetzt, die auf der Basis wissenschaftlicher und technischer Expertise bis zum Herbst 2019 ethische Leitlinien für den Schutz des Einzelnen, die Wahrung des gesellschaftlichen Zusammenlebens sowie die Sicherung und Förderung des Wohlstands im Informa­tionszeitalter entwickeln soll. Weiterhin hat die Bundesregierung im November 2018 eine „Strategie Künstliche Intelligenz“ verabschiedet. Auf europäischer Ebene hat die Europäische Kommission jüngst eine Konsultation zu ethischen Leitlinien für künstliche Intelligenz durchgeführt. Bereits im Dezember 2018 haben 52 Experten aus Wissenschaft, Wirtschaft und Zivilgesellschaft in einem Entwurf dargelegt, wie Entwickler und Nutzer ­sicherstellen können, dass KI die Grundrechte, das geltende Recht und Grundprinzipien der Europäischen Union respektiert. Ihren abschließenden Entwurf wird die Expertengruppe im März 2019 vorlegen.

Recht des geistigen Eigentums

Für Entwickler von KI in allen Bereichen stellt sich die Frage, ob sich die oft kostspielige Entwicklung derselben wirtschaftlich lohnt. Ob dies der Fall ist, hängt oft davon ab, ob die KI selbst und/oder von KI generierte Ergebnisse für eine ­gewisse Zeit im Wege der Zuerkennung ­eines geistigen Eigentumsrechts monopolisiert und entsprechend kommerzialisiert werden können.

Vergleichsweise einfach zu beantworten ist die Frage der Schutzfähigkeit von KI selbst. KI kann als Computerprogramm grundsätzlich sowohl urheber- als auch patentrechtlichen Schutz erlangen. Das Urhebergesetz bestimmt, dass Computerprogramme zu den geschützten Werken gehören. Das Patentgesetz erachtet Programme für Datenverarbeitungsanlagen zwar nicht als Erfindungen, soweit für sie „als solche“ Schutz begehrt wird. Dies ­bedeutet aber nicht, dass sog. programmbezogene oder computerimplementierte Erfindungen dem Patentschutz unzugänglich wären. Nach Angaben des Deutschen Patent- und Markenamts sind aktuell ­sogar rund 10% aller Patentanmeldungen computerimplementierte Erfindungen.

Weitaus schwieriger und bislang unbeantwortet sind die Fragen rund um die Schutzfähigkeit der von KI generierten ­Ergebnisse. Sind Erfindungen, die von KI hervorgebracht werden, patentierbar oder urheberrechtsschutzfähig? Sind ­Erzeugnisse, die patentrechtlich geschützte KI hervorbringt, ebenfalls geschützt? Muss der Maßstab für die Beurteilung der für den Schutz erforderlichen Erfindungs- oder Schöpfungshöhe, der an die üblicherweise zu erwartenden menschlichen ­Fähigkeiten anknüpft, verändert werden? Die Beantwortung dieser Fragen kann hier nicht vorgenommen werden, und sie wird Gerichte, die Rechtswissenschaft sowie die Gesetzgebung voraussichtlich auf ­Jahre beschäftigen.

Datenschutz

Das Jahr 2018 war das Jahr der Datenschutz-Grundverordnung (DSGVO). Die DSGVO hält eine Reihe besonderer ­Hürden für den Einsatz von KI und die Nutzung von Big Data bereit. Datenschutzrecht­liche Grundsätze wie Zweckbindung oder Datensparsamkeit können Algorithmen zuwiderlaufen, die auf möglichst breiter Datenbasis „lernen“ sollen. Sofern besondere Kategorien personenbezogener ­Daten verarbeitet werden, wie etwa ­Gesundheitsdaten, sind besondere Vorgaben zu beachten. Jedenfalls ist insbesondere der Sorge vieler Patienten um ihre sensiblen Angaben zur eigenen Gesundheit zu begegnen. Konzepte und Ideen gibt es derzeit viele, von einer Datenspende bis hin zur Möglichkeit der Kommerzialisierung der eigenen Gesundheitsdaten. Die Herausforderung besteht nunmehr ­darin, Standards zu etablieren, um die ­Daten elektronisch sauber, einheitlich und strukturiert zu erfassen und transparente Regeln für die Nutzung dieser Daten zu treffen.

Haftung

Aktuell diskutiert wird insbesondere der Umgang mit Schäden, die durch Algorithmen ausgelöst werden. Die damit zusammenhängenden Haftungsfragen werden derzeit überwiegend in den Bereichen Smart Home und autonomes Fahren ­besprochen, sie stellen sich aber gleichermaßen auch im medizinischen Bereich, z.B. bezüglich Pflegerobotern oder Operationsassistenzsystemen. Im Vordergrund steht dabei die Frage der Zurechenbarkeit. Wem ist die Handlung einer Maschine ­zuzurechnen? Trägt der Hersteller, der ­Betreiber oder der Bediener eines (teil-)autonomen Systems die Verantwortung? Teilweise wird vertreten, dass die bestehenden Regelungen ausreichen und keine Anpassungen notwendig sind. Andere ­verlangen die Einführung neuer Konzepte, wie z.B. die Gründung eines Haftungsfonds für Roboter oder die Schaffung einer elektronischen Rechtspersönlichkeit.

Zulassung und CE-Zertifizierung

KI könnte auch die Arzneimittelent­wicklung einschließlich der Zulassungsverfahren revolutionieren. Beispielsweise könnten geeignete Wirkstoffdosen nach pharmakokinetischen und pharmako­dynamischen Kriterien schneller identifiziert oder humanbasierte Studien durch computerbasierte Tests ersetzt und ­dadurch das potenzielle Risiko für Frei­willige mit Blick auf die Arzneimittel­dosierung während Phase-1-Studien erheblich minimiert werden.

Auch mit Blick auf die CE-Zertifizierung von KI stellen sich neue Fragen. Von ­Bedeutung ist insoweit die bereits bestehende Rechtsprechung des Gerichtshofs der Europäischen Union, nach der Folgendes gilt: Nicht nur Software, die zum ­Betrieb von Medizinprodukten eingesetzt wird, sondern auch Software, die bei ­Entscheidungen für diagnostische oder therapeutische Zwecke herangezogen wird, ist als „Medizin­produkt“ im recht­lichen Sinne einzustufen und daher grundsätzlich zu zertifizieren (sog. „Software as a Medical Device“).

Fazit

Der vorstehende Überblick gibt einen Eindruck von der großen Zahl der Rechts­gebiete, in denen KI allein im Gesundheitswesen Fragen aufwirft. Mit Spannung zu erwarten sind die zukünftigen Änderungen und ob es „dem Recht“ gelingt, einen angemessenen Rahmen für die digitale ­Revolution in der Medizin zu schaffen.

 

ZU DEN AUTOREN

Marc L. Holtorf ist Partner, Rechtsanwalt und Fachanwalt für gewerblichen Rechtsschutz bei Pinsent Masons in München. Er leitet dort den Rechtsbereich gewerblicher Rechtsschutz und die Sektorgruppe Life Sciences.

Dr. Julia Traumann ist Rechtsanwältin und Fachanwältin für gewerblichen Rechtsschutz bei Pinsent Masons in München. Sie ist auf die Beratung von Unternehmen im Life Sciences-Sektor spezialisiert.