Juristische Fakultät Fakultät Professuren Prof. Dr. Eichelberger Aktuelles
Erschienen: Rechtsfragen der Nutzung von Large Language Models in der Medizin

Erschienen: Rechtsfragen der Nutzung von Large Language Models in der Medizin

Ebers/Quarch (Hrsg.), Rechtshandbuch ChatGPT, 2024, § 20 (S. 463-475)

Einigen rechtlichen Aspekten der Nutzung von Large Language Models in der Medizin geht Prof. Eichelberger im Abschnitt "Medizin" in dem vor einigen Tagen erschienenen Rechtshandbuch ChatGPT nach:
 

  • LLMs als Medizinprodukt? Ja, wenn der Hersteller eine medizinische Zweckbestimmung getroffen hat. "Allgemeine" LLMs (etwa ChatGPT) sind daher nicht schon deshalb ein Medizinprodukt, weil sie auf entsprechende Nutzeranfragen hin "medizinische" Antworten geben können, denn allein die Eignung (oder Nutzung) auch zu medizinischen Zwecken ersetzt nicht die dem Hersteller obliegende Zweckbestimmung (str., näher Rn. 3 ff.).
  • Wenn Medizinprodukt, dann grds. mindestens Klasse IIa (Rn. 8). "Dank" der berüchtigten "Regel 11" liegen aber auch Klasse IIb oder gar Klasse III nicht fern, je nach den Anforderungen, die man an das "Verursachenkönnen" einer schwerwiegenden Verschlechterung des Gesundheitszustands bzw. eines chirurgischen Eingriffs (Klasse IIb) oder gar des Todes oder einer irreveriblen Verschlechterung des Gesundheitszustands (Klasse III) stellt (Rn. 9)
  • Einsatz von LLMs bei der medizinischen Behandlung: → Therapiefreiheit, → Neulandmethode, → Aufklärung (§ 630e Abs. 1 BGB) über Einsatz von LLMs sowie Aufklärung (§ 630e Abs. 2 BGB) und Information (§ 630c Abs. 2 BGB) durch LLMs, → Delegation, → Arzthaftung
  • Medizinprodukte-LLMs als Hochrisiko-KI-Systeme