Herausforderungen im Umgang mit KI

Der Einsatz von Künstlicher Intelligenz (KI) bringt Herausforderungen in den Bereichen Datenqualität, Datenschutz, Ethik, Bias, Transparenz, Ressourcen und Akzeptanz mit sich.
In der Hochschulbildung müssen zusätzliche Herausforderungen im Zusammenhang mit KI, darunter die Integration von KI in Lehrpläne, die Schulung von Lehrpersonen und die Gewährleistung des Datenschutzes und der Fairness bei KI-basierten Bildungsanwendungen beachtet werden.

Urheberrecht

Zum rechtlichen Hintergrund: Urheberrechtlich geschützte Werke sind nur persönliche geistige Schöpfungen, also vom Menschen geschaffene Ergebnisse. Da KI-generierte Erzeugnisse in Gestalt von Texten, Bildern, Musik, Code etc. das Ergebnis sog. neuronaler Netze sind, scheidet bei ihnen mangels Erstellung durch einen Menschen ein Urheberrechtsschutz grundsätzlich aus. 

Handelt es sich hingegen um Arbeitsergebnisse mit einem nicht unerheblichen schöpferischen, d. h. gestalterischen, Anteil von Menschen, die unter KI-Mitwirkung entstanden sind, ist ein Urheberrechtsschutz zumindest denkbar. Dies kann etwa der Fall sein, wenn Lehrende den Dienst anweisen, einen selbst verfassten Text (oder Programmiercode etc.) nach bestimmten Vorgaben nicht unerheblich umzuschreiben – oder diese umgekehrt einen KI-generierten Text nach der Ausgabe umfänglich bearbeiten, also nach ihren Vorstellungen stark verändern bzw. Inhalte ergänzen und die Ausdrucksweise in ihrem Sinne anpassen.

Lizenzhinweis: “Urheberrecht und Datenschutz bei ChatGPT & Co. in der Hochschullehre“, Andrea Schlotfeldt | HOOU@HAW, CC BY SA 4.0

Fehler, Bias, Diskriminierung, fehlende SafeGuards, Missbrauch, Privatsphäre und Dienstgeheimnisse

KI-basierte Tools werden von Menschen trainiert. Sie sind daher nicht objektiv und anfällig für Verzerrungen, sogenannte Biases. Hinterfragen Sie also KI-generierte Inhalte immer kritisch und sensibilisieren Sie auch Ihre Studierenden für dieses Thema.

Datenschutz

Da aktuell zahlreiche verschiedene KI-basierte Tools existieren, ist eine jeweilige Prüfung des Datenschutzes im konkretes Anwendungskontext notwendig. Für die Nutzung von ChatGPT ergeben sich z.B. einige Datenschutzbedenken.

In Hinblick auf die DSGVO ist ChatGPT aktuell aus mind. 4 Gründen datenschutzrechtlich problematisch (Quelle: it-recht kanzlei, 05.07.23):

  • Personenbezogene Daten beim ursprünglichen Lernen der KI (Unterscheidung von personenbezogenen Daten nicht möglich, daher keine klare Abgrenzung möglich)
  • Personenbezogenen Daten bei Eingabe von Nutzenden (Datenschutzkonforme Weiterverarbeitung ist nicht sichergestellt)
  • Personenbezogene Daten beim Weiterleiten der KI (Speicherung von Nutzerdaten und Nutzung zur eigenen Weiterentwicklung der Software)
  • Transparenz bei der Verarbeitung von personenbezogenen Daten (kaum möglich durch nicht öffentlichen Algorithmus von KI)

Aktuell findet eine datenschutzrechtliche Prüfung durch die Konferenz der unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder statt. Herausforderungen dabei sind fehlende Angaben über die Datenquellen, fehlende Informationen über die Algorithmen hinter der automatisierten Datenverarbeitung und keine Klarheit über die Weitergabe von Daten an Dritte mit kommerziellen Interessen (Quelle: Datenschutzexperte.de, 05.07.23).

Eine datenschutzkonforme Alternative zu ChatGPT bietet beispielsweise GPT4All. Mehr Informationen zu Einsatzzwecken und zur Installation finden Sie in unserer Handreichung „Lokale Sprachmodelle mit GPT4All nutzen“.