
Die Hochschule für Angewandte Wissenschaft und Kunst in Hildesheim (HAWK) hat mit HAWKI eine Open-Source-Webanwendung entwickelt, die nun den Mitgliedern der Universität Freiburg die datenschutzkonforme Nutzung verschiedener generativer KI-Modelle ermöglicht. Laut uni-freiburg.de können berechtigte Nutzer über ihren Uni-Account Zugang zu unterschiedlichen „Large Language Models“ (LLM) erhalten, darunter auch ChatGPT von OpenAI.
Der Zugriff auf HAWKI erfolgt durch eine Authentifizierung mit dem Uni-Account. Ein weiterer Vorteil dieser Anwendung ist, dass Anfragen an die verschiedenen KI-Modelle über die API der Universität Freiburg an Drittanbieter übermittelt werden, ohne dass personenbezogene Daten übertragen werden. Das bedeutet, dass Daten, die über Prompts in die KI eingespeist werden, nicht zum Training verwendet und nach 30 Tagen gelöscht werden.
Schulung und Infoveranstaltung
Um den Nutzerinnen und Nutzern den Umgang mit HAWKI zu erleichtern, bietet die Universität Freiburg eine Online-Schulung mit dem Titel „Einführung in den Einsatz von generativen KI-Systemen/LLMs Allgemein“ an. Diese wird über die Lernplattform ILIAS bereitgestellt und informiert über KI, Datenschutz sowie die verantwortungsvolle Nutzung von generativer KI.
Zusätzlich wird eine Infoveranstaltung am 14. April 2025 von 10:30 bis 11:15 Uhr in Form einer Videokonferenz stattfinden. Hier werden die Anwendung HAWKI sowie die Nutzung der bereitgestellten LLMs vorgestellt, mit dem Ziel, Anregungen zur Integration dieser Technologien in den Arbeits-, Lehr- und Studienalltag zu geben.
Herausforderungen beim Einsatz von KI
Die Integration von KI in Bildungseinrichtungen wirft jedoch auch Fragen zu Datenschutz und Datensicherheit auf. Wie in dem Artikel auf das-wissen.de beschrieben, gewinnen Künstliche Intelligenz und Datenschutz in der digitalen Technologie zunehmend an Bedeutung. Die Balance zwischen der Nutzung der Potenziale von KI und dem Schutz der Privatsphäre ist komplex und erfordert eine ständige Überprüfung.
Aktuelle Forschungsarbeiten beleuchten verschiedene Ansätze zur verantwortungsvollen Entwicklung von KI. Es wird darauf hingewiesen, dass Datenschutzverletzungen, unbefugter Zugriff und algorithmische Verzerrungen potenzielle Risiken darstellen. Die EU-Datenschutz-Grundverordnung (DSGVO) gibt strenge Richtlinien für die Datenverarbeitung und -nutzung vor, um diese Risiken zu minimieren.
Um den datenschutzkonformen Einsatz von KI zu gewährleisten, werden unter anderem Maßnahmen wie Privacy by Design, robuste Datensicherheitsmaßnahmen und die transparente Kommunikation mit Nutzerinnen und Nutzern empfohlen. Die interdisziplinäre Zusammenarbeit ist entscheidend, um zukunftsfähige Lösungen zu entwickeln und die Herausforderungen im Bereich von KI und Datenschutz erfolgreich zu adressieren.