Bielefeld

Neue KI-Forschungsgruppe in Bielefeld: Vertrauen durch Erklärbarkeit stärken!

Die Universität Bielefeld hat eine neue, unabhängige Forschungsgruppe zur erklärbaren Künstlichen Intelligenz (XAI) ins Leben gerufen. Unter der Leitung von Dr. David Johnson am CITEC verfolgt die Gruppe das Ziel, menschenzentrierte KI-Systeme zu entwickeln, die Benutzer*innen dabei helfen, KI-gestützte Entscheidungen besser zu verstehen. Diese Initiative ist besonders bedeutsam, da die Erklärbarkeit von KI-Systemen in entscheidungskritischen Bereichen, wie der psychischen Gesundheit, spielt eine zentrale Rolle. Die Gruppe zielt darauf ab, übermäßige Abhängigkeit von KI zu vermeiden und diese Systeme in einer Weise zu gestalten, die Vertrauen und Nutzen fördert.

Die Forschungsgruppe beabsichtigt, nützliche und vertrauenswürdige Erklärungen für KI-Entscheidungen zu gestalten. Dieser Prozess wird durch die aktive Einbeziehung der Nutzer*innen in das Design vorangetrieben, wobei umfangreiche Evaluierungen stattfinden. Langfristig ist die Entwicklung interaktiver Entscheidungssysteme für reale Problembereiche das Hauptanliegen. Hierzu werden auch groß angelegte Online-Studien durchgeführt, um herauszufinden, welche Erklärungen für KI-gestützte Systeme als nützlich erachtet werden.

Zusammenarbeit und Interdisziplinarität

Die Forschungsgruppe arbeitet eng mit Professorin Dr. Hanna Drimallas Team zusammen, um die Interaktion zwischen Menschen und KI-Erklärungen näher zu betrachten. Ziel dieser Kooperation ist es, die Entscheidungsfindung durch geeignete Gestaltung von Erklärungen weiter zu optimieren. Ein zentraler Aspekt der Forschung liegt darin, eine Wissensbasis zu schaffen, die geeignete Erklärungen fördert und das Vertrauen der Nutzer*innen in KI-Systeme stärkt.

Zusätzlich wird ein Bewertungsframework entwickelt, das dazu dient, Entscheidungssituationen mit hohen Einsätzen zu simulieren. Die Einbeziehung echter Expert*innen und ein iterativer, menschenzentrierter Designansatz sind dabei von höchster Bedeutung. Ein Sonderforschungsbereich/Transregio 318 mit dem Titel „Constructing Explainability“ untersucht zudem, wie Nutzer*innen aktiv in den Erklärprozess eingebunden werden können, um verständliche Erklärprozesse und Assistenzsysteme zu schaffen.

Die europäische KI-Strategie

Im Kontext dieser Entwicklungen verfolgt die europäische KI-Strategie das Ziel, die EU zu einem globalen Drehkreuz für KI zu machen. Dabei ist es von wesentlicher Bedeutung, dass KI menschzentriert und vertrauenswürdig entwickelt wird. Wichtige Begriffe in diesem Kontext sind „erklärbare“, „verantwortungsvolle“ und „vertrauenswürdige“ Künstliche Intelligenz. Diese Konzepte sind nicht nur für die technische Entwicklung von Bedeutung, sondern auch für die Schaffung von Vertrauen in KI-Anwendungen.

Erklärbare KI, wie sie auch in Bielefeld erforscht wird, sucht Methoden, um die oft als „Black Box“ bezeichneten maschinellen Lernmethoden zu durchdringen. Eine transparente Darstellung der verwendeten Daten und der statistischen Modelle ist entscheidend, um Vertrauen zu fördern und regulatorische Standards einzuhalten. Die Ansätze der erklärbaren KI sind vielfältig. Dazu gehören Modellinterpretationen, die Analyse wichtiger Eingangsvariablen und die Generierung lokaler Erklärungen für individuelle Entscheidungen.

Ein Ziel dieser Ansätze ist es, ethische Entscheidungen zu fördern und Diskriminierung zu vermeiden. Die Implementierung erklärbarer KI kann dazu beitragen, dass Nutzer*innen informierte Entscheidungen treffen können, was insbesondere in kritischen Bereichen wie Medizin oder Finanzen unerlässlich ist. Die Herausforderungen bei der Umsetzung sind jedoch nicht zu unterschätzen, denn es gilt, die Balance zwischen Leistungsfähigkeit der Modelle und deren Erklärbarkeit zu finden.

Insgesamt stellt die Zusammenarbeit der Universität Bielefeld mit anderen Institutionen einen wichtigen Schritt in Richtung einer verantwortungsvollen, vertrauenswürdigen und erklärbaren Künstlichen Intelligenz dar. Die Elmobetung gegen eine übermäßige Abhängigkeit und die Förderung eines verständlichen Erklärungsprozesses werden entscheidend sein, um das volle Potenzial von KI-Technologien auszuschöpfen und einen verantwortungsvollen Umgang mit ihnen zu gewährleisten.

Statistische Auswertung

Genauer Ort bekannt?
Bielefeld, Deutschland
Beste Referenz
aktuell.uni-bielefeld.de
Weitere Infos
cyberforum.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert