
Im Rahmen des neuen Forschungsschwerpunkts „Vertrauen und KI“ wurden zwei bedeutende Projekte gefördert, die sich mit der Rolle von Künstlicher Intelligenz in autoritären Regimen befassen. Insgesamt zehn Vorhaben wurden in einem kompetitiven Verfahren ausgewählt, das die exzellente Qualität, Aktualität und Relevanz der Forschungsanträge berücksichtigte. Unter den ausgezeichneten Projekten befindet sich eines an der Universität Passau mit dem Titel: „Autoritäre KI: Wie große Sprachmodelle (LLMs) an Russlands Propaganda angepasst werden“. Projektleiter sind Prof. Dr. Florian Toepfl und Prof. Dr. Florian Lemmerich von der Universität Passau, sowie Prof. Dr. Andreas Jungherr von der Universität Bamberg, wie digital.uni-passau.de berichtet.
Das Projekt hat zum Ziel, zu untersuchen, wie große Sprachmodelle in Russland entwickelt werden, insbesondere unter den Bedingungen strenger Aufsicht und Zensur. Ein zentraler Aspekt der Forschung ist die Analyse der Auswirkungen dieser autoritären Daten auf demokratische LLM-gestützte Systeme. Solche Studien sind entscheidend, um die potenziellen Gefahren und Einflüsse von autoritärer Datenverarbeitung auf das globale Informationsumfeld zu verstehen.
Forschung zu Künstlicher Intelligenz und ihre Bedeutung
Künstliche Intelligenz wird mittlerweile als Schlüsseltechnologie angesehen, die ein enormes Potenzial in verschiedenen Bereichen bietet. Aktuelle Anwendungen reichen von der Krebsfrüherkennung in der Medizin bis zur Fachkräfte-Rekrutierung. Dennoch besteht ein dringender Bedarf an klaren Regeln und Normen, um die Sicherheit und Transparenz von KI-Systemen zu gewährleisten. Hierzu trägt das internationale Normungsprojekt ISO/IEC AWI 42102 bei, das eine einheitliche Klassifizierung von KI-Systemen zum Ziel hat, wie din.de ausführt.
Das Vorgängerprojekt hat mit einer Normungsroadmap für KI den ersten strategischen Fahrplan unter deutscher Leitung geschaffen. Die Normungsroadmap hat das Ziel, konkrete Vorgaben zur Sicherheit und Transparenz von KI-Systemen zu entwickeln. Die zweite Ausgabe dieser Roadmap enthält bereits strategische Handlungsempfehlungen, jedoch bedarf es noch etwa 2,5 Jahre bis zur vierten Veröffentlichung der Norm.
Einheitliche Klassifizierung als Schlüssel zur Akzeptanz
Die Uneinigkeit über die Definition von KI-Systemen besteht sowohl in Expertenkreisen als auch in der breiten Öffentlichkeit. Eine einheitliche Klassifizierung soll dazu beitragen, Vertrauen in KI-Systeme aufzubauen und deren gesellschaftliche Akzeptanz zu erhöhen. Informationen über KI-Systeme sollen in Zukunft so leicht einsehbar sein wie Nährwertangaben auf Lebensmitteln. Die AI=MC2-Taxonomie klassifiziert KI-Systeme nach drei Dimensionen: Methoden, Fähigkeiten und Kritikalität.
- Methoden: Funktionen der KI
- Fähigkeiten: Umsetzung der Methoden
- Kritikalität: potenzielle Gefahren der Systeme
Diese Klassifizierung richtet sich an verschiedenste Akteure, darunter Hersteller von KI-Systemen, Unternehmen, Wissenschaftler und den öffentlichen Dienst. Der Fokus liegt darauf, sicherzustellen, dass klare Vorgaben die Sicherheit und Transparenz der Systeme erhöhen. Weitere Informationen zu diesen bedeutenden Entwicklungen finden Sie auf den Seiten von bidt.digital.