Vertrauenswürdige KI für polizeiliche Textauswertung
30 März 2022
Im Rahmen des bundesweiten Verbundprojekts VIKING ist ein Teilvorhaben unter Koordination des Forschungsinstituts CODE der Universität der Bundeswehr München gestartet. Das Projekt beschäftigt sich mit der Erforschung von vertrauenswürdigen KI-Methoden zur Klassifikation von Texten bei der Polizeiarbeit. Im Ergebnis soll unter anderem ein Demonstrator entstehen, den die beteiligten polizeilichen Projektpartner nutzen können.
Ob Hate Speech, Drohbriefe oder Wirtschaftskriminalität: In der Polizeiarbeit spielen Texte oft eine wichtige Rolle und sind die Grundlage dafür, dass Straftaten zur Anzeige gebracht werden können. Bei der Analyse kommt schon heute Künstliche Intelligenz (KI) zum Einsatz, die Texte auf bestimmte Muster hin untersucht und klassifiziert. Das am FI CODE koordinierte Teilvorhaben mit dem Titel „Erklärbarkeit vertrauenswürdiger KI-Sprachmodelle für den transparenten Gebrauch bei Sicherheitsbehörden zur Textklassifikation“ widmet sich im Rahmen des Verbundprojekts VIKING der Erforschung vertrauenswürdiger KI-Methoden zur Textklassifikation. Das Arbeitspaket „Textauswertung“ wird gemeinsam mit der Zentralen Stelle für Informationstechnik im Sicherheitsbereich (ZITiS) durchgeführt.
Nachvollziehbare KI für mehr Transparenz
Innerhalb des Teilprojekts wollen die Wissenschaftlerinnen und Wissenschaftler vor allem Lösungen erforschen und implementieren, die helfen, mehr Nachvollziehbarkeit (Erklärbarkeit) bei der KI-basierten Textauswertung durch die Polizei zu schaffen. Zum Einsatz können dabei automatisierte Markierungen relevanter Textbausteine, wie Personen, Zeitpunkte, Orte und Gegenstände kommen. Auch lässt sich visualisieren, wie stark spezifische Wörter die Entscheidungen eines Modells beeinflussen. Neben der Erklärung von Modellen und Algorithmen können so auch erläuternde Kommentare zu einer Auswertung erstellt werden, die etwa bei Ermittlungen zu Volksverhetzung Anwendung finden.
Das wissenschaftliche Hauptziel des Teilvorhabens besteht darin, nachvollziehbare Erläuterungen bereitzustellen, sobald die Ergebnisse von Klassifikationen vorliegen – und so für die Anwenderinnen und Anwender mehr Transparenz zu schaffen.
Ein Etappenziel ist die Erzeugung geeigneter Benchmark-Datensätze, auf denen die KI-Modelle zur Textauswertung trainiert werden können. Zudem sollen geeignete Methoden zur Vermeidung von Fehlern aufgrund von Datenverzerrungen in Bezug auf die verwendeten Textdaten untersucht werden, um später keine fehlerhaften Entscheidungen zu liefern.
„Unausgewogene Trainingsdatensätze, in denen beispielsweise demographische Häufigkeiten verzerrt abgebildet sind, können zu fehlerhaften Ergebnissen von KI-Lösungen führen. Ein weiteres Risiko besteht in der fehlenden Nachvollziehbarkeit und mangelnden Transparenz der Ergebnisse komplexer KI. Dem wollen wir im Rahmen von VIKING entgegenwirken“, so berichtet Prof. Michaela Geierhos.
Forschung unterstützt die Polizeiarbeit
Die Ergebnisse des am FI CODE durchgeführten Teilvorhabens sollen polizeilichen Anwendern (u. a. dem Polizeipräsidium München, den Landeskriminalämtern Baden-Württemberg und Nordrhein-Westfalen sowie dem Bundeskriminalamt) in Form eines gemeinsamen Demonstrators mit nachvollziehbaren, robusten Textklassifikationsmodellen zur Verfügung gestellt werden. Ergänzend wird das Teilvorhaben Leitlinien für die Anwendung von KI in Sicherheitsbehörden erstellen, die einen wichtigen Beitrag für den im Rahmen von VIKING entwickelten Katalog zur Einhaltung ethischer und rechtlicher Anforderungen für KI-Verfahren darstellen.
Das Gesamtvorhaben VIKING (Vertrauenswürdige Künstliche Intelligenz für polizeiliche Anwendungen) bewegt sich im Themenfeld „Schutz vor Kriminalität und Terrorismus“ und schafft die Grundlage einer effektiven und effizienten Unterstützung für Ermittlerinnen und Ermittler. Beteiligt sind insgesamt zehn Verbund- sowie drei assoziierte Partner. Neben den bereits namentlich erwähnten polizeilichen Anwendern und der ZITiS arbeiten das Bundesamt für Sicherheit in der Informationstechnik, das Deutsche Institut für Normung e.V., das Fraunhofer Institut für digitale Medientechnologie, die Hochschule für Wirtschaft und Recht Berlin, die IDEMIA Identity & Security Germany AG, die Universitäten Konstanz und Tübingen gemeinsam mit der Universität der Bundeswehr München an VIKING. Grundlage für VIKING ist eine Bekanntmachung des Bundesministeriums für Bildung und Forschung vom Mai 2021 im Rahmen des Programms „Forschung für die zivile Sicherheit 2018 – 2023“ zum Themenfeld „Künstliche Intelligenz in der zivilen Sicherheitsforschung“.
Mehr Informationen zum Projekt finden Sie auf der Website des Bundesministeriums für Bildung und Forschung >
Weitere Informationen zur Professur für Data Science finden Sie auf der Website der Professur >
Informationen zum Forschungsinstitut CODE auf der Website des Forschungsinstituts >
Das Vorhaben wurde mit Mitteln des Bundesministeriums für Bildung und Forschung im Rahmen der Bekanntmachung „Künstliche Intelligenz in der zentralen Sicherheitsforschung II“ unter dem Förderkennzeichen 13N16244 gefördert.
Titelbild: © gettyimages/scyther5