Article Details
AI in law enforcement: "Do you know more? Then talk now"
Published on October 4, 2025
Dieser Artikel ist Teil von ZEIT am Wochenende, Ausgabe 40/2025.
Das Gesicht der jungen Frau auf dem Bildschirm wirkt glatt, irgendwie leblos. Doch dann bewegt es sich, die Frau fängt an zu sprechen: "Ich bin Lisa. Ich werde seit dem 1. Oktober vermisst. Zuletzt wurde ich am Bahnhof gesehen, ich trug eine schwarze Jeansjacke." Die Verschwundene berichtet mit eigenen Worten von ihrem Schicksal. Sie beantwortet sogar Fragen dazu. Und ja, es ist gespenstisch, vor allem aber viel berührender als ein Foto der Vermissten plus einer nüchternen Polizeimeldung. Ein Beamter des Bundeskriminalamtes hat diesen sogenannten Avatar der jungen Frau am Rechner erschaffen. Alles, was er benötigt, um einen beliebigen Menschen zum Leben zu erwecken, sind ein Foto und einige Beispiele der Stimme, etwa aus früheren WhatsApp-Nachrichten oder Instagram-Posts. Künstliche Intelligenz (KI) erzeugt den Avatar und rechnet den Text in diverse Sprachen um. Die junge Frau spricht mit ihrer eigenen Stimme lippensynchron auch auf Chinesisch, obwohl das Opfer diese Sprache nie beherrschte.
Lisa ist ein KI-Experiment des Bundeskriminalamtes. Es ist ein erster, vorsichtiger Schritt der Behörde in die Zukunft der Polizeiarbeit. Diese Zukunft wird in einem weißen Hochhauskomplex am Ostrand von Wiesbaden geplant, intern W9 genannt. Außen gibt es Stacheldraht und bewachte Tore, innen grauen Teppich und nüchterne Büros mit Menschen, die auf Bildschirme schauen. Die Hoffnungen, die auf KI liegen, sind gigantisch, die Ängste sind es auch. Das Beispiel der künstlich erschaffenen Lisa ist angesichts dessen eher lapidar. Doch es zeigt, wie die neue Technik Polizeiarbeit verändern könnte.
Das Verfahren wurde zum ersten Mal in den Niederlanden ausprobiert. Der 13-jährige Sedar Soares war 2003 in Rotterdam auf einem Parkplatz erschossen worden, wohl weil er ins Kreuzfeuer rivalisierender Banden geraten war. Die Suche nach Täter und Motiv blieb lange ohne Ergebnis. Ein mutmaßlicher Schütze wurde erst verurteilt, später jedoch aus Mangel an Beweisen wieder freigesprochen. Schließlich entschied sich die Polizei, 19 Jahre nach dessen Tod, Sedar in einem Video wieder zum Leben zu erwecken, um Zeugen zum Reden zu bringen. Seine Schwester erzählt darin die Geschichte seines Todes, sagt, irgendjemand müsse doch wissen, wer ihren geliebten Bruder ermordet habe. Sedar selbst läuft währenddessen durch ein Spalier von Freunden, Familie, Klassenkameraden. Am Ende des Videos spricht auch er und sagt auf Niederländisch: "Weißt du mehr? Dann sprich jetzt."
Anzeige Sehen wir uns im Club? »Das Politikteil« trifft auf den Wochenendpodcast, der »Ostcast« trifft »OK. America?«: Bei unserem interaktiven Clubabend lernen Sie die Hosts Ihrer Lieblingspodcasts neu kennen. Jetzt Tickets kaufen
Das Video gilt als Erfolg, es seien zahlreiche Hinweise eingegangen, erklärte die niederländische Polizei. Zeugen fühlen sich durch eine lebendig wirkende Person emotional viel stärker angesprochen als durch Fotos, so die Hoffnung dahinter. Menschen fällt es leichter, sich an jemanden zu erinnern, wenn er ihnen so entgegentritt, wie sie ihn erlebt haben.
Die niederländische Polizei musste dafür noch einen Schauspieler engagieren, auf dessen Körper die Gestalt und das Gesicht von Sedar am Computer projiziert wurden. Dank KI ist das heute nicht mehr nötig. Um die Demonstration der vermissten Lisa zu erstellen, brauchte der Techniker des BKA nicht einmal eine Viertelstunde. "Wir benötigen dafür wirklich nicht sehr lange", sagt Lucas Freund.
Freund, blauer Dreiteiler, BKA-Logo am Revers, leitet das KI-Labor und ist Teil des Programms, das im BKA alle Forschung und Entwicklung an und mit künstlicher Intelligenz verantwortet. Zu einem nicht unerheblichen Teil bedeutet das, sich mit Gesetzen und Fragen zu beschäftigen wie: Was darf das BKA überhaupt, ohne gegen Datenschutz-Grundverordnung, BKA-Gesetz und EU-KI-Verordnung zu verstoßen? Und was ist ethisch vertretbar? Avatare wie der von Lisa beispielsweise könnten nur in Absprache mit den Angehörigen genutzt werden. Aber noch ist die rechtliche Prüfung dieses Experimentes nicht abgeschlossen. Schließlich handelt es sich dabei um sogenannte Deepfakes, also um schwer als Fälschung erkennbare Bilder von realen Personen, die im Netz derzeit für Propaganda und andere zerstörerische Zwecke eingesetzt werden. "Es ist immer einfacher, eine neue Technologie destruktiv einzusetzen, als sie konstruktiv zu nutzen", sagt Freund. Für das Konstruktive brauche es Normen. "Wie im Straßenverkehr."
© Lea Dohle Newsletter Neu: Nur eine Frage In diesem Newsletter weisen wir auf neue "Nur eine Frage"-Podcast-Folgen hin. Zudem erhalten Sie ergänzendes Material zu den Gesprächen – wie Videos oder Texte. Registrieren Mit Ihrer Registrierung nehmen Sie die Datenschutzerklärung zur Kenntnis. Vielen Dank! Wir haben Ihnen eine E-Mail geschickt. Prüfen Sie Ihr Postfach und bestätigen Sie das Newsletter-Abonnement. Diese E-Mail-Adresse ist bereits registriert. Bitte geben Sie auf der folgenden Seite Ihr Passwort ein.
Falls Sie nicht weitergeleitet werden, klicken Sie bitte hier .
Matthias Brunnbauer, groß, schlank, mit Promotion über die Anwendungsmöglichkeiten von KI, leitet das KI-Programm. Er sagt: "KI trifft bei uns keine autonomen Entscheidungen." Die KI darf helfen, aber es entscheide immer ein Mensch. "Im Mittelpunkt steht der Ermittler." Dazu komme, dass Produkte wie ChatGPT, die Zugang zum Internet hätten, nie "im Ermittlungskontext" eingesetzt werden dürfen, sagt er. Was bedeutet, dass ein Beamter nicht mal eben eine Information aus einer Ermittlungsakte in eine solche KI eingeben kann, da Ermittlungsergebnisse geheim sind. Die Betreiber der KI-Systeme speichern jedes eingegebene Wort und werten sämtliche Daten aus. Es ist nicht das einzige Problem: Mit welchen Daten und wie genau die KI trainiert wurde, verraten die Hersteller niemandem, auch nicht der Polizei. Daher ist es nur schwer bis gar nicht nachvollziehbar, warum eine KI bestimmte Schlüsse zieht, wie sie zu ihren Ergebnissen kommt.