Studie: Künstlich Intelligente Software soll Straftaten mit 90 Prozent Genauigkeit vorhersehen können

In Zukunft könnte für Ermittler der Kampf gegen das Verbrechen ein deutlich leichteres Spiel werden. Eine neue künstlich intelligenter Software soll einer Studie zufolge Straftaten mit einer Genauigkeit von 90 Prozent vorhersehen können.

Police units arrive at the scene of an incident.
Symbolbild: Getty Images

Der Kampf gegen das Verbrechen folgt einer scheinbar unerschütterlichen Logik: Erst kommt die Straftat, dann folgt die Ermittlung, die im Idealfall mit der Überführung und Bestrafung des Kriminellen endet. Künftig aber könnten Ermittlung und Aufklärung eines Verbrechens – um es pointiert auszudrücken – dem Verbrechen vorausgehen. Möglich machen sollen das künstlich intelligente Programme.

Ohne die Vergangenheit, das heißt: ohne vorausgegangene Verbrechen kann aber auch der leistungsstärkste Algorithmus, die künstlich intelligenteste Software nicht viel ausrichten. Anders als in der Science-Fiction-Dystopie "Minority Report", in der mit Hellseherfähigkeiten begabte Medien ein noch nicht stattgefundenes Verbrechen voraussehen, arbeiten die digitalen Ermittler im wahren Leben auf Grundlage von Daten und Fakten.

Künstlich intelligente Ermittler

Wie diese Art von Verbrechensbekämpfung funktioniert und wie effektiv sie ist, zeigt eine Studie der University of Chicago. Die Forscher benutzten eine KI-Software, die Straftaten aus den Jahren 2014 und 2016 in Chicago analysierte und daraus die Wahrscheinlichkeit für künftige Verbrechen in der Stadt berechnete. Voraussehen konnte das Programm bestimmte Straftattypen in einem bestimmten Ort eine Woche im Voraus mit einer Genauigkeit von 90 Prozent.

Hellseherische Fähigkeiten im Sinne von "Minority Report" hat das künstlich intelligente Programm also nicht. Die Software kann weder ein Verbrechen voraussehen noch erkennen, wer wo wann eine Straftat begehen wird. Das System könne nicht zaubern, sagt Ishanu Chattopadhyay, Wissenschaftsmitarbeiter an der University of Chicago und Co-Autor der Studie, dem Magazin "Science Daily". Vielmehr erkennt es auf Grundlage von Daten bestimmte Muster, aus der es Schlüsse zieht. "Wenn man es mit Daten aus der Vergangenheit füttert, kann es sagen, was in der Zukunft passieren wird", so Chattopadhyay.

Damit kann der digitale Ermittler hilfreicher Partner sein für seine menschliche Partner. Die Studienergebnisse machten es möglich, sagt James Evans, Forscher an der University of Chicago, "neue Fragen zu stellen" und die "Maßnahmen der Polizei auf neue Weise zu bewerten". Mit anderen Worten: Weiß die Polizei, welche Art von Verbrechen in einer bestimmten Gegend etwa einer Stadt innerhalb eines bestimmten Zeitraums passieren könnten, wäre sie imstande, entsprechend zu handeln.

Schwachpunkt des Systems

Das System funktioniere "ziemlich gut", sagt Chattopadhyay, mindestens einen Schwachpunkt hat es aber doch. Es ist abhängig – wie gesagt – von Daten, die wiederum auf menschlichem Handeln basieren. Da Menschen aber Fehler machen, muss folglich auch die Software fehlerhaft sein. Zumindest arbeitet sie auf fragwürdiger Grundlage. Was zum Beispiel, wenn in den Datenpool auch die Arbeit von Polizisten aufgenommen ist, die eine problematische Weltsicht haben, etwa rassistisch oder sexistisch eingestellt sind? In dem Fall würde die Software, wie Lawrence Sherman vom Cambridge Centre for Evidence-Based Policing dem Magazin "New Scientist" sagt, "absichtliche Diskriminierung durch die Polizei in bestimmten Gegenden widerspiegeln".

VIDEO: Bus macht sich selbstständig – Polizist wird zum Helden