Künstliche Intelligenz
RA und Analyst Dr. Uwe Ewald

Künstliche Intelligenz – Digitale Mustererkennung als Ermittlungsansatz

Künstliche Intelligenz:  Wenn es als Massenphänomen auftritt, lassen sich in menschlichem Verhalten Regelmäßigkeiten im Auftauchen von Handlungsmerkmalen als Muster statistisch feststellen. Und so unterscheiden sich – auf das Massenverhalten bezogen – „rechtskonforme Muster“ von „abweichenden Mustern“. Die Merkmale des Einzelfalls werden mit diesen „Mustern“ verglichen und mit einer gewissen Wahrscheinlichkeit zugeordnet. Damit ergeben sich aus dem Einsatz Künstlicher Intelligenz (KI), welche die statistischen Wahrscheinlichkeiten, mit denen bestimmte Merkmale eines Musters auftreten in Algorithmen umsetzt, effektive Möglichkeiten, potenziell kriminelle Verhaltensmuster zu erkennen und den Kreis tatsächlicher Täter einzugrenzen.

Gleichwohl basiert die Zuordnung des Einzelfalls lediglich auf der Einschätzung einer Wahrscheinlichkeit anhand von Merkmalsclustern und nicht dem Nachweis eines kausalen oder funktionalen Zusammenhanges des konkreten Verhaltens mit einer (strafbaren) Folge. In dieser Unterscheidung von Musterzugehörigkeit nach einem wahrscheinlichen Zusammenhang UND der tatsächlichen Erfüllung der Merkmale krimineller Handlungen liegt das kritische Moment für den Nachweis einer tatsächlich kriminellen Tat. Mit anderen Worten: Allein aus der Zugehörigkeit zu einem Muster kriminellem Verhaltens lässt sich im allgemeinen noch nicht mit hinreichender Sicherheit schließen, ob ein solches Verhalten tatsächlich vorliegt.

Es tritt regelmäßig der Fall ein, dass zwar ein Einzelvorgang den Merkmalen eines Musters entspricht, aber bei qualitativer, detaillierter Betrachtung nicht zu der mit dem Muster definierten Gruppe gehört: ein „false positive“. Dem gegenüber kann ein Fall, der in der Sache zu einer Gruppe gehört, nicht von dem Wahrscheinlichkeitsmuster erfasst werden: dann läge ein „false negative“ vor.

Beispiel: „KI-basierte Betrugserkennung“

In einer Studie, dem „Anti-Fraud Technology Benchmarking Reports“,  wird darauf verwiesen, das der Einsatz von KI zur Betrugserkennung besonders in der Finanzindustrie bis 2021 verdreifachen wird. KI und Machine Learning sollen so helfen, systematische Betrugsmuster aufzudecken. Unter anderem kommt es in diesem Zusammenhang zum Einsatz von Biometrics, automatisiertem Monitoring, Exception Reporting und Anomalieerkennung. Unterstützt durch sog. Predictive Analytics sollen anhand von Scores Wahrscheinlichkeitsbereiche für das Vorliegen krimineller Betrugshandlungen bestimmt werden.

Wenngleich dieser Technologie im Bereich der Gefahrenabwehr ein gewisses Potenzial nicht abgesprochen werden kann, da sie in der Lage ist, in großen Datenmengen (Big Data) potenziell relevante Handlungen als Betrugsfälle aufzuspüren, steht sie als Mittel der Strafverfolgung durchaus in ernster Kritik. Der Dokumentarfilm „Pre-Crime“ zeigt die Risiken für den Rechtsstaat und den Verlust der Unschuldsvermutung des Einzelnen, wenn computer-gestützte Gefährlichkeitseinschätzungen und predictive policing zum Zentrum einer Strafverfolgung und zur Grundlage für den Ausspruch von Sanktionen gemacht werden.

Herausforderung für Cyber-Strafverteidigung

Cyber-Strafverteidigung wird in Fällen, in denen KI-basierte Mustererkennung von vermeintlich kriminellen Handlungsmustern, wie bei systematisch angelegten Betrugshandlungen, den Ausgangspunkt der Begründung eines Anklagevorwurfs bildet darauf achten müssen zu erkennen, ob der Algorithmus, der der Erkennung des ‚kriminellen Musters‘ zugrunde liegt, tatsächlich handlungserklärend für die vorgeworfene Straftat im Einzelfall ist.

In der Praxis der Strafgerichte ist nicht zu übersehen, dass eine gewisse ‚Distanz‘ der Gerichte zur Präsentation digitaler Beweismittel und deren Überprüfung besteht und ein leichtfertiges Vertrauen auf von den polizeilichen Ermittlungspersonen im Cyber-Bereich vorgetragenen Beweisergebnissen bestehen kann, da ein tieferes technisches Verständnis zum Zustandekommen der digitalen Beweismittel und zu Methoden der Überprüfung ihrer Zuverlässigkeit – jedenfalls zur Zeit – bei den meisten Richterinnen und Richtern nicht durchgehend unterstellt werden kann. Dies ist insbesondere dann der Fall, wenn komplexere informationstechnologische Verfahren, wie KI, zum Einsatz gekommen sind. Die entsprechenden Beweisvorträge der Anklage erscheinen daher oft per se plausibel, und es wird ihnen weitgehend unkritisch gefolgt.

Diese Situation ist für die Fälle der „false positives“, also für Beschuldigte, die auf der Grundlage von predicitve analytics und KI-basierten Methoden der Identifizierung potenzieller Täter in den Blick der Anklagebehörde gelangt sind, fatal. Eine Gegendarstellung und damit Widerlegung der Anklagetheorie kann häufig nur gelingen, wenn die Schwächen der KI-Analyse aufgezeigt und damit hinreichende Zweifel an der Schuldkonstruktion der Staatsanwaltschaft begründet werden können. Eine kritische und ins (auch technische) Detail gehende Überprüfung der polizeilichen digitalen Ermittlungsarbeit kann nur durch eine erfahrene Cyber-Strafverteidigung erfolgen.