KI - Gesetz
RA und Analyst Dr. Uwe Ewald

KI – Künstliche Intelligenz – Systeme

Algorithmen, die nach dem KI-Gesetz (Entwurf) als „KI-Systeme“ bezeichnet werden, lassen sich bereits heute in vielen der gängigen IT-forensischen Software-Anwendungen wiederfinden. Es geht danach um angewandte Konzepte maschinellen Lernens, logik- und wissensgestützte Konzepte, sowie statistische Ansätze, Bayessche Schätz-, Such- und Optimierungsmethoden.

Die vom KI-Gesetz (Entwurf) vorgeschlagenen Auflagen zur möglichen Beherrschung der Risiken stellen im Rahmen der Beweisaufnahme zu überprüfende Merkmale der Zuverlässigkeit der mit künstlicher Intelligenz erzeugten digitalen Beweise dar.

KI – Risiko – Pyramide

In der EU-Perspektive einer „menschenzentrierten Digitalisierung“ werden entlang eines „risikobasierten Ansatzes“ KI-Systeme  als

  • „schädlich“ (verbotene Praktiken, inakzeptables Risiko),
  • Hochrisiko-(erlaubte Praktiken, hohes Risiko) und
  • Niederrisiko-(erlaubte Praktiken, Transparenz, begrenztes oder minimales Risiko)

kategorisiert (siehe Tambiama Madiega, Briefing EU Legislation in Progress, Artificial intelligence act, January 2022) mit jeweils korrespondierenden Auflagen und Verpflichtungen, die eine Beherrschung der antizipierten Risiken ermöglichen sollen.

Im Rahmen der Strafverfolgung bezieht sich dabei das „Risiko“ von künstlicher Intelligenz auf eine Verletzung von Grundrechten, zu deren Vermeidung verschiedene Maßnahmen zu treffen sind. „Durch ihre besonderen Merkmale (z. B. Undurchsichtigkeit, Komplexität, Datenabhängigkeit, autonomes Verhalten) kann die Verwendung von künstlicher Intelligenz dazu führen, dass einige der in der EU-Grundrechtecharta … verankerten Grundrechte verletzt werden.“ (aus der Begründung des KI-Gesetzes)

Kriterien der Vertrauenswürdigkeit und Beweiswert

Mit dem KI-Gesetz (Entwurf) werden, Kriterien für die Vertrauenswürdigkeit von künstlicher Intelligenz eingeführt, die Strafjuristen als Checkliste oder Prüffragen im Rahmen der Beweisaufnahme zur Einschätzung der Zuverlässigkeit der mithilfe der künstlichen Intelligenz erzeugten digitalen Beweise dienen können.

Projiziert auf die Beweiswürdigung von mit künstlicher Intelligenz erzeugten digitalen Beweisen ergeben sich aus den Auflagen und Verpflichtungen für die Produzenten und Anwender von KI-basierten forensischen Software-Tools Kriterien für eine konkrete, fallbezogene Überprüfung, die im Ergebnis eine Einschätzung der Zuverlässigkeit der Beweismittel, ggf. deren Zulässigkeit, sowie einer sich daraus ergebenden Abstufung oder auch Abwertung des jeweiligen Beweiswertes solcher KI-basierten digitalen Beweismittel ermöglicht.

So können systematisch etwaige Schwachstellen beim Einsatz künstlicher Intelligenz in der digitalen Ermittlungsarbeit aufgedeckt werden und gegebenenfalls externe Gutachten zur Überprüfung beantragt werden.

Praktisch dürfte das z.B. derzeit bereits im Bereich der KI-gestützten Massendaten-Auswertung, automatisierter Image-Erkennung (z.B. Kinderpornografie), Aufdeckung von Deepfakes, Bewertung der Verlässlichkeit von Beweismitteln, Erstellung von Persönlichkeitsprofilen oder Mustererkennung aus diversen heterogenen Datenbanken der Fall sein.