Lange bevor ein Angeklagter einen Gerichtssaal betritt oder eine Fallakte überhaupt geöffnet wird, könnte eine unsichtbare digitale Hand die Beweise bereits sortiert, analysiert und markiert haben. In den stillen Korridoren des Justizsystems sind es zunehmend Algorithmen, die die schwere Arbeit verrichten. Doch jahrelang operierten diese Systeme innerhalb einer „Blackbox“ – einem Raum, in dem der Code undurchsichtig blieb und Entscheidungen ohne eine klare Spur der Rechenschaftspflicht getroffen wurden.
Diese Ära der unkontrollierten Automatisierung geht in Westeuropa zu Ende. Unmittelbar nach der Umsetzung des EU-KI-Gesetzes (EU AI Act) hat die portugiesische Staatsanwaltschaft (Ministério Público) einen entscheidenden Schritt unternommen, um den Vorhang zu lüften. Durch die Verabschiedung einer umfassenden Charta für die ethische Nutzung künstlicher Intelligenz sowie einer Richtlinie für technische Audits und Monitoring signalisiert die Behörde, dass KI zwar ein mächtiges Werkzeug sein mag, aber niemals diejenige sein wird, die den Richterhammer führt.
In einem regulatorischen Kontext ist der Schritt der portugiesischen Staatsanwaltschaft nicht nur eine bürokratische Aktualisierung; es ist eine grundlegende Neuausrichtung der Art und Weise, wie Technologie mit dem Recht interagiert. Die neu verabschiedete Charta gilt für alle innerhalb des Dienstes verwendeten KI-Systeme, legt jedoch einen starken Schwerpunkt auf das, was das EU-KI-Gesetz als Hochrisikosysteme definiert.
Hochrisiko-KI bezieht sich auf Software, die erhebliche Auswirkungen auf das Leben eines Einzelnen hat, wie etwa Systeme, die bei der Personalrekrutierung, der Kreditwürdigkeitsprüfung oder in diesem Fall bei der Strafverfolgung und der Justiz eingesetzt werden. Da diese Werkzeuge beeinflussen können, ob gegen jemanden ermittelt wird oder wie Beweise priorisiert werden, ist die Fehlertoleranz gleich null.
Im Wesentlichen fungiert die Charta als ein Satz von Leitplanken auf einer Bergstraße. Sie erlaubt es dem Fahrzeug – der KI –, sich schnell zu bewegen, verhindert aber, dass es über die Klippe von Voreingenommenheit oder Rechtswidrigkeit stürzt. Indem Portugal diese Regeln frühzeitig festlegt, versucht es, das „Blackbox“-Problem zu verhindern, bei dem selbst die Entwickler nicht erklären können, warum ein Algorithmus zu einem bestimmten Ergebnis gekommen ist.
Im Mittelpunkt der Charta stehen sechs Kernprinzipien, die jedes KI-System erfüllen muss, bevor es eine Fallakte berühren darf.
Aus Sicht der Compliance dienen diese Prinzipien den Staatsanwälten als Kompass. Sie stellen sicher, dass die Technologie ein untergeordneter Partner bleibt und kein autonomer Entscheidungsträger wird.
Interessanterweise befasst sich einer der bedeutendsten Teile der Charta nicht damit, was KI tun kann, sondern was ihr strikt untersagt ist. Die Staatsanwaltschaft hat eine klare Grenze gezogen: KI kann das menschliche Urteilsvermögen nicht ersetzen, und prädiktive Bewertungen sind verboten.
In einigen Rechtsordnungen wurden Instrumente des „Predictive Policing“ oder der „prädiktiven Strafzumessung“ eingesetzt, um die Wahrscheinlichkeit zu schätzen, dass eine Person in Zukunft eine Straftat begeht. Portugal hat diesen Weg abgelehnt. Unter diesem Rahmenwerk kann ein Algorithmus nicht verwendet werden, um den „Risikowert“ eines Angeklagten zu bestimmen oder ein spezifisches Strafmaß auf der Grundlage historischer Daten vorzuschlagen.
Dies ist ein entscheidender Sieg für digitale Rechte. Es erkennt an, dass Algorithmen von Natur aus rückwärtsgewandt sind – sie lernen aus der Vergangenheit, einschließlich vergangener Vorurteile. Ihnen zu erlauben, die Zukunft innerhalb des Justizsystems vorherzusagen, wäre so, als würde man einen Rückspiegel benutzen, um ein Auto durch eine belebte Kreuzung zu steuern. Es ist von Natur aus gefährlich und in einem regulatorischen Kontext rechtlich prekär.
Während die Charta das „Was“ vorgibt, liefert die Richtlinie für technische Audits und Monitoring das „Wie“. In der Praxis verabschieden viele Organisationen ethische Richtlinien und lassen sie dann im Regal verstauben. Portugal vermeidet diese Falle durch die Schaffung eines multidisziplinären KI-Aufsichtsausschusses.
Dieser Ausschuss ist mit der kontinuierlichen Überprüfung der Compliance beauftragt. Es handelt sich nicht um eine einmalige Untersuchung, sondern um einen lebendigen Prozess der institutionellen Gesundheit. Jedes von den Staatsanwälten verwendete KI-System wird granularen Audits unterzogen, die die für das Training verwendeten Datensätze, die Logik der Algorithmen und die tatsächlichen Ergebnisse in der realen Welt untersuchen.
Betrachten Sie dies als ein digitales Zeugenschutzprogramm für die Datenintegrität. Die Auditoren stellen sicher, dass die in die KI eingespeisten Daten nicht durch Ungenauigkeiten „vergiftet“ wurden und dass die Leistung des Systems im Laufe der Zeit nicht „abgedriftet“ ist, um weniger genau oder voreingenommener zu werden.
Obwohl diese Richtlinie spezifisch für die portugiesische Staatsanwaltschaft gilt, werden ihre Auswirkungen im gesamten Privatsektor zu spüren sein. Unternehmen, die Legal-Tech- oder KI-Tools für den staatlichen Einsatz entwickeln, haben nun eine sehr klare Checkliste an Anforderungen.
Darüber hinaus dient dies als Blaupause für jede Organisation – sei es eine Bank, ein Krankenhaus oder ein Einzelhandelsriese –, die Hochrisiko-KI einsetzt. Der Übergang von „schnell handeln und Dinge zerbrechen“ zu „vorsichtig handeln und alles dokumentieren“ ist nun der globale Standard. Organisationen, die es versäumen, ähnliche ethische Richtlinien und Audit-Richtlinien zu verabschieden, werden zunehmend anfällig für rechtliche Herausforderungen und den Verlust des öffentlichen Vertrauens sein.
Letztendlich geht es bei datenschutzfreundlicher KI nicht nur darum, das Gesetz zu befolgen; es geht darum sicherzustellen, dass wir auf dem Weg in eine automatisierte Zukunft unsere grundlegende Menschlichkeit nicht zurücklassen.
Wenn Ihr Unternehmen derzeit KI-Systeme einsetzt oder entwickelt, orientieren Sie sich am portugiesischen Beispiel, um sicherzustellen, dass Ihr „digitaler Lehrling“ auf dem richtigen Weg bleibt:
Haftungsausschluss: Dieser Artikel dient ausschließlich Informations- und journalistischen Zwecken. Er untersucht die Schnittstelle von Recht und Technologie, stellt jedoch keine formelle Rechtsberatung dar. Für spezifische Compliance-Anforderungen konsultieren Sie bitte einen qualifizierten Rechtsexperten, der auf KI und Datenschutz spezialisiert ist.



Unsere Ende-zu-Ende-verschlüsselte E-Mail- und Cloud-Speicherlösung bietet die leistungsfähigsten Mittel für den sicheren Datenaustausch und gewährleistet die Sicherheit und den Schutz Ihrer Daten.
/ Kostenloses Konto erstellen