Mit dem EU AI Act schafft Europa erstmals ein umfassendes Regelwerk für den Einsatz künstlicher Intelligenz. Während viele KI-Anwendungen weiterhin frei genutzt werden dürfen, richtet sich der Fokus des Gesetzes besonders auf eine Kategorie: High Risk KI-Systeme.
Diese Systeme gelten als besonders sensibel, weil sie direkte Auswirkungen auf Menschen, Grundrechte oder Sicherheit haben können.
Doch was genau bedeutet „High Risk“? Welche Anwendungen fallen darunter? Und welche Pflichten kommen auf Unternehmen zu?
Hier ein klarer Überblick.
Was bedeutet „High Risk“ im EU AI Act?
Der EU AI Act verfolgt einen risikobasierten Ansatz.
Das heißt: Nicht jede KI wird gleich streng reguliert. Stattdessen unterscheidet die EU nach dem potenziellen Schaden, den ein System verursachen kann.
High Risk KI-Systeme sind Anwendungen, die:
- über Menschen entscheiden oder sie bewerten
- Zugang zu wichtigen Ressourcen beeinflussen
- in kritischen Bereichen eingesetzt werden
- erhebliche Sicherheitsrisiken bergen
Für Unternehmen bedeutet das: Wer solche KI nutzt oder entwickelt, muss deutlich strengere Anforderungen erfüllen.
Warum werden High Risk Systeme besonders reguliert?
KI kann enorme Vorteile bringen, aber auch gefährliche Folgen haben, wenn sie falsch eingesetzt wird.
Beispiele:
- Diskriminierung bei Bewerbungen
- fehlerhafte medizinische Diagnosen
- ungerechte Kreditentscheidungen
- Überwachung und Einschränkung von Grundrechten
Die EU will verhindern, dass KI-Systeme unkontrolliert über zentrale Lebensbereiche bestimmen.
Welche KI-Systeme gelten als High Risk?
Der AI Act nennt mehrere konkrete Einsatzfelder.
Hier sind die wichtigsten Bereiche, die für Unternehmen besonders relevant sind.
1. KI im Personalwesen und Recruiting
Eines der bekanntesten Beispiele:
- Bewerber-Scoring
- automatisierte Vorauswahl
- Analyse von Video-Interviews
Solche Systeme können stark beeinflussen, wer einen Job bekommt.
Risiko: Diskriminierung durch verzerrte Trainingsdaten.
Unternehmen müssen hier besonders transparent und vorsichtig sein.
2. KI in Bildung und Prüfungen
Auch Bildung gilt als sensibler Bereich, etwa:
- automatische Bewertung von Prüfungen
- KI-gestützte Zulassungsentscheidungen
- Lernanalysen mit Einfluss auf Karrierewege
Fehler könnten langfristige Nachteile für Betroffene erzeugen.
3. Kreditvergabe und Finanzentscheidungen
KI wird zunehmend genutzt, um:
- Kreditwürdigkeit zu bewerten
- Betrug zu erkennen
- Versicherungsprämien festzulegen
Wenn ein Algorithmus hier unfair entscheidet, kann das existenzielle Folgen haben.
Deshalb zählt KI im Finanzsektor häufig zu High Risk.
4. Medizinische Diagnostik und Gesundheit
KI-Systeme in der Medizin gelten fast immer als Hochrisiko, z.B.:
- Krebsdiagnose durch Bildanalyse
- Risikobewertung von Patienten
- Unterstützung bei Therapieentscheidungen
Hier steht die körperliche Unversehrtheit im Mittelpunkt.
Die Anforderungen an Sicherheit und Qualität sind besonders hoch.
5. Kritische Infrastruktur
KI wird auch in Bereichen eingesetzt wie:
- Stromnetze
- Verkehrssysteme
- Wasserversorgung
- Telekommunikation
Ein Fehler könnte massive Schäden verursachen.
Deshalb gelten KI-Systeme in kritischer Infrastruktur als High Risk.
6. Strafverfolgung und Überwachung
Besonders sensibel ist KI im Bereich Sicherheit:
- Gesichtserkennung
- Risikoanalysen von Personen
- Predictive Policing
Die EU plant hier strenge Grenzen, weil Grundrechte betroffen sind.
Viele Anwendungen könnten sogar komplett verboten werden.
7. Migration und Grenzkontrolle
Auch Systeme zur Bewertung von Asylanträgen oder Grenzüberwachung zählen zu High Risk.
Der Einsatz von KI in solchen Kontexten ist politisch und ethisch hoch umstritten.
8. Justiz und demokratische Prozesse
KI-Systeme, die Gerichte oder Behörden unterstützen, gelten ebenfalls als Hochrisiko, etwa:
- Analyse von Urteilen
- Entscheidungshilfen bei Verfahren
- automatisierte Rechtsberatung durch Behörden
Hier steht die Fairness des Rechtsstaats auf dem Spiel.
Was müssen Unternehmen bei High Risk KI beachten?
Wer High Risk KI einsetzt, muss laut AI Act zahlreiche Anforderungen erfüllen:
Transparenz und Information
Nutzer müssen wissen, dass KI beteiligt ist.
Risikomanagement
Unternehmen müssen Risiken bewerten und minimieren.
Datenqualität
Trainingsdaten dürfen nicht diskriminierend sein.
Dokumentation
Systeme müssen nachvollziehbar beschrieben werden.
Human Oversight
Menschen müssen Entscheidungen kontrollieren können.
Sicherheitsstandards
Regelmäßige Tests und Audits werden Pflicht.
Betrifft das auch generative KI wie ChatGPT?
Generative KI wird meist nicht automatisch als High Risk eingestuft.
Aber: Sobald ein Sprachmodell in sensiblen Bereichen eingesetzt wird, kann es darunter fallen.
Beispiel:
- Chatbot entscheidet über Sozialleistungen → High Risk
- KI hilft bei medizinischer Diagnose → High Risk
Der Kontext ist entscheidend.
Fazit: High Risk betrifft mehr Unternehmen als gedacht
Viele Firmen denken bei „High Risk KI“ nur an Polizei oder Medizin. Doch in Wahrheit betrifft die Kategorie auch ganz normale Business-Anwendungen:
- Recruiting-Tools
- Finanzsoftware
- Gesundheits-Apps
- Infrastruktur-IT
Unternehmen sollten daher früh prüfen, ob ihre KI-Systeme unter den AI Act fallen.
Denn klar ist: Mit dem EU AI Act wird KI in Europa nicht weniger – aber stärker kontrolliert.





