technonews

Tech-News, die Zukunft gestalten.

Welche KI-Systeme gelten als High Risk? Das bedeutet der EU AI Act

Mit dem EU AI Act schafft Europa erstmals ein umfassendes Regelwerk für den Einsatz künstlicher Intelligenz. Während viele KI-Anwendungen weiterhin frei genutzt werden dürfen, richtet sich der Fokus des Gesetzes besonders auf eine Kategorie: High Risk KI-Systeme.

Diese Systeme gelten als besonders sensibel, weil sie direkte Auswirkungen auf Menschen, Grundrechte oder Sicherheit haben können.

Doch was genau bedeutet „High Risk“? Welche Anwendungen fallen darunter? Und welche Pflichten kommen auf Unternehmen zu?

Hier ein klarer Überblick.


Was bedeutet „High Risk“ im EU AI Act?

Der EU AI Act verfolgt einen risikobasierten Ansatz.

Das heißt: Nicht jede KI wird gleich streng reguliert. Stattdessen unterscheidet die EU nach dem potenziellen Schaden, den ein System verursachen kann.

High Risk KI-Systeme sind Anwendungen, die:

  • über Menschen entscheiden oder sie bewerten
  • Zugang zu wichtigen Ressourcen beeinflussen
  • in kritischen Bereichen eingesetzt werden
  • erhebliche Sicherheitsrisiken bergen

Für Unternehmen bedeutet das: Wer solche KI nutzt oder entwickelt, muss deutlich strengere Anforderungen erfüllen.


Warum werden High Risk Systeme besonders reguliert?

KI kann enorme Vorteile bringen, aber auch gefährliche Folgen haben, wenn sie falsch eingesetzt wird.

Beispiele:

  • Diskriminierung bei Bewerbungen
  • fehlerhafte medizinische Diagnosen
  • ungerechte Kreditentscheidungen
  • Überwachung und Einschränkung von Grundrechten

Die EU will verhindern, dass KI-Systeme unkontrolliert über zentrale Lebensbereiche bestimmen.


Welche KI-Systeme gelten als High Risk?

Der AI Act nennt mehrere konkrete Einsatzfelder.

Hier sind die wichtigsten Bereiche, die für Unternehmen besonders relevant sind.


1. KI im Personalwesen und Recruiting

Eines der bekanntesten Beispiele:

  • Bewerber-Scoring
  • automatisierte Vorauswahl
  • Analyse von Video-Interviews

Solche Systeme können stark beeinflussen, wer einen Job bekommt.

Risiko: Diskriminierung durch verzerrte Trainingsdaten.

Unternehmen müssen hier besonders transparent und vorsichtig sein.


2. KI in Bildung und Prüfungen

Auch Bildung gilt als sensibler Bereich, etwa:

  • automatische Bewertung von Prüfungen
  • KI-gestützte Zulassungsentscheidungen
  • Lernanalysen mit Einfluss auf Karrierewege

Fehler könnten langfristige Nachteile für Betroffene erzeugen.


3. Kreditvergabe und Finanzentscheidungen

KI wird zunehmend genutzt, um:

  • Kreditwürdigkeit zu bewerten
  • Betrug zu erkennen
  • Versicherungsprämien festzulegen

Wenn ein Algorithmus hier unfair entscheidet, kann das existenzielle Folgen haben.

Deshalb zählt KI im Finanzsektor häufig zu High Risk.


4. Medizinische Diagnostik und Gesundheit

KI-Systeme in der Medizin gelten fast immer als Hochrisiko, z.B.:

  • Krebsdiagnose durch Bildanalyse
  • Risikobewertung von Patienten
  • Unterstützung bei Therapieentscheidungen

Hier steht die körperliche Unversehrtheit im Mittelpunkt.

Die Anforderungen an Sicherheit und Qualität sind besonders hoch.


5. Kritische Infrastruktur

KI wird auch in Bereichen eingesetzt wie:

  • Stromnetze
  • Verkehrssysteme
  • Wasserversorgung
  • Telekommunikation

Ein Fehler könnte massive Schäden verursachen.

Deshalb gelten KI-Systeme in kritischer Infrastruktur als High Risk.


6. Strafverfolgung und Überwachung

Besonders sensibel ist KI im Bereich Sicherheit:

  • Gesichtserkennung
  • Risikoanalysen von Personen
  • Predictive Policing

Die EU plant hier strenge Grenzen, weil Grundrechte betroffen sind.

Viele Anwendungen könnten sogar komplett verboten werden.


7. Migration und Grenzkontrolle

Auch Systeme zur Bewertung von Asylanträgen oder Grenzüberwachung zählen zu High Risk.

Der Einsatz von KI in solchen Kontexten ist politisch und ethisch hoch umstritten.


8. Justiz und demokratische Prozesse

KI-Systeme, die Gerichte oder Behörden unterstützen, gelten ebenfalls als Hochrisiko, etwa:

  • Analyse von Urteilen
  • Entscheidungshilfen bei Verfahren
  • automatisierte Rechtsberatung durch Behörden

Hier steht die Fairness des Rechtsstaats auf dem Spiel.


Was müssen Unternehmen bei High Risk KI beachten?

Wer High Risk KI einsetzt, muss laut AI Act zahlreiche Anforderungen erfüllen:

Transparenz und Information

Nutzer müssen wissen, dass KI beteiligt ist.

Risikomanagement

Unternehmen müssen Risiken bewerten und minimieren.

Datenqualität

Trainingsdaten dürfen nicht diskriminierend sein.

Dokumentation

Systeme müssen nachvollziehbar beschrieben werden.

Human Oversight

Menschen müssen Entscheidungen kontrollieren können.

Sicherheitsstandards

Regelmäßige Tests und Audits werden Pflicht.


Betrifft das auch generative KI wie ChatGPT?

Generative KI wird meist nicht automatisch als High Risk eingestuft.

Aber: Sobald ein Sprachmodell in sensiblen Bereichen eingesetzt wird, kann es darunter fallen.

Beispiel:

  • Chatbot entscheidet über Sozialleistungen → High Risk
  • KI hilft bei medizinischer Diagnose → High Risk

Der Kontext ist entscheidend.


Fazit: High Risk betrifft mehr Unternehmen als gedacht

Viele Firmen denken bei „High Risk KI“ nur an Polizei oder Medizin. Doch in Wahrheit betrifft die Kategorie auch ganz normale Business-Anwendungen:

  • Recruiting-Tools
  • Finanzsoftware
  • Gesundheits-Apps
  • Infrastruktur-IT

Unternehmen sollten daher früh prüfen, ob ihre KI-Systeme unter den AI Act fallen.

Denn klar ist: Mit dem EU AI Act wird KI in Europa nicht weniger – aber stärker kontrolliert.