Zurück zum Blog

KI im Recruiting und der EU AI Act 2026: Was deine Personalauswahl jetzt erfüllen muss

Ab dem 2. August 2026 greift der EU AI Act in seiner vollen Schärfe – und KI-gestützte Personalauswahl ist als Hochrisiko-System eingestuft. Für Unternehmen heißt das: Dokumentationspflicht, menschliche Aufsicht, Datenschutz, Transparenz. Wer das nicht im Griff hat, riskiert nicht nur Bußgelder bis zu 35 Millionen Euro – sondern verliert auch die Verteidigungsfähigkeit seiner Personalentscheidungen.

KI im Recruiting und der EU AI Act 2026

KI-gestützte Tools sind in den letzten Jahren in fast jeden HR-Prozess eingezogen. Lebenslauf-Screening durch Algorithmen, automatische Vorauswahl von Bewerbungen, KI-gestützte Persönlichkeitsanalysen über Video-Interviews, ranking-basierte Matching-Systeme. Für viele Unternehmen ist das längst Tagesgeschäft. Was viele übersehen: Mit dem EU AI Act, der ab dem 2. August 2026 in seiner vollen Schärfe greift, ist all das nicht mehr nur ein Effizienzthema, sondern ein Compliance-Thema.

Dieser Beitrag ordnet ein, was sich konkret ändert – und was du als Unternehmen jetzt tun solltest, um in 2026 nicht in einer rechtlich angreifbaren Position zu sein.

Was der EU AI Act regelt

Der EU AI Act ist die erste umfassende Regulierung von Künstlicher Intelligenz weltweit. Sie kategorisiert KI-Systeme nach Risikoklassen – von verboten über Hochrisiko bis zu minimalem Risiko. KI in der Personalauswahl ist explizit als Hochrisiko-System eingestuft. Das bedeutet: Hohe Anforderungen an Qualität, Dokumentation und menschliche Aufsicht.

Die wichtigsten Eckpunkte ab August 2026:

  • Dokumentationspflicht: KI-Systeme im Recruiting müssen vollständig dokumentiert sein – Datenbasis, Trainingslogik, Performance-Metriken sowie Bias-Prüfungen.
  • Menschliche Aufsicht: Eine Person muss jede KI-gestützte Entscheidung tatsächlich prüfen können – nicht nur abnicken.
  • Transparenz: Bewerber müssen wissen, dass eine KI eingesetzt wird, und die Logik der Entscheidung muss erklärbar sein.
  • Datenqualität: Trainingsdaten dürfen keine systematischen Verzerrungen enthalten, die diskriminierende Effekte produzieren.
  • Verbotene Praktiken: Emotionserkennung am Arbeitsplatz und in Auswahlprozessen ist nahezu vollständig untersagt.

Verstöße können mit Bußgeldern bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes geahndet werden – je nachdem, was höher ist.

Was das für typische HR-Tools bedeutet

Drei Bereiche sind besonders kritisch:

1. Automatisches Lebenslauf-Screening

KI-Tools, die Bewerbungen filtern, ranken oder vorsortieren, fallen in die Hochrisiko-Kategorie. Wer solche Tools einsetzt, muss ab August 2026 dokumentieren, wie sie trainiert wurden, ob ihre Trainingsdaten fair sind und wie die menschliche Aufsicht konkret aussieht.

2. Video-Interview-Analyse

Tools, die Persönlichkeit, Stimmung oder Eignung aus Video-Aufnahmen ableiten, sind zumindest teilweise verboten und ansonsten streng reguliert. Emotionserkennung im Arbeitskontext ist nahezu komplett untersagt.

3. KI-basierte Persönlichkeitsverfahren

Klassische, qualitätsgesicherte Persönlichkeitstests – wie das BIP oder NEO-PI-R, die ich im Beitrag zu Persönlichkeitstests in der Personalauswahl beschreibe – sind nicht KI-gestützt im Sinne des AI Acts. Sie sind regelbasierte psychometrische Verfahren. Tools, die hingegen mit maschinellem Lernen Persönlichkeit aus Sprachmustern oder Verhaltensdaten ableiten, fallen in die Hochrisiko-Kategorie.

Warum klassische Eignungsdiagnostik gerade jetzt wieder an Wert gewinnt

Eine der oft übersehenen Konsequenzen des EU AI Act ist, dass klassische, methodisch fundierte Eignungsdiagnostik nach DIN 33430 gegenüber KI-getriebenen Auswahlsystemen wieder an Bedeutung gewinnt. Aus drei Gründen:

Erstens: Klassische Verfahren sind vollständig dokumentiert. Reliabilität, Validität, Fairness sind in Testmanualen seit Jahrzehnten ausgewiesen – das ist Compliance-ready.

Zweitens: Die menschliche Aufsicht ist im Verfahren strukturell verankert. Ein zertifizierter Eignungsdiagnostiker bewertet die Ergebnisse – nicht ein Algorithmus.

Drittens: Die Erklärbarkeit ist gegeben. Jede Bewertung wird im Befundbericht begründet, jede Schlussfolgerung ist nachvollziehbar.

Wer 2026 vor der Wahl steht, ein KI-Recruiting-Tool zu kaufen oder weiterhin mit klassischer Eignungsdiagnostik zu arbeiten, hat ein neues Argument für die zweite Option: Sie ist Compliance-ready, ohne dass das Unternehmen die regulatorische Hausarbeit selbst machen muss.

Was du als Unternehmen jetzt tun solltest

Fünf konkrete Schritte:

1. Bestandsaufnahme der KI-Tools

Welche KI-gestützten Tools werden im Recruiting bereits eingesetzt – oft auch in unscheinbaren Bereichen wie Active Sourcing, automatisches Bewerbermanagement oder Skill-Matching? Eine ehrliche Liste umfasst typischerweise mehr Tools, als man initial denkt.

2. Risikoeinstufung pro Tool

Für jedes Tool klären: Fällt es in die Hochrisiko-Kategorie? Welche Compliance-Anforderungen gelten?

3. Dokumentation einfordern

Bei kommerziellen Tools sollte der Anbieter die Dokumentation liefern – die er ohnehin haben muss. Wer das nicht liefern kann, sollte als Anbieter ausgetauscht werden.

4. Menschliche Aufsicht etablieren

Eine reale Person muss tatsächlich über jede KI-Entscheidung drüberschauen können – nicht nur formal. Welche Mechanismen das in der Praxis sicherstellen, beschreibt ergänzend der Beitrag zum strukturierten Interview als wirksamster menschlicher Prüfschritt.

5. Transparenz gegenüber Bewerbern herstellen

Bewerber müssen wissen, dass eine KI eingesetzt wird. Diese Information gehört in die Stellenausschreibung, nicht erst ins Vorstellungsgespräch.

Was Aufsichtsräte und Geschäftsführer im Auge haben sollten

Der EU AI Act ist nicht nur ein HR-Thema. Bußgelder von bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes machen ihn zu einem Risikomanagement-Thema im Vorstandsumfeld. Aufsichtsräte sollten in den nächsten Quartalen von ihrer HR-Führung erwarten, dass eine vollständige Bestandsaufnahme und Compliance-Roadmap vorliegt.

Sechs Tipps zur AI-Act-Vorbereitung

  • Mach eine ehrliche Bestandsaufnahme, welche KI-Tools im Recruiting bereits laufen. Auch versteckte ATS-Funktionen zählen.
  • Klassifiziere jedes Tool nach Risiko und priorisiere die Hochrisiko-Fälle.
  • Verlange beim Anbieter die AI-Act-Dokumentation, bevor du verlängerst. Wer sie nicht hat, ist 2026 ein Compliance-Risiko.
  • Etabliere menschliche Aufsicht als reale Praxis, nicht als Form. Eine echte zweite Stimme über jeder KI-Entscheidung.
  • Prüfe, ob klassische Eignungsdiagnostik dein Unternehmen entlasten kann. Sie ist Compliance-ready und methodisch oft stärker als KI-Tools.
  • Dokumentiere alles. Spätestens 2027 kommen die ersten Prüfungen.

Vom Effizienztool zur regulatorischen Achtsamkeit

Der EU AI Act zwingt Unternehmen zu einer ehrlichen Bestandsaufnahme dessen, was in ihren Recruiting-Prozessen tatsächlich passiert. Das ist gleichzeitig eine Chance: Viele Unternehmen werden in dieser Bestandsaufnahme feststellen, dass sie KI-Tools nutzen, deren methodische Substanz schwächer ist als die der klassischen Eignungsdiagnostik. Wer den August 2026 als Anlass nimmt, seine Auswahlprozesse methodisch und rechtlich zu konsolidieren, hat in zwei Jahren bessere Personalentscheidungen, niedrigere Compliance-Risiken und eine klarere Verteidigung im Konfliktfall.

Wenn du für deine Auswahlprozesse einen klaren, AI-Act-konformen und methodisch sauberen Weg suchst, schau dir meine Arbeit als Eignungsdiagnostiker mit klassischen, dokumentierten Verfahren nach DIN 33430 an oder schreib mir direkt für ein unverbindliches Erstgespräch.