"Hat der/die KandidatIn das gelöst... oder ChatGPT?"
Seit generative KI zum Mainstream geworden ist, schwebt diese Frage über Take-Home-Aufgaben und Coding-Challenges. Die Realität ist: KI kann inzwischen brauchbaren Code, solide Marketingtexte und überzeugende Datenanalysen erzeugen. Wenn wir KandidatInnen weiterhin auf dieselbe Weise beurteilen wie bisher, laufen wir Gefahr, Ergebnisse zu bewerten, die die tatsächlichen Fähigkeiten der Person nicht widerspiegeln.
Praxisnahe, arbeitsrelevante Assessments gehören zu den stärksten Prädiktoren für den Hiring-Erfolg. Geoff Tuff und seine Co-Autoren betonen, dass Aufgabenstellungen oder Arbeitssimulationen für KandidatInnen deutlich aussagekräftiger sind als Interviews allein, da sie eine "minimale, aber ausreichende Demonstration von Kompetenz" ermöglichen. Diese Erkenntnisse und die Ergebnisse anderer Studien zeigen, warum es ein Fehler wäre, Assessments im Zeitalter von KI vollständig abzuschaffen. Die entscheidende Frage ist nicht, ob wir sie einsetzen sollten, sondern wie wir sie anpassen, damit sie auch im Zeitalter von ChatGPT aussagekräftig und fair bleiben.
Was bedeutet das also konkret? Man kann versuchen, Assessments „AI-proof“ zu gestalten – also Übungen zu entwickeln, die Urteilsvermögen, Kreativität und praktische Erfahrung sichtbar machen. Oder man integriert KI bewusst in den Prozess und bewertet, wie Kandidat:innen mit ihr arbeiten: wie sie Prompts formulieren, Ergebnisse überprüfen und KI-Output auf reale Probleme anwenden. Für die meisten Teams wird eine durchdachte Kombination aus beidem am sinnvollsten sein – abgestimmt auf die jeweilige Rolle.
Dieser Artikel zeigt dir, wie du deine Assessments entsprechend anpassen kannst. Wir erklären, warum klassische Take-Home-Aufgaben heute weniger aussagekräftig sind, stellen zwei praktische Ansätze vor (AI-proof vs. AI-integriert) und zeigen dir Tools und Plattformen, mit denen du echte Fähigkeiten testen kannst – und nicht nur Abkürzungen.
Generative KI hat die Hürde, „gut genug“ wirkende Ergebnisse zu erzeugen, deutlich gesenkt. Aufgaben, die früher starke von schwächeren KandidatInnen unterschieden haben – etwa einen Text schreiben, eine einfache App bauen, eine Präsentation erstellen oder einen Datensatz analysieren – lassen sich heute oft mit einem gut formulierten Prompt schnell lösen.
Dadurch entstehen für Hiring-Teams zwei zentrale Risiken:
Und das betrifft längst nicht nur EntwicklerInnen. Marketing-KandidatInnen können ChatGPT nutzen, um Kampagnentexte zu entwerfen. AnalystInnen können sich in Sekundenschnelle Datenzusammenfassungen erstellen lassen. Selbst HR-Fachleute können fertige Richtlinien oder Policy-Dokumente erstellen lassen. Kaum ein Bereich bleibt davon unberührt.
Kurz gesagt: Klassische Take-Home-Aufgaben sind kein verlässlicher Proxy für Fähigkeiten mehr. Ohne Anpassungen sagen sie unter Umständen mehr über die Fähigkeit eines Kandidaten oder einer Kandidatin aus, Inhalte zu kopieren und einzufügen, als darüber, ob die Person in deinem Kontext wirklich denken, entscheiden und Ergebnisse liefern kann. Was kannst du also dagegen tun?
Wenn du verstehen möchtest, was eine Kandidatin oder ein Kandidat ohne KI-Unterstützung leisten kann, solltest du zunächst sicherstellen, dass deine Assessments nicht mit einem schnellen Prompt lösbar sind. Das bedeutet nicht unbedingt, KI komplett zu verbieten. Stattdessen geht es darum, Übungen so zu gestalten, dass sie typisch menschliche Perspektiven sichtbar machen – etwa Kreativität, Urteilsvermögen oder persönliche Erfahrungen.
Hier sind einige Möglichkeiten, wie du das erreichen kannst:
Das Ziel ist nicht, KandidatInnen hereinzulegen, sondern Rahmenbedingungen zu schaffen, in denen echte Fähigkeiten und Denkprozesse sichtbar werden.
Statt zu versuchen, ChatGPT zu blockieren, kannst du auch einen anderen Ansatz wählen: Erkenne an, dass KI längst Teil der täglichen Arbeit ist. EntwicklerInnen, MarketerInnen und AnalystInnen nutzen KI-Tools zunehmend, um Routineaufgaben schneller zu erledigen und mehr Zeit für komplexeres Denken zu gewinnen. Warum also nicht Assessments so gestalten, dass sie diese Realität widerspiegeln?
Indem du ChatGPT (oder ähnliche Tools) im Prozess zulässt, kannst du bewerten, wie KandidatInnen es nutzen – statt nur zu prüfen, ob sie es tun. Entscheidend ist dabei, ihre Fähigkeit zu beurteilen:
Dieser Ansatz spiegelt die Realität am Arbeitsplatz wider, in der KI zunehmend als Kollaborationspartner statt als Konkurrent fungiert. Der Fokus verschiebt sich damit von der Frage „Können sie ChatGPT schlagen?“ hin zu „Können sie klug mit KI zusammenarbeiten?“.
Du musst deine Assessments nicht immer von Grund auf neu erfinden. Statt Aufgaben über dein ATS oder per E-Mail zu versenden, kannst du auf spezialisierte Assessment-Plattformen zugreifen. Diese bieten umfangreiche Bibliotheken mit Aufgaben zur Bewertung von Fähigkeiten und wurden bereits mit Blick auf Integrität und Zuverlässigkeit entwickelt. Viele dieser Tools verfügen über integrierte Schutzmechanismen gegen eine übermäßige Abhängigkeit von KI und bieten zudem Funktionen wie Live-Tests, Proctoring und strukturierte Bewertungen. Von kodierungsspezifischen Plattformen bis hin zu umfassenderen Assessment-Suiten können solche Tools dazu beitragen, dass du wirklich die Fähigkeiten testest, auf die es ankommt.
Plattformen wie CodeSignal, Codility, HackerEarth oder HackerRank bieten dir eine strukturierte Möglichkeit, reale Coding-Fähigkeiten zu bewerten – statt nur ausgefeilte Abgaben zu erhalten, die leicht mit ChatGPT erstellt werden könnten. Diese Tools kombinieren in der Regel zeitlich begrenzte Challenges mit rollenspezifischen Aufgaben. Zudem verfügen sie über Anti-Cheating-Mechanismen wie Browser-Monitoring, Copy-/Paste-Erkennung oder Code-Tracking, die helfen sollen sicherzustellen, dass du tatsächlich die Fähigkeiten der KandidatInnen bewertest.
HackerRank macht ausdrücklich deutlich, dass die Zukunft der Softwareentwicklung in "Mensch plus KI" liegt. Deshalb wurden ihre Assessments so gestaltet, dass sie genau diese Realität widerspiegeln: Du kannst festlegen, an welcher Stelle im Hiring-Prozess KandidatInnen KI nutzen dürfen – und wann nicht. Die Plattform verfügt außerdem über ein integriertes Plagiatserkennungsmodell, das verschiedene Signale analysiert, um unerlaubte KI-Nutzung oder andere verdächtige Aktivitäten zu erkennen, etwa wenn mehrere Personen gemeinsam an einem Assessment arbeiten.
Nicht jede wichtige Fähigkeit lässt sich in Zeilen von Code messen. Plattformen wie Arctic Shores und Cyquest konzentrieren sich darauf, Soft Skills, Persönlichkeitsmerkmale und kognitive Fähigkeiten zu erfassen.
Solche Assessments sind besonders wertvoll für Rollen, in denen Problemlösungsstil, Resilienz oder zwischenmenschliche Passung genauso wichtig sind wie technisches Know-How. Da die Aufgaben interaktiv, spielerisch gestaltet oder psychometrisch aufgebaut sind, lassen sich die Ergebnisse schwerer fälschen und geben oft eine bessere Prognose darüber, wie sich jemand in einem realen Team verhält und weiterentwickelt.
Arctic Shores nutzt visuelle Aufgaben, die sich eher wie Spiele anfühlen als klassische psychometrische Tests. Anstatt KandidatInnen über Fragebögen zur Selbsteinschätzung zu befragen – bei denen auch KI-generierte oder einstudierte Antworten möglich wären – erfasst die Plattform tatsächliches Verhalten in Aktion: wie KandidatInnen auf Herausforderungen reagieren, Risiken eingehen oder unter Druck Entscheidungen treffen. So entsteht ein differenzierteres und authentischeres Bild von Persönlichkeit und kognitivem Stil. Das hilft Arbeitgebern, Eigenschaften zu erkennen, die gut zu den Anforderungen der Rolle und zur Unternehmenskultur passen.
Neben den spezialisierteren Tools gibt es auch eine breite Palette an Plattformen, die mehrere Fähigkeiten und Einsatzbereiche abdecken. Tools wie Adaface, Harver, Selectic, TestGorilla und Xobin bieten umfangreiche Testbibliotheken für technische, kognitive und Soft-Skill-Assessments. Sie sind darauf ausgelegt, Hiring-Teams mehr Flexibilität zu geben: Du kannst unterschiedliche Rollen über ein einziges System bewerten – oft mit integrierten Schutzmechanismen wie Proctoring, Plagiatsprüfungen oder zufällig generierten Fragen, um die Integrität der Ergebnisse zu erhöhen.
Wenn du nach einer vielseitigen Plattform suchst, die rollenübergreifende Assessments unterstützt und gleichzeitig starke, KI-bewusste Schutzmechanismen integriert, könnte TestGorilla eine passende Lösung für dich sein. Das Tool kombiniert eine umfangreiche Bibliothek an skillbasierten Tests – darunter technische, kognitive, verhaltensbezogene und rollenspezifische Assessments – mit verschiedenen Integritätsfunktionen. Dazu gehören unter anderem Vollbild-Erzwingung (damit KandidatInnen keine Fenster wechseln können), Deaktivierung von Copy-/Paste sowie IP-Monitoring, etwa um ungewöhnlich schnelle Aktionen zu erkennen, die auf ein Umgehen des Systems hindeuten könnten.
Es gibt keine Einheitslösung, um Assessments für KandidatInnen ChatGPT-sicher zu machen. Der richtige Ansatz hängt von der jeweiligen Rolle, deinem Team und deiner grundsätzlichen Haltung gegenüber KI am Arbeitsplatz ab. Einige Unternehmen werden KI bewusst außerhalb des Prozesses halten und sich auf Aufgaben konzentrieren, die typisch menschliche Fähigkeiten sichtbar machen – etwa Kreativität, Urteilsvermögen und Erfahrung. Andere werden sich dafür entscheiden, KI aktiv in das Assessment zu integrieren und zu testen, wie KandidatInnen mit den Tools zusammenarbeiten, die ihren Arbeitsalltag künftig prägen werden. Klar ist jedoch: Assessments können nicht länger statisch bleiben – sie müssen sich weiterentwickeln. Wenn du durchdachtes Assessment-Design mit den richtigen Plattformen kombinierst, kannst du Prozesse schaffen, die fair, aussagekräftig und zukunftsfähig bleiben – und dir helfen, im Zeitalter der KI mit Zuversicht einzustellen.
🤝 Brauchst du Unterstützung bei der Suche nach neuen Teammitgliedern und beim Aufbau effektiver Hiring-Prozesse? Dann melde dich gerne bei uns!