Tools

Einstellen im Zeitalter von ChatGPT: Assessments gestalten, die echte Kompetenzen sichtbar machen

Von Charlotte Carnehl

"Hat der/die KandidatIn das gelöst... oder ChatGPT?"
Seit generative KI zum Mainstream geworden ist, schwebt diese Frage über Take-Home-Aufgaben und Coding-Challenges. Die Realität ist: KI kann inzwischen brauchbaren Code, solide Marketingtexte und überzeugende Datenanalysen erzeugen. Wenn wir KandidatInnen weiterhin auf dieselbe Weise beurteilen wie bisher, laufen wir Gefahr, Ergebnisse zu bewerten, die die tatsächlichen Fähigkeiten der Person nicht widerspiegeln.

Praxisnahe, arbeitsrelevante Assessments gehören zu den stärksten Prädiktoren für den Hiring-Erfolg. Geoff Tuff und seine Co-Autoren betonen, dass Aufgabenstellungen oder Arbeitssimulationen für KandidatInnen deutlich aussagekräftiger sind als Interviews allein, da sie eine "minimale, aber ausreichende Demonstration von Kompetenz" ermöglichen. Diese Erkenntnisse und die Ergebnisse anderer Studien zeigen, warum es ein Fehler wäre, Assessments im Zeitalter von KI vollständig abzuschaffen. Die entscheidende Frage ist nicht, ob wir sie einsetzen sollten, sondern wie wir sie anpassen, damit sie auch im Zeitalter von ChatGPT aussagekräftig und fair bleiben.

Was bedeutet das also konkret? Man kann versuchen, Assessments „AI-proof“ zu gestalten – also Übungen zu entwickeln, die Urteilsvermögen, Kreativität und praktische Erfahrung sichtbar machen. Oder man integriert KI bewusst in den Prozess und bewertet, wie Kandidat:innen mit ihr arbeiten: wie sie Prompts formulieren, Ergebnisse überprüfen und KI-Output auf reale Probleme anwenden. Für die meisten Teams wird eine durchdachte Kombination aus beidem am sinnvollsten sein – abgestimmt auf die jeweilige Rolle.‍

Dieser Artikel zeigt dir, wie du deine Assessments entsprechend anpassen kannst. Wir erklären, warum klassische Take-Home-Aufgaben heute weniger aussagekräftig sind, stellen zwei praktische Ansätze vor (AI-proof vs. AI-integriert) und zeigen dir Tools und Plattformen, mit denen du echte Fähigkeiten testen kannst – und nicht nur Abkürzungen.

Warum KI praktische Assessments schwieriger macht

Generative KI hat die Hürde, „gut genug“ wirkende Ergebnisse zu erzeugen, deutlich gesenkt. Aufgaben, die früher starke von schwächeren KandidatInnen unterschieden haben – etwa einen Text schreiben, eine einfache App bauen, eine Präsentation erstellen oder einen Datensatz analysieren – lassen sich heute oft mit einem gut formulierten Prompt schnell lösen.

Dadurch entstehen für Hiring-Teams zwei zentrale Risiken:

  1. Ein falsches Bild von Kompetenz: Eine überzeugend aufbereitete Abgabe spiegelt nicht immer die tatsächlichen Fähigkeiten einer Kandidatin oder eines Kandidaten wider. Am Ende stellst du möglicherweise jemanden ein, der ChatGPT gut bedienen kann, dem jedoch das notwendige Fachwissen oder Urteilsvermögen fehlt, um in der Rolle erfolgreich zu sein.
  2. Verlust an Aussagekraft: Der Zweck einer Case Study oder Coding-Challenge ist es, die spätere Leistung im Job vorherzusagen. Wenn KI bereits brauchbare Antworten liefern kann, besteht die Gefahr, dass Assessments zu einem Test werden, wer den besten Prompt schreibt – und nicht, wer in deinem Team tatsächlich erfolgreich sein wird.

Und das betrifft längst nicht nur EntwicklerInnen. Marketing-KandidatInnen können ChatGPT nutzen, um Kampagnentexte zu entwerfen. AnalystInnen können sich in Sekundenschnelle Datenzusammenfassungen erstellen lassen. Selbst HR-Fachleute können fertige Richtlinien oder Policy-Dokumente erstellen lassen. Kaum ein Bereich bleibt davon unberührt.

Kurz gesagt: Klassische Take-Home-Aufgaben sind kein verlässlicher Proxy für Fähigkeiten mehr. Ohne Anpassungen sagen sie unter Umständen mehr über die Fähigkeit eines Kandidaten oder einer Kandidatin aus, Inhalte zu kopieren und einzufügen, als darüber, ob die Person in deinem Kontext wirklich denken, entscheiden und Ergebnisse liefern kann. Was kannst du also dagegen tun?

Option 1: Assessments "ChatGPT-proof" machen

Wenn du verstehen möchtest, was eine Kandidatin oder ein Kandidat ohne KI-Unterstützung leisten kann, solltest du zunächst sicherstellen, dass deine Assessments nicht mit einem schnellen Prompt lösbar sind. Das bedeutet nicht unbedingt, KI komplett zu verbieten. Stattdessen geht es darum, Übungen so zu gestalten, dass sie typisch menschliche Perspektiven sichtbar machen – etwa Kreativität, Urteilsvermögen oder persönliche Erfahrungen.

Hier sind einige Möglichkeiten, wie du das erreichen kannst:

  • Teste deine Aufgabe zuerst selbst mit ChatGPT. Bevor du eine Case Study oder ein Assignment in deinem Auswahlprozess einsetzt, gib die Aufgabe zunächst selbst bei ChatGPT ein und schau dir an, welche Antwort du erhältst. Wenn das Ergebnis bereits überzeugend wirkt, solltest du die Aufgabe überarbeiten – etwa so, dass sie mehr Nuancen, Kontext oder Originalität erfordert.
  • Konzentriere dich auf Kreativität und Urteilsvermögen. Statt nach generischen Lösungen zu fragen, gestalte Aufgaben so, dass sie Abwägungen, kontextabhängige Entscheidungen oder eine persönliche Perspektive erfordern. Anstatt KandidatInnen zum Beispiel nach den Vor- und Nachteilen einer bestimmten Programmiersprache zu fragen, kannst du sie bitten, zu erzählen, was sie in ihrer täglichen Arbeit begeistert oder frustriert – oder welches Feature sie sich als Nächstes in einer App wünschen und warum.
  • Bitte um eine Demonstration früherer Arbeit. Lade KandidatInnen ein, dich durch etwas zu führen, das sie selbst entwickelt oder verantwortet haben – zum Beispiel ein Stück Code, ein UX-Design oder eine Marketingkampagne. Bitte sie, ihren Gedankengang zu erklären, welche Herausforderungen sie dabei hatten und was sie heute anders machen würden.
  • Baue Live-Elemente ein. Wenn du eine Echtzeit-Komponente einbaust, wird es deutlich schwieriger, sich ausschließlich auf KI zu verlassen. Das kann zum Beispiel eine Coding-Challenge in einer gemeinsamen Arbeitsumgebung sein oder ein simuliertes Telefongespräch, in dem KandidatInnen im Rollenspiel eine Kundenanfrage bearbeiten.

Das Ziel ist nicht, KandidatInnen hereinzulegen, sondern Rahmenbedingungen zu schaffen, in denen echte Fähigkeiten und Denkprozesse sichtbar werden.

Option 2: ChatGPT in den Prozess integrieren

Statt zu versuchen, ChatGPT zu blockieren, kannst du auch einen anderen Ansatz wählen: Erkenne an, dass KI längst Teil der täglichen Arbeit ist. EntwicklerInnen, MarketerInnen und AnalystInnen nutzen KI-Tools zunehmend, um Routineaufgaben schneller zu erledigen und mehr Zeit für komplexeres Denken zu gewinnen. Warum also nicht Assessments so gestalten, dass sie diese Realität widerspiegeln?‍

Indem du ChatGPT (oder ähnliche Tools) im Prozess zulässt, kannst du bewerten, wie KandidatInnen es nutzen – statt nur zu prüfen, ob sie es tun. Entscheidend ist dabei, ihre Fähigkeit zu beurteilen:

  • Wirksame Prompts formulieren. Gute Ergebnisse mit ChatGPT beginnen mit gut formulierten Eingaben. Bitte KandidatInnen daher, die Prompts, die sie verwendet haben, zusammen mit ihrer Aufgabe einzureichen – oder sie im Gespräch live durch ihren Prompting-Prozess zu führen. So kannst du sehen, ob sie in der Lage sind, vage Probleme in präzise Anweisungen zu übersetzen – eine entscheidende Fähigkeit in vielen Rollen.
  • Ergebnisse kritisch interpretieren. ChatGPT liefert nicht immer korrekte, vollständige oder zum Kontext passende Antworten. Achte darauf, wie KandidatInnen mit den Ergebnissen umgehen. Erkennen sie Fehler im Code? Hinterfragen sie Verallgemeinerungen in einer Marktanalyse? Passen sie Ton und Stil in einem Text an? Starke KandidatInnen übernehmen den Output nicht einfach – sie hinterfragen und verbessern ihn.
  • KI auf reale Probleme anwenden. Letztlich willst du wissen, ob jemand die Lücke zwischen generischem KI-Output und dem konkreten Kontext deines Unternehmens schließen kann. Eine gute Möglichkeit, das zu testen: Gib KandidatInnen einen KI-generierten Entwurf – zum Beispiel ein Stück Code, eine Richtlinie oder eine Kampagnenskizze – und bitte sie, ihn zu verbessern. Achte dabei auf durchdachte Anpassungen, klare Begründungen und Kreativität, mit denen sie das Ergebnis an die konkrete Situation anpassen.

Dieser Ansatz spiegelt die Realität am Arbeitsplatz wider, in der KI zunehmend als Kollaborationspartner statt als Konkurrent fungiert. Der Fokus verschiebt sich damit von der Frage „Können sie ChatGPT schlagen?“ hin zu „Können sie klug mit KI zusammenarbeiten?“.

AI-sichere Tools zur Bewertung von KandidatInnen-Skills

Du musst deine Assessments nicht immer von Grund auf neu erfinden. Statt Aufgaben über dein ATS oder per E-Mail zu versenden, kannst du auf spezialisierte Assessment-Plattformen zugreifen. Diese bieten umfangreiche Bibliotheken mit Aufgaben zur Bewertung von Fähigkeiten und wurden bereits mit Blick auf Integrität und Zuverlässigkeit entwickelt. Viele dieser Tools verfügen über integrierte Schutzmechanismen gegen eine übermäßige Abhängigkeit von KI und bieten zudem Funktionen wie Live-Tests, Proctoring und strukturierte Bewertungen. Von kodierungsspezifischen Plattformen bis hin zu umfassenderen Assessment-Suiten können solche Tools dazu beitragen, dass du wirklich die Fähigkeiten testest, auf die es ankommt.

1. Coding- und technische Assessment-Tools

Plattformen wie CodeSignal, Codility, HackerEarth oder HackerRank bieten dir eine strukturierte Möglichkeit, reale Coding-Fähigkeiten zu bewerten – statt nur ausgefeilte Abgaben zu erhalten, die leicht mit ChatGPT erstellt werden könnten. Diese Tools kombinieren in der Regel zeitlich begrenzte Challenges mit rollenspezifischen Aufgaben. Zudem verfügen sie über Anti-Cheating-Mechanismen wie Browser-Monitoring, Copy-/Paste-Erkennung oder Code-Tracking, die helfen sollen sicherzustellen, dass du tatsächlich die Fähigkeiten der KandidatInnen bewertest. 

HackerRank: Verschiedene Stufen der KI-Integration in Assessments

HackerRank macht ausdrücklich deutlich, dass die Zukunft der Softwareentwicklung in "Mensch plus KI" liegt. Deshalb wurden ihre Assessments so gestaltet, dass sie genau diese Realität widerspiegeln: Du kannst festlegen, an welcher Stelle im Hiring-Prozess KandidatInnen KI nutzen dürfen – und wann nicht. Die Plattform verfügt außerdem über ein integriertes Plagiatserkennungsmodell, das verschiedene Signale analysiert, um unerlaubte KI-Nutzung oder andere verdächtige Aktivitäten zu erkennen, etwa wenn mehrere Personen gemeinsam an einem Assessment arbeiten.

2. Psychometrische und kognitive Assessment-Tools

Nicht jede wichtige Fähigkeit lässt sich in Zeilen von Code messen. Plattformen wie Arctic Shores und Cyquest konzentrieren sich darauf, Soft Skills, Persönlichkeitsmerkmale und kognitive Fähigkeiten zu erfassen.
Solche Assessments sind besonders wertvoll für Rollen, in denen Problemlösungsstil, Resilienz oder zwischenmenschliche Passung genauso wichtig sind wie technisches Know-How. Da die Aufgaben interaktiv, spielerisch gestaltet oder psychometrisch aufgebaut sind, lassen sich die Ergebnisse schwerer fälschen und geben oft eine bessere Prognose darüber, wie sich jemand in einem realen Team verhält und weiterentwickelt.

Arctic Shores: Interaktive, visuelle Aufgaben 

Arctic Shores nutzt visuelle Aufgaben, die sich eher wie Spiele anfühlen als klassische psychometrische Tests. Anstatt KandidatInnen über Fragebögen zur Selbsteinschätzung zu befragen – bei denen auch KI-generierte oder einstudierte Antworten möglich wären – erfasst die Plattform tatsächliches Verhalten in Aktion: wie KandidatInnen auf Herausforderungen reagieren, Risiken eingehen oder unter Druck Entscheidungen treffen. So entsteht ein differenzierteres und authentischeres Bild von Persönlichkeit und kognitivem Stil. Das hilft Arbeitgebern, Eigenschaften zu erkennen, die gut zu den Anforderungen der Rolle und zur Unternehmenskultur passen.‍

3. Platforms for multiple skills and roles

Neben den spezialisierteren Tools gibt es auch eine breite Palette an Plattformen, die mehrere Fähigkeiten und Einsatzbereiche abdecken. Tools wie Adaface, Harver, Selectic, TestGorilla und Xobin bieten umfangreiche Testbibliotheken für technische, kognitive und Soft-Skill-Assessments. Sie sind darauf ausgelegt, Hiring-Teams mehr Flexibilität zu geben: Du kannst unterschiedliche Rollen über ein einziges System bewerten – oft mit integrierten Schutzmechanismen wie Proctoring, Plagiatsprüfungen oder zufällig generierten Fragen, um die Integrität der Ergebnisse zu erhöhen.

TestGorilla: Multi-Skill-Assessments mit Integritätsmaßnahmen

Wenn du nach einer vielseitigen Plattform suchst, die rollenübergreifende Assessments unterstützt und gleichzeitig starke, KI-bewusste Schutzmechanismen integriert, könnte TestGorilla eine passende Lösung für dich sein. Das Tool kombiniert eine umfangreiche Bibliothek an skillbasierten Tests – darunter technische, kognitive, verhaltensbezogene und rollenspezifische Assessments – mit verschiedenen Integritätsfunktionen. Dazu gehören unter anderem Vollbild-Erzwingung (damit KandidatInnen keine Fenster wechseln können), Deaktivierung von Copy-/Paste sowie IP-Monitoring, etwa um ungewöhnlich schnelle Aktionen zu erkennen, die auf ein Umgehen des Systems hindeuten könnten.

Mit Zuversicht einstellen im Zeitalter von ChatGPT

Es gibt keine Einheitslösung, um Assessments für KandidatInnen ChatGPT-sicher zu machen. Der richtige Ansatz hängt von der jeweiligen Rolle, deinem Team und deiner grundsätzlichen Haltung gegenüber KI am Arbeitsplatz ab. Einige Unternehmen werden KI bewusst außerhalb des Prozesses halten und sich auf Aufgaben konzentrieren, die typisch menschliche Fähigkeiten sichtbar machen – etwa Kreativität, Urteilsvermögen und Erfahrung. Andere werden sich dafür entscheiden, KI aktiv in das Assessment zu integrieren und zu testen, wie KandidatInnen mit den Tools zusammenarbeiten, die ihren Arbeitsalltag künftig prägen werden. Klar ist jedoch: Assessments können nicht länger statisch bleiben – sie müssen sich weiterentwickeln. Wenn du durchdachtes Assessment-Design mit den richtigen Plattformen kombinierst, kannst du Prozesse schaffen, die fair, aussagekräftig und zukunftsfähig bleiben – und dir helfen, im Zeitalter der KI mit Zuversicht einzustellen.

🤝 Brauchst du Unterstützung bei der Suche nach neuen Teammitgliedern und beim Aufbau effektiver Hiring-Prozesse? Dann melde dich gerne bei uns

22. September 2025