Typologie von High Potentials statt Kompetenzen
Jeff Conte von der San Diego State University (2014) prĂ€sentiert einen neuen Ansatz, um High Potentials in Unternehmen zu identifizieren. Der Ausgangspunkt besteht darin, dass einzelne isolierte Potenzialindikatoren oder Persönlichkeitsfaktoren nur mĂ€Ăige Korrelationen in der PrĂ€diktion von Aufstieg in FĂŒhrung aufweisen. Die Korrelationen liegen maximal zwischen r = .20 und r = .30: Der monokausale Schluss von einem Persönlichkeitskriterium auf Erfolg im Beruf funktioniert also kaum. In der Psychologie gibt es neben dem Blick auf Menschen ĂŒber Persönlichkeitskriterien und Kompetenzen auch den anderen Blick ĂŒber Typologien (Freud, Jung). Auf der Basis einer statistischen Analyse (Latent Profile Analysis) hat Conte Muster in der Kombination von Persönlichkeitskriterien identifiziert und daraus eine solche Typologie vorgestellt (vgl. Abb. Hipo-Typologie). Die Basis besteht immerhin aus N = 25.000 Potenzialkandidaten, die in ihren Karrieren beobachtet wurden. Die klassischen Big-Five-Persönlichkeitskriterien wurden nach auffĂ€lligen Mustern untersucht, die mit Aufstieg in FĂŒhrung zusammenhĂ€ngen. Danach sind es nicht einzelne Big-Five-Kriterien, sondern es ist eine Kombination von Kriterien, die er als den resilienten Typen bezeichnet: Hohe Belastbarkeit, Genauigkeit/Leistungsstreben, moderate Extraversion und Geselligkeit. Die beiden anderen Typen (Over-/Undercontroller) hingegen sind eher nicht mit Erfolg oder Aufstieg in FĂŒhrung assoziiert.
![Bild1]()
Hipo-Typologie San Diego University (Conte, J., 2014)
Â
Soll ethisches Verhalten bei Bewerbern explizit ĂŒberprĂŒft werden?
In den USA hatte die ĂberprĂŒfung der IntegritĂ€t schon immer eine höhere Bedeutung â bei uns löst das Ansinnen zunĂ€chst Stirnrunzeln aus. Die Empirie zeigt allerdings, dass die Messung von IntegritĂ€t ein starker PrĂ€diktor fĂŒr verschiedene Joberfolgskriterien ist. Dabei scheint es auf die Branche anzukommen: Interessante Branchen sind der Einzelhandel, die Logistik und die Produktion. In diesen Branchen gibt es substanzielle Verluste durch Mitarbeiterdiebstahl, die bei besserer Mitarbeiterauswahl verhindert werden können (Cooper, D. et al., 2014).
Erstaunlich ist, dass fĂŒr diese Zielgruppe auch scheinbar durchschaubare Items eine hohe ValiditĂ€t besitzen, z. B. âWenn Sie die letzten zwei Jahre zusammenfassen, was war der Wert der Dinge auĂer Kleinigkeiten wie Stifte, die Sie von der Firma fĂŒr privaten Gebrauch mitgenommen haben?â. Weniger offensichtlich sind Items wie âIch habe im letzten Jahr wĂ€hrend der Arbeit nie impulsiv reagiertâ. Items, die auch gut funktionieren, sind Rationalisierungen von unethischem Verhalten: âNur wenn die Arbeitsbedingungen wirklich frustrierend sind, kann man auch mal etwas fĂŒr den privaten Gebrauch mitnehmenâ.
IntegritĂ€t und ethisches Verhalten umfassen unterschiedliche Einzelfacetten, die je nach Anforderungen im Detail ausgewertet werden können: Einstellung gegenĂŒber Arbeitssicherheit, ImpulsivitĂ€t, Einstellung gegenĂŒber QualitĂ€t, Bereitschaft, vertrauliche Informationen zu behalten, Umgang mit Alkohol/Drogen. Es bestehen hohe ZusammenhĂ€nge zwischen ethischem Verhalten und den Big-Five-Kriterien Gewissenhaftigkeit (r = .51) und SoziabilitĂ€t (r = .27) (Ones, S. et al., 2014).
![Bild2]()
Interviewfragen zu ethischem Verhalten
Â
Auch auf Management-Level hat das Konstrukt Relevanz. In einer Metaanalyse zu 25 Firmen in den Jahren 1985 bis 2012 konnte gezeigt werden, dass zwischen der in Fragebögen erhobenen ZuverlÀssigkeit von Managern ein Zusammenhang zur BeschÀftigungsdauer und zur Performance-EinschÀtzung besteht (Pickering, D., 2014).
In einer weiteren aktuellen Untersuchung wurde die IntegritĂ€t in verschiedenen LĂ€ndern verglichen â neben dem Mittelwert ist die Varianz der Werte innerhalb der LĂ€nder interessant (Ones, S. et al., 2014). In die Studie gingen 48 LĂ€nder mit 239.000 Teilnehmern ein. Die Ergebnisse entsprechen weitgehend bestehenden Stereotypen zu einzelnen LĂ€ndern, wobei US-Mitarbeiter nach der Studie angeblich ein hohes Level an IntegritĂ€t haben. Wir Deutsche schneiden laut der Untersuchung im Mittel als etwas unethischer ab als die US-Amerikaner. Interessant fĂŒr die Testung von ethischem Verhalten: Je höher die Varianz von ethischem Verhalten innerhalb eines Landes (oder einer Jobgruppe) ist, desto eher eignet es sich fĂŒr die Vorhersage von Berufserfolg, in der Spitze mit ValiditĂ€ten von r = .59 (Ones, S. et al., 2014).
Wer lĂŒgt, ist erfolgreich â Umgang mit sozial erwĂŒnschten Antworten in Testverfahren
Ein fortwĂ€hrendes Thema in Studien ist die Frage, wie mit sozial erwĂŒnschten Antworten oder gar âFakingâ in Testverfahren umgegangen werden soll. Nach einzelnen Aussagen gehen 15 % bis 45 % der Varianz auf Faking oder sozial erwĂŒnschte Antworten in den klassischen Likert-Skalen zurĂŒck. Die frĂŒher ĂŒbliche âLĂŒgen-Skalaâ mit Items wie âIch habe noch niemals die Unwahrheit gesagtâ hilft nicht weiter, da mit den hier auffĂ€lligen Bewerbern (âIch habe noch nie gelogenâ) keiner den Aufwand betreiben möchte, ein Nachinterview zu fĂŒhren (âHaben Sie die Wahrheit gesagt?â).
Der klassische Weg, sozial erwĂŒnschte Antworten zu verhindern, besteht in dem âForced-Choiceâ-Format, das bei Obermann Consulting auch in dem Big-Five-Wirtschaft-Fragebogen eingesetzt wird. In dem Forced-Choice-Format werden den Kandidaten paarweise Antwortmöglichkeiten prĂ€sentiert, zwischen denen sie auswĂ€hlen können oder sie nehmen ein Ranking der angebotenen Varianten vor (âWas beschreibt mich am besten?â). Die angebotenen Varianten können entweder zu gleichen oder zu unterschiedlichen Dimensionen â so bei unserem Fragebogen Big-Five-Wirtschaft â gehören. Dabei ist in der Konstruktion darauf zu achten, dass die Alternativen jeweils gleich sozial erwĂŒnscht sind.
Eine andere Lösung, um sozial erwĂŒnschte Antworten zu kontrollieren, prĂ€sentieren Meade, A. W. et al. (2014). Die Kernidee besteht darin, dass die Items sehr kurz sind und dadurch die Kandidaten spontaner und weniger sozial erwĂŒnscht antworten. Ein typisches Item wĂ€re âDominant â so bin ich/so bin ich nichtâ. Die Antwortzeit ist auf 2,5 Sekunden beschrĂ€nkt, wobei kaum eine Testperson so weit kommt. Der Mittelwert der Antwortzeit betrĂ€gt eine Sekunde. Auf diese Weise kann der Test in zwei Minuten durchgefĂŒhrt werden â dies stellt einen weiteren Vorteil dar. In einem experimentellen Design wurden Probanden gebeten, entweder ehrlich zu antworten oder sich bewusst positiv darzustellen. Gleichzeitig wurde die Testform variiert: Items der ĂŒblichen LĂ€nge oder die sehr kurzen Items. Ergebnis: In der âFaking-Bedingungâ bei der klassischen Testform gibt es einen bedeutsamen Unterschied zwischen der ehrlichen und unehrlichen Variante von d = 1,35. Wird hingegen die Form mit kurzen Items eingesetzt, sinkt der Unterschied auf d = 0,35. Scheinbar also ein vielversprechender Weg. Auf einen Ă€hnlichen Ansatz beruht unser Fragebogen Big-Five-Wirtschaft, hier sind die Items sehr kurz und es muss unter Ă€hnlich attraktiven Adjektiven eine Auswahl vorgenommen werden.
In einem weiteren neuen Artikel gehen Voss et al. (2014) der Frage nach, ob sozial erwĂŒnschte Antworten grundsĂ€tzlich zu verdammen sind. Neben bewusstem TĂ€uschen können solche Antworten auf das akzeptable Motiv zurĂŒckzufĂŒhren sein, sich positiv zu prĂ€sentieren oder auf die weniger akzeptable aber ethisch kaum zu verdammende Tatsache eines inadĂ€quaten Selbstbilds. In ihrer Untersuchung anhand von N = 101 Bewerbern bei BMW wurden in einem Big-Five-Fragebogen EigeneinschĂ€tzungen den Bewertungen von jeweils drei Freunden gegenĂŒbergestellt. Interessantes Ergebnis: Die Bewerber mit einer gegenĂŒber den Freunden zu positiven EigeneinschĂ€tzung sind tendenziell gerade die spĂ€ter erfolgreichen Bewerber. Fazit: Sozial erwĂŒnschtes Antworten scheint auch im Job gefragt zu sein.
Â
Innovationen bei biografischen Fragebögen
In Interviews nach bisherigen Erfahrungen zu fragen, war in der Praxis der Personalauswahl bisher schon immer die Basis aller Methoden. Die BegrĂŒndung dafĂŒr liegt in dem Ansatz, dass die Vergangenheit der beruflichen Biografie der beste PrĂ€diktor fĂŒr zukĂŒnftigen Erfolg darstellt.
Eine Variante sind biografische Fragebögen. Die Idee besteht darin, online oder ĂŒber Papier systematisch biografische Informationen abzufragen, zu denen zuvor ein empirischer Zusammenhang zu Joberfolgskriterien nachgewiesen wurde. Bei der Polizei des Landes NRW hat sich etwa die folgende Frage als sehr vorhersagestark erwiesen: âWie viele MobilfunkvertrĂ€ge haben Sie bisher in Ihrem Leben abgeschlossen?â. Bewerber, die wenige MobilfunkvertrĂ€ge abgeschlossen haben, erwiesen sich im anschlieĂenden Auswahlverfahren als erfolgreicher. Im Kontext von berufserfahrenen Bewerbern wĂ€re etwa eine Frage: âWie viele Projektgruppen haben Sie in den letzten fĂŒnf Jahren geleitet? a) keine b) 1-2 c) 3-5 d) > 6â. Die BegrĂŒndung dafĂŒr zĂ€hlt letztlich nicht, solange die Fragen nachgewiesenermaĂen spĂ€ter erfolgreiche Bewerber vorhersagen. Die Vorteile einer solchen Vorselektion ĂŒber biografische Fragen bestehen gegenĂŒber dem klassischen Interview neben der gröĂeren ObjektivitĂ€t offensichtlich in der höheren Wirtschaftlichkeit â nur die Bewerber oberhalb eines Cut Offs gehen in das klassische Interview. Die ValiditĂ€t wurde hinreichend nachgewiesen (etwa Ployhart et al., 2006).
Eine Herausforderung besteht darin, dass die Items anfĂ€llig gegenĂŒber âFakingâ sind â Bewerber können schlicht falsche Angaben machen. Der Autor Schwall (2014, b) stellt dazu eine Lösung vor. Die biografische Frage nach der Erfahrung mit Projektgruppen wird ergĂ€nzt, indem die Bewerber bei den Antwortvarianten b, c und d gebeten werden, die jeweiligen Projekte kurz zu beschreiben. Alleine die BefĂŒrchtung, dass diese schriftlichen AusfĂŒhrungen kontrolliert werden können, soll Bewerber dazu bringen, ehrlicher zu antworten. Der Autor stellt eine weitere Innovation vor, wie die Ehrlichkeit weiter erhöht werden kann, ohne manuellen Aufwand zu produzieren: Die Antworten auf die offenen Fragen werden automatisiert nach Stichwörtern ausgelesen. So bestand etwa ein Erfahrungswert darin, dass bei den Antworten auf die Frage nach den Projekterfahrungen bei den schwĂ€cheren Bewerbern hĂ€ufiger das Adjektiv âschwierigâ auftauchte. Ergebnis der Studie: Durch dieses simple Auslesen von Stichwörtern konnte zu 71 % die SelbsteinschĂ€tzung der Bewerber korrekt vorhergesagt werden. Das erscheint zunĂ€chst zu niedrig. Die Idee besteht jedoch darin, nur den geringen Teil von Bewerbern zu interviewen, bei dem die SelbsteinschĂ€tzung hoch ist, die Antwortmuster jedoch eine schwĂ€chere Bewertung nahelegen, also vermutet werden kann, dass die biografischen Fragen nicht ehrlich beantwortet wurden.
Â
Stand der Dinge zur InterviewfĂŒhrung
Relativ zur praktischen Bedeutung hĂ€lt sich der Umfang von Validierungsstudien zum Interview in Grenzen. Der fĂŒhrenden US-Autor Michael Campion von der Purdue University fasst die aktuelleren Studien zusammen (Campion, M., 2014). Er berichtet von bisher 36 durchgefĂŒhrten ValiditĂ€tsstudien. ZunĂ€chst gibt es die bekannten Ergebnisse, dass âVorstellungsgesprĂ€cheâ mit beliebigen Fragen ohne Anforderungsbezug (âWarum möchten Sie bei uns arbeiten?â, âWas sind Ihre StĂ€rken und SchwĂ€chen?â) trotz der Selbstgewissheit des Interviewers keine ValiditĂ€t haben und primĂ€r gegenseitige Sympathie sicherstellen. Der Treiber fĂŒr ZuverlĂ€ssigkeit und Treffsicherheit besteht in einer hohen Strukturierung durch anforderungsorientierte, vorbereitete Fragen in gleicher Reihenfolge.
 ![Bild3]()
Â
Zum Thema Nachhaken war bisher Stand der Dinge die STAR-Methode, die wir auch in unseren Interviewtrainings ĂŒben (Situation, Task, Result). Hierzu gibt es Neues: Nach Campion bedroht das Nachhaken stark die ObjektivitĂ€t und am Ende die Treffsicherheit der Interviews. Professionellen Interviewern gelingt es kaum, so nachzuhaken, dass nicht am Ende die Bewerber mehr oder weniger deutliche Hinweise auf die gewĂŒnschte Antwort bekommen.
Er schlĂ€gt eher vor, fĂŒr jede Frage allgemeine Nachhakfragen vorzubereiten (z. B. bei situativen Fragen: âOkay, und wenn Ihre Antwort nicht funktioniert, was wĂŒrden Sie dann tun âŠ?â oder bei biografischen Fragen: âWelche UnterstĂŒtzung hatten Sie dabei?â oder âWer war noch beteiligt?â).
Die höchste ValiditĂ€t weisen Interviews auf, in denen es vorbereitete Antwortkategorien gibt. Die schwĂ€chste Variante ist eine allgemeine Likert-Skala (z. B. 3 = erfĂŒllt in der Antwort teilweise die Erwartungen). Besser sind Verhaltensanker, in denen etwa in drei Stufen die erwarteten Antworten inhaltlich beschrieben werden. ObjektivitĂ€t und ValiditĂ€t fallen eindeutig aus, die praktische Herausforderung ist es, die beteiligten FĂŒhrungskrĂ€fte dazu zu bringen, diese tatsĂ€chlich zu nutzen. Dazu sollte es in der Vorbereitung KalibrierungsĂŒbungen mit Videobeispielen geben.
Â
Neues zu Situational Judgement Tests
In Situational Judgement Tests (SJT) werden Bewerbern berufliche Situationen mit der Bitte vorgelegt, sich unter einer von mehreren Alternativen zur weiteren Vorgehensweise oder Lösung der Situation zu entscheiden. Neben textbezogenen Itemformaten sind in den 90er-Jahren Varianten mit Bilderszenen und seit den 2000er-Jahren Varianten mit Videostimuli entstanden. Die in der Literatur berichteten ValiditÀten sind sehr unterschiedlich, die ZusammenhÀnge der SJT-Ergebnisse zu VorgesetzteneinschÀtzungen variieren zwischen r = -.05 und r = .33, sodass es darauf ankommt, wie die SJT im Detail konstruiert werden.
Obermann Consulting hat dieses Jahr ein Projekt im Einzelhandel betreut, bei dem im Rahmen einer Potenzialanalyse Mitarbeitern 40 videobasierte Szenen aus dem FĂŒhrungsalltag vorgelegt werden. In der Validierungsstudie vorab zeigt sich ein signifikanter Zusammenhang zur VorgesetzteneinschĂ€tzung, sodass der SJT nun in Anwendung kommt. Durch die Darstellung von praktischen Szenen aus dem Berufs- und FĂŒhrungsalltag haben die SJT eine sehr hohe Akzeptanz bei Bewerbern und im Management. Neben der höheren Akzeptanz liegt der Vorteil der videobasierten Stimuli darin, dass durch den visuellen Kanal der âkognitive Overloadâ geringer ist und die SJT kein verkappter Intelligenztest sind.
![Bild4]()
Situational Judgement Test â aufwĂ€ndig aber effektiv
Auch dazu gibt es neue Studien. Barron et al. (2014) von der amerikanischen Air Force gingen zunĂ€chst den anderen Weg, um den Aufwand in der Erstellung der SJT zu reduzieren. Hier wurde sowohl auf Bildmaterial verzichtet als auch auf die Darbietung von (aufwĂ€ndig zu konstruierenden) Antwortalternativen. In dem Air Force SJT wurden u. a. Kriterien wie Leadership, soziale FĂ€higkeiten und ethisches Verhalten getestet. Zwei SJT-Formen wurden dann an der gleichen Population getestet â Text-SJT mit mehreren Antwortalternativen und lediglich einer Antwortmöglichkeit (Frage: âWie wahrscheinlich ist das hier beschriebene Verhalten in der Situation?â). Die Ergebnisse sind eher ernĂŒchternd: Durch die Vereinfachung sinkt die ReliabilitĂ€t von r = .91 auf r = .72. Die höchste ValiditĂ€t besitzt die vereinfachte SJT-Form mit Kriterien wie âInteresse an Kunstâ bei den getesteten Soldaten. Fazit: Eine zu groĂe Vereinfachung erscheint nicht sinnvoll.
Den umgekehrten Weg beschreiben Fix & Ablitt (2014). FĂŒr die englische Bank Barcleyâs wurden SJT mit einer rein verbalen Beschreibung und inhaltlich gleichen Videostimuli verglichen. FĂŒr die videobasierten Items wurde ein substanzieller Aufwand betrieben: Professionelle Schauspieler, animierter Hintergrund, 18 Monate Entwicklungszeit, PrĂ€sentationsperson einleitend zu den Videos. Beide Varianten fĂŒhrten zu Ă€hnlichen ValiditĂ€ten gegenĂŒber der VorgesetzteneinschĂ€tzung der eingestellten Bewerber (Textversion r = .19, Videoversion r = .18, jeweils signifikant). Der erhebliche Mehraufwand fĂŒr die Produktion der Videostimuli scheint sich bezogen auf die Vorhersage von Joberfolg also nicht zu lohnen â anders zu betrachten ist die höhere AttraktivitĂ€t fĂŒr die Teilnehmer und die Akzeptanz im Management.
Â
Literatur:
Â
- Barron, L. G., & Cody, B. C. (2014). Comparative Validity of Traditional (Multiple Response) and Single Response Situational Judgement Test. Honolulu: SIOP, 29th Annual Conference.
- Campion, M. A. (2014). How to Develop Interview Questions and Anchored Rating Scales. Honolulu: SIOP, 29th Annual Conference.
- Conte, J. M. (2014). Perspectives on High Potential. Honolulu: SIOP, 29th Annual Conference.
- Cooper, D. A., & Slaugther, J. E. (2014). Reducing Workers Compensation Costs: The Influence of Implementing Integrity Testing. Honolulu: SIOP, 29th Annual Conference.
- Fix, C., & Ablitt, H. (2014). Made to Measure? Comparing Psychometrics of Text & Media-Based SJT. Honolulu: SIOP, 29th Annual Conference.
- Hendricks, D. A., Robie, C., & Laurier, W. (2014). Use of Other-Ratings and Technology to Address Applicant Faking. Honolulu: SIOP, 29th Annual Conference.
- King, D., Ryan, A. M., & Kantrowitz, T. (2014). Mobile and PC Delivered Assessments: Comparison of Scores and Reactions. Honolulu: SIOP, 29th Annual Conference.
- Kinney, T. B., Lawrence, A. D., & Luye, C. (2014). Understanding the Mobile Candidate Experience: Reactions Across Device and Industry. Honolulu: SIOP, 29th Annual Conference.
- Landers, R. N., Cavanaugh, K. J., & Proaps, A. (2014). Talent Management Using Mobile Devices. Honolulu: SIOP, 29th Annual Conference.
- Lievens, F., & Sackett, P. R. (2006). Video-based versus written situational judgment tests: A comparison in terms of predictive validity. Journal of Applied Psychology, 91 (5), 1181-1188.
- Meade, A. W., & Papparlardo, G. (2014). Development of an Efficient and Faking-Resistant Rapid Response Assessment Method. Honolulu: SIOP, 29th Annual Conference.
- Ones, D. S., Wiemik, B. M., & Schmidt, F. L. (2014). Cross-Cultural Validity of Preemployment Integrity Tests: A Transcultural Meta-Analytic Investigation. Honolulu: SIOP, 29th Annual Conference.
- Pickering, D., & Foster, H. (2014). Examining Relationship Between Employee Reliability and Job Performance for Managers. Honolulu: SIOP, 29th Annual Conference.
- Ployhart, R. E., Schneider, B., & Schmitt, N. (2006). Staffing organizations: Contemporary practice and theory, 3rd ed. Mahwah: Lawrence Erlbaum Associates Publishers.
- Schwall, A. R. (2014). Preventing Faking in Biodata Items Using Elaboration and Machine Learning. Honolulu: SIOP, 29th Annual Conference.
- Voss, B. E., Alshanski, S., & Christiansen, N. (2014). Convergence and Discrimination of Observer Personality Ratings From Work Simulations. Honolulu: SIOP, 29th Annual Conference.
Â
The post Neue Forschungsergebnisse aus der Eignungsdiagnostik appeared first on Obermann Consulting.