Quantcast
Channel: AC-Newsletter Archives - Obermann Consulting
Viewing all 51 articles
Browse latest View live
↧

Stand der Online Testverfahren

$
0
0

Neuerungen Online-Testverfahren

Unsere Testverfahren, die im AC als Papierformat verwendet werden, werden von Obermann Consulting auch in einer Online-Version angeboten. Sowohl die kognitiven Tests, wie zum Beispiel der KTK-N oder der KTK-V, als auch die Tests, die sich mit der Persönlichkeits- oder Motivationsstruktur befassen, können schnell und simpel online durchgefĂŒhrt werden. So können diese von den Teilnehmern vor einem AC durchgefĂŒhrt werden oder zum Beispiel auch als ein Kriterium fĂŒr die Vorauswahl von Bewerbern genutzt werden.

Musterprofil eines OCM (Auszug)Musterprofil OCM

Ein Musterprofil und einen Auszug aus der Interpretation des Obermann Consulting Motivationsfragebogens (OCM) sehen Sie in der nebenstehenden Abbildung. Der OCM gibt eine Auswertung ĂŒber die beruflichen Motive. In diesem Beispiel hat zeichnet sich die Person durch eine besonders hoch ausgeprĂ€gte Misserfolgs- und Kontaktmotivation aus. WĂ€hrend Wettbewerbs-, VerĂ€nderungs- und Wachstumsmotivation eher schwĂ€chere Antriebe sind.

Solch ein Profil und eine vollstĂ€ndige Interpretation erhalten die zustĂ€ndigen Personen bequem und schnell per Mail, nachdem der Test  durchgefĂŒhrt wurde.

Neunormierung KTK-V

Im Februar 2013 wurde eine Neunormierung des KTK-V durchgefĂŒhrt. Mit Hilfe der Online-Daten wurde die StichprobengrĂ¶ĂŸe von N = 621 auf N = 1749 erhöht. Dies gewĂ€hrleistet eine reprĂ€sentative Vergleichsstichprobe mit hohem Bezug zum Beruf, da sie ausschließlich auf Bewerbern fĂŒr FĂŒhrungspositionen und Teilnehmern an AC basiert.

VerfĂŒgbarkeit englische Version

Um den immer lauter werdenden Anfragen gerecht zu werden, bieten wir einige unserer Tests demnĂ€chst auch in englischer Fassung an. Den ersten Schritt wird hierbei der KTK-N machen, der voraussichtlich ab Mai 2013 auf Englisch verfĂŒgbar sein wird. Hierbei handelt es sich um ein Verfahren, das vor allem die FĂ€higkeit Tabellenmaterial schnell zu erfassen und zu analysieren prĂŒft.

 

Zum Weiterlesen:

The post Stand der Online Testverfahren appeared first on Obermann Consulting.

↧

Kompetenzmodelle – Was ist zu beachten?

$
0
0

Neun Schritte zum richtigen Kompetenzmodell

Im Folgenden wird ein Vorgehen zur systematischen Entwicklung eines unternehmensspezifischen Kompetenzmodells vorgestellt. Das bedeutet nicht, dass jedes Unternehmen alle Schritte in der kompletten Form durchlaufen muss und wird. Die neun Schritte unterstĂŒtzen Sie bei der Gestaltung Ihres Prozesses – sei es Entwicklung, EinfĂŒhrung oder Optimierung des Kompetenzmodells – und weisen auf Dos und Don’ts hin.

Schritt 1 – AuftragsklĂ€rung

Wichtig ist es, zu Beginn alle Stakeholder des Kompetenzmodells bei der AuftragsklĂ€rung miteinzubeziehen. Hier gilt es zunĂ€chst, die relevanten GesprĂ€chspartner zu identifizieren, und mit ihnen die Aufgaben abzuklĂ€ren. Ein festgelegter Entscheiderkreis, in welchem nach Möglichkeit das ganze Unternehmen reprĂ€sentiert wird, sollte gebildet und ermĂ€chtigt werden. So kann der Vorstand oder die GeschĂ€ftsfĂŒhrung die strategischen Ziele festlegen und kommunizieren, aus denen sich das Kompetenzmodell ergibt. Die Personalabteilung kann unterstĂŒtzen, indem sie bestehende Konzepte/Methoden oder Tools bereitstellt. Weitere Fragen, die in dieser Phase beachtet werden sollten, sind: Gilt das Modell fĂŒr alle Positionen im Unternehmen, oder gibt es verschiedene Kompetenzen pro Ebene? Wie sehr soll es ins Detail gehen? WofĂŒr soll es genutzt werden?

kompetenzmodell_schritteSchritt 2 – Analyse des Status Quo

Im zweiten Schritt sollte der Status Quo unter die Lupe genommen werden. Welche AnsĂ€tze wurden bei der bisherigen Bewerberauswahl oder bei bisher stattgefundenen Potenzialanalysen verfolgt? Welche Kriterien wurden fĂŒr Weiterbildungsmaßnahmen zugrunde gelegt? Was sind die bestehenden Konzepte, und wie wurden sie angewendet? Sollte es zu WidersprĂŒchen kommen, ist es sinnvoll, diese aufzuzeigen? Die von der GeschĂ€ftsfĂŒhrung vorgegebenen Visionen, Missionen, Strategien, Leitbilder und Werte sollten mit dem IST-Stand abgeglichen werden, um so den genauen Bedarf zu ergrĂŒnden, der vom neuen Kompetenzmodell abzudecken ist.

Schritt 3 – Projektplan zur Entwicklung des Kompetenzmodells

Anhand der SOLL-IST-Analyse können konkrete nĂ€chste Schritte abgeleitet werden. Ein Projektplan, der sowohl Auskunft ĂŒber die geschĂ€tzten Ressourcen (Personal, Zeit, Kosten) gibt, als auch Meilensteine und Verantwortlichkeiten festhĂ€lt, erlaubt es den Beteiligten, effizient an der Erstellung des Kompetenzmodells zu arbeiten, und kann auch als Entscheidungsgrundlage fĂŒr Stakeholder dienen.

Schritt 4 – Information aller Personen im Unternehmen

Wie bei jedem Change-Prozess ist es wichtig, alle Beteiligten in die VerĂ€nderung einzubinden. Eine der hĂ€ufigsten Ursachen fĂŒr das Scheitern von VerĂ€nderungsprozessen ist die unzureichende Kommunikation. Hilfreich ist hier eine Plattform, mit Hilfe derer die Beteiligten den aktuellen Projektstand und die nĂ€chsten Schritte abrufen können. Dabei ist zu beachten, dass die Art der Information bezĂŒglich des Prozesses an die Zielgruppe angepasst sein sollte. So sind Vorstandsmitglieder an anderen Aspekten interessiert als das mittlere Management. Offene Kommunikation sollte aber auch ĂŒber Risiken und eindĂ€mmende Maßnahmen gewĂ€hrleistet sein, um so das Vertrauen der Mitarbeiter aufrechtzuerhalten. Sollten Feedback, Kritik oder ÄnderungsvorschlĂ€ge auftreten, ist es wichtig, abweichende Meinungen zu akzeptieren und zu berĂŒcksichtigen.

Schritt 5 – Sammlung erfolgsrelevanter Verhaltenserwartungen

Im Idealfall wurde die Freigabe von den Entscheidern erteilt – es kann nun ans Eingemachte gehen. Anhand der von der GeschĂ€ftsfĂŒhrung vorgegebenen Visionen und Ziele sollte Verhalten abgeleitet werden, das vom Unternehmen gewĂŒnscht ist. DarĂŒber hinaus kann aus Stellenbeschreibungen oder Anforderungsprofilen abgeleitet werden, welches Verhalten fĂŒr unterschiedliche Job-Familien erfolgsversprechend ist. Weitere Methoden wie zum Beispiel Experteninterviews, Workshops oder die Critical Incident Technique können herangezogen werden und die  SOLL-IST-Analyse ergĂ€nzen. Auch hier ist es wichtig, alle Unternehmensbereiche – wenn möglich einzubeziehen – um ein reprĂ€sentatives Bild zu gewĂ€hrleisten.

Schritt 6 – Verdichtung zu Kompetenzfeldern/Kompetenzen und Komponenten

Welche Kompetenzen liegen hinter dem gesammelten, erfolgsrelevanten Verhalten? Um diese Frage zu beantworten, ist es hilfreich, die Verhaltensweisen zunĂ€chst zu clustern und zu sortieren. Daraufhin sollte die Anzahl der Kompetenzen festgelegt werden – hier ist zu empfehlen, dass die Anzahl acht oder neun Kompetenzen nicht ĂŒberschreitet. Aus den sortierten Verhaltenserwartungen gilt es nun, Kompetenzen abzuleiten, und diese in allgemeingĂŒltige und funktionsspezifische Kompetenzen zu unterscheiden. Eine mögliche Struktur des Kompetenzmodells beinhaltet drei Hierarchiestufen (1. Kompetenzfeld: Persönliche Kompetenz; 2. Kompetenz: Unternehmerisches Handeln; 3. Komponenten: Unternehmerisches Denken, Analysevermögen, Handlungsorientierung). Bei einer ÜberprĂŒfung der zustande gekommenen Kompetenzen ist es wichtig, dass diese schlĂŒssig sind und dass kein Widerspruch auftritt. Weiterhin sollten die Kompetenzen so operationalisiert sein, dass sie gut messbar sind.

PowerPoint-PrĂ€sentationSchritt 7 – Operationalisierung des Kompetenzmodells pro Analyseeinheit

Die Komponenten werden anhand konkreter Beobachtungsanker operationalisiert. Die Herausforderung besteht darin, die Anker so konkret und beobachtbar wie möglich zu formulieren. Bei der Kompetenz „Ergebnisorientierung“ lĂ€sst sich zum Beispiel das „Vereinbaren von konkreten nĂ€chsten Schritten oder Meilensteinen zusammen mit dem Mitarbeiter“ gut beobachten. Ein Anker, der lediglich „erzielt Ergebnisse“ beinhaltet, ist dagegen schwer beobachtbar, und kann daher zu unterschiedlichen Interpretationen bei den Beobachtern fĂŒhren. Je konkreter, desto besser. Jedoch gilt es auch hier, Überschneidungen zu vermeiden. Taucht dasselbe Verhalten in zwei unterschiedlichen Ankern auf, kann dies zu Diskrepanzen in der Beobachtung fĂŒhren. WĂ€hrend der eine Beobachter das Verhalten auf der einen Kompetenz scored, wird es von dem zweiten Beobachter auf einer anderen Kompetenz gesehen. TrennschĂ€rfe ist hier essenziell.

Schritt 8 – Verzahnung mit bestehenden HR-Prozessen

Um eine optimale Kombination mit bestehenden HR-Prozessen zu erzielen, ist ein flĂ€chendeckendes Roll-out angebracht. Das Thema Commitment spielt auch hier wieder eine große Rolle, da durch offene Kommunikation und Transparenz wĂ€hrend des Roll-outs das Bekenntnis zum neuen Kompetenzmodell bei Mitarbeitern erreicht wird. Bestehende Personalentwicklungs- und Personalauswahlprozesse mĂŒssen an das neue Modell angepasst und darin integriert werden. Eventuell gibt es Instrumente, die neu entwickelt werden mĂŒssen. Wichtig ist auch, dass alle Anwender und FĂŒhrungskrĂ€fte hinsichtlich der Neuerungen geschult werden – nicht zuletzt, um den Widerstand gegen Neues/Unbekanntes zu entkrĂ€ften.

Schritt 9 – Evaluation und Pflege

Wie bei jedem wissenschaftlichen Prozess ist auch hier eine stetige Evaluierung und Anpassung zu empfehlen. Schon wĂ€hrend des Entwicklungsprozesses ist jeder Schritt kritisch zu hinterfragen und auf VollstĂ€ndigkeit zu prĂŒfen. Auch nach der Implementierung ist es sinnvoll, das Modell bei relevanten VerĂ€nderungen zu prĂŒfen und mit statistischen Mitteln oder EinzelfĂ€llen zu analysieren. Durch die Ernennung eines „Kompetenzmodell-Managers“ ist eine QualitĂ€tssicherung auch ĂŒber einen lĂ€ngeren Zeitraum hinweg gewĂ€hrleistet.

 

Quelle: Ebert, P. S., Görke, P., Höft, S., Kevenoglu, F., Koch, A., Schuster, G., Tanzer, C., Thiemann, Th., Thiem, N. & Uhle, T. (2012). Kompetenzmodelle kompetent managen.

Zum Weiterlesen:

The post Kompetenzmodelle – Was ist zu beachten? appeared first on Obermann Consulting.

↧
↧

Assessment Center bei der EU

$
0
0

Obermann Consulting_NetzwerkAssessment Center jetzt auch bei der EuropÀischen Union.

In einem kaum bekannten Umfang werden Hochschulabsolventen fĂŒr die Verwaltung der EU in BrĂŒssel eingestellt. Das ist bekanntermaßen von der VergĂŒtung und Versteuerung her Ă€ußerst attraktiv – seit letztem Jahr mit AC in großem Stil. In dem AC sind 40 Bewerber – Tag fĂŒr Tag. Elemente sind ein Interview, eine PrĂ€sentation, GruppenĂŒbung und verschiedene schriftliche Aufgaben. Die Bewerber mĂŒssen das AC in ihrer Nicht-Muttersprache durchfĂŒhren. DafĂŒr gibt es drei Alternativen: Englisch, Französisch und Deutsch. Nachdem viele Bewerber hier gemogelt haben, gibt es speziell einen Sprachtest in der angegebenen Muttersprache. Was die Beamten machen, ist grĂŒndlich: In der Abteilung sind 60 Mitarbeiter beschĂ€ftigt, um die ACs zu organisieren.

 

 

Zum Weiterlesen:

The post Assessment Center bei der EU appeared first on Obermann Consulting.

↧

37. Internationaler AC Kongress in SĂŒdafrika 2013

$
0
0

Eine Premiere bei dem diesjĂ€hrigen Kongress war die gleichzeitige DurchfĂŒhrung mit dem lokalen Kongress der AC-Vereinigung in SĂŒdafrika. Dort ist die AC-Szene auf einem sehr hohen Niveau – das aktuelle Kongress-Format gibt es schon im 33. Jahr, es besteht eine große Beraterszene und der politische Umbruch sorgt fĂŒr Nachfrage. Diese ist reguliert, so mĂŒssen sich die sĂŒdafrikanischen Berater zu dem Kongress ein- und auschecken, um damit „Ethik-Punkte“ zu verdienen – als Voraussetzung fĂŒr die Zulassung.

Trend E-Assessment

Mehrere Anbieter und Anwender stellen unter verschiedenen Marketing-Labels („AC 2.0“, „Virtual Assessment“) ihre Lösungen fĂŒr webunterstĂŒtztes AC vor. Ein Treiber ist die Reduzierung von Reisekosten, speziell fĂŒr große Gruppen von Hochschulabsolventen. Die EU-Vertreterin rechnet etwa vor, dass fĂŒr die 5.000 Bewerber der EU jĂ€hrlich ĂŒber eine Million Euro an Reisekosten zu ersetzen sind. Ein Fazit aus dem Kongress ist, dass die Begeisterung der Anbieter noch kaum durch Studien substanziiert ist: Wird mit einem webbasierten AC das Gleiche gemessen? Wie können sozial-kommunikative FĂ€higkeiten adĂ€quat eingeschĂ€tzt werden?

AC-Ergebnisse lassen sich auch auf Übungsebene interpretieren

Seit der ursprĂŒnglichen Untersuchung 1982 von Sackett & Dreher bestĂ€tigten immer wieder Studien die geringe KonstruktvaliditĂ€t des AC: Ein und dieselbe AC-Dimension fĂŒhrt meist ĂŒber verschiedene Aufgaben hinweg zu unterschiedlichen Resultaten; es lassen sich keine stabilen Dimensionen finden. In letzter Zeit wird hĂ€ufiger diskutiert, auf die Betrachtung von AC-Dimensionen gĂ€nzlich zu verzichten, da die Dimensionen ĂŒber die Aufgaben hinweg nicht ausreichend stabil sind. Die Alternative wĂ€re, lediglich die Leistung in den einzelnen Aufgaben zu betrachten: Wie gut lĂ€uft das MitarbeitergesprĂ€ch? Wie wird die Fallstudie beherrscht? Weniger sinnvoll wĂ€re das bei allgemeinen Potenzialanalyse-ACs, durchaus jedoch bei ACs fĂŒr die Besetzung konkreter Jobs.

Brian Hoffmann von der University of Georgia ist einer der neueren aktiven Forscher in der AC-Szene und stellt eine neue Metaanalyse von ValiditÀtsdaten vor.

Ein Ergebnis ist, dass tatsĂ€chlich auch die AC-Aufgaben – unabhĂ€ngig von den Bewertungskompetenzen – valide fĂŒr die Vorhersage von Berufserfolg sind. Gleichzeitig gilt dies auch fĂŒr die AC-Dimensionen. Daher ist es praktisch sinnvoll, in der Entscheidung sowohl auf die Aufgabenmittelwerte, als auch auf die Dimensionen zu schauen. Neu ist die Erkenntnis, dass es statistische Interaktionen von Aufgaben und Dimensionen gibt: In unterschiedlichen Aufgaben sind einzelne Dimensionen – selbst, wenn sie formal gleich stark beobachtet werden – unterschiedlich relevant.

Neuropsychologie und neue Sichtweise auf Feedback

Aus Sicht der AC-Verantwortlichen ist Feedback ein „Geschenk“, von dem erhofft wird, dass der AC-Teilnehmer es mit Freude auspackt. Die Neuroforscherin Mary-Joe Emde untersucht das Thema aus neuropsychologischer Sicht. Wenn wir erfahren, dass uns jemand Feedback geben möchte, kommt bei uns eher der Gedanke: „Oh, was habe ich wohl falsch gemacht?“ – vielleicht verbunden mit einer Abwehrhaltung. Neuronal werden alle Situationen – wie die AnkĂŒndigung von Feedback – in der Amygdala („Mandelkern“) vielfach in der Sekunde auf den möglichen Bedrohungscharakter untersucht. Die Verschaltung im Hirn ist so, dass die Amygdala schon Flucht- und Abwehrreaktionen einleitet, bevor im prĂ€frontalen Cortex ĂŒberhaupt angefangen wird, nachzudenken und zu reflektieren. Emotionaler und sozialer Schmerz – ausgelöst durch Feedback – wird in bildgebenden Verfahren an der gleichen Stelle im Gehirn angezeigt wie körperlicher Schmerz. Die praktische Konsequenz ist, dass Feedback ĂŒberhaupt erst dann ankommt, wenn die Amygdala auf grĂŒn schaltet, nĂ€mlich eine stabile, vertrauensvolle Beziehung von dem Feedbackgeber aufgebaut wurde.

Erste globale Studie zur weltweiten Anwendung des AC

Alyssa Gibbons & Dan Hughes stellen die Ergebnisse der ersten globalen Studie vor, in der weltweit 512 AC-Verfahren verglichen werden. Das AC als Methode ist mittlerweile in LĂ€ndern etabliert, an die man in diesem Zusammenhang kaum denkt, wie Indonesien oder ostafrikanische LĂ€nder wie Tansania. 23 % der ACs finden international statt – in mehr als einer Sprache oder Nation. Befragt danach, wie die Verantwortlichen mit den interkulturellen Aspekten umgehen, kommen eher Klassiker wie die kulturspezifische Anpassung der Instruktion oder der Einsatz von Beobachtern mit entsprechender Vielfalt. Weltweit gibt es einen Trend, dass mehr HR-Vertreter die Beobachterrolle ĂŒbernehmen – aus Sicht der Autoren kritisch zu sehen, wenn das Linienmanagement oder die Psychologen relativ außen vor bleiben. Ein kritischer Aspekt ist, dass in 77 % der 512 ACs lediglich vier oder weniger Aufgaben eingesetzt werden – multiple Aufgaben und multiple Beobachter sind schließlich die Essenz des ACs (mehr zu der globalen Studie im neuen Obermann Buch Assessment Center, 2013).

Bessere Verbindung von Assessment und EntwicklungsaktivitÀten

Die AC-Legende Bill Byham zeigt den bisher schlecht erfĂŒllten Kundenbedarf auf, dass akkurat AC-Ergebnisse erhoben, diese jedoch nicht systematisch in EntwicklungsaktivitĂ€ten umgesetzt werden. Ein Vorschlag ist, speziell bei Development-Centern auf die zu globalen AC-Dimensionen zu verzichten, die sich schlecht in EntwicklungsaktivitĂ€ten ĂŒbersetzen lassen, und stattdessen auf „Keyactions“ zu setzen. Diese sind in der Abstraktionsebene tiefer (z. B. „kann facettenreich argumentieren“ oder „kann sich entscheiden und positioniert sich“). Entwicklungsbedarfe auf der Ebene dieser „Keyactions“ lassen sich gezielter mit TrainingsaktivitĂ€ten angehen. Dabei gilt immer noch die 10/20/70–Regel: 10 % der EntwicklungsaktivitĂ€ten durch Training, 20 % durch eine Umsetzung on-the-job (z. B. Vorgesetztenfeedback) und 70 % durch eigene AktivitĂ€ten am Arbeitsplatz.

Daniel Pichl von Siemens stellt dazu einen interessanten Ansatz vor. Nach dem DC gibt es zwei geplante Folgeworkshops: Ein Trainingsevent und ein Entwicklungsworkshop, in dem mit den Teilnehmern besprochen wird, wie die Erkenntnisse umgesetzt werden und wer bei der Umsetzung helfen könnte.

Analytisches Denken und Extraversion sind die Kernaspekte im AC

Brian Hoffmann stellt eine weitere Studie zur Frage vor, welche Dimensionen im AC bedeutsam sind. In einer konfirmatorischen Faktorenanalyse lassen sich die AC-Leistungen auf zwei Komponenten reduzieren: Mit analytischen FĂ€higkeiten und Intelligenz stehen nahezu alle AC-Leistungen im Zusammenhang. Der zweite starke Faktor ist die Extraversion, also Überzeugungswirkung, FĂŒhrung und Dominanz. Überraschend fĂŒr Hoffmann ist, dass sich kein Faktor finden lĂ€sst, der Aspekte wie KooperationsfĂ€higkeit oder Teamverhalten umfasst – möglicherweise ein blinder Fleck im AC. Die praktische Empfehlung fĂŒr das AC ist, auf die Vielzahl von AC-Dimensionen zu verzichten und unterhalb der Komponenten Analytisches Denken und Extraversion lediglich einige Unterdimensionen zu differenzieren.

Ethik im Assessment-Center

Aus deutscher Perspektive möglicherweise weniger relevant, spielt das Thema Ethik generell und auch im AC eine große Rolle. Hohe Aufmerksamkeit hatte der Vortrag des lokalen „Ethik-Gurus“ Gert Roodt von der UniversitĂ€t Johannesburg. Generell wird Ethik definiert als das, was im gleichen Umfang dem Selbst (oder der eigenen Gruppe) und „den Anderen“ gut tut. Die Anderen sind alle Stakeholder, die mit dem Thema zu tun haben könnten. Im AC gibt es viele ethische Risiken, z. B., wenn der ursprĂŒngliche Auftrag war, Entwicklungsempfehlungen fĂŒr Teilnehmer in einem DC abzuleiten, und der Auftraggeber dann plötzlich ein Teilnehmer-Ranking erbittet. Zu einem solchen Fallbeispiel hatten die lokalen Teilnehmer des AC-Kongresses eine Fallstudie zu bearbeiten, deren richtige Lösung dann „Ethikpunkte“ erbrachte. Indizien fĂŒr ethische Risiken sind Aussagen wie „Das haben wir immer so gemacht“, „Hierzu brauchen wir juristischen Rat“ oder „Sie können das machen, aber bitte nicht meinen Namen erwĂ€hnen“. Ein praktischer Hinweis ist, mit den beteiligten Stakeholdern vorab Absprachen zu treffen, um nicht im Nachhinein in ethische Konflikte hineingezogen zu werden.

 

The post 37. Internationaler AC Kongress in SĂŒdafrika 2013 appeared first on Obermann Consulting.

↧

Neue Erkenntnisse aus der AC Studie 2012

$
0
0

AC-Studie 2012: mehr Verfahren – weniger Teilnehmer – Zielgruppe NachwuchskrĂ€fte

Seit den Studien in den Jahren 2001 und 2008 stellt der Arbeitskreis Assessment-Center e. V. (AkAC) nun seine aktuelle Studie zur Verbreitung des Assessment-Centers in den deutschsprachigen LÀndern vor. In diesem Artikel fassen wir die ersten wesentlichen Ergebnisse zusammen, die sich mit der AnwendungshÀufigkeit von ACs und den Teilnehmeranzahlen befassen.

ac_anwendungDie Anwendung des ACs wÀchst weiter

Befragt wurden 125 Organisationen aus allen Branchen und in allen GrĂ¶ĂŸenordnungen. Davon geben im Vergleich zur Studie von 2008 mehr Unternehmen an, die AC-Methode einzusetzen. Der Anteil der Unternehmen, die mehr als 15 AC-DurchlĂ€ufe p. a. durchfĂŒhren, steigt von 27 % in 2001 und 43 % in 2008 auf 61 % im Jahr 2012. Auf die Frage, wie die Unternehmen den Stand der Anwendung sehen, gaben 55 % an, dass der Umfang der Anwendung zunimmt, wĂ€hrend der Umfang von 34 % als gleichbleibend betrachtet wird. Als alternative Entscheidungsgrundlage zu einem AC wird von der Mehrzahl der teilnehmenden Unternehmen (63,5 %) das Interview genannt.

27 der 30 DAX-Unternehmen setzen die AC-Methode ein

Im Gegensatz zu anderen Studien ist es dem AkAC gelungen, eine Vollerhebung bei den DAX-30 Unternehmen durchzufĂŒhren. Die DAX-30 Unternehmen bilden einen Querschnitt der an der Börse gelisteten Top-Unternehmen. Die Erkenntnis: 27 der 30 großen DAX-Unternehmen setzen die AC-Methode ein, unter anderem auch Unternehmen wie Allianz, Bayer, Daimler, Deutsche Telekom, Lufthansa und Volkswagen. AuffĂ€llig ist, dass der Anwendungsgrad mit der Anzahl der beschĂ€ftigten Mitarbeiter steigt. Jedoch lĂ€sst sich auch festhalten, dass die HĂ€ufigkeit der Anwendung seit 2008 bei mittelgroßen Unternehmen kontinuierlich steigt.

ac_teilnehmerRĂŒcklĂ€ufige Anzahl an Teilnehmern pro AC

Wenn auch mehr ACs durchgefĂŒhrt werden, geht die Anzahl der Teilnehmer pro AC zurĂŒck. WĂ€hrend in 2001 lediglich 36 % der ACs sieben oder weniger Teilnehmer hatten, ist diese Zahl in 2012 schon auf 57 % geklettert. Passend dazu fĂ€llt die Anzahl der ACs mit acht oder mehr Teilnehmern von 64 % in 2001 auf 43 % in 2012.

HĂ€lfte der AC-Verfahren fĂŒr externe Bewerber

Mehr als 80 % der Unternehmen wenden ACs fĂŒr externe Bewerber als auch fĂŒr interne Mitarbeiter an. Im Vergleich zu 2008 ist dabei der Anteil der Verfahren fĂŒr interne Mitarbeiter deutlich von 26 % auf 8,3 % zurĂŒckgegangen. Wenn man die konkreten Verfahren vergleicht, erkennt man, dass 47 % fĂŒr die Personalauswahl (Schwerpunkt: externe Bewerber), 36 % zur Potenzialanalyse (Schwerpunkt: interne Mitarbeiter, aber nicht ausschließlich) und 16 % Entwicklungs-ACs durchgefĂŒhrt werden. LĂ€sst man die Entwicklungs-ACs außen vor und betrachtet die restlichen Verfahren, erkennt man, dass die Verbindlichkeit der AC-Anwendung hoch ist. Bei fast 70 % der Verfahren ist ein erfolgreicher Abschluss obligatorisch, um die Zielposition zu erreichen.

ac_zielgruppenWirft man einen Blick auf die Teilnehmer, ist schnell zu erkennen, dass die grĂ¶ĂŸte Gruppe von NachwuchsfĂŒhrungskrĂ€ften gebildet wird. Andere Gruppen, wie Trainees (15 %) und FĂŒhrungskrĂ€fte (26 %) machen lediglich einen kleineren Anteil aus, wĂ€hrend NachwuchsfĂŒhrungskrĂ€fte mit 61,7 % die hĂ€ufigste Zielgruppe bilden.

 

Quelle: Obermann, C., Höft, S. & Becker, J.N. (2012) AC-Studie 2012.

 

Zum Weiterlesen:

The post Neue Erkenntnisse aus der AC Studie 2012 appeared first on Obermann Consulting.

↧
↧

Basiswissen zur psychologischen Eignungsdiagnostik

$
0
0

Unterschied „Brigitte-Test“ zu wissenschaftlich begrĂŒndeter Eignungsdiagnostik

Eignungsdiagnostik wird nicht nur in der Boulevard-Presse („Bin ich ein Sommertyp?“), sondern auch in der Alltagspsychologie bei der EinschĂ€tzung anderer Personen fortlaufend von uns vorgenommen. Wir stellen interindividuelle Unterschiede fest („Michael ist fleißiger als Marco“), wir bewerten intraindividuelle Unterschiede („Genau kann die nicht arbeiten, dafĂŒr ist die richtig fleißig“), wir prognostizieren zukĂŒnftigen Erfolg („So wie die sich hier anstellt, wird das nichts“) und wir schĂ€tzen die Wirkung von Interventionen ab („Wenn ihr mal jemand richtig die Meinung sagt, dann wĂŒrde die auch mehr Gas geben“). Es stellt sich demnach die Frage nach der Abgrenzung derartiger Alltagspsychologie von Eignungsdiagnostik mit wissenschaftlichem Anspruch.

Alle Urteile grundsÀtzlich widerlegbar

Eine erste Forderung ist die wissenschaftliche Grundidee der Falsifizierbarkeit, also einer Vorgehensweise, die die diagnostischen Urteile der grundsĂ€tzlichen Widerlegbarkeit aussetzt. Die alltagspsychologische Aussage „Ich habe eine gute Menschenkenntnis, ich weiß vorher, ob er mir sympathisch ist“ ist in diesem Sinne nie widerlegbar, weil die betreffende Person gleichzeitig Beurteiler und Maßstab fĂŒr die Richtigkeit des Urteils ist. FĂŒr das AC mit eignungsdiagnostisch wissenschaftlichem Anspruch bedeutet dies, dass die Urteile und die einzelnen Schritte transparent und grundsĂ€tzlich angreifbar sein mĂŒssen.

Objektivierung und Standardisierung

Im Alltag können wir andere Personen als „DraufgĂ€nger“ oder „Schönling“ einordnen. Damit solche Urteile wissenschaftlich werden, brĂ€uchte es objektiv beobachtbare Verhaltensmerkmale. Diese Verhaltensmerkmale mĂŒssten so gut sein, dass alle Beobachter anhand dieser Verhaltensmerkmale zur selben EinschĂ€tzung kommen. Die QualitĂ€t dieser ObjektivitĂ€t lĂ€sst sich dann anhand der Korrelation von BeobachtereinschĂ€tzung messen.

ac_verhaltensankerVerhaltensanker und Bewertungsstufen

In den ACs der 90er Jahre war man noch damit zufrieden, dass die Konstrukte (Dimensionen) mit allgemeinen Verhaltensankern hinterlegt waren. Mittlerweile weiß man, dass die Beobachter eine globale EinschĂ€tzung der Leistung in der ganzen Aufgabe vornehmen und dabei, je nach persönlichem Menschenbild, einzelnen Aspekten ein kleines oder großes Gewicht geben (sogenannte implizite Persönlichkeitstheorien). Dies fĂŒhrt im Ergebnis bei gleicher Leistung des Kandidaten im AC zu völlig unterschiedlichen Bewertungen, weswegen allgemeine Verhaltensanker heute nicht mehr ausreichend sind. Zum Standard gehören erstens sogenannte aufgabenspezifische Verhaltensanker, und zweitens Bewertungsstufen. Mit den aufgabenspezifischen Verhaltensankern ist gemeint, dass die Erwartung an die Kandidatenleistung vorab anhand des Inhalts der AC-Aufgabe spezifiziert wurde (siehe Abb. rechts). Mit den Bewertungsstufen ist gemeint, dass vorab z. B. fĂŒr eine 5-er-Skala festgelegt wurde, bei welchem Verhalten welche Bewertungsstufe vergeben werden soll.

„Gute“ und „schlechte“ Vielfalt von BeobachtereinschĂ€tzungen

Ein hĂ€ufiger Streitpunkt im AC ist es, ob nicht ein zu intensives Beobachtertraining die gewĂŒnschte Vielfalt in den EinschĂ€tzungen der Beobachter hemmt. ZunĂ€chst: Die Vielfalt von verschiedenartigen Blicken auf Kandidaten ist die Grundidee des Assessment-Centers, um „Kaminkarrieren“ zu verhindern. Gleichzeitig mĂŒssen sich diese unterschiedlichen Blickwinkel jedoch im Sinne einer gegenseitigen Kontrolle am gleichen Bewertungsmaßstab ausrichten. Die Vielfalt von Beobachtertypen (z. B. Geschlecht oder Organisationseinheit) ist damit zu begrĂŒĂŸen. Eine Unterschiedlichkeit von Bewertungen bei gleicher Kandidatenleistung schmĂ€lert jedoch die ObjektivitĂ€t und auch die Gerechtigkeit.

Ohne Vergleichsnorm keine Ergebnisinterpretation

Die beschriebene Forderung nach Standardisierung wĂŒrde auch ein SelbsteinschĂ€tzungsfragebogen in einer Publikumszeitschrift noch erfĂŒllen. Was dem Laienfragebogen jedoch fehlt, ist eine Vergleichsnorm oder Basisrate, damit erkennbar ist, wie die Einzelperson gegenĂŒber einer Vergleichsnorm abschneidet. Psychologische Konstrukte haben keinen Null-Punkt. Daher braucht es fĂŒr die Interpretation den Vergleich zu einer Referenzgruppe, so wie die Mutter bei den Schularbeiten wissen wollte, wie denn die anderen SchĂŒler abgeschnitten haben, bevor es Lob oder Tadel gab. Diese Vergleichsnorm besteht aus zwei Informationen: dem Mittelwert und der Standardabweichung der Werte der Vergleichsgruppe. Den Mittelwert braucht es, um zu wissen, ob die betreffende Person ober- oder unterhalb des Durchschnitts der Vergleichsgruppe liegt. Die Standardabweichung hilft dabei, einschĂ€tzen zu können, ob der Abstand zum Durchschnitt geringfĂŒgig oder groß ist.

Eine breite Normierung wird aus ökonomischen GrĂŒnden fĂŒr ein AC, das fĂŒr lediglich ein paar Dutzend Personen durchgefĂŒhrt wird, schwer leistbar sein. Dennoch sollte es im Minimum ProbelĂ€ufe mit Teilnehmern aus der Zielgruppe geben. Damit wird verhindert, dass regelmĂ€ĂŸig schwache oder gute Ergebnisse der Teilnehmer ein Artefakt von zu schweren oder zu einfachen Aufgaben sind.

ac_erstes_axiomDie Axiome der Testtheorie

Die Klassische Testtheorie (KTT) ist die am weitesten verbreitete psychometrische Testtheorie, und stellt die statistische Basis (Cronbach, 1961) fĂŒr eignungsdiagnostische Messungen und damit auch fĂŒr das AC dar. Die KTT ist aufgrund ihrer PraktikabilitĂ€t immer noch die prĂ€ferierte Testtheorie und Grundlage fĂŒr die Mehrzahl psychometrischer Testverfahren. Da die KTT bisher jedoch noch wenig Eingang in die AC-Konzeption gefunden hat, lohnt es sich, zunĂ€chst diese Basistheorie zu betrachten. Der Schwerpunkt des Modells der KTT liegt auf der Genauigkeit einer Messung bzw. auf der GrĂ¶ĂŸe des jeweiligen Messfehlers. Jede Bewertung im AC enthĂ€lt – wie jede Antwort in einem Test oder Interview – immer Fehler und Unsicherheiten, z. B. MissverstĂ€ndnisse beim Probanden, Stress-Empfinden oder Beobachtertendenzen. Die KTT versucht zu klĂ€ren, wie, ausgehend von einem Testwert einer Person (in diesem Kontext also die Bewertung auf einer AC-Kompetenz) auf die „wahre“ AusprĂ€gung des zu messenden Persönlichkeitsmerkmals geschlossen werden kann. Das erste Axiom der KTT besagt, dass sich jeder Testwert (X) additiv aus einem wahren Merkmalsanteil (T = true), einer stabilen psychologischen Eigenschaft, und einem zufĂ€lligen Messfehleranteil (E = error) zusammensetzt:

X = T + E. Der Anteil von T und E an der Messung X kann unterschiedlich hoch sein.

Beobachtbar im AC sind lediglich die Testwerte (X), z. B. die Dominanz im Auftreten in einer Gruppendiskussion. Der wahre Merkmalsanteil und der Messfehleranteil können jedoch nicht direkt beobachtet werden, sondern werden indirekt ermittelt.

Sicherheit in der Personalauswahl durch viele Messwiederholungen

Das zweite Axiom der KTT bezieht sich auf die Eigenschaften des Messfehlers E. Das Axiom besagt, dass der Messfehler mal positiv, mal negativ ausfÀllt, und in der Summe aller Fehler bei sehr vielen Messwiederholungen Null betrÀgt.Messwiederholungen

Beispielhaft kommt in einem Fall eine Person bei einem Test oder AC „besser weg“ als es ihrem wahren Wert entspricht, weil die Beobachter etwa sehr milde waren oder schwierige Fragen ausblieben, dann ist der Messfehler E > 0. In einer anderen Situation ist jedoch der Kandidat nervös oder missversteht die Aufgabenstellung. Dann ist die Bewertung schwĂ€cher als der wahre Wert (E < 0). Bei vielen, letztlich unendlich vielen Messungen werden sich diese Fehleranteile zu Null aufheben.

Aus dem zweiten Axiom folgt, dass die Summe der Fehlerwerte einer Person bei unendlich hÀufiger Messwiederholung unter identischen Bedingungen Null ergeben muss, ebenso wie die Summe der Fehlerwerte bei einmaliger Messung an unendlich vielen Personen. Wenn bei vielen, in der Theorie unendlichen Messungen der Fehleranteil E der Gleichung X = T + E mit Null anzunehmen ist, so folgt daraus:wahrer_testwert

Dies besagt, dass der Messfehler verschwindet, wenn entweder ein Test an vielen Individuen, oder ein Test mehrfach bei ein und derselben Person angewandt wird. Dies hat fĂŒr die Eignungsdiagnostik eine bedeutende praktische Konsequenz: Wenn ein Merkmal im AC innerhalb einer AC-Aufgabe oder durch verschiedene AC-Aufgaben mehrfach beobachtet wird, sinkt der Messfehleranteil immer weiter, wogegen die Genauigkeit der durchschnittlichen Bewertung immer weiter steigt. Zwei Interviewfragen zur gleichen Kompetenz beinhalten weniger Fehler als nur eine, drei Fragen weniger als nur zwei. Zwei Interviewer sind besser als einer. Mehr AC-Aufgaben zur EinschĂ€tzung ein- und derselben Kompetenz sind besser als nur wenige. Mit jeder weiteren Messwiederholung sinkt der Fehleranteil in der Beurteilung.

 

Zum Weiterlesen:

The post Basiswissen zur psychologischen Eignungsdiagnostik appeared first on Obermann Consulting.

↧

Relaunch der Website von Obermann Consulting im November 2013

$
0
0

Übersichtlicher, moderner und noch informativer – so prĂ€sentiert sich die neue Obermann-Website.

Nach ĂŒber 10 Jahren haben wir unsere Website komplett ĂŒberarbeitet und prĂ€sentieren uns ab November 2013 im neuen Layout. Mit noch mehr Informationen und einer ĂŒbersichtlichen und moderneren Struktur sollen Sie in Zukunft unsere Leistungsangebote rund um die Themen Management Audit, Assessment, Development und HR-Prozesse leicht finden können. Mit dem neuen Layout und dem Wechsel unserer Farbe von Blau zu GrĂŒn wird auch die VerĂ€nderung und Weiterentwicklung des Portfolios von Obermann Consulting optisch unterstrichen. Wir wĂŒnschen Ihnen viel Spaß bei der Erkundung unserer neuen Homepage und freuen uns ĂŒber Ihr Feedback!

OBERMANN_2622StÀrken weiterentwickeln, Entwicklungsfelder verbessern



 das ist fĂŒr uns auch in Bezug auf unsere eigene Organisation die Devise. Grundlage der Weiterentwicklung unsere Website waren zahlreiche Kundenfeedbacks. GeschĂ€tzt wurde vor allem der umfangreiche Content mit vielen Informationen rund um die Themen Personaldiagnostik und ‑entwicklung. Diese Informationen lassen sich auch zusammen mit den Trends und Entwicklungen der letzten 10 Jahre rund um das Thema Assessment-Center im Archiv unseres AC-Newsletters finden. Daneben wurden immer wieder der wissenschaftliche Bezug und die zahlreichen Projektbeispiele auf unseren Seiten als Vorteil herausgestellt. Verbesserungspunkte wurden dagegen in Bezug auf Struktur, Dynamik und ModernitĂ€t gesehen. Wir haben versucht, unsere StĂ€rken in unserem neuen Auftritt beizubehalten und die Verbesserungspunkte und ‑hinweise unserer Kunden zu berĂŒcksichtigen. An dieser Stelle vielen Dank an die Kunden, die sich die Zeit fĂŒr ein Feedback genommen haben!

Obermann entwickelt sich mit der HR-Welt: vom Diagnostikspezialisten zum Experten fĂŒr Talentmanagement

Obermann Consulting – der Spezialist im Bereich Managementdiagnostik, so haben wir uns viele Jahren lang auf dem Markt positioniert und unsere Expertise diesbezĂŒglich systematisch erweitert. Mit einer jĂ€hrlichen Wachstumsrate von 20-30% und der stetigen VergrĂ¶ĂŸerung unseres Teams sind wir nun auch in der Lage, Großprojekte im Bereich Managementdiagnostik fĂŒr unsere Kunden durchzufĂŒhren. Die Managementdiagnostik wird auch in Zukunft ein wesentliches GeschĂ€ftsfeld von Obermann Consulting bleiben. In den letzten 5 Jahren haben wir, angeregt durch die Anfragen und den geĂ€ußerten Bedarf unserer Kunden, unser Portfolio in Richtung Training und Coaching erweitert. Insbesondere bei FĂŒhrungstrainings und im Coaching konnten wir in den letzten Jahren eine Vielzahl an interessanten Projekten durchfĂŒhren. Aufgrund der neueren Entwicklungen in den HR-Bereichen, die Diagnostik- und Entwicklungslandschaft nicht als die Aneinanderreihung singulĂ€rer Produkte, sondern als ganzheitlichen Talent-Management-Prozess zu verstehen, der auf den verschiedenen Ebenen und Laufbahnen ineinandergreifen muss, weiten wir unser Angebot nun auch in diesen Bereich aus. Wir freuen uns, dass wir hierzu als personelle UnterstĂŒtzung Prof. Dr. Marc Solga gewinnen konnten.

Obermann Consulting_Berater5Weiterentwicklung in der Managementdiagnostik: Management Audit und internationale Projekte

Seit einigen Jahren sind wesentliche Projekte von Obermann Consulting im Bereich Management Audit und im Kontext internationaler AuftrĂ€ge zu finden. Die Internationalisierung vieler Unternehmen bringt den Bedarf an internationaler Diagnostik mit sich. Beispielhafte Herausforderungen sind hier der Rollout eines Assessment-Centers in 26 LĂ€ndern oder die Auditierung aller Management-Ebenen im Rahmen umfassender Change-Projekte. Auch unsere Testverfahren zur kognitiven Kompetenz und Fragebögen zur Persönlichkeits- und Motivationsstruktur werden derzeit in ĂŒber 15 Sprachen und Kulturen ĂŒbertragen. Wir freuen uns, Ihnen auch weiterhin interessante Projektbeispiele auf unserer neuen Website vorstellen zu können. Viel Spaß beim Lesen!

The post Relaunch der Website von Obermann Consulting im November 2013 appeared first on Obermann Consulting.

↧

Prof. Dr. Marc Solga erweitert das Team von Obermann Consulting

$
0
0

Artikel 2 - SolgaTeamverstĂ€rkung bei Obermann Consulting – Prof. Dr. Marc Solga

Seit dem 1. August ist Marc Solga bei Obermann Consulting verantwortlich fĂŒr den Beratungsbereich „HR-Prozesse“. Er gehört zu Deutschlands erfahrensten Denkern und Trainern in den Bereichen Performance-Management, Zielvereinbarungs- und Beurteilungssysteme und MitarbeitergesprĂ€che. So war er bei einer großen internationalen Bank fĂŒr den Relaunch der Zielvereinbarungs- und Beurteilungssysteme verantwortlich. Zudem ist er langjĂ€hriger Trainer und Coach und hat große Development-Projekte u. a. bei der Deutschen Börse, der Deutschen Bank und in Automobilkonzernen geleitet. Sein innovatives Thema „Performance Improvement“ stellt er im aktuellen Artikel unseres Newsletters vor. Marc Solga ist u. a. Co-Herausgeber des deutschen Buch-Klassikers zur Personalentwicklung „Praxishandbuch Personalentwicklung“. Sein Consultant-Profil kann HIER auf der Website eingesehen werden.

 

The post Prof. Dr. Marc Solga erweitert das Team von Obermann Consulting appeared first on Obermann Consulting.

↧

Performance Improvement / Performance Consulting

$
0
0

Behavior Engineering Model – ein effektives Instrument fĂŒr die Performance Analyse

Performance Improvement / Performance Consulting ist ein Beratungs- und Gestaltungsansatz fĂŒr das Human Resource Management, der das Ziel verfolgt, die Arbeitsergebnisse von Mitarbeitern und Teams durch multidimensionale Interventionsprogramme zu verbessern und damit zur Wertschöpfung von Organisationen beizutragen. Wir haben den in Deutschland kaum bekannten Ansatz im letzten Newsletter vorgestellt. Er hĂ€lt ein großes Repertoire an Tools und Techniken zur Planung, DurchfĂŒhrung und Evaluation von Optimierungsprojekten bereit. In dieser und in den folgenden Ausgaben sollen einige dieser Tools nĂ€her beleuchtet werden. Das hier vorgestellte Instrument, das sich am sog. Behavior Engineering Model orientiert, ist ein effektives Instrument zur systematischen Analyse von Performance-Treibern und -Barrieren. In Personal- und Organisationsentwicklungsprojekten hilft es, die relevanten Gestaltungsbedarfe zu erkennen.

 

Aus Sicht des Performance Improvement / Performance Consulting-Ansatzes (Pershing, 2006; Robinson & Robinson, 2008; Van Tiem, Moseley & Dessigner, 2012)  besteht der erste Schritt in der Planung und DurchfĂŒhrung eines Interventionsprogramms zur Verbesserung von Ergebnissen stets darin, eine sog. Performance Analyse durchzufĂŒhren (Rossett, 2009; Swanson, 2007). Sie umfasst insgesamt vier Schritte:

 

  1.  erwĂŒnschte Leistung beschreiben
  2.  tatsÀchliche Leistung beschreiben
  3. Diskrepanzen zwischen erwĂŒnschter und tatsĂ€chlicher Leistung beschreiben und priorisieren
  4. Ursachen analysieren, d.h. Barrieren und Treiber von Performance beschreiben

 

FĂŒr den vierten Schritt, die Ursachenanalyse, liegen unterschiedliche Leitmodelle vor. Das wohl bekannteste – das sog. Behavior Engineering Model – geht auf Thomas F. Gilbert (1978) zurĂŒck. Gilbert war ein SchĂŒler von Burrhus Frederic Skinner und als solcher den Grundideen des Behaviorismus verpflichtet. Folglich basiert auch das Behavior Engineering Model auf diesen Grundideen.

 

Drei Elemente sind demnach von Bedeutung: diskriminative Reize, Reaktionen und Konsequenzen. Diskriminative Stimuli sind Signale, die Verhalten anregen bzw. auslösen. Sie zeigen auf, dass in einer bestimmten Situation ganz bestimmte Verhaltensweisen – Reaktionen – gezeigt oder aber vermieden werden sollten (weil sie belohnt bzw. bestraft wĂŒrden).  Auf das gezeigte Verhalten folgt dann eine ganz bestimmte positive oder negative Konsequenz. Je nachdem, ob es sich bei dieser Konsequenz um eine Belohnung oder Bestrafung handelt, wird das ausgefĂŒhrte Verhalten in seiner Auftretenswahrscheinlichkeit verstĂ€rkt oder aber vermindert. Eine weitere Folge der Konsequenz: Die erlebte Bedeutsamkeit und folglich die Signalwirkung des diskriminativen Stimulus nehmen ebenfalls zu.

 

Ausgehend von diesem Grundmodell lÀsst sich Performance beschreiben als das Resultat eines dynamischen Zusammenspiels von Person und Umwelt. Abbildung 1 macht deutlich, wie Mensch und Umwelt dabei zusammenwirken.

Abb 1 Artikel 1

Abbildung 1: Grundstruktur des Behavior Engineering Models nach Gilbert (1978)

  • Die Umwelt liefert Signale, genauer: Informationen ĂŒber das, was sein soll (Ergebnisziele und Verhaltensstandards), und Informationen ĂŒber das, was ist (Ergebnis- und Verhaltensfeedback). Diese Signale mĂŒssen von Seiten der Person richtig gelesen und angemessen verstanden werden, damit erwĂŒnschte Performance zustande kommen kann.
  • Die nachfolgende Reaktion wird darin bestehen, ein bestimmtes Aktionsprogramm auszufĂŒhren und dabei ganz bestimmte Materialien (z.B. Vor- oder Zuarbeiten eines Kollegen oder einer anderen Abteilung) zu verarbeiten, einer bestimmten Prozedur zu folgen und ggf. bestimmte Werkzeuge zu benutzen. Die Person muss in der Lage sein, all dies wirksam zu handhaben.
  • Die Umwelt hĂ€lt Belohnungsangebote (Anreize) bereit. Dabei sind nicht alle Anreize gleichermaßen attraktiv. Um Motivation zu erzeugen, muss ein potenzieller Anreiz als attraktiv erlebt werden – er muss Motive oder BedĂŒrfnisse aktivieren bzw. sich in die Motiv- und BedĂŒrfnisstruktur der handelnden Person einfĂŒgen.

 

Aus diesen Überlegungen resultiert ein kompaktes Sechs-Felder-Schema der Randbedingungen und EinflussgrĂ¶ĂŸen von Performance (siehe Abbildung 2). Im Rahmen der Performance Analyse liefert dieses Schema eine hervorragende Basis fĂŒr den vierten Schritt, die Ursachenanalyse. Es macht deutlich: Dort, wo Ergebnisse nicht wie erwĂŒnscht geliefert werden, können sechs Cluster von Ursachen oder Barrieren wirksam sein:

 

  1. Unzureichende direktive Information: Es fehlen klare Ziele, an denen sich eine handelnde Person orientieren könnte, bzw. wirksame RĂŒckmeldungen, die ĂŒber den aktuellen Stand der Zielerreichung informieren.
  2. Unzureichende Ressourcen: Es existieren MĂ€ngel bezĂŒglich der Materialien, Prozeduren und Werkzeuge bzw. nicht genĂŒgend Zeit.
  3. Fehlende Anreize: Es existieren keine oder nicht genĂŒgend monetĂ€re oder immaterielle Anreize.
  4. Unzureichende Wissensgrundlagen: Die handelnde Person verfĂŒgt nicht ĂŒber die benötigten fachlichen Kenntnisse bzw. prozeduralen Wissensgrundlagen (Fertigkeiten).
  5. Unzureichende FĂ€higkeiten: Die handelnde Person verfĂŒgt nicht ausreichend ĂŒber die benötigten intellektuellen, physischen oder affektiven FĂ€higkeiten.
  6. Fehlende Motive: Die BedĂŒrfnis- und Motivstruktur der handelnden Person ist nicht vereinbar mit dem Belohnungsangebot der TĂ€tigkeit.

 

Damit fördert das Schema ein multiperspektivisches Denken in Bezug auf Ursachen und Interventionsmaßnahmen. Es lenkt den Blick von der Betrachtung eines Symptoms (Minderleistung im Sinne gewĂŒnschter Ergebnisziele) hin zur ganzheitlichen Analyse der Randbedingungen und möglichen Ursachen und liefert damit die Basis fĂŒr eine kompetente Entwicklung wirklich zielfĂŒhrender Interventionsprogramme. Dass diese Programme multidimensional verfasst sein mĂŒssen (d.h. aus einer wohl abgestimmten Kombination einander ergĂ€nzender Interventionsmaßnahmen bestehen), ergibt sich aus dem Modell von selbst – denn das Zustandekommen unerwĂŒnschter oder unzureichender Ergebnisse wird mit grĂ¶ĂŸter Wahrscheinlichkeit auf multiple Ursachen zurĂŒckgehen.

 

Abb 2

Abbildung 2: Behavior Engineering Model nach Gilbert (1978)

Ordnet man den sechs Feldern des Behavior Engineering Models die zahlreichen GestaltungsansĂ€tze und Werkzeuge zu, die Personalentwicklern und Organisationsgestaltern zur VerfĂŒgung stehen (siehe Abbildung 33), so ergeben sich aus jeder Ursachenanalyse sehr schnell erste Hinweise zur Ausgestaltung multidimensionaler Interventionsprogramme.

 

Abb 3

Abbildung 3: Interventionsmethoden, den 6 Feldern des Behavior Engineering Models zugeordnet

Entwicklung eines Fragebogens fĂŒr die Weiterbildungsberatung im Continentale

Auf Basis des Behavior Engineering Models haben Gilbert (1982) und spĂ€ter Roger Chevalier (2008, 2009) Tools zur systematischen Analyse der Treiber und Barrieren von Performance entwickelt. Beide Autoren haben das Ziel verfolgt, Instrumente zu entwickeln, die sich pragmatisch – d.h. mit wenig Vorbereitungs- und DurchfĂŒhrungsaufwand – handhaben lassen. In diesem Sinne werden die sechs Felder ĂŒber wenige Leitfragen erfasst. Diese Leitfragen lassen sich sehr einfach im Rahmen von Performance-Analyse-Workshops oder -Interviews einsetzen. Frage fĂŒr Frage entsteht ein komplexes Bild von den Randbedingungen erbrachter Leistung und folglich von den Gestaltungsfeldern, die im Rahmen eines Optimierungsprojekts bearbeitet werden sollten.

 

Tabelle 1 zeigt die von uns erstellte deutsche Fassung des Fragebogens von Gilbert. Wir setzen diese Fassung in Beratungsprojekten ein, um die personellen und strukturellen Entwicklungsbedarfe von Teams und Organisationseinheiten zu identifizieren.

 

Abb 4

Tabelle 1: Fragebogen zur Analyse von Performance-Treibern und –Barrieren nach Chevalier

Literatur

 

Chevalier, R. (2008). The evolution of a performance analysis job aid. Performance Improvement, 47(10), 9–18.

Chevalier, R. (2009). Analyzing performance: An example. Performance Improvement, 48(7), 15–19.

Gilbert, T. F. (1978). Human competence: Engineerng worthy performance. New York: McGraw Hill.

Gilbert, T. F. (1982). A question of performance, Part 1: The PROBE model. Trainng and Development Journal, 43(9), 21–30.

Pershing, J. A. (Ed.) (2006). Handbook of human performance technology: Principles, practices, and potential (3rd ed.). San Francisco, CA: Pfeiffer.

Robinson, D. G. & Robinson, J. C. (2008). Performance consulting: A practical guide for HR and learning professionals (2nd ed.). San Francisco, CA: Berrett-Koehler.

Rossett, A. (2009). First things fast: A handbook for performance analysis (2nd ed.). San Francisco, CA: Pfeiffer.

Swanson, R. A. (2007). Analysis for improving performance: Tools for diagnosing organizations and documenting workplace expertise (2nd ed., revised and expanded). San Francisco, CA: Berrett-Koehler.

Van Tiem, D. M., Moseley, J. L., & Dessigner, J. C. (2012). Fundamentals of performance improvement: Optimizing results through people, process, and organizations (3rd ed.). San Francisco, CA: Wiley / Pfeiffer.

The post Performance Improvement / Performance Consulting appeared first on Obermann Consulting.

↧
↧

News zur Online-Bewerbervorsauswahl

$
0
0

Die Testverfahren bei Obermann Consulting wurden im letzten Jahr hinsichtlich Ihrer GĂŒtekriterien, Normierungen, sprachlichen Formulierungen und DurchfĂŒhrungszeiten ĂŒberarbeitet. Wir freuen uns, Ihnen neue Versionen anbieten zu können, die nicht nur inhaltlich dem neuesten Stand entsprechen, sondern auch optisch einen Neuanstrich bekommen haben. Hier noch mal einige Fakten in Kurzfassung:

 

Gesamt

Weitere Artikel dieser Newsletterausgabe

The post News zur Online-Bewerbervorsauswahl appeared first on Obermann Consulting.

↧

Neue Forschungsergebnisse aus der Eignungsdiagnostik

$
0
0

Typologie von High Potentials statt Kompetenzen

Jeff Conte von der San Diego State University (2014) prĂ€sentiert einen neuen Ansatz, um High Potentials in Unternehmen zu identifizieren. Der Ausgangspunkt besteht darin, dass einzelne isolierte Potenzialindikatoren oder Persönlichkeitsfaktoren nur mĂ€ĂŸige Korrelationen in der PrĂ€diktion von Aufstieg in FĂŒhrung aufweisen. Die Korrelationen liegen maximal zwischen r = .20 und r = .30: Der monokausale Schluss von einem Persönlichkeitskriterium auf Erfolg im Beruf funktioniert also kaum. In der Psychologie gibt es neben dem Blick auf Menschen ĂŒber Persönlichkeitskriterien und Kompetenzen auch den anderen Blick ĂŒber Typologien (Freud, Jung). Auf der Basis einer statistischen Analyse (Latent Profile Analysis) hat Conte Muster in der Kombination von Persönlichkeitskriterien identifiziert und daraus eine solche Typologie vorgestellt (vgl. Abb. Hipo-Typologie). Die Basis besteht immerhin aus N = 25.000 Potenzialkandidaten, die in ihren Karrieren beobachtet wurden. Die klassischen Big-Five-Persönlichkeitskriterien wurden nach auffĂ€lligen Mustern untersucht, die mit Aufstieg in FĂŒhrung zusammenhĂ€ngen. Danach sind es nicht einzelne Big-Five-Kriterien, sondern es ist eine Kombination von Kriterien, die er als den resilienten Typen bezeichnet: Hohe Belastbarkeit, Genauigkeit/Leistungsstreben, moderate Extraversion und Geselligkeit. Die beiden anderen Typen (Over-/Undercontroller) hingegen sind eher nicht mit Erfolg oder Aufstieg in FĂŒhrung assoziiert.

Bild1

Hipo-Typologie San Diego University (Conte, J., 2014)

 

Soll ethisches Verhalten bei Bewerbern explizit ĂŒberprĂŒft werden?

In den USA hatte die ÜberprĂŒfung der IntegritĂ€t schon immer eine höhere Bedeutung – bei uns löst das Ansinnen zunĂ€chst Stirnrunzeln aus. Die Empirie zeigt allerdings, dass die Messung von IntegritĂ€t ein starker PrĂ€diktor fĂŒr verschiedene Joberfolgskriterien ist. Dabei scheint es auf die Branche anzukommen: Interessante Branchen sind der Einzelhandel, die Logistik und die Produktion. In diesen Branchen gibt es substanzielle Verluste durch Mitarbeiterdiebstahl, die bei besserer Mitarbeiterauswahl verhindert werden können (Cooper, D. et al., 2014).

Erstaunlich ist, dass fĂŒr diese Zielgruppe auch scheinbar durchschaubare Items eine hohe ValiditĂ€t besitzen, z. B. „Wenn Sie die letzten zwei Jahre zusammenfassen, was war der Wert der Dinge außer Kleinigkeiten wie Stifte, die Sie von der Firma fĂŒr privaten Gebrauch mitgenommen haben?“. Weniger offensichtlich sind Items wie „Ich habe im letzten Jahr wĂ€hrend der Arbeit nie impulsiv reagiert“. Items, die auch gut funktionieren, sind Rationalisierungen von unethischem Verhalten: „Nur wenn die Arbeitsbedingungen wirklich frustrierend sind, kann man auch mal etwas fĂŒr den privaten Gebrauch mitnehmen“.

IntegritĂ€t und ethisches Verhalten umfassen unterschiedliche Einzelfacetten, die je nach Anforderungen im Detail ausgewertet werden können: Einstellung gegenĂŒber Arbeitssicherheit, ImpulsivitĂ€t, Einstellung gegenĂŒber QualitĂ€t, Bereitschaft, vertrauliche Informationen zu behalten, Umgang mit Alkohol/Drogen. Es bestehen hohe ZusammenhĂ€nge zwischen ethischem Verhalten und den Big-Five-Kriterien Gewissenhaftigkeit (r = .51) und SoziabilitĂ€t (r = .27) (Ones, S. et al., 2014).

Bild2

Interviewfragen zu ethischem Verhalten

 

Auch auf Management-Level hat das Konstrukt Relevanz. In einer Metaanalyse zu 25 Firmen in den Jahren 1985 bis 2012 konnte gezeigt werden, dass zwischen der in Fragebögen erhobenen ZuverlÀssigkeit von Managern ein Zusammenhang zur BeschÀftigungsdauer und zur Performance-EinschÀtzung besteht (Pickering, D., 2014).

In einer weiteren aktuellen Untersuchung wurde die IntegritĂ€t in verschiedenen LĂ€ndern verglichen – neben dem Mittelwert ist die Varianz der Werte innerhalb der LĂ€nder interessant (Ones, S. et al., 2014). In die Studie gingen 48 LĂ€nder mit 239.000 Teilnehmern ein. Die Ergebnisse entsprechen weitgehend bestehenden Stereotypen zu einzelnen LĂ€ndern, wobei US-Mitarbeiter nach der Studie angeblich ein hohes Level an IntegritĂ€t haben. Wir Deutsche schneiden laut der Untersuchung im Mittel als etwas unethischer ab als die US-Amerikaner. Interessant fĂŒr die Testung von ethischem Verhalten: Je höher die Varianz von ethischem Verhalten innerhalb eines Landes (oder einer Jobgruppe) ist, desto eher eignet es sich fĂŒr die Vorhersage von Berufserfolg, in der Spitze mit ValiditĂ€ten von r = .59 (Ones, S. et al., 2014).

Wer lĂŒgt, ist erfolgreich – Umgang mit sozial erwĂŒnschten Antworten in Testverfahren

Ein fortwĂ€hrendes Thema in Studien ist die Frage, wie mit sozial erwĂŒnschten Antworten oder gar „Faking“ in Testverfahren umgegangen werden soll. Nach einzelnen Aussagen gehen 15 % bis 45 % der Varianz auf Faking oder sozial erwĂŒnschte Antworten in den klassischen Likert-Skalen zurĂŒck. Die frĂŒher ĂŒbliche „LĂŒgen-Skala“ mit Items wie „Ich habe noch niemals die Unwahrheit gesagt“ hilft nicht weiter, da mit den hier auffĂ€lligen Bewerbern („Ich habe noch nie gelogen“) keiner den Aufwand betreiben möchte, ein Nachinterview zu fĂŒhren („Haben Sie die Wahrheit gesagt?“).

Der klassische Weg, sozial erwĂŒnschte Antworten zu verhindern, besteht in dem „Forced-Choice“-Format, das bei Obermann Consulting auch in dem Big-Five-Wirtschaft-Fragebogen eingesetzt wird. In dem Forced-Choice-Format werden den Kandidaten paarweise Antwortmöglichkeiten prĂ€sentiert, zwischen denen sie auswĂ€hlen können oder sie nehmen ein Ranking der angebotenen Varianten vor („Was beschreibt mich am besten?”). Die angebotenen Varianten können entweder zu gleichen oder zu unterschiedlichen Dimensionen – so bei unserem Fragebogen Big-Five-Wirtschaft – gehören. Dabei ist in der Konstruktion darauf zu achten, dass die Alternativen jeweils gleich sozial erwĂŒnscht sind.

Eine andere Lösung, um sozial erwĂŒnschte Antworten zu kontrollieren, prĂ€sentieren Meade, A. W. et al. (2014). Die Kernidee besteht darin, dass die Items sehr kurz sind und dadurch die Kandidaten spontaner und weniger sozial erwĂŒnscht antworten. Ein typisches Item wĂ€re „Dominant – so bin ich/so bin ich nicht“. Die Antwortzeit ist auf 2,5 Sekunden beschrĂ€nkt, wobei kaum eine Testperson so weit kommt. Der Mittelwert der Antwortzeit betrĂ€gt eine Sekunde. Auf diese Weise kann der Test in zwei Minuten durchgefĂŒhrt werden – dies stellt einen weiteren Vorteil dar. In einem experimentellen Design wurden Probanden gebeten, entweder ehrlich zu antworten oder sich bewusst positiv darzustellen. Gleichzeitig wurde die Testform variiert: Items der ĂŒblichen LĂ€nge oder die sehr kurzen Items. Ergebnis: In der „Faking-Bedingung“ bei der klassischen Testform gibt es einen bedeutsamen Unterschied zwischen der ehrlichen und unehrlichen Variante von d = 1,35. Wird hingegen die Form mit kurzen Items eingesetzt, sinkt der Unterschied auf d = 0,35. Scheinbar also ein vielversprechender Weg. Auf einen Ă€hnlichen Ansatz beruht unser Fragebogen Big-Five-Wirtschaft, hier sind die Items sehr kurz und es muss unter Ă€hnlich attraktiven Adjektiven eine Auswahl vorgenommen werden.

In einem weiteren neuen Artikel gehen Voss et al. (2014) der Frage nach, ob sozial erwĂŒnschte Antworten grundsĂ€tzlich zu verdammen sind. Neben bewusstem TĂ€uschen können solche Antworten auf das akzeptable Motiv zurĂŒckzufĂŒhren sein, sich positiv zu prĂ€sentieren oder auf die weniger akzeptable aber ethisch kaum zu verdammende Tatsache eines inadĂ€quaten Selbstbilds. In ihrer Untersuchung anhand von N = 101 Bewerbern bei BMW wurden in einem Big-Five-Fragebogen EigeneinschĂ€tzungen den Bewertungen von jeweils drei Freunden gegenĂŒbergestellt. Interessantes Ergebnis: Die Bewerber mit einer gegenĂŒber den Freunden zu positiven EigeneinschĂ€tzung sind tendenziell gerade die spĂ€ter erfolgreichen Bewerber. Fazit: Sozial erwĂŒnschtes Antworten scheint auch im Job gefragt zu sein.

 

Innovationen bei biografischen Fragebögen

In Interviews nach bisherigen Erfahrungen zu fragen, war in der Praxis der Personalauswahl bisher schon immer die Basis aller Methoden. Die BegrĂŒndung dafĂŒr liegt in dem Ansatz, dass die Vergangenheit der beruflichen Biografie der beste PrĂ€diktor fĂŒr zukĂŒnftigen Erfolg darstellt.

Eine Variante sind biografische Fragebögen. Die Idee besteht darin, online oder ĂŒber Papier systematisch biografische Informationen abzufragen, zu denen zuvor ein empirischer Zusammenhang zu Joberfolgskriterien nachgewiesen wurde. Bei der Polizei des Landes NRW hat sich etwa die folgende Frage als sehr vorhersagestark erwiesen: „Wie viele MobilfunkvertrĂ€ge haben Sie bisher in Ihrem Leben abgeschlossen?“. Bewerber, die wenige MobilfunkvertrĂ€ge abgeschlossen haben, erwiesen sich im anschließenden Auswahlverfahren als erfolgreicher. Im Kontext von berufserfahrenen Bewerbern wĂ€re etwa eine Frage: „Wie viele Projektgruppen haben Sie in den letzten fĂŒnf Jahren geleitet? a) keine b) 1-2 c) 3-5 d) > 6“. Die BegrĂŒndung dafĂŒr zĂ€hlt letztlich nicht, solange die Fragen nachgewiesenermaßen spĂ€ter erfolgreiche Bewerber vorhersagen. Die Vorteile einer solchen Vorselektion ĂŒber biografische Fragen bestehen gegenĂŒber dem klassischen Interview neben der grĂ¶ĂŸeren ObjektivitĂ€t offensichtlich in der höheren Wirtschaftlichkeit – nur die Bewerber oberhalb eines Cut Offs gehen in das klassische Interview. Die ValiditĂ€t wurde hinreichend nachgewiesen (etwa Ployhart et al., 2006).

Eine Herausforderung besteht darin, dass die Items anfĂ€llig gegenĂŒber „Faking“ sind – Bewerber können schlicht falsche Angaben machen. Der Autor Schwall (2014, b) stellt dazu eine Lösung vor. Die biografische Frage nach der Erfahrung mit Projektgruppen wird ergĂ€nzt, indem die Bewerber bei den Antwortvarianten b, c und d gebeten werden, die jeweiligen Projekte kurz zu beschreiben. Alleine die BefĂŒrchtung, dass diese schriftlichen AusfĂŒhrungen kontrolliert werden können, soll Bewerber dazu bringen, ehrlicher zu antworten. Der Autor stellt eine weitere Innovation vor, wie die Ehrlichkeit weiter erhöht werden kann, ohne manuellen Aufwand zu produzieren: Die Antworten auf die offenen Fragen werden automatisiert nach Stichwörtern ausgelesen. So bestand etwa ein Erfahrungswert darin, dass bei den Antworten auf die Frage nach den Projekterfahrungen bei den schwĂ€cheren Bewerbern hĂ€ufiger das Adjektiv „schwierig“ auftauchte. Ergebnis der Studie: Durch dieses simple Auslesen von Stichwörtern konnte zu 71 % die SelbsteinschĂ€tzung der Bewerber korrekt vorhergesagt werden. Das erscheint zunĂ€chst zu niedrig. Die Idee besteht jedoch darin, nur den geringen Teil von Bewerbern zu interviewen, bei dem die SelbsteinschĂ€tzung hoch ist, die Antwortmuster jedoch eine schwĂ€chere Bewertung nahelegen, also vermutet werden kann, dass die biografischen Fragen nicht ehrlich beantwortet wurden.

 

Stand der Dinge zur InterviewfĂŒhrung

Relativ zur praktischen Bedeutung hĂ€lt sich der Umfang von Validierungsstudien zum Interview in Grenzen. Der fĂŒhrenden US-Autor Michael Campion von der Purdue University fasst die aktuelleren Studien zusammen (Campion, M., 2014). Er berichtet von bisher 36 durchgefĂŒhrten ValiditĂ€tsstudien. ZunĂ€chst gibt es die bekannten Ergebnisse, dass „VorstellungsgesprĂ€che“ mit beliebigen Fragen ohne Anforderungsbezug („Warum möchten Sie bei uns arbeiten?“, „Was sind Ihre StĂ€rken und SchwĂ€chen?“) trotz der Selbstgewissheit des Interviewers keine ValiditĂ€t haben und primĂ€r gegenseitige Sympathie sicherstellen. Der Treiber fĂŒr ZuverlĂ€ssigkeit und Treffsicherheit besteht in einer hohen Strukturierung durch anforderungsorientierte, vorbereitete Fragen in gleicher Reihenfolge.

 Bild3

 

Zum Thema Nachhaken war bisher Stand der Dinge die STAR-Methode, die wir auch in unseren Interviewtrainings ĂŒben (Situation, Task, Result). Hierzu gibt es Neues: Nach Campion bedroht das Nachhaken stark die ObjektivitĂ€t und am Ende die Treffsicherheit der Interviews. Professionellen Interviewern gelingt es kaum, so nachzuhaken, dass nicht am Ende die Bewerber mehr oder weniger deutliche Hinweise auf die gewĂŒnschte Antwort bekommen.

Er schlĂ€gt eher vor, fĂŒr jede Frage allgemeine Nachhakfragen vorzubereiten (z. B. bei situativen Fragen: „Okay, und wenn Ihre Antwort nicht funktioniert, was wĂŒrden Sie dann tun 
?“ oder bei biografischen Fragen: „Welche UnterstĂŒtzung hatten Sie dabei?“ oder „Wer war noch beteiligt?“).

Die höchste ValiditĂ€t weisen Interviews auf, in denen es vorbereitete Antwortkategorien gibt. Die schwĂ€chste Variante ist eine allgemeine Likert-Skala (z. B. 3 = erfĂŒllt in der Antwort teilweise die Erwartungen). Besser sind Verhaltensanker, in denen etwa in drei Stufen die erwarteten Antworten inhaltlich beschrieben werden. ObjektivitĂ€t und ValiditĂ€t fallen eindeutig aus, die praktische Herausforderung ist es, die beteiligten FĂŒhrungskrĂ€fte dazu zu bringen, diese tatsĂ€chlich zu nutzen. Dazu sollte es in der Vorbereitung KalibrierungsĂŒbungen mit Videobeispielen geben.

 

Neues zu Situational Judgement Tests

In Situational Judgement Tests (SJT) werden Bewerbern berufliche Situationen mit der Bitte vorgelegt, sich unter einer von mehreren Alternativen zur weiteren Vorgehensweise oder Lösung der Situation zu entscheiden. Neben textbezogenen Itemformaten sind in den 90er-Jahren Varianten mit Bilderszenen und seit den 2000er-Jahren Varianten mit Videostimuli entstanden. Die in der Literatur berichteten ValiditÀten sind sehr unterschiedlich, die ZusammenhÀnge der SJT-Ergebnisse zu VorgesetzteneinschÀtzungen variieren zwischen r = -.05 und r = .33, sodass es darauf ankommt, wie die SJT im Detail konstruiert werden.

Obermann Consulting hat dieses Jahr ein Projekt im Einzelhandel betreut, bei dem im Rahmen einer Potenzialanalyse Mitarbeitern 40 videobasierte Szenen aus dem FĂŒhrungsalltag vorgelegt werden. In der Validierungsstudie vorab zeigt sich ein signifikanter Zusammenhang zur VorgesetzteneinschĂ€tzung, sodass der SJT nun in Anwendung kommt. Durch die Darstellung von praktischen Szenen aus dem Berufs- und FĂŒhrungsalltag haben die SJT eine sehr hohe Akzeptanz bei Bewerbern und im Management. Neben der höheren Akzeptanz liegt der Vorteil der videobasierten Stimuli darin, dass durch den visuellen Kanal der „kognitive Overload“ geringer ist und die SJT kein verkappter Intelligenztest sind.

Bild4

Situational Judgement Test – aufwĂ€ndig aber effektiv

Auch dazu gibt es neue Studien. Barron et al. (2014) von der amerikanischen Air Force gingen zunĂ€chst den anderen Weg, um den Aufwand in der Erstellung der SJT zu reduzieren. Hier wurde sowohl auf Bildmaterial verzichtet als auch auf die Darbietung von (aufwĂ€ndig zu konstruierenden) Antwortalternativen. In dem Air Force SJT wurden u. a. Kriterien wie Leadership, soziale FĂ€higkeiten und ethisches Verhalten getestet. Zwei SJT-Formen wurden dann an der gleichen Population getestet – Text-SJT mit mehreren Antwortalternativen und lediglich einer Antwortmöglichkeit (Frage: „Wie wahrscheinlich ist das hier beschriebene Verhalten in der Situation?“). Die Ergebnisse sind eher ernĂŒchternd: Durch die Vereinfachung sinkt die ReliabilitĂ€t von r = .91 auf r = .72. Die höchste ValiditĂ€t besitzt die vereinfachte SJT-Form mit Kriterien wie „Interesse an Kunst“ bei den getesteten Soldaten. Fazit: Eine zu große Vereinfachung erscheint nicht sinnvoll.

Den umgekehrten Weg beschreiben Fix & Ablitt (2014). FĂŒr die englische Bank Barcley’s wurden SJT mit einer rein verbalen Beschreibung und inhaltlich gleichen Videostimuli verglichen. FĂŒr die videobasierten Items wurde ein substanzieller Aufwand betrieben: Professionelle Schauspieler, animierter Hintergrund, 18 Monate Entwicklungszeit, PrĂ€sentationsperson einleitend zu den Videos. Beide Varianten fĂŒhrten zu Ă€hnlichen ValiditĂ€ten gegenĂŒber der VorgesetzteneinschĂ€tzung der eingestellten Bewerber (Textversion r = .19, Videoversion r = .18, jeweils signifikant). Der erhebliche Mehraufwand fĂŒr die Produktion der Videostimuli scheint sich bezogen auf die Vorhersage von Joberfolg also nicht zu lohnen – anders zu betrachten ist die höhere AttraktivitĂ€t fĂŒr die Teilnehmer und die Akzeptanz im Management.

 

Literatur:

 

  • Barron, L. G., & Cody, B. C. (2014). Comparative Validity of Traditional (Multiple Response) and Single Response Situational Judgement Test. Honolulu: SIOP, 29th Annual Conference.
  • Campion, M. A. (2014). How to Develop Interview Questions and Anchored Rating Scales. Honolulu: SIOP, 29th Annual Conference.
  • Conte, J. M. (2014). Perspectives on High Potential. Honolulu: SIOP, 29th Annual Conference.
  • Cooper, D. A., & Slaugther, J. E. (2014). Reducing Workers Compensation Costs: The Influence of Implementing Integrity Testing. Honolulu: SIOP, 29th Annual Conference.
  • Fix, C., & Ablitt, H. (2014). Made to Measure? Comparing Psychometrics of Text & Media-Based SJT. Honolulu: SIOP, 29th Annual Conference.
  • Hendricks, D. A., Robie, C., & Laurier, W. (2014). Use of Other-Ratings and Technology to Address Applicant Faking. Honolulu: SIOP, 29th Annual Conference.
  • King, D., Ryan, A. M., & Kantrowitz, T. (2014). Mobile and PC Delivered Assessments: Comparison of Scores and Reactions. Honolulu: SIOP, 29th Annual Conference.
  • Kinney, T. B., Lawrence, A. D., & Luye, C. (2014). Understanding the Mobile Candidate Experience: Reactions Across Device and Industry. Honolulu: SIOP, 29th Annual Conference.
  • Landers, R. N., Cavanaugh, K. J., & Proaps, A. (2014). Talent Management Using Mobile Devices. Honolulu: SIOP, 29th Annual Conference.
  • Lievens, F., & Sackett, P. R. (2006). Video-based versus written situational judgment tests: A comparison in terms of predictive validity. Journal of Applied Psychology, 91 (5), 1181-1188.
  • Meade, A. W., & Papparlardo, G. (2014). Development of an Efficient and Faking-Resistant Rapid Response Assessment Method. Honolulu: SIOP, 29th Annual Conference.
  • Ones, D. S., Wiemik, B. M., & Schmidt, F. L. (2014). Cross-Cultural Validity of Preemployment Integrity Tests: A Transcultural Meta-Analytic Investigation. Honolulu: SIOP, 29th Annual Conference.
  • Pickering, D., & Foster, H. (2014). Examining Relationship Between Employee Reliability and Job Performance for Managers. Honolulu: SIOP, 29th Annual Conference.
  • Ployhart, R. E., Schneider, B., & Schmitt, N. (2006). Staffing organizations: Contemporary practice and theory, 3rd ed. Mahwah: Lawrence Erlbaum Associates Publishers.
  • Schwall, A. R. (2014). Preventing Faking in Biodata Items Using Elaboration and Machine Learning. Honolulu: SIOP, 29th Annual Conference.
  • Voss, B. E., Alshanski, S., & Christiansen, N. (2014). Convergence and Discrimination of Observer Personality Ratings From Work Simulations. Honolulu: SIOP, 29th Annual Conference.

 

The post Neue Forschungsergebnisse aus der Eignungsdiagnostik appeared first on Obermann Consulting.

↧

Die FĂŒhrungskraft als Gestalter psychologischer Kontrakte

$
0
0

Ein neues Leitmodell fĂŒr die FĂŒhrungskrĂ€fte-Entwicklung

Der psychologische Kontrakt beschreibt die wechselseitigen Verpflichtungen zwischen Mitarbeiter und Organisation bzw. Mitarbeiter und FĂŒhrungskraft und die erlebte QualitĂ€t ihrer Beziehung. Psychologische Kontrakte können eher nutzenorientiert oder eher partnerschaftlich verfasst sein. Je grĂ¶ĂŸer die partnerschaftliche QualitĂ€t, desto grĂ¶ĂŸer die Bereitschaft des Mitarbeiters, sich freiwillig fĂŒr die Interessen der Organisation zu engagieren. FĂŒr Vorgesetzte ergibt sich die Herausforderung, psychologische Kontrakte aktiv zu gestalten. Dies insbesondere in VerĂ€nderungsprozessen. Denn in solchen kommt es regelmĂ€ĂŸig zu Verletzungen der psychologischen Kontrakte betroffener Mitarbeiter.

 

FĂŒhrung umfasst zwei Kernaufgaben: Mitarbeiter steuern und Mitarbeiter binden (Solga & Ryschka, 2013). Es gilt, Mitarbeiter durch Ziele, Feedback/Beurteilung und Anreize im Sinne der Ergebnis- und Verhaltenserwartungen zu steuern. Seit einiger Zeit wird der Begriff ‚Performance Management‘ verwendet, um diesen Aspekt hervorzuheben. Gleichzeitig gilt es – dies ist die zweite Kernaufgabe – die erlebte Bindung von Mitarbeitern an die Organisation, ihre Ziele und Werte, zu fördern.

Beide Funktionen mĂŒssen einander ergĂ€nzen und in Balance sein. Denn organisationale Bindung ist das Fundament, auf dem wir hohe Leistungsanforderungen akzeptieren und bereit sind, ĂŒber die ErfĂŒllung vertraglicher Pflichten hinauszugehen. Zugleich hat bindungsorientiertes FĂŒhrungsverhalten (z.B. WertschĂ€tzung zeigen, UnterstĂŒtzung anbieten) keine Höchstleistungen zur Folge, wenn nicht zugleich Ziele, Feedback/Beurteilung und Leistungsanreize fĂŒr Orientierung und Aktivierung sorgen.

 

Wir nutzten das Konzept des psychologischen Kontrakts, um die zweite Kernaufgabe – Mitarbeiter binden – zu beleuchten und in ihrer Wichtigkeit verstĂ€ndlich zu machen. Das Konzept ist in besonderer Weise geeignet, den negativen Einfluss zu beschreiben, den organisationale VerĂ€nderungsprozesse auf das organisationale Commitment von Mitarbeitern haben. Darin liegt seine besondere StĂ€rke. Das Konzept des psychologischen Kontrakts ist also in besonderer Weise ein Leitmodell zum Thema ‚FĂŒhren von Mitarbeitern im organisationalen Wandel‘.

 

Was genau sind psychologische Kontrakte? – Es handelt sich dabei nicht um VertrĂ€ge im rechtlichen Sinne. Vielmehr umfasst der Begriff die Sicht eines Mitarbeiters auf die wechselseitigen Verpflichtungen seines Arbeitsgebers bzw. Vorgesetzten und seiner selbst (siehe Abbildung 1; Conway & Briner, 2005, 2009).

Artikel 1 1

Abbildung 1: Der psychologische Kontrakt

Diese Verpflichtungen ergeben sich aus expliziten Absprachen zwischen Mitarbeiter und FĂŒhrungskraft. Der Kontrakt entsteht, wenn beide ĂŒber ihre wechselseitigen Erwartungen sprechen. Die Inhalte des Kontrakts können aber auch durch Beobachtung zustande kommen. Und oft genug beinhaltet er Dinge, die aufgrund irgendwelcher Vorerfahrungen bzw. Vorannahmen einfach erwartet werden.

Der psychologische Kontrakt besteht aber nicht nur aus zugeschriebenen Verpflichtungen. Er beinhaltet auch das Erleben von BeziehungsqualitĂ€t. In diesem Zusammenhang lassen sich zwei unterschiedliche Arten psychologischer Kontrakte unterscheiden, ökonomische und partnerschaftlich orientierte (Conway & Briner, 2005). Im Falle eines nutzenorientierten Kontrakts erleben wir die Beziehung zur Organisation bzw. zur FĂŒhrungskraft als ein ZweckbĂŒndnis von begrenzter Dauer. Die Verwirklichung eigener Interessen steht im Mittelpunkt, die emotionale Beteiligung ist gering. Die wechselseitigen Rechte und Pflichten sind klar und eindeutig definiert. Die Inhalte des Kontrakts basieren ĂŒberwiegend auf einfachen, klar umgrenzten, expliziten Vereinbarungen. Im Falle eines partnerschaftlichen Kontrakts erleben wir eine langfristige Partnerschaft, in der die Interessen des GegenĂŒbers ebenso wichtig sind wie die eigenen Interessen. Die Beziehung hat einen hohen emotionalen oder gar ideellen Wert. In ihr geht es nicht bloß um den Austausch fasslicher, geldwerter Leistungen – Respekt, WertschĂ€tzung, Anerkennung, Dazugehörigkeit, Verantwortung und Sinn spielen eine große Rolle. Die wechselseitigen Rechte und Pflichten sind weniger klar definiert und werden seltener offen diskutiert und erörtert – der Kontrakt enthĂ€lt viele implizite Elemente. Ferner besteht Vertrauen in einen langfristigen Ausgleich von Geben und Nehmen; deshalb können eigene BedĂŒrfnisse kurzfristig zurĂŒckgestellt werden, weil es dem Wohl des Partners dient.

 

Warum ist diese Unterscheidung von Bedeutung? Partnerschaftliche Kontrakte sind eine wichtige Vorbedingung fĂŒr freiwilliges Arbeitsengagement (McLean Parks & Kidder, 1994; Schalk & Roe, 2007). Mitarbeiter mit partnerschaftlichen Kontrakten sind in besonderer Weise dazu bereit, sich eigenverantwortlich fĂŒr die Interessen der Organisation stark zu machen, hĂ€rter und gewissenhafter zu arbeiten als verlangt (also die sprichwörtliche Extrameile zu gehen), sich partnerschaftlich abzustimmen, Kollegen zu unterstĂŒtzen und sich fĂŒr ein gutes Betriebsklima einzusetzen. Daraus ergibt sich eine wichtige Handlungsempfehlung fĂŒr FĂŒhrungskrĂ€fte: Es gilt, partnerschaftliche Kontrakte zu pflegen und zu erhalten! Und es gilt, nutzenorientierte Kontrakte in partnerschaftliche zu ĂŒberfĂŒhren!

 

Wir nehmen den psychologischen Kontrakt als verletzt oder gebrochen wahr, wenn die Organisation oder unsere FĂŒhrungskraft aufhören, die Verpflichtungen einzulösen, die wir ihr zuschreiben. In der Folge erleben wir ein Ungleichgewicht von Geben und Nehmen zu unseren Lasten. Erlebte Kontraktverletzungen sind besonders wahrscheinlich,

  • wenn die Organisation ihre Leistungsanforderungen erhöht, ohne eine Kompensation anzubieten;
  • wenn Ressourcen und Belohnungen neu verteilt werden und wir dabei das Nachsehen haben;
  • oder wenn in VerĂ€nderungsprozessen (Restrukturierungen, Fusionen etc.) angestammte Privilegien, HandlungsspielrĂ€ume und Einflussbereiche beschnitten werden.

 

Eine unmittelbare Folge erlebter Kontraktverletzungen besteht darin, dass Mitarbeiter ihren psychologischen Kontrakt neu bewerten und ggf. ‚de-qualifizieren‘ (McLean Parks & Kidder, 1994) – dann wird aus einem partnerschaftlichen Kontrakt ein nutzenorientierter („Das lasse ich mir nicht bieten! Ab morgen mache ich Dienst nach Vorschrift!”; Abbildung 2). Die Beziehung zur Organisation verschlechtert sich.

Artikel 1 2

Abbildung 2: Neubewerten

In diesem Sinne konnten zwei Metaanalysen zeigen, dass das erlebte Ausmaß des Kontraktbruchs hoch mit Misstrauen, Arbeitsunzufriedenheit, Reduzierung organisationalen Commitments und KĂŒndigungsabsichten einhergeht (Bal, Lange, Jansen & van der Velde, 2008; Zhao, Wayne, Glibkowski & Bravo, 2007). Um das Gleichgewicht von Geben und Nehmen wieder herzustellen, reagieren wir auf erlebte Kontraktverletzungen mit einer Reduzierung unseres freiwilligen Arbeitsengagements (Kollegen unterstĂŒtzen 
 siehe oben) und auch der auftragsgemĂ€ĂŸen Arbeitsleistung (Rebalancieren; McLean Parks & Kidder, 1994). Außerdem konnten wir in einer eigenen Studie zeigen (Solga & Zettler, in Druck), dass erlebter Kontraktbruch kontraproduktives Verhalten zur Folge hat. Als kontraproduktiv werden alle Verhaltensweisen bezeichnet, durch die die Organisation als Ganze oder einzelne Personen in ihr absichtlich geschĂ€digt werden (Leistung zurĂŒckhalten, Geheimnisse verraten, Diebstahl, Mobbing etc.). Kontraproduktives Verhalten kann als ein Versuch interpretiert werden, das Gleichgewicht von Geben und Nehmen durch einen Akt der Vergeltung wiederherzustellen („Wie du mir, so ich dir!“).

 

Wir betrachten das aktive Gestalten psychologischer Kontrakte mit dem Ziel, Mitarbeiterbindung zu sichern und zu fördern, als eine SchlĂŒsselaufgabe von FĂŒhrung im organisationalen Alltag, insbesondere aber in VerĂ€nderungsprozessen. Wir haben unterschiedliche Strategien entwickelt, mit denen sich das Risiko einschrĂ€nken lĂ€sst, psychologische Kontrakte zu beschĂ€digen. Andere Strategien sind dazu geeignet, bereits erlebte Kontraktverletzungen zu bearbeiten. Der Ort, an dem sich diese Strategien bestens umsetzen lassen, ist das MitarbeitergesprĂ€ch.

 

Eine dieser Strategien sei im Folgenden kurz ausgefĂŒhrt. Das macht allerdings einen Exkurs ins Thema ‚Fairness im Arbeitsleben‘ notwendig: Im Arbeitsleben lassen sich vier unterschiedliche Bereiche erlebter Fairness unterscheiden (Maier, Streicher, Jonas & WoschĂ©e, 2007):

 

  • distributive Fairness (Verteilungsgerechtigkeit): Hier geht es um die Verteilung von Belohnungen (Dinge, die wir fĂŒr geleistete Arbeit erhalten) und Ressourcen (Dinge, die wir benötigen, um erfolgreich arbeiten zu können: AusrĂŒstung, EntscheidungsspielrĂ€ume etc.). Wir erleben die Verteilung von Belohnungen als fair, wenn sie sich an der tatsĂ€chlich erbrachten Leistung orientiert. Und wir erleben die Verteilung von Ressourcen als fair, wenn sie sich am aufgabenspezifischen Bedarf orientiert.
  • prozedurale Fairness: Hier geht es um Entscheidungsprozeduren. Diese erleben wir dann als fair, wenn 1. wir als Betroffene mitgestalten können (indem wir Gelegenheit bekommen, unsere Meinungen, GefĂŒhle, WĂŒnsche und Interessen zu Ă€ußern); 2. der Entscheider unvoreingenommen handelt (d. h. allparteilich bleibt und niemanden ungerechtfertigt bevorzugt); 3. von Mal zu Mal immer dieselben Entscheidungskriterien zur Anwendung kommen; 4. Fehlentscheidungen korrigierbar sind.
  • informationale Fairness: Hier geht es um den Umgang mit Informationen im Zuge von Entscheidungsprozeduren. Informationale Fairness bedeutet: Betroffene werden angemessen informiert und mit ErklĂ€rungen versorgt. In diesem Sinne mĂŒssen Entscheidungen rechtzeitig, transparent, nachvollziehbar und bedĂŒrfnisgerecht angekĂŒndigt und begrĂŒndet werden.
  • interpersonale Fairness: Hier geht es um das persönliche Miteinander. Interpersonale Fairness bedeutet: Wir fĂŒhlen uns mit Respekt und WĂŒrde behandelt. Der GesprĂ€chspartner oder Entscheider zeigt WertschĂ€tzung, VerstĂ€ndnis und MitgefĂŒhl.

 

Die erlebte Verletzung des psychologischen Kontrakts lĂ€sst sich mit Blick auf diese vier Bereiche als ein Verstoß gegen distributive Fairness beschreiben: Wir erhalten eine erwartete (versprochene) Belohnung oder Ressource nicht – das Gleichgewicht von Einsatz und Ertrag bzw. Leistung und Gegenleistung gerĂ€t ins Wanken.

 

Die Wahrscheinlichkeit, dass wir erlebte Verteilungsungerechtigkeit und also Verletzungen des psychologischen Kontrakts akzeptieren können und darauf verzichten, unsere Leistung zu reduzieren und durch kontraproduktives Handeln Vergeltung zu ĂŒben, steigt, wenn wir erleben, dass sich die Organisation und insbesondere die direkte FĂŒhrungskraft ins besonderer Weise darum bemĂŒhen, prozedural, informational und interpersonell fair zu handeln (siehe Abbildung 3; Barclay, Skarlicki, & Pugh, 2005; Kickul, 2001; McLean Parks & Kidder, 1994)!

Artikel 1 3

Abbildung 3: Reaktionen auf Kontraktverletzungen – erlebte Fairness als Puffer

 

Es resultiert ein interessantes Entwicklungsprogramm fĂŒr FĂŒhrungskrĂ€fte, das wir sowohl in Trainings als auch – eher reflexionsorientiert – in Coachings umsetzen: die FĂŒhrungskraft als Gestalter psychologischer Kontrakte. Ein solches Programm kann in besonderer Weise zur Vorbereitung auf das Thema ‚FĂŒhren im organisationalen Wandel‘ dienen.

 

Unsere Leistungen

 

  • Trainingsprogramme und Coachings zu den Themen ‚Mitarbeiterbindung fördern‘ und ‚Die FĂŒhrungskraft als Gestalter psychologischer Kontrakte‘

Trainingsprogramme und Coachings fĂŒr FĂŒhrungskrĂ€fte, die schwierige VerĂ€nderungsprozesse managen mĂŒssen – Leitfrage: Wie lĂ€sst sich die Verletzung psychologischer Kontrakte verhindern oder konstruktiv bearbeiten?

Artikel 1 4

Abbildung 4: Prof. Dr. Marc Solga

 

Literatur

 

  • Bal, P. M., Lange, A. H. de, Jansen, P. G. W. & van der Velde, M. E. G. (2008). Psychological contract breach and job attitudes: A meta-analysis of age as a moderator. Journal of Vocational Behavior, 72, 143–158.
  • Barclay, L. J., Skarlicki, D. P. & Pugh, S. D. (2005). Exploring the role of emotions in injustice perceptions and retaliation. Journal of Applied Psychology, 90, 629–643.
  • Conway, N. & Briner, R. B. (2005). Understanding psychological contracts at work. A critical evaluation of theory and research. Oxford, UK: Oxford University Press.
  • Conway, N. & Briner, R. B. (2009). Fifty years of psychological contract research: What do we know and what are the main challenges? In G. P. Hodgkinson & J. K. Ford (Eds.), International review of industrial and organizational psychology, Vol. 24 (pp. 71–130). Chichester, UK: Wiley-Blackwell.
  • Kickul, J. R. (2001). When organizations break their promises: Employee reactions to unfair processes and treatment. Journal of Business Ethics, 29, 289–307.
  • McLean Parks, J. & Kidder, D. L. (1994). “Till death us do part 
” Changing work relationships in the 1990s. In C. L. Cooper & D. M. Rousseau (Eds.), Trends in organizational behavior, Vol. 1 (pp. 111-136). Chichester: Wiley.
  • Schalk, R. & Roe, R. E. (2007). Towards a dynamic model of the psychological contract. Journal of the Theory of Social Behaviour, 37, 167–182.

Weitere Artikel dieser Newsletterausgabe:

 

The post Die FĂŒhrungskraft als Gestalter psychologischer Kontrakte appeared first on Obermann Consulting.

↧

Qualifizierungs- und Weiterbildungsoffensive fĂŒr Filialleiter

$
0
0

Interview mit Michael Huber, Bereichsleiter Recruiting und Personalentwicklung Lidl

Herr_Huber

Michael Huber, Bereichsleiter Recruiting und
Personalentwicklung, Lidl Personaldienstleistung
GmbH & Co. KG

 

Obermann Consulting (OC): Herr Huber, Lidl hat die vielleicht grĂ¶ĂŸte Qualifizierungsoffensive organisiert, die je in Deutschland durchgefĂŒhrt wurde. Was war hier der Anlass?

Herr Huber: Die Anforderungen an die Leiter unserer mehr als 3.000 Filialen allein in Deutschland sind laufend gestiegen. Wir haben daher „Entwicklungstage“ durchgefĂŒhrt, in dessen Rahmen die Filialleiter eine umfassende und individuelle RĂŒckmeldung zu Management und FĂŒhrungskompetenzen erhielten. Das Ergebnis ist die Grundlage fĂŒr individuelle Weiterbildungsmaßnahmen.

 

OC: Eine Qualifizierungsoffensive mit mehr als 3000 Teilnehmern – wie ist das zu bewĂ€ltigen?

Herr Huber: Wir haben innerhalb von neun Wochen fast alle unsere Filialleiter im Rahmen der Entwicklungstage beobachtet und Entwicklungsmaßnahmen individuell abgeleitet. Dazu gab es eine lange Vorlaufzeit der Planung, wir haben u.a. die lokalen Personalleiter unserer 38 Regionalgesellschaften als Beobachter und Moderatoren systematisch vorbereitet. Neben klassischen Aufgabentypen wie Interview und Analyseaufgaben waren ein methodisches Kernelement des Entwicklungstages die SJT – Situational Judgment Tests.

 

OC: Wie ganz konkret sieht bei Ihnen eine Beispielsituation im SJT aus, die Sie im Entwicklungstag eingesetzt haben?

Herr Huber: Die SJT sind Videosequenzen mit Herausforderungen aus dem Alltag eines Filialleiters. Eine Sequenz zeigt beispielweise einen Kunden in der Filiale, der einen Artikel sucht und nicht finden kann. Er wendet sich an den Filialleiter, der in mittelbarer NĂ€he steht. Im Anschluss an jede gezeigte Videosequenz wird dem Teilnehmer eine standardisierte Frage gestellt. Die Beobachter haben eine Art Musterlösung vorliegen und stufen die Antwort des Teilnehmers entsprechend ein. Durch diesen Abgleich der Antworten mit der Musterlösung zu 24 verschiedenen FĂŒhrungsherausforderungen, erhalten wir eine objektive EinschĂ€tzung zu den StĂ€rken und Entwicklungsfeldern der Teilnehmer bezogen auf das tĂ€gliche Erleben des operativen GeschĂ€fts auf der FlĂ€che.

 

OC: Welcher Mehrwert ist Ihrer Meinung nach mit dieser Methode verbunden?

Herr Huber: Den grĂ¶ĂŸten Mehrwert sehen wir grundsĂ€tzlich in der hohen Standardisierung und der hohen DurchfĂŒhrungsobjektivitĂ€t. Diese beiden Kriterien sind fĂŒr uns besonders wichtig, da die Entwicklungstage dezentral in den Regionalgesellschaften durchgefĂŒhrt wurden. Das heißt, es waren sehr viele Moderatoren und Beobachter beteiligt.

 

OC: Wie hoch war die Akzeptanz dieser Methode bei den Teilnehmern?

Herr Huber: Die Akzeptanz war sehr hoch. Die Teilnehmer mussten teilweise bei der Betrachtung der Videos schmunzeln und hĂ€ufig haben wir Äußerungen gehört wie: „Genau diese Situation hatte ich erst letzte Woche mit einem Kunden.“

Auch bei den Beobachtern, ĂŒber alle Hierarchiestufen hinweg, ist die Akzeptanz der Übung hoch. Einerseits ebenfalls durch die realistischen Situationen und andererseits durch die Fairness der gleichen Behandlung der Teilnehmer, bedingt durch die Standardisierung der Übungen und durch die objektive Auswertungssystematik. FĂŒr uns war es auch wichtig, die teilnehmenden wichtigen und erfahrenen FĂŒhrungskrĂ€fte nicht nur vor einen Computer zu setzen: Jede Szene wurde im Rahmen eines Dialogs ausgewertet.

 

OC: Sehen Sie gegenĂŒber anderen Übungen Nachteile in der DurchfĂŒhrung?

Herr Huber: Bei einer DurchfĂŒhrung im großen Stil ist das notwendige technische Equipment nicht zu vernachlĂ€ssigen. Eine einwandfreie Bild- und TonqualitĂ€t muss gewĂ€hrleistet sein. Wir haben die Videos mit einem professionellen Team in der realen Arbeitsumgebung der Teilnehmer gedreht.

 

OC: Was muss ein Unternehmen bedenken, wenn es sich fĂŒr den Einsatz von SJT entscheidet?

Herr Huber: Der Einsatz von SJT ist zwar ökonomisch in der DurchfĂŒhrung, in der Konzeption jedoch aufwĂ€ndig und kostenintensiv. Wenn man sehr kurzfristig eine Übung auf die Beine stellen muss, dann ist die SJT-Übung nicht die richtige Methode. In der Konzeptionsphase heißt es, sich Zeit zu nehmen und auch kleinste Details von Anfang an mit zu bedenken: Was zeigt die Kamera, was genau wird wie gesagt. Denn was einmal gefilmt ist, lĂ€sst sich nur mit grĂ¶ĂŸerem Aufwand wieder verĂ€ndern. Heißt, der Aufwand in der Erstellung und Vertestung sollte von Unternehmen nicht unterschĂ€tzt werden.

 

OC: Welchen Unternehmen wĂŒrden Sie den Einsatz empfehlen? FĂŒr welche Zielgruppen?

Herr Huber: Generell ist der Einsatz fĂŒr jedes Unternehmen und jegliche Zielgruppe gut geeignet. Es muss sichergestellt sein, dass jede Zielgruppe ihren individuellen Alltag in den SJT abgebildet bekommt. Das heißt mit kleinen Anpassungen von einer Zielgruppe auf die nĂ€chste ist es nicht getan, sondern fĂŒr jede Personengruppe mĂŒssen die SJT individuell entwickelt werden.

 

OC: Herr Huber, vielen Dank fĂŒr das GesprĂ€ch!

 

Das Interview wurde gefĂŒhrt von Silke Kromrei, verantwortliche Beraterin bei Obermann Consulting fĂŒr das Lidl-Projekt.

obc_silke-kromrei_900px

Silke Kromrei, Senior Consultant, Obermann
Consulting GmbH

 

Weitere Artikel dieser Newsletterausgabe:

The post Qualifizierungs- und Weiterbildungsoffensive fĂŒr Filialleiter appeared first on Obermann Consulting.

↧
↧

Neues zu Situational Judgement Tests

$
0
0

In Situational Judgement Tests (SJT) werden Bewerbern berufliche Situationen mit der Bitte vorgelegt, sich fĂŒr eine von mehreren Alternativen zur weiteren Vorgehensweise oder Lösung der Situation zu entscheiden. Neben textbezogenen Itemformaten sind in den 90er-Jahren Varianten mit Bilderszenen und seit den 2000er-Jahren Varianten mit Videostimuli entstanden. Die in der Literatur berichteten ValiditĂ€ten sind sehr unterschiedlich, die ZusammenhĂ€nge der SJT-Ergebnisse zu VorgesetzteneinschĂ€tzungen variieren zwischen r = -.05 und r = .33, sodass es darauf ankommt, wie die SJT im Detail konstruiert werden. Auch wenn gerade wieder in Mode, gibt es die SJT schon lange, erstmals in der Anwendung im Rahmen von militĂ€rischen AC der 40er Jahre und in neuerer Zeit wieder von Motowidlo, Dunnette, & Carter (1990) eingefĂŒhrt.

Vorteil: Kosten- und Zeitersparnis bei großen Bewerberzahlen

Durch den höheren Einmalaufwand in der Konzeption gegenĂŒber Interviews oder Simulationen werden die situativen Tests primĂ€r im Kontext von grĂ¶ĂŸeren Bewerberzahlen eingesetzt. GrĂŒnde hierfĂŒr liegen in einer effektiven Vorauswahl von Teilnehmern und in der kostengĂŒnstigeren DurchfĂŒhrung im Vergleich zu Live-Assessments. Eine Anwendungsform ist etwa die Auswahl von Medizinstudenten (Lievens & Sackett, 2006).

In einer zusammenfassenden Metaanalyse konnten McDaniel, Hartman, Whetzel & Grubb (2007) zeigen, dass sich situative Testverfahren insgesamt als valide erwiesen haben und gegenĂŒber kognitiven Testverfahren ĂŒber eine inkrementelle ValiditĂ€t verfĂŒgen, um den Berufserfolg vorherzusagen. Lievens & Sackett (2006) konnten zeigen, dass videobasiertes Stimulus-Material zu höheren ValiditĂ€ten fĂŒhrt als reine Textstimuli. In einer neueren Übersichtsstudie gab es eine Ă€hnlich positive BestĂ€tigung fĂŒr die situativen Tests (Christian, Edwards & Bradley, 2010). Als eine Untersuchungsfrage wurde klassisches (textorientiertes) und videobasiertes Stimulusmaterial miteinander verglichen. Videobasierte Items konnten hinsichtlich der Vorhersage von kommunikativen/ interpersonalen FĂ€higkeiten deutlich besser abschneiden (r = .47 zu r = .27).

Mittlerweile sind die SJT etabliert und es liegen verschiedene ValiditĂ€tsstudien vor. Eine Studie mit sehr großem zeitlichem Abstand zwischen PrĂ€diktor und Kriterium wurde von Lievens & Sackett (2011) vorgestellt. Probanden waren 723 Bewerber fĂŒr ein Medizinstudium in Belgien, die ĂŒber einen Zeitraum von neun Jahren bewertet wurden. PrĂ€diktoren waren kognitive Variablen (u.a. medizinischer Test, allgemeiner kognitiver Test) und ein situativer Test mit 30 videogestĂŒtzten Stimuli mit Situationen, die auf Ärzte mit Patientenkontakt zukommen. Berufserfolgskriterien waren nach sieben Jahren die EinschĂ€tzung in einem Ă€rztlichen Praktikum und nach zwei weiteren Jahren die EinschĂ€tzung nach der Ausbildung zum Allgemeinmediziner. Der situative Test konnte jeweils mit einer Korrelation von r = .23 hochsignifikant diese Bewertungen vorhersagen, relativ stĂ€rker als die kognitiven PrĂ€diktoren. Die kognitiven Tests stehen darĂŒber hinaus in signifikanten Zusammenhang mit dem Videotest – obwohl es sich hier inhaltlich um ein anderes Konstrukt handelt.

Kritikpunkt: Maximale oder typische Leistung?

Eine Variante betrifft die klassische Unterscheidung, ob die situativen Tests eher die maximale oder typische Reaktion messen. Die maximale Reaktion unterliegt eher dem Effekt der sozialen ErwĂŒnschtheit („Ich schiebe normalerweise Konflikte auf, aber wenn ich weiß, was gefragt wird, kann ich auch anders“). Die maximale Reaktion wird eher mit dem Antwortformat: „Was ist das beste Vorgehen?“ abgefragt, die typische Variante mit „Wie wĂŒrden Sie wahrscheinlich vorgehen?“. Bei einer experimentellen Studie mit Bewerbern fĂŒr das Medizinstudium (Lievens, Sackett & Buyse, 2009) gab es keine Unterschiede zwischen beiden Formaten. Allerdings korrelierte die Variante der maximalen Reaktionsweise im Unterschied zu der typischen Reaktionsweise höher mit kognitiven Testwerten.

Kritikpunkt: Werden nicht verkappt kognitive statt soziale Leistungen gemessen?

Dies ist generell eine Problematik der situativen Tests. Die Kandidatenleistung enthĂ€lt jeweils hohe kognitive Anteile, auch wenn, wie bei Lievens & Sackett (2011) die videogestĂŒtzten Items zur Vorhersage interpersoneller FĂ€higkeiten eingesetzt wurden. Die Ergebnisse korrelierten mit kognitiven FĂ€higkeiten, nur ein Teil der Kennwerte erbrachte eine inkrementelle ValiditĂ€t in der Vorhersage der Abschlussnoten seitens der Absolventen im Wirtschaftsbereich. FĂŒr eine Teilgruppe wurde zusĂ€tzlich ein AC mit zwei Rollenspielen durchgefĂŒhrt. Hier gab es lediglich ZusammenhĂ€nge zu der Tendenz in der Simulation, Informationen persönlich (z. B. ĂŒber das Ansetzen eines Meetings) abzufragen.

Der kognitive Anteil liegt möglicherweise auch an den geschlossenen Antwortformaten. WĂ€hrend diese fĂŒr die Standardisierung und die psychometrische Auswertung vorteilhaft sind, so misst es inhaltlich etwas anderes, sich die attraktivste Antwort aus vorgegebenen Alternativen herauszusuchen, als in einem realen Setting zu reagieren. Wir haben daraus die Schlussfolgerung gezogen, möglichst mit offenen Antwortformaten im Rahmen von Kurzinterviews zu arbeiten.

Die US-Post als einer der weltweit grĂ¶ĂŸten Arbeitgeber setzt nunmehr eine Software ein, um AufsĂ€tze im Rahmen der Auswahlverfahren fĂŒr Hochschulabsolventen zu bewerten (Ford & Stetz, 2001). Dabei zeigten sich Korrelationen von r = .90 zwischen Auswertungen durch die E-rater-Software und trainierten Auswertungspersonen.

Obermann Projekt mit videobasierten Szenen

Obermann Consulting hat dieses Jahr ein Projekt im Einzelhandel betreut, bei dem Mitarbeitern im Rahmen einer Potenzialanalyse 24 videobasierte Szenen aus dem FĂŒhrungsalltag vorgelegt werden. In einer Validierungsstudie wurden fĂŒr eine Pilotzielgruppe die Ergebnisse der SJT mit den EinschĂ€tzungen der Vorgesetzten abgeglichen. Neben Hinweisen fĂŒr gute und weniger geeignete Szenen konnte hier ein hoch signifikanter Zusammenhang zur VorgesetzteneinschĂ€tzung ermittelt werden, sodass der SJT nun zur Anwendung kommt. Durch die Darstellung von praktischen Szenen aus dem Berufs- und FĂŒhrungsalltag haben die SJT eine sehr hohe Akzeptanz bei Bewerbern und im Management. Neben der höheren Akzeptanz liegt der Vorteil der videobasierten Stimuli darin, dass der „kognitive Overload“ durch den visuellen Kanal geringer ist und die SJT keine verkappten Intelligenztests sind. Gute Erfahrungen wurden damit gemacht, die SJT nicht als Test mit geschlossenen Antwortformaten vorzulegen, sondern die Szenen in ein strukturiertes Interview einzubinden.

Bild4

Situational Judgement Test – aufwendig aber effektiv

 

Neue Forschungsergebnisse SJT

Zum Thema gibt es auch einige neue Studien. Barron et al. (2014) von der amerikanischen Air Force gingen zunĂ€chst den Weg, den Aufwand in der Erstellung der SJT zu reduzieren. Hier wurde sowohl auf Bildmaterial verzichtet, als auch auf die Darbietung von (aufwendig zu konstruierenden) Antwortalternativen. In dem Air Force SJT wurden u. a. Kriterien wie Leadership, soziale FĂ€higkeiten und ethisches Verhalten getestet. Zwei SJT-Formen wurden dann an der gleichen Population getestet: Text-SJT mit mehreren Antwortalternativen und mit lediglich einer Antwortmöglichkeit (Frage: „Wie wahrscheinlich ist das hier beschriebene Verhalten in der Situation?“). Die Ergebnisse sind eher ernĂŒchternd: Durch die Vereinfachung sinkt die ReliabilitĂ€t von r = .91 auf r = .72. Die höchste ValiditĂ€t besitzt die vereinfachte SJT-Form mit Kriterien wie „Interesse an Kunst“ bei den getesteten Soldaten. Fazit: Eine zu große Vereinfachung erscheint nicht sinnvoll.

Den umgekehrten Weg beschreiben Fix & Ablitt (2014). FĂŒr die englische Bank Barcley’s wurden SJT mit einer rein verbalen Beschreibung und inhaltlich gleichen Videostimuli verglichen. FĂŒr die videobasierten Items wurde ein substanzieller Aufwand betrieben: Professionelle Schauspieler, animierter Hintergrund, 18 Monate Entwicklungszeit, PrĂ€sentationsperson einleitend zu den Videos. Beide Varianten fĂŒhrten zu Ă€hnlichen ValiditĂ€ten gegenĂŒber der VorgesetzteneinschĂ€tzung der eingestellten Bewerber (Textversion r = .19, Videoversion r = .18, jeweils signifikant). Der erhebliche Mehraufwand fĂŒr die Produktion der Videostimuli scheint sich bezogen auf die Vorhersage von Joberfolg also nicht zu lohnen – anders zu betrachten ist die höhere AttraktivitĂ€t fĂŒr die Teilnehmer und die Akzeptanz im Management.

 

Literatur:

 

  • Barron, L. G., & Cody, B. C. (2014). Comparative Validity of Traditional (Multiple Response) and Single Response Situational Judgement Test. Honolulu: SIOP, 29th Annual Conference.
  •  Campion, M. A. (2014). How to Develop Interview Questions and Anchored Rating Scales. Honolulu: SIOP, 29th Annual Conference.
  •  Christian, M. S., Edwards, B. D., & Bradley, J. C. (2010). Situational judgement tests: constructs assessed and a meta-analysis of their criterion-related validities. Personnel Psychology, 63(1), 83-117.
  •  Fix, C., & Ablitt, H. (2014). Made to Measure? Comparing Psychometrics of Text & Media-Based SJT. Honolulu: SIOP, 29th Annual Conference.
  •  Lievens, F., & Sackett, P. R. (2006). Video-based versus written situational judgment tests: A comparison in terms of predictive validity. Journal of Applied Psychology, 91 (5), 1181-1188.
  •  Lievens, F., & Sackett, P.R. (2011). The validity of interpersonal skills assessment via situational judgement tests for predicting academic success and job performance. Manuscript submitted for publication.
  • Lievens, F., Sackett, P. R., & Buyse, T. (2009). The effects of response instructions on situational judgment test performance and validity in a high-stakes context. Journal of Applied Psychology, 94(4), 1095.
  •  McDaniel, M.A., Hartmann, N.S., Whetzel, D.L., & Grubb, W.L. III (2007). Situational judgement tests, response instructions, and validity: A meta-analysis. Personnel Psychology, 60(1), 63-91.
  •  Motowidlo, S.J., Dunnette, M.D., & Carter, G.W. (1990). An alternative selection procedure: the low-fidelity simulation. Journal of applied Psychology, 75:640-647.

 

Weitere Artikel dieser Newsletterausgabe:

The post Neues zu Situational Judgement Tests appeared first on Obermann Consulting.

↧

Inhouse-Coachingausbildung

$
0
0

Neu im Angebot von Obermann Consulting, in Kooperation mit der Akademie der Ruhr-UniversitÀt Bochum

Ein Coach regt ergebnisorientierte Problemlöseprozesse an. Er schlĂ€gt keine Lösungen vor, sondern schafft Erfahrungs- und SelbstreflexionsrĂ€ume, in denen seine GesprĂ€chspartner neue Handlungsmöglichkeiten erleben und neue LösungsansĂ€tze selbst entwickeln können. Damit gibt er zugleich Impulse fĂŒr Kompetenz- und Persönlichkeitsentwicklung.

Die hĂ€ufig gestellte Frage nach einem Programm zur Entwicklung von Inhouse-Coachs hat uns veranlasst, ein entsprechendes Curriculum zu entwickeln. Grundlage dieses Programms, das wir in Kooperation mit der Akademie der Ruhr-UniversitĂ€t Bochum anbieten, ist die von Marc Solga (Partner bei Obermann Consulting und Professor an der Ruhr-UniversitĂ€t Bochum) geleitete Coachingausbildung. Das Angebot richtet sich an Unternehmen, die Mitarbeiter und FĂŒhrungskrĂ€fte fĂŒr Coachingaufgaben fit machen wollen.

Das Besondere: Nach Abschluss der Ausbildung erhalten die Teilnehmer ein Zertifikat der Akademie der Ruhr-UniversitÀt Bochum.

Zetif

In der Ausbildung lernen die Teilnehmer, wie es gelingt, lösungsorientierte Beratungsprozesse erfolgreich zu gestalten und damit zur selbstgesteuerten ProblembewĂ€ltigung und zur persönlichen Entwicklung eines ‚Klienten‘ beizutragen. Sie erwerben die Kompetenz,

 

  • AuftrĂ€ge zu klĂ€ren und dialogisch in konkrete Coachingziele zu ĂŒberfĂŒhren;
  • dabei tragfĂ€hige Arbeitsbeziehungen aufzubauen;
  • das Repertoire der Coaching-Techniken und -Methoden sicher anzuwenden;
  • Ressourcen lösungsorientiert zu aktivieren;
  • ergebnisorientierte Selbstreflexions- und Problemlöseprozesse zu stimulieren;
  • psychologische Leitmodelle fĂŒr die Hypothesenbildung und Lösungsentwicklung in spezifischen Beratungsfeldern zu nutzen.

 

Ein entsprechendes Curriculum existiert seit 2009. Es ist im Rahmen der wirtschaftspsychologischen StudiengĂ€nge an der Ruhr-UniversitĂ€t Bochum aufgebaut und im Laufe der Jahre stetig weiterentwickelt worden. Im Mittelpunkt aller Module steht das intensive praktische Üben. Zugleich jedoch erwerben die Teilnehmer ein solides Hintergrundwissen. Denn professionelle Handlungskompetenz im Coaching ist nicht bloß eine Frage des Übens – entscheidend ist ein souverĂ€nes VerstĂ€ndnis handlungsleitender Modelle. In dieser Ausbildung erleben die Teilnehmer Theorie und Praxis in Balance.

Zugleich vertreten wir einen schul- und methodenĂŒbergreifenden, integrativen Ansatz. Dies entspricht unserer Erfahrung, dass sich das strenge Festhalten an den LeitsĂ€tzen einer spezifischen Schule in der Praxis nicht bewĂ€hrt – zu individuell sind die Anliegen und Erlebniswelten der ‚Klienten‘, zu dynamisch entwickeln sich deren Bedarfe und Interessen im Coachingprozess. Zugleich jedoch heben wir die Bedeutung systemisch-konstruktivistischer und psychologischer AnsĂ€tze hervor. In ihrer Kombination ergeben diese AnsĂ€tze eine integrative und sehr effektive Programmatik fĂŒr die Gestaltung von Coachings.

Die Ausbildung ist in zwei Teile untergliedert. Im ersten Teil erwerben die Teilnehmer grundlegende Kenntnisse und Fertigkeiten. Im zweiten Teil wenden wir uns fokussiert unterschiedlichen Beratungsfeldern zu: Herausforderungen in der FĂŒhrung von Mitarbeitern; soziale Konflikte im Arbeitsleben; Karriere, Balance, Gesundheit etc. Ziel ist es, Beratungskompetenz fĂŒr spezifische, hĂ€ufig wiederkehrende Problemfelder zu entwickeln. In diesem zweiten Teil betonen wir die Bedeutung psychologischer Leitmodelle (Theorien zu FĂŒhrung, Motivation, Entscheidungsprozessen, Konfliktentstehung, StressbewĂ€ltigung etc.). Sie liefern wertvolles Hintergrundwissen fĂŒr die Hypothesenbildung und die Lösungsentwicklung.

 Die einzelnen Module werden als PrĂ€senztrainings durchgefĂŒhrt – in den RĂ€umen der Akademie der Ruhr-UniversitĂ€t Bochum oder bei Obermann Consulting im Kölner Rheinauhafen oder auch in den RĂ€umlichkeiten des Auftraggebers. SelbstverstĂ€ndlich lassen sich die Inhalte der Ausbildung an unterschiedliche zeitliche und thematische Bedarfe anpassen –– Sprechen Sie uns an!

RUB

Akademie der Ruhr-UniversitÀt Bochum

Weitere Artikel dieser Newsletterausgabe:

The post Inhouse-Coachingausbildung appeared first on Obermann Consulting.

↧

Neue Erkenntnisse aus der AC Studie 2012

$
0
0

AC-Studie 2012: mehr Verfahren – weniger Teilnehmer – Zielgruppe NachwuchskrĂ€fte

Seit den Studien in den Jahren 2001 und 2008 stellt der Arbeitskreis Assessment-Center e. V. (AkAC) nun seine aktuelle Studie zur Verbreitung des Assessment-Centers in den deutschsprachigen LÀndern vor. In diesem Artikel fassen wir die ersten wesentlichen Ergebnisse zusammen, die sich mit der AnwendungshÀufigkeit von ACs und den Teilnehmeranzahlen befassen.

ac_anwendungDie Anwendung des ACs wÀchst weiter

Befragt wurden 125 Organisationen aus allen Branchen und in allen GrĂ¶ĂŸenordnungen. Davon geben im Vergleich zur Studie von 2008 mehr Unternehmen an, die AC-Methode einzusetzen. Der Anteil der Unternehmen, die mehr als 15 AC-DurchlĂ€ufe p. a. durchfĂŒhren, steigt von 27 % in 2001 und 43 % in 2008 auf 61 % im Jahr 2012. Auf die Frage, wie die Unternehmen den Stand der Anwendung sehen, gaben 55 % an, dass der Umfang der Anwendung zunimmt, wĂ€hrend der Umfang von 34 % als gleichbleibend betrachtet wird. Als alternative Entscheidungsgrundlage zu einem AC wird von der Mehrzahl der teilnehmenden Unternehmen (63,5 %) das Interview genannt.

27 der 30 DAX-Unternehmen setzen die AC-Methode ein

Im Gegensatz zu anderen Studien ist es dem AkAC gelungen, eine Vollerhebung bei den DAX-30 Unternehmen durchzufĂŒhren. Die DAX-30 Unternehmen bilden einen Querschnitt der an der Börse gelisteten Top-Unternehmen. Die Erkenntnis: 27 der 30 großen DAX-Unternehmen setzen die AC-Methode ein, unter anderem auch Unternehmen wie Allianz, Bayer, Daimler, Deutsche Telekom, Lufthansa und Volkswagen. AuffĂ€llig ist, dass der Anwendungsgrad mit der Anzahl der beschĂ€ftigten Mitarbeiter steigt. Jedoch lĂ€sst sich auch festhalten, dass die HĂ€ufigkeit der Anwendung seit 2008 bei mittelgroßen Unternehmen kontinuierlich steigt.

ac_teilnehmerRĂŒcklĂ€ufige Anzahl an Teilnehmern pro AC

Wenn auch mehr ACs durchgefĂŒhrt werden, geht die Anzahl der Teilnehmer pro AC zurĂŒck. WĂ€hrend in 2001 lediglich 36 % der ACs sieben oder weniger Teilnehmer hatten, ist diese Zahl in 2012 schon auf 57 % geklettert. Passend dazu fĂ€llt die Anzahl der ACs mit acht oder mehr Teilnehmern von 64 % in 2001 auf 43 % in 2012.

HĂ€lfte der AC-Verfahren fĂŒr externe Bewerber

Mehr als 80 % der Unternehmen wenden ACs fĂŒr externe Bewerber als auch fĂŒr interne Mitarbeiter an. Im Vergleich zu 2008 ist dabei der Anteil der Verfahren fĂŒr interne Mitarbeiter deutlich von 26 % auf 8,3 % zurĂŒckgegangen. Wenn man die konkreten Verfahren vergleicht, erkennt man, dass 47 % fĂŒr die Personalauswahl (Schwerpunkt: externe Bewerber), 36 % zur Potenzialanalyse (Schwerpunkt: interne Mitarbeiter, aber nicht ausschließlich) und 16 % Entwicklungs-ACs durchgefĂŒhrt werden. LĂ€sst man die Entwicklungs-ACs außen vor und betrachtet die restlichen Verfahren, erkennt man, dass die Verbindlichkeit der AC-Anwendung hoch ist. Bei fast 70 % der Verfahren ist ein erfolgreicher Abschluss obligatorisch, um die Zielposition zu erreichen.

ac_zielgruppenWirft man einen Blick auf die Teilnehmer, ist schnell zu erkennen, dass die grĂ¶ĂŸte Gruppe von NachwuchsfĂŒhrungskrĂ€ften gebildet wird. Andere Gruppen, wie Trainees (15 %) und FĂŒhrungskrĂ€fte (26 %) machen lediglich einen kleineren Anteil aus, wĂ€hrend NachwuchsfĂŒhrungskrĂ€fte mit 61,7 % die hĂ€ufigste Zielgruppe bilden.

 

Quelle: Obermann, C., Höft, S. & Becker, J.N. (2012) AC-Studie 2012.

 

Zum Weiterlesen:

The post Neue Erkenntnisse aus der AC Studie 2012 appeared first on Obermann Consulting.

↧

Aktuelle Studie – Stand der Dinge zum Thema InterviewfĂŒhrung

$
0
0

Artikel 1 - Abb. 1Relativ zur praktischen Bedeutung hĂ€lt sich der Umfang von Validierungsstudien zum Interview als diagnostisches Instrument in Grenzen. Der fĂŒhrende US-Autor Michael Campion von der Purdue University fasst die aktuelleren Studien zusammen (Campion, 2014). Er berichtet von bisher 36 durchgefĂŒhrten ValiditĂ€tsstudien. ZunĂ€chst bestĂ€tigen diese die bereits bekannten Ergebnisse, dass „VorstellungsgesprĂ€che“ mit beliebigen Fragen ohne Anforderungsbezug (bspw. „Warum möchten Sie bei uns arbeiten?“, „Was sind Ihre StĂ€rken und SchwĂ€chen?“) trotz der Selbstgewissheit des Interviewers keine ValiditĂ€t haben und primĂ€r gegenseitige Sympathie sicherstellen. Der Treiber fĂŒr ZuverlĂ€ssigkeit und Treffsicherheit besteht in einer hohen Strukturierung durch anforderungsorientierte, vorbereitete Fragen in gleicher Reihenfolge.

In Bezug auf das Stellen von RĂŒckfragen wĂ€hrend des Interviews war der bisherige Status quo die STAR-Methode (Situation, Task, Result), die wir auch in unseren Interviewtrainings verwenden. Hierzu gibt es Neues: Nach Campion bedroht das Nachfragen stark die ObjektivitĂ€t und schlussendlich die Treffsicherheit der Interviews. Professionellen Interviewern gelingt es kaum, so nachzuhaken, dass die Bewerber keine mehr oder weniger deutlichen Hinweise auf die gewĂŒnschte Antwort bekommen. Er schlĂ€gt eher vor, fĂŒr jede Frage allgemeine, weiterfĂŒhrende Nachfragen vorzubereiten (z. B. bei situativen Fragen: „Okay, und wenn Ihre Antwort nicht funktioniert, was wĂŒrden Sie dann tun 
?“ oder bei biografischen Fragen: „Welche UnterstĂŒtzung hatten Sie dabei?“ oder „Wer war noch beteiligt?“).

STAR-Methode

Die höchste ValiditĂ€t weisen Interviews auf, in denen es vorbereitete Antwortkategorien gibt. Die schwĂ€chste Variante ist dabei eine allgemeine Likert-Skala (z. B. 3 = erfĂŒllt mit der Antwort die Erwartungen teilweise). Besser sind Verhaltensanker, in denen etwa in drei Stufen die erwarteten Antworten inhaltlich beschrieben werden.

Die Befunde im Hinblick auf ObjektivitĂ€t und ValiditĂ€t fallen eindeutig aus. Die praktische Herausforderung ist es, die beteiligten FĂŒhrungskrĂ€fte dazu zu bringen, diese tatsĂ€chlich zu berĂŒcksichtigen und anzuwenden. Dazu sollte es in der Vorbereitung KalibrierungsĂŒbungen mit Videobeispielen geben.

Dienstleistungen Obermann Consulting

  • Kompetenzmodell als Grundlage fĂŒr Personalarbeit
  • Konzeption von strukturierten InterviewfĂ€den fĂŒr Job-Familien
  • Interviewtraining kompetenzbasierte Interviewmethodik

 

Weitere Artikel dieser Newsletterausgabe:

The post Aktuelle Studie – Stand der Dinge zum Thema InterviewfĂŒhrung appeared first on Obermann Consulting.

↧
↧

Performance Improvement Tool Box, Nr. 2

$
0
0

David Merrills ‘First Principles of Instruction’ – Handlungsempfehlungen zur Ausgestaltung von Trainings

In Newsletter 31 haben wir den in Deutschland noch wenig bekannten Performance-Improvement-Ansatz vorgestellt. Dieser Ansatz liefert ein integriertes Programm zur Gestaltung von Personal- und Organisationsentwicklungsmaßnahmen.* Seine Vertreter haben ein großes Repertoire an Modellen, Tools und Techniken geschaffen. In loser Folge stellen wir einige dieser Modelle, Tools und Techniken nĂ€her vor. Der hier beschriebene Ansatz – Merrills ‚First Principles of Instruction‘ – liefert wichtige Handlungsempfehlungen zur Ausgestaltung von Trainings.

Der US-Amerikaner M. David Merrill, geboren 1937, gehört zu den großen Vertretern der so genannten Instruktionspsychologie. Diese beschĂ€ftigt sich mit der Gestaltung von Lernumgebungen; sie fragt nach der Wirksamkeit unterschiedlicher Trainingsdesigns. Die ‚First Principles of Instruction‘ (Merrill, 2002, 2007, 2013) sind das Ergebnis einer intensiven Auseinandersetzung mit den sehr zahlreich publizierten Leitmodellen zur Gestaltung von Lernumgebungen. Merrill hat diese Leitmodelle und die dort postulierten Erfolgsfaktoren gesichtet und den gemeinsamen Nenner dieser AnsĂ€tze in fĂŒnf Prinzipien – gewissermaßen einem Metamodell – zusammengefasst. Diese fĂŒnf ‚ersten Prinzipien‘, gelegentlich auch als 5-Star-Instructional-Design bezeichnet, bilden den Kern effektiver Trainingsdesigns (Abbildung 1):

Artikel 3 - Performance Improvement Tools_Abb. 1

Abbildung 1: Die fĂŒnf ‚First Principles of Instruction‘ nach M. David Merrill1.

 

1. Prinzip – Problem-Zentrierung: Das Training sollte sich an den realen Herausforderungen des (beruflichen) Alltags seiner Teilnehmer orientieren. Es sollte ihnen zeigen, wie es gelingt, ein konkretes und zugleich fĂŒr die Teilnehmer bedeutsames Problem zu lösen. Besonders hilfreich ist es, zu Beginn des Trainings mehrere, leicht unterschiedliche Varianten des Problems zu erörtern, die sich allesamt mithilfe der zu erwerbenden Kenntnisse und Fertigkeiten bewĂ€ltigen lassen.

Handlungsempfehlung: Vermitteln Sie Kenntnisse und Fertigkeiten niemals abstrakt, sondern immer im Kontext eines konkreten Problems oder einer konkreten Serie von Problemen!

WĂ€hrend das erste Prinzip den allgemeinen Rahmen vorgibt, beschreiben die nachfolgend dargestellten Prinzipien zugleich ein Phasenmodell effektiver Trainingsgestaltung: 1. Aktivierung ⇒ 2. Demonstration ⇒ 3. Anwendung ⇒ 4. Integration.

2. Prinzip – Aktivierung: Im ersten Schritt des Trainings sollte das problemrelevante Vorwissen der Teilnehmer aktiviert werden. Denn Kenntnisse und Fertigkeiten werden umso besser erworben, wie es gelingt, das neue Wissen mit bereits gespeichertem Wissen zu verknĂŒpfen. Es bedarf also einer Sequenz, in der bisheriges Wissen abgefragt und gesammelt, in Diskussionen erörtert oder in Übungen verwendet werden muss. Wo Vorwissen fehlt, sollte dieses durch erlebnisorientierte Übungen (beispielsweise durch eine Management-Simulation) erzeugt werden.

Handlungsempfehlung: Aktivieren Sie das Vorwissen der Teilnehmer durch Wissenstests bzw. durch Diskussionen. Oder lassen Sie die Teilnehmer eine Übung machen, in welcher der Nutzen der zu erwerbenden Kenntnisse und Fertigkeiten unmittelbar erlebbar wird!

3. Prinzip – Demonstration: Im zweiten Schritt des Trainings sollte konkret gezeigt werden, wie die neuen Kenntnisse und Fertigkeiten anzuwenden sind. Dabei sollte das Zielverhalten durch eine Modellperson (auf offener BĂŒhne oder auf Film) demonstriert werden – sie macht vor, wie etwas umgesetzt oder angewendet werden soll. In vielen Trainings kommt gerade dieser Punkt zu kurz, insbesondere in FĂŒhrungstrainings; hĂ€ufig erhalten die Teilnehmer zahlreiche Handlungsempfehlungen („Schaffen Sie eine positive GesprĂ€chsatmosphĂ€re!“), ohne beobachten zu können, wie sich diese Empfehlungen in konkretes Verhalten ĂŒbersetzen lassen.

Handlungsempfehlung: ErzÀhlen Sie den Teilnehmern nicht nur wie es geht, sondern zeigen Sie es auch! Nutzen Sie insbesondere hier die Möglichkeiten, mit Videofilm zu arbeiten!

4. Prinzip – Anwendung: Im Training sollten anschließend Aufgaben (Übungen und Lerntests) gestellt werden, in denen die Anwendung des Gelernten eingeĂŒbt werden kann. Im Anschluss sollten die Teilnehmer ein instruktives Feedback und konkrete Verbesserungsempfehlungen erhalten. Idealerweise gibt es eine Folge leicht unterschiedlicher Aufgaben, in denen die neuen Kenntnisse und Fertigkeiten erprobt werden können.

Handlungsempfehlung: Sorgen Sie dafĂŒr, dass neue Kenntnisse und Fertigkeiten in einer Übungsaufgabe ausprobiert und gefestigt werden können!

5. Prinzip – Integration: Im Anschluss an das Training sollte das Gelernte in einer realen Transferaufgabe umgesetzt werden; die dabei erlebten Herausforderungen sollten systematisch reflektiert und mit Gleichgesinnten bzw. Interessierten diskutiert werden. Eine Möglichkeit, dies umzusetzen, besteht darin, Teilnehmern die Aufgabe zuzuweisen, das Gelernte an Kollegen weiterzugeben (sie also zu Paten und Multiplikatoren des Gelernten zu machen). Eine weitere Möglichkeit: In einer Follow-up-Veranstaltung berichten die Teilnehmer von ihren Erfahrungen in der Anwendung des Gelernten und nutzen einander als kollegiale Berater. FĂŒr die Umsetzung dieses fĂŒnften Prinzips bedarf es einer engen Zusammenarbeit des (externen) Trainers mit den Personalentwicklern vor Ort und den Vorgesetzten der Teilnehmer – gewissermaßen einer Transfer-Partnerschaft der beteiligten Interessengruppen. Dies ist der zweite Punkt, der in Trainings regelmĂ€ĂŸig zu kurz kommt – die VerknĂŒpfung des Trainings mit Herausforderungen des beruflichen Alltags bzw. seine Flankierung durch Maßnahmen des Trainingstransfermanagements sind fast immer unbefriedigend (Solga, 2015).

Handlungsempfehlung: Sorgen Sie dafĂŒr, dass es nach Abschluss des Trainings zu einer anwendungsorientierten Auseinandersetzung mit den Lerninhalten kommt – Anlass sollte eine Transferaufgabe sein (als Multiplikator wirken, Anwendungsschwierigkeiten reflektieren und diskutieren, sich wechselseitig beraten etc.).

Das Besondere an Merrills Metamodell ist nicht der Neuigkeitswert – keine der Handlungsempfehlungen könnte fĂŒr sich in Anspruch nehmen, innovativ zu sein. Der Wert des Modells liegt vielmehr darin, die wirklich relevanten Erfolgsfaktoren in der Gestaltung von Trainings evidenz-basiert auf fĂŒnf prĂ€gnante Prinzipien zu reduzieren und damit fĂŒr ein klares ‚Koordinatensystem‘ zu sorgen. Denn in der FĂŒlle des stetig wachsenden BĂŒcher- und Zeitschriftenmarkts fĂŒr Trainer und Personalentwickler droht ein solches ja immer mal wieder verloren zu gehen. Wir nutzen Merrills Ansatz fĂŒr die Planung und Entwicklung unserer eigenen Trainingsprogramme.

Dienstleistungen Obermann Consulting

  • Professionalisierung von HR-Spezialisten im Sinne des Performance-Improvement-Ansatzes
  • Train-the-Trainer-Ausbildung

 

Literatur

  • Merrill, M. D. (2002). First principles of instruction. Educational Technology Research and Development, 50 (3), 43-59.
  • Merrill, M. D. (2007). First principles of instruction: a synthesis. In R. A. Reiser & J. V. Dempsey (Eds.), Trends and issues in instructional design and technology (2nd ed.; pp. 62-71). Upper Saddle River, NJ: Prentice Hall.
  • Merrill, M. D. (2013). First principles of instruction. Identifying and designing effective, efficient, and engaging instruction. San Francisco, CA: Pfeiffer.
  • Solga, M. (2015). Lerntransfer und Lerntransfermanagement. In Gourmelon (Hrsg.), Kompetenzen fĂŒr die Zukunft – Personalentwicklung im Fokus (S. 135-144). Heidelberg: Rehm.

 

Weitere Artikel dieser Newsletterausgabe:

The post Performance Improvement Tool Box, Nr. 2 appeared first on Obermann Consulting.

↧

Neue US-Benchmark-Studie zu Talent-Management

$
0
0

WĂ€hrend die Praktikerliteratur in den letzten Jahren unzĂ€hlige Studien zu speziellen Interventionen im Development und Assessment von High Potentials und Executives hervorgebracht hat, gibt es kaum Studien, die die gĂ€ngige Praxis in Unternehmen beleuchten und uns einen Benchmark liefern. Diesem blinden Fleck in der Literatur haben sich Church & Rotolo (2013) angenommen. Sie befragten dafĂŒr große, US-basierte Konzerne (Mittelwert 45 Mrd. $ Umsatz, 90 % zwischen 10.000 und 100.000 Mitarbeitern) in Bezug auf die Anwendung von Methoden im Talent-Management zu höheren Management-Ebenen.

Artikel 4 - Benchmarkstudie - Abb. 1

Abbildung 1: Use of assessments. In what parts of your organization do you use assessments? Quelle: Church, A. H., & Rotolo, C. T. (2013

Wichtigstes Ergebnis: 70,2 % der befragten US-Konzerne nutzen generell eine Methode von formalisiertem Assessment, um Management-Potenziale zu entwickeln oder zu beurteilen.

 

Zielgruppen

Überraschend ist das Ergebnis aus Abbildung 1: Die Hauptzielgruppe der Assessment Methoden in den US-Konzernen sind Senior Executives, also Manager im mittleren und oberen Management, aktuell mindestens auf dem Level „Vice President“ oder höher. High Potentials sind Mitarbeiter unterhalb des Niveaus der Vice Presidents, welche das Potenzial haben (sollen), zwei oder mehr Level oberhalb ihrer aktuellen Rolle aufzusteigen.

Die letzte Deutschland-Studie des Arbeitskreises Assessment Center aus dem Jahr 2012 zeigt fĂŒr den deutschsprachigen Raum einen anderen Schwerpunkt, nĂ€mlich auf NachwuchsfĂŒhrungskrĂ€fte und Trainees (Obermann, Höft & Becker, 2012). Wie die Tabelle zeigt, sind Assessments fĂŒr Hochschulabsolventen in den USA offenbar weniger ĂŒblich. Dort werden Absolventen meist ohne weitere Eignungsdiagnostik direkt von der Hochschule rekrutiert.

Artikel 4 - Benchmarkstudie - Abb. 2

Abbildung 2: Purpose of assessments. For what purpose(s) are assessments used both for your senior executive and high-potential populations? Quelle: Church, A. H., & Rotolo, C. T. (2013)

 

Ziel des Assessments

Eine immer wieder heiß diskutierte Frage: Soll die Potenzialentscheidung den Vorgesetzten ĂŒberlassen bleiben und die Personalfunktion im Schwerpunkt Entwicklungsangebote unterbreiten oder braucht es ein neutrales Assessment, um Potenziale zu bestĂ€tigen? Die US-Praxis zeigt, wie in Abbildung 2 dargestellt, ein „Sowohl-als-auch“. Der Großteil der eingesetzten Assessments wird genutzt, um Entwicklungsangebote abzuleiten und dies unabhĂ€ngig von der Hierarchie. Weniger ĂŒberraschend ist die Tatsache, dass bei High Potentials im Gegensatz zum Senior Management der Fokus stĂ€rker auf Potenzialidentifizierung und -bestĂ€tigung liegt.

 

Verwendete Assessment Methoden

Oft werden wir gefragt: „Was gibt es denn noch außer Assessment Center?“. Gemeint ist: „Was ist Ă€hnlich valide und weniger aufwĂ€ndig?“. Hier offenbart die Anwendungspraxis der US-Konzerne eine weitere Überraschung, denn der Methode 360-Grad-Befragung wird eine große Bedeutung auch im Talent-Management zugesprochen. WĂ€hrend der Nutzen solcher Befragungen fĂŒr Entwicklungszwecke schon immer unstrittig war, zeigt die Studie einen neuen Trend, nĂ€mlich 360-Grad-Befragungen auch fĂŒr Potenzialanalyse oder -bestĂ€tigung zu verwenden, wie Abbildung 3 verdeutlicht.

Artikel 4 - Benchmarkstudie - Abb. 3

Abbildung 3: Types of assessment methods used. What types of assessments do you use? Quelle: Church, A. H., & Rotolo, C. T. (2013)

Dies ist aus mehreren GrĂŒnden ĂŒberraschend. Wenn Kollegen im Rahmen von 360-Grad-Befragungen zu Dritten befragt werden und sie wissen, dass die Angaben fĂŒr Bewertungsentscheidungen verwendet werden, tendieren sie zu undifferenziert hohen EinschĂ€tzungen („Bewertungsinflation“) Gleichzeitig ist bekannt, dass, wenn eine Methode im Unternehmen fĂŒr Beurteilungsfragen verwendet wurde, die Verwendung der gleichen Methode fĂŒr reine Feedback- und Entwicklungsziele nicht mehr glaubwĂŒrdig vermittelbar ist. Leider gibt es keine Auswertung zum relativen Einsatz fĂŒr einzelne Zielsetzungen.

Ungewöhnlich ist die hohe Beliebtheit von Persönlichkeitsfragebögen im Gegensatz zu kognitiven Verfahren. Zum einen fehlt hier im Sinne der AugenscheinvaliditĂ€t hĂ€ufig der Business-Bezug, was zu einer schlechten Akzeptanz bei den Anwendern fĂŒhrt. Höhere Relevanz haben hingegen kognitive Verfahren (r = .50 und mehr). Sie sind erheblich prognosestĂ€rker in Bezug darauf, ob Personen tatsĂ€chlich in die nĂ€chsten Ebenen aufsteigen oder sich dort bewĂ€hren. FĂŒr Persönlichkeitsfragebögen ist ĂŒblicherweise mit Werten von r  = .20 zu rechnen (Obermann, 2013).

Die Angabe zum Einsatz von Assessment Centern in den US-Konzernen liegt mit 30 % auf den ersten Blick unter den Angaben in Deutschland. Hier haben bei der letzten Studie des Arbeitskreis AC im Jahr 2012 27 der DAX-30-Unternehmen angegeben, dass sie fĂŒr eine der genannten Zielgruppen Assessment Center oder Development Center einsetzen (Obermann, Höft & Becker, 2012). Allerdings geben 82 % der in der US-Studie befragten Unternehmen an, dass sie mehr als eine Methode des Talent-Managements verwenden, mit einem Mittelwert von 4.54 Methoden fĂŒr High Potentials und 4.06 Methoden fĂŒr Senior Executives. Die Anwendung von Tests plus Interview plus RollenĂŒbungen wĂŒrde dann per Definition einem AC oder DC gleichkommen, auch wenn eine andere Bezeichnung dafĂŒr verwendet wird. Hierin liegt die gute Nachricht der Anwendungsstudie: Die großen US-Konzerne vertrauen in der Potenzialerkennung und -entwicklung nicht auf nur eine Methode – sowohl fĂŒr High Potentials als auch fĂŒr das Senior Management.

Literatur:

  • Church, A. H., & Rotolo, C. T. (2013). How are top companies assessing their high-potentials and senior executives? A talent management benchmark study. Consulting Psychology Journal: Practice and Research, 65 (3), 199.
  • Obermann, C. (2013). Assessment Center. Springer Fachmedien.
  • Obermann, C. & Höft, S., Becker, N. (2012). Deutschland-Studie 2012. In Arbeitskreis Assessment Center e.V. (Hrsg.), Dokumentation zum 8. Deutschen Assessment-Center-Kongress. Lengerich: Pabst Science Publishers.

 

Weitere Artikel dieser Newsletterausgabe:

The post Neue US-Benchmark-Studie zu Talent-Management appeared first on Obermann Consulting.

↧

HR-Excellence – Obermann Consulting entwickelt strategische Business Partner

$
0
0

In vielen Unternehmen herrscht Unklarheit ĂŒber die Rolle des HR Business Partners, insbesondere dort, wo der Begriff fĂŒr wenig mehr zu stehen scheint als fĂŒr ein Key Account Management von Seiten des HR-Bereichs. Was genau trĂ€gt ein Business Partner zum Erfolg seines Unternehmens bei? Was ist neu an dieser Rolle, dass es nicht vorher auch schon gab, nĂ€mlich in Funktion des Personalreferenten? Wie genau soll diese Rolle im Alltag gelebt werden? Was ist das SelbstverstĂ€ndnis des HR Business Partners? Mit welchen Leitmodellen und Werkzeugen soll ein Business Partner arbeiten? Wie soll er mit Shared Services, Center of Excellence und Line Management kooperieren?

Die einflussreiche HR Competency Study der RBL Group (Ulrich, Younger, Brockbank & Ulrich, 2011) definiert sechs Kompetenzfelder fĂŒr HR Professionals:

  1. Strategic Positioner: strategisch relevante Business Trends erkennen und in HRM-Strategien ĂŒberfĂŒhren
  2. Change Champion: individuelle und organisationale VerÀnderungsbereitschaft fördern, Commitment und Identifikation im Wandel aufrechterhalten
  3. Credible Activist: fruchtbare Kooperationsbeziehungen zu strategisch relevanten Partnern (Sponsoren, Champions, Experten etc.) pflegen
  4. Organizational Capability Builder: strategisch relevante Aspekte von Unternehmenskultur sowie Talent Management-Strukturen und -Prozesse gestalten
  5. HR Innovator & Integrator: Erfolgsfaktoren und innovative Gestaltungsmöglichkeiten fĂŒr HRM-Instrumente kennen und in multidimensionalen Programmen umsetzen
  6. Technology Proponent: technologische Entwicklungen fĂŒr HRM-Prozesse nutzen

Dieser Ansatz liefert ein facettenreiches Kompetenzmodell fĂŒr HR Business Partner. Es fehlt jedoch ein Rollenmodell, das ganzheitlich und pragmatisch aufzeigt, wie sich die Kompetenzfelder in professionelles Handeln ĂŒbersetzen lassen. Wir sehen ein solches Rollenmodell im sogenannten Performance-Improvement-Ansatz verwirklicht.

Dieser Ansatz existiert seit Anfang der 1990er-Jahre in den USA (www.ispi.org; siehe auch Van Tiem, Moseley & Dessinger, 2012). In Deutschland und Europa ist er noch weitgehend unbekannt. Wir nutzen diesen Ansatz als Leitmodell fĂŒr die Qualifizierung strategischer HR Business Partner.

Mithilfe des Performance-Improvement-Ansatzes lÀsst sich das Rollen- und SelbstverstÀndnis des HR Business Partners in vier Leitideen beschreiben:

  • Focus on Results: Ziel ist es, interne Auftraggeber und Kunden – und also das Line Management – bei der Verbesserung messbarer Ergebnisse (mehr QualitĂ€t und QuantitĂ€t, weniger Kosten und Zeit) zu unterstĂŒtzen.
  • Take a Systemic View: Das Ziel, messbare Ergebnisse zu verbessern, macht einen ganzheitlichen Ansatz erforderlich. Es gilt, die Bausteine des strategischen HR Managements eng aufeinander abzustimmen und in multidimensionalen Programmen miteinander zu verzahnen.
  • Add Value: Ziel von HR ist es, zur materiellen und immateriellen Wertschöpfung des Unternehmens im Sinne der strategischen Planung beizutragen. HR Business Partner stehen fĂŒr dieses VerstĂ€ndnis ein.
  • Work in Partnerships: HR Business Partner pflegen partnerschaftliche Kooperationsbeziehungen zu allen HR-Anspruchsgruppen und zu Experten innerhalb und außerhalb des Unternehmens. Sie schaffen Akzeptanz fĂŒr einen ganzheitlichen, multidimensionalen Ansatz. In diesem Zusammenhang gilt es, das mikropolitische Spannungsfeld der Organisation zu verstehen.

WĂ€hrend diese vier Maximen die Haltung und das SelbstverstĂ€ndnis des HR Business Partners treffend beschreiben können, liefert das offizielle Prozessmodell der Performance Improvement-Bewegung (http://www.ispi.org/images/HPT-Model/HPT-Model-2012.jpg; ausfĂŒhrlich Van Tiem et al., 2012) ein gutes operatives Leitmodell fĂŒr die Arbeit des Business Partners (Abbildung 1).

Abbildung 1: Performance Improvement-Prozessmodell (http://www.ispi.org/images/HPT-Model/HPT-Model-2012.jpg)

Wir kombinieren das Kompetenzmodell der HR Competency Study mit den Leitideen und Instrumenten des Performance Improvement-Ansatzes, um die eingangs gestellten Fragen zu beantworten. Die nachfolgende Tabelle beschreibt ein Curriculum, das wir zur Qualifizierung von HR Business Partnern nutzen.

Artikel 5 - Abb. 2

Dienstleistung Obermann Consulting

  • Qualifizierungsprogramme fĂŒr HR Business Partner
  • Professionalisierung von HR Spezialisten im Sinne des Performance-Improvement-Ansatzes
  • Entwicklung maßgeschneiderter Programme in HR Excellence

 

Literatur

  • Ulrich, D., Younger, J., Brockbank, W., & Ulrich, M. (2011). The new HR competencies: business partnering from the outside-in. Provo, UT: The RBL Group.
  • Van Tiem, D. M., Moseley, J. L., & Dessigner, J. C. (2012). Fundamentals of performance improvement: Optimizing results through people, process, and organizations (3rd ed.). San Francisco, CA: Wiley / Pfeiffer.

 

Weitere Artikel dieser Newsletterausgabe:

The post HR-Excellence – Obermann Consulting entwickelt strategische Business Partner appeared first on Obermann Consulting.

↧
Viewing all 51 articles
Browse latest View live