Mensch und Maschine – Entscheidungen treffen mit Ki

(c) Bjoern Knetter

Führungskräfte erleben in ihren Entscheidungen einen Zuwachs an Komplexität. Die zahlreichen Para­meter und Einflüsse von Entscheidungen sind immer seltener zu überblicken. Die Halbwertszeit einer Ent­scheidung verkürzt sich. Und das gilt auf allen Ebenen – von den Geschäfts- bis zu den Teamleitungen.

Die KI eröffnet in allen Branchen eine neue Dimension und erscheint als Angebot, diese Komplexität zu nut­zen. Aber je mehr sich die KI entwickelt und je tiefgrei­fender sie in Unternehmensprozesse integriert wird, desto drängender wird die Frage: Wer entscheidet wo­für, wann und wie? Führungskräfte werden damit neu­en Dilemmata ausgesetzt, wie diese Beispiele zeigen:

  • KI erstellt eine Diagnose und empfiehlt eine Thera­pie. Der Arzt entscheidet anders, in Kenntnis des je­weiligen Patienten und der spezifischen Situation. Leider verstirbt der Patient schneller, als von der KI prognostiziert.
  • KI empfiehlt eine Kandidatin oder einen Kandidaten zur Einstellung oder Beförderung. Die verantwortli­che Führungskraft entscheidet sich für eine andere Person, die im direkten Kontakt mit dem künftigen Team präferiert wurde. Kaum ein Jahr später hat die Person das Unternehmen wieder verlassen, wie von der KI als Risiko identifiziert.
  • KI bewertet Leistungen von Mitarbeitenden auf Ba­sis von definierten Daten und Faktoren, auch zum künftigen Potenzial, um daraus eine Gehaltserhö­hung zu empfehlen – oder nicht. Der disziplinarisch Vorgesetzte hat eine differenzierte Perspektive und entscheidet sich anders. Im Anschluss verfehlt die Person ihre Ziele, wie von der KI vorhergesagt.

In vielen weiteren Situationen stehen Führungskräfte unter einem zusätzlichen Druck zur Rechtfertigung, sich selbstbewusst (anders) zu entscheiden. Umge­kehrt werden Führungskräfte gefordert, offensichtlich fehlerhafte Empfehlungen oder Entscheidungen der KI zu bewerten und zu regulieren.

© Bartek – AdobeStock

Schlicht die Entscheidungen an die KI zu delegieren, wird absehbar nur in klar abgegrenzten Geschäftspro­zessen in jedem Fall verantwortbar sein. Dazu zählen besonders die Maschine-Maschine-Beziehungen, wie in der Logistik, Produktion und Wartung, zum Beispiel in der Predictive Maintenance, der vorausschauenden Reparatur, um Ausfälle zu vermeiden. Hier liegen objek­tive Parameter vor, deren Wechselbeziehungen in der Datenanalyse eindeutig bestimmt werden können.

Anders ist die Situation in Mensch-Maschine- und Mensch-Mensch-Beziehungen, die immer stärker durch KI beeinflusst werden. Personalthemen besitzen hier eine herausragende Bedeutung. Integrität und Zuver­lässigkeit sind unabdingbar, die Erfüllung rechtlicher und regulatorischer Standards nicht verhandelbar. Der Faktor Mensch wird für die KI jedoch eine teilweise un­berechenbare Variable bleiben. Zugleich wird diese Vari­able Mensch von der KI beeinflusst, die zuvor selbst ge­schaffen wurde. Ursache und Wirkung verschwimmen.

Die Akzeptanz der KI als Partnerin für Entscheidungs­prozesse ist die Grundlage, damit die Chancen der Kooperation von Mensch und Maschine genutzt und zugleich die Risiken beherrscht werden können. Dazu zählt auch Toleranz für gemeinsame Fehler und verfehl­te Ziele der Entscheidungen – im Rahmen zuvor defi­nierter Rahmenbedingungen und Regeln, um mögliche negative Folgen der Zusammenarbeit zu minimieren.

KI unterstützt als neuer Kollege

Eine der großen Hoffnungen an die KI ist, dass Füh­rungskräfte unterstützt werden, schneller bessere Entscheidungen zu treffen. Denn die KI agiert rein

nach Datenlage. KI hat jedoch kein Gewissen, macht keine Fehler oder trifft schlechte Entscheidungen – im menschlichen Sinne. Denn das eigene Ergebnis (Texte, Fotos, Prognosen, Vergleiche … ) wird von der KI nicht überprüft oder hinterfragt, wie dies Menschen machen können.

KI kann also zur Unterstützung der Entscheidungsfin­dung eingesetzt werden – von der strategischen Pla­nung bis zum Tagesgeschäft. Die wesentlichen Anlässe sind:

  • Datenanalyse: KI-Algorithmen können riesige Datenmengen analysieren, Muster, Trends und Er­kenntnisse extrahieren, die von Menschen nicht er­kannt werden können. Diese Informationen können genutzt werden, um fundierte Entscheidungen zu treffen, zum Beispiel in der Personalplanung.
  • Vorhersage: KI-Algorithmen können historische und aktuelle Daten auswerten, um zukünftige Ereignis­se oder Trends vorherzusagen. Diese Prognosen können verwendet werden, um Entscheidungen auf der Grundlage der erwarteten Ergebnisse zu tref­fen, zum Beispiel zur Entwicklung und Bindung von Führungskräften und Mitarbeitenden.
  • Optimierung: KI-Algorithmen können Entscheidun­gen optimieren, indem sie mehrere Variablen be­rücksichtigen und die bestmögliche Lösung finden, die bestimmte Kriterien erfüllt, zum Beispiel im Ein­satz der Personalressourcen, um die Effizienz zu steigern und Kosten zu senken.
  • Automatisierung: KI kann die Entscheidungsfin­dung in bestimmten Bereichen wie Kunden- oder Personalservices automatisieren, indem sie vor-definierte Regeln und Logiken verwendet, um Ent­scheidungen ohne menschliches Eingreifen zu tref­fen, zum Beispiel bei Urlaubsanträgen.
  • Risikomanagement: KI kann beim Risikomanage­ment helfen, indem sie Daten analysiert und poten­zielle Risiken oder Bedrohungen identifiziert, so dass die Entscheidungsträger Maßnahmen ergrei­fen können, um diese zu mindern, zum Beispiel um die Fluktuationsrate in Unternehmen zu reduzieren.
  • Personalisierung: KI kann Entscheidungen persona­lisieren, indem sie Daten über individuelle Vorlieben und Verhaltensweisen nutzt, um Empfehlungen zu geben, die auf die spezifischen Bedürfnisse und Interessen des Kunden oder Personals zugeschnit­ten sind, zum Beispiel für passende Zusatzleistun­gen oder Trainingsangebote.

In allen Bereichen sind verschiedene Stufen der Ent­scheidungsfindung möglich, je nach dem Grad der menschlichen Beteiligung und dem Grad der Autonomie des KI-Systems. Die drei wichtigsten Stufen der Ent­scheidungsfindung mit KI sind:

Vollständig manuelle Entscheidungsfindung: Hier be­sitzen die menschlichen Entscheidungsträger die voll­ständige Kontrolle über den Entscheidungsprozess. Das KI-System wird zur Bereitstellung von Informationen und Erkenntnissen zur Unterstützung des Entscheidungs­prozesses eingesetzt.

Halbautomatische Entscheidungsfindung: Hier wird das KI-System eingesetzt, um einige Aspekte des Entschei­dungsprozesses zu automatisieren, wie in der Daten­analyse, Mustererkennung und Empfehlungserstellung. Die endgültige Entscheidung wird von einem Menschen getroffen.

Vollständig automatisierte Entscheidungsfindung: In diesem Fall wird dem KI-System Autonomie eingeräumt, damit es ohne menschlichen Einfluss Entscheidungen trifft. Das KI-System ist darauf trainiert, Daten zu analy­sieren, Vorhersagen zu treffen und auf der Grundlage vor-definierter Regeln und Logiken Maßnahmen zu ergreifen.

Der Grad der Entscheidungsfindung durch die KI hängt zu­nächst von den rechtlichen Rahmenbedingungen ab. Im Grundsatz gilt, dass automatisch und allein eine KI nicht „maßgeblich“ über einen Menschen entscheiden darf. Im Personalmanagement sind weitere Faktoren zu betrach­ten: die Komplexität der Entscheidung, der Grad des Ver­trauens in das KI-System und die möglichen Folgen der Entscheidung, auch über einzelne Menschen hinaus.

In einigen Fällen kann auch künftig nur ein vollständig manueller Entscheidungsprozess sicherstellen, dass menschliche Entscheidungsträger die vollständige Kont­rolle und Verantwortung über die Entscheidung haben. In anderen Fällen kann ein legaler, vollautomatischer Ent­scheidungsprozess die Effizienz steigern und mensch­liche Fehler reduzieren.

KI als Co-Pilot einsetzen

Der Begriff Co-Pilot trägt in sich, dass eine Führungskraft oder auch ein Mitarbeitender weiterhin selbst die letzte Entscheidung trifft. Die KI als Co-Pilot unterstützt den Entscheidungsprozess, zum Beispiel durch die Aus- und Bewertung von Daten für Prognosen oder Empfehlungen für die nächsten Aktivitäten.

Die Möglichkeiten zum Einsatz der KI als Co-Piloten sind vielfältig. Diese werden sich ständig erweitern. Ziele sind dabei die Erhöhung der Effizienz (also Reduzierung des Aufwands, der Quantität menschlicher Arbeit) und Effektivität (also Steigerung der Ergebnisse, der Quali­tät der menschlichen Arbeit). Etabliert ist der Einsatz von frei verfügbaren KI-Sprachmodellen, wie ChatGPT, bei diesen Aufgaben, siehe Tabelle.

Die KI sollte nicht unbedacht die Pilot-Funktion einneh­men, sobald Menschen die Ergebnisse der KI ungeprüft übernehmen. Als Richtschnur dient der sogenannte Ver­antwortungszusammenhang: Die Verantwortung für ein Ereignis oder Ergebnis muss nachvollziehbar und einer Person zuordenbar sein. Im Einsatz der KI als Co-Pilot tragen Menschen, die die Systeme einsetzen, weiterhin Verantwortung für ihre Entscheidungen und deren Wir­kungen. Die Mitwirkung der KI kann nicht eigene falsche Einschätzungen und Entscheidungen oder das Verlet­zen von selbstgesetzten Werten entschuldigen.

Akzeptanz und Vertrauen sind elementar

Wie stehen die Perspektiven, Entscheidungen mit Hilf der KI zu treffen? Zwei Aspekte sind elementar und eng verknüpft: die Akzeptanz und das Vertrauen von uns Menschen. Ohne Akzeptanz in die genannten Entscheidungsprozesse, die von KI unterstützt oder übernommen werden, kann bei Führungskräften und Mitarbeitenden kein Vertrauen entstehen, diesen Ent­scheidungen zu folgen – und auch dafür Verantwortung zu übernehmen. Umgekehrt wird die Akzeptanz gestei­gert, wenn wir Vertrauen besitzen.

Bei sensiblen Anwendungen, die nachhaltige Folgen für einzelne Menschen haben können, steigert sich die Vorsicht. KI muss wesentlich besser entscheiden als Menschen. Das autonome Fahren hat daher noch einen (buchstäblich) weiten Weg vor sich. Kleinste fehlerhafte Entscheidungen im Straßenverkehr können dramatische Folgen haben, die den Menschen verziehen werden kön­nen – nicht jedoch der KI. Zugespitzt formuliert: Wir müs­sen der KI mehr als 100 % vertrauen können, damit auto­nomes Fahren flächendeckend akzeptiert wird.

Die kritisch-reflexive Kooperation von Mensch und Maschine ist ein wirksames Prinzip für die Entschei­dungsfindung. Wer gemeinsam die eigenen und frem­den Grenzen kennt, weiß, wie weit man gemeinsam gefahrlos gehen kann. Und kann auch entscheiden, bei Entscheidungen mit KI bewusst Risiken einzuge­hen, soweit die möglichen negativen Folgen regulierbar sind und transparent gemacht werden. Dann wird Fort­schritt mit KI möglich – im Interesse der Menschen und für deren Entscheidungen.

Prof. Dr. Michael Groß

Über den Autor
Prof. Dr. Michael Groß ist Herausgeber des Buchs „KI-Revolution der Arbeitswelt“ und Honorarprofessor an der Goethe-Universität Frankfurt am Main. Im Hauptbe­ruf ist er geschäftsführender Gesellschafter der Groß & Cie. GmbH, Königstein im Taunus. Im Changemanage-ment steht der erfolgreiche Wandel in Unternehmen im Fokus, zum Beispiel bei der KI-Transformation. Im Talentmanagement werden die Kompetenzen von Un­ternehmen entwickelt, zum Beispiel durch das Training der Führungskräfte.

Nach oben scrollen