Ist eine KI geeignet objektiv zu entscheiden, welcher Kandidat den Job bekommt?
Dieser Frage möchten Regierungen aus den USA und Europa nun nachgehen.
Denn Unternehmen greifen immer häufiger auf KI-gestützte Software zur Entscheidung über den Bewerber zurück.
Viele versprechen sich davon eine Zeitersparnis und eine geringere Anfälligkeit für zwischenmenschliche Vorurteile.
☝️Doch auch Algorithmen können vorurteilsbehaftet sein, meint Aislinn Kelly-Lyth von der University of Oxford. Schließlich haben Sie ihre Entscheidungsgrundlage von Menschen „gelernt“.
👉Das große Problem: Während der Kandidat bei einem persönlichen Gespräch erahnen kann, dass er vielleicht aufgrund rassistischer oder sexistischer Kriterien ausgeschlossen wurde, ist es im Fall einer Softwareentscheidung nicht so einfach nachvollziehbar.
👉 Jedoch: Einem KI-System kann die objektive Beurteilung leichter beigebracht werden, als allen Personalern und Recruitern.
Wenn es nach der EU geht, sollen Anbieter von Recruiting-Tools zur Einhaltung bestimmter ethischer Vorgaben verpflichtet werden. Ein entsprechender Entwurf wurde im April diesen Jahres vorgestellt. Etwa zur gleichen Zeit hat die US amerikanische Federal Trade Commission angekündigt das Thema KI im Unternehmenskontext genauer zu beleuchten.
Wie es hier weitergehen wird? Schwer zu sagen – bei den vielschichtigen Interessenslagen und international unterschiedlichen Rechtslagen.
Wichtig ist und bleibt: Recruiter - egal ob intern, oder extern - sollten sich nicht blind auf eine KI verlassen, sondern durchaus von ihrer Menschenkenntnis Gebrauch machen.
Kommentar schreiben