banner

Blog

Jul 03, 2023

Kann KI die Vielfalt in Technologieteams erhöhen? Die Jury ist draußen

Kann künstliche Intelligenz die Einstellung von Diversity-Tech-Mitarbeitern verändern?

Eine Umfrage des Pew Charitable Trust ergab, dass die meisten Amerikaner in den amerikanischen Unternehmen rassistische Vorurteile verspüren. Eine Umfrage vom April 2023 ergab, dass 64 % der schwarzen Erwachsenen sagten, dass unfaire Behandlung aufgrund der Rasse oder ethnischen Zugehörigkeit eines Bewerbers ein erhebliches Problem darstelle; nur 30 % der weißen Erwachsenen in der Umfrage waren dieser Meinung.

Die Umfrage ergab auch, dass Amerikaner, die rassistische und ethnische Vorurteile als Problem bei der Einstellung sehen, auch glauben, dass künstliche Intelligenz (KI) zu gerechteren Praktiken führen könnte. 53 Prozent derjenigen, die rassistische Voreingenommenheit als Problem bei der Einstellung sehen, sind der Meinung, dass sich die Situation verbessern wird, wenn Arbeitgeber im Einstellungsprozess mehr KI einsetzen.

Die Umfrage stellt fest, dass schwarze Amerikaner am skeptischsten sind. Zwanzig Prozent der schwarzen Erwachsenen, die rassistische Vorurteile und unfaire Behandlung bei der Einstellung als Problem ansehen, sagen, dass KI die Situation verschlimmern würde, verglichen mit etwa jedem zehnten hispanischen, asiatischen und weißen Erwachsenen.

Jennifer Opal ist Software-Ingenieurin bei der Opal Company. Sie ist eine neurodivergente Frau, die autistisch ist und an ADHS, Legasthenie und Dyspraxie leidet. Sie ist eine überzeugte Verfechterin von Neurodiversität und Inklusion. Opal glaubt, dass KI das Potenzial hat, die Vielfalt zu verbessern, aber die Ethik, die hinter der Verwendung der Technologie steht, muss erheblich verbessert werden.

„Es gibt viele erstaunliche Möglichkeiten, wie KI eingesetzt wird, die für so viele unglaublich nützlich sind, wie zum Beispiel Anpassungstools für Legastheniker wie mich oder AI-Pair-Programming-Tools für Ingenieure, um die Wiederholbarkeit ihrer Arbeit zu reduzieren.“ „Wir verbringen mehr Zeit mit der Implementierung anderer Lösungen“, sagte Opal. „Für mich war ChatGPT ein überraschend nützliches Hilfsmittel zur Anpassung an meine Legasthenie und mein ADHS.“

„Ich mache mir jedoch Sorgen, dass die Ethik hinter der KI uns in unserem Streben nach Vielfalt und Inklusion in Tech-Teams zurückwerfen könnte“, sagte Opal. „Es gibt Unternehmen, die KI-Einstellungstools verwenden, um den richtigen Kandidaten zu finden, aber es ist allgemein bekannt, dass einige dieser KI-Systeme einen idealen Kandidaten auswählen, der in der Regel weiß, männlich, heterosexuell, körperlich gesund oder ohne versteckte Behinderungen ist.“ ”

„Als neurodivergente Frau, die sich auch für die Neurodiversität einsetzt, geben viele neurodivergente Menschen ihre versteckten Behinderungen erst dann preis, wenn sie ein Jobangebot erhalten oder an ihrem ersten Tag, oder manche offenbaren es überhaupt nicht, aus Angst vor Vorurteilen.“ Urteilsvermögen und Diskriminierung“, sagte Opal in einem E-Mail-Interview.

„Während wir Gespräche darüber führen, wie wir neurodivergente Talente anwerben, neurointegrative Umgebungen schaffen und neurodivergente Menschen dazu ermutigen können, ihre verborgenen Behinderungen transparent zu machen, mache ich mir Sorgen, dass Vorurteile in KI-Systemen sie ausschließen werden“, fügte Opal hinzu.

Opal sagt, dass KI zwar eine spannende Technologie ist, die das Potenzial hat, sich positiv auf die Veränderung der Diversität in Tech-Teams auszuwirken, dass sie aber viel Arbeit von den Menschen erfordern würde, die die Daten für die KI-Systementwürfe sammeln.

Hackajob, eine Full-Stack-Technologie-Einstellungsplattform in Großbritannien, hat drei Funktionen eingeführt, von denen sie glauben, dass sie die Diversität, Gerechtigkeit und Inklusivität in Technologieteams erhöhen werden.

Die Plattform ist KI-gesteuert und das Unternehmen gibt an, dass sie dazu beiträgt, Voreingenommenheit aus Stellenbeschreibungen zu beseitigen und so die Personalbeschaffung zu erleichtern. Eines der in einer Pressemitteilung aufgeführten Merkmale bestand darin, Kandidaten nach Diversitäts- und Inklusionszielen zu priorisieren und gleichzeitig den Schutz der Vertraulichkeit der Kandidaten sicherzustellen.

Das Unternehmen sagte, es reduziere Voreingenommenheit in der KI durch eine Kombination aus Datenerfassung, Modelldesign, regelmäßiger Bewertung und der Einbeziehung ethischer Richtlinien.

Mark Chaffey, Mitbegründer und CEO von hackajob, sagt, dass die erste Funktion generative KI (GAI) nutzt, um Verzerrungen aus Stellenbeschreibungen zu beseitigen.

Hackajob mit Sitz in Großbritannien hat 25 Millionen US-Dollar durch eine Finanzierungsrunde der Serie B gesammelt, die von Volition Capital mit Sitz in Boston und unter Beteiligung der bestehenden Investoren AXA Venture Partners und Foresight angeführt wurde.

„Arbeitgeber können ihre Stellenbeschreibungen auf die Hackajob-Plattform hochladen, wo KI-Technologie den Inhalt scannt und bewertet und Vorschläge für eine integrativere Sprache erstellt“, sagte Chaffey. „Arbeitgeber können vorgeschlagene Änderungen mühelos umsetzen und so sicherstellen, dass ihre Einstellungsmaterialien frei von Voreingenommenheit sind und ein breites Spektrum potenzieller Kandidaten ansprechen.“

Aber der Elefant im Raum bleibt bestehen – Voreingenommenheit in KI-Datensätzen ist ein Problem im Einstellungsprozess für Minderheiten.

Vor vier Jahren zeigte die Studie des National Institute of Standards and Technology, dass Gesichtserkennungs-KI farbige Menschen häufig falsch identifiziert. Dies war bei Robert Williams der Fall, der 2020 verhaftet wurde, weil die KI in der Gesichtserkennungssoftware ihn nicht genau identifizieren konnte, weil er Schwarz war.

Williams ist die erste Person, die aufgrund von Fehlern bei der Gesichtserkennung zu Unrecht verhaftet wurde. Eine Studie zu Hypothekendarlehen aus dem Jahr 2021 zeigte, dass prädiktive KI-Modelle zur Annahme oder Ablehnung von Darlehen keine genauen Empfehlungen für Darlehen an Minderheiten lieferten.

Im Jahr 2021 wurde die AI and Algorithmic Initiative von der US Equal Employment Opportunity Commission (EEOC) ins Leben gerufen, um sicherzustellen, dass der Einsatz von Software, einschließlich KI, maschinellem Lernen und anderen neuen Technologien, die bei Einstellungs- und anderen Beschäftigungsentscheidungen verwendet werden, mit den Bundeszivilgesetzen vereinbar ist Rechtegesetze, die das EEOC durchsetzt.

Chaffey fügt einen weiteren Standpunkt zur Debatte über den Einsatz von KI im Einstellungsprozess zur Reduzierung von Vorurteilen hinzu und sagt, es hänge davon ab, wofür man KI einsetzt.

„Amazon nutzte beispielsweise KI, um Einstellungsentscheidungen zu treffen, und das KI-Modell wurde anhand von inhärent voreingenommenen Datensätzen trainiert, was wiederum die Voreingenommenheit verstärkte“, sagte Chaffey in einem E-Mail-Interview.

Laut Chaffey nutzt Hackajob KI zur Verbesserung der Vielfalt nicht, um Entscheidungen zu treffen, sondern um Inhalte integrativer zu gestalten.

Bei allen Daten und Erkenntnissen, die Hackajob sammelt, handelt es sich um Opt-in-Daten – ethnische Zugehörigkeit, Geschlecht, Neurodiversität usw. – von Kandidaten. Chaffey sagt, dass sie GAI verwenden, um sicherzustellen, dass alle Stellenanzeigen, Karriereseiten von Unternehmen usw. eine inklusive Sprache enthalten und Möglichkeiten zur Änderung dieser Sprache empfehlen, um Vorurteile gegenüber Alter, Geschlecht, ethnischer Zugehörigkeit usw. zu reduzieren. Sie ermöglichen es Unternehmen, unterrepräsentierte Gruppen proaktiv zu finden.

„Wir automatisieren die Entscheidungsfindung nicht und wir filtern auch keine nicht-diversen Kandidaten heraus“, sagte Chaffey.

„Die Plattform nutzt generative KI, um zu erkennen, ob eine Sprache bestimmte Merkmale oder Personen nicht berücksichtigt“, sagte Chaffey. „Es ist wichtig, sich daran zu erinnern, dass Hackajob ein umgekehrtes Modell verwendet, bei dem Arbeitgeber auf Kandidaten zugehen und sich bei ihnen bewerben, und nicht den typischen Modus, bei dem sich Kandidaten bei Arbeitgebern bewerben.“

Chaffey fügt hinzu, dass hier die Daten ins Spiel kommen. „Da sie über die Daten verfügen, können Unternehmen, die die generative KI-Funktion von hackajob nutzen, die Änderungsrate sehen, wie viele weibliche (oder andere Gruppen-)Kandidaten die Kontaktaufnahme des Arbeitgebers vor und nach der neuen empfohlenen Sprache angenommen haben“, fügt Chaffey hinzu.

„Vorverarbeitungstechniken können angewendet werden, um die Einführung direkter Verzerrungen wie Filterung, Resampling, Gewichtung oder andere Methoden zum Ausbalancieren des Datensatzes zu minimieren, und wir stellen sicher, dass wir nur für die Aufgabe relevante Daten verwenden“, sagte Chaffey.

Aber Rosemarie Wilson, Mentalitäts- und Führungstrainerin und Hauptrednerin, sagt, wenn wir hochwertige, unvoreingenommene Daten brauchen, müssen wir uns ansehen, was hinter diesem Mangel steckt, und ihn beheben.

„Wir müssen uns von der Neuheit und Aufregung dessen, was KI leisten kann, verabschieden und in einigen Bereichen umdenken, damit wir nicht weiter auf der Voreingenommenheit aufbauen, die bereits in dieser aufstrebenden Technologie besteht, um sicherzustellen, dass wir über genügend relevante Daten verfügen, um dies zu erreichen.“ „KI wird von allen für alle entwickelt und trägt dazu bei“, sagte Wilson.

„Wir reden schon lange über Diversität im Technologiebereich; manche sagen, viel zu lange ohne genügend Maßnahmen“, sagte Wilson. „Aber ich würde mir lieber langsame Veränderungen wünschen, die ein starkes Fundament schaffen, auf dem aufgebaut werden kann, wenn diese Veränderungen dazu führen, dass Einstellungen und Rekrutierung ein echtes Spiegelbild der Vielfalt sind.“

„Ich habe gesehen, dass Technologie eingesetzt wird, um grundlegende Quellen der Voreingenommenheit zu beseitigen, indem Lebensläufe für Details wie Name, Alter, Porträts und Nationalität anonymisiert werden und gleichzeitig geschlechtsneutrale und umfassendere Stellenbeschreibungen und Stellenausschreibungen geändert oder erstellt werden.“

Wilson sagt, sie kenne Unternehmen, die Technologie nutzen, um Bewerbern zu ermöglichen, sie zu benachrichtigen, wenn sie ein nicht standardmäßiges Vorstellungsgespräch bevorzugen, und sie habe auch Tests in einem technischen Format für Bewerber entwickelt, die Schwierigkeiten mit dem Vorstellungsgespräch haben.

„Insgesamt haben sie den herkömmlichen Einstellungsprozess angepasst, um neurodiverse Kandidaten zu unterstützen“, fügte Wilson hinzu.

Laut Wilson macht Hackajob große Fortschritte, um für mehr Vielfalt in der Technologie zu sorgen. „Die Planung hat lange gedauert, und sie sind sich auch bewusst, wie wichtig Daten sind. Deshalb haben sie Daten zusammengestellt und gemessen, um sie weiter zu verbessern, was für qualitativ hochwertige Datensätze unerlässlich ist“, fügt Wilson hinzu.

„Sie arbeiten bei der Rekrutierung im Technologiebereich in großem Umfang mit verschiedenen Organisationen zusammen, und soweit ich gesehen habe, verfolgen sie einen langfristigen Ansatz, um auch in diesen Organisationen neue Perspektiven und Denkweisen zu fördern, wenn es um Diversity-Rekrutierung geht“, sagte Wilson.

Opal sagt, dass wir, um Verzerrungen in KI-Datensätzen entgegenzuwirken, bei den Personen beginnen müssen, die hinter der Datenerfassung stehen.

„Einige KI-Systeme verwenden Daten, die die Menschheit widerspiegeln: das Gute, das Schlechte und das Wertende“, sagte Opal. „Wir müssen sicherstellen, dass wir Daten aus mehreren unterschiedlichen Quellen sammeln und nutzen.“

Opal fügt hinzu, dass Unternehmen ihren Nutzern gegenüber ehrlich sein müssen, welche Daten sie verwenden und woher sie stammen, insbesondere wenn die Daten Verzerrungen aufweisen, die Minderheiten, die in die Branche eindringen wollen, Schaden zufügen können.

„Eine der besten Optionen, um Datenverzerrungen entgegenzuwirken, besteht darin, Minderheiten in den Aufbau von KI-Systemen einzubeziehen, die sich am stärksten auf sie auswirken könnten“, sagte Opal. „Laut der Women In Tech UK Survey 2023 sind 26 % der Menschen, die im Technologiebereich arbeiten, Frauen, was einen recht geringen Anstieg seit 2019 darstellt, als die Zahl bei 19 % lag.“

Und Opal sagt, dass zusätzlich zu diesen Statistiken schwarze Frauen nur 0,7 % der Tech-Branche ausmachen.

Für Opal sind die Einstellung, Schulung und Zusammenarbeit mit Organisationen, die überwiegend mit unterrepräsentierten Gruppen arbeiten, wie etwa LGBTQIA+ und neurodivergenten Gemeinschaften, von entscheidender Bedeutung. „Auf diese Weise kann die Technologiebranche sicherstellen, dass KI-Vorurteile gemildert werden, um die wachsende Liste von KI-Systemen für alle, die sie in Zukunft nutzen, integrativer zu gestalten“, fügt Opal hinzu.

„Wir müssen Menschen in den Raum einladen, um ihr Fachwissen bei der Entwicklung von KI-Systemen einzubringen, die große Auswirkungen auf sie haben können“, sagte Opal. „Dies ist eine von vielen Möglichkeiten, die Ausbildung von KI-Ingenieuren oder -Forschern und unterrepräsentierten Personen zu fördern.“

Chaffey sagt, dass etwa 80 % der Kandidaten, die sich für Hackajob anmelden, proaktiv Daten über ihre ethnische Zugehörigkeit, ihr Geschlecht usw. bereitstellen. „Außerdem erfasst Hackajob nicht die endgültigen Einstellungen, sodass das Unternehmen keine Daten zu Konversionen hat.“ sagte Chaffey.

„Die Matching-Engine von Hackajob versteht die Einstellungsprioritäten des Unternehmens und kann diese Kandidaten priorisieren, aber das Unternehmen hat keine Möglichkeit zu wissen, welche Kandidaten auf der Liste männlich oder weiblich sind – diese Daten werden dem Unternehmen nicht zur Verfügung gestellt“, sagte Chaffey. „Hackajob schließt Kandidaten auch NICHT von den Kandidatenlisten aus, die sie den Unternehmen vorlegen.“

Chaffey fügt hinzu, dass es wichtig ist zu erklären, dass Hackajob Kandidaten nach Zielen sortiert, wobei es Gruppen von Kandidaten gibt, die der Rolle ähnlich entsprechen.

„Wenn ein Unternehmen also mehr Nicht-Männer in seiner Tech-Belegschaft haben möchte, setzt Hackajob nicht alle Nicht-Männer an die Spitze der Liste, sondern vermittelt 40 Kandidaten für die Stelle, und die Top 10 haben eine ähnliche Eignung.“ Für die Rolle priorisieren sie Nicht-Männer in dieser Gruppe, und wenn die nächsten acht einen Rang niedriger sind, priorisieren sie Nicht-Männer in dieser Gruppe und so weiter“, fügte Chaffey hinzu.

Aber Wilson weist darauf hin, dass wir, wenn wir nicht über qualitativ hochwertige, unvoreingenommene Daten verfügen, die Ursachen dieses Mangels untersuchen und angehen, uns von der Neuheit und Aufregung dessen, was KI leisten kann, zurückziehen und in einigen Bereichen umdenken müssen.

„Wenn wir nicht weiterhin auf der Voreingenommenheit aufbauen, die bereits in dieser neuen Technologie besteht, um sicherzustellen, dass wir über genügend relevante Daten verfügen, damit KI entwickelt und von allen für alle entwickelt und gefördert werden kann“, sagte Wilson.

„Ich bin kein KI-Stratege, aber wir müssen uns mit Dingen befassen, die beispielsweise fehlen oder ausgelassen werden“, sagte Wilson. Und tun wir genug, um aufzuklären und zu zeigen, warum wir Fragen zu Daten im Hinblick auf Diversität stellen und die Hysterie um KI und ihre Schädlichkeit unterdrücken müssen, insbesondere wenn es um die Erhebung dieser Art von Daten und deren Verwendung geht?“

Opal hat ihre Geschichte auf vielen nationalen und internationalen Bühnen erzählt, darunter auf den DevLab-Konferenzen von hackajob und der Tech Show London bis hin zur Eye to Eye-Konferenz in Denver.

„All dies, um mich dafür einzusetzen, dass andere wie ich in der Technologiebranche gesehen, unterstützt und ermutigt werden, und dass andere darüber informiert werden und in sich selbst darüber nachdenken, wie sie bessere Menschen für ihre Mitmenschen, insbesondere ihre Kollegen, sein können.“ "sagte Opal.

„Ich würde mir eine Zukunft wünschen, in der der Wunsch, in der Technologiebranche gesehen und respektiert zu werden, eine anerkannte Erwartung aller ist und nicht als herausfordernde Bitte angesehen wird“, sagte Opal. „Ich würde gerne eine Zukunft sehen, in der Technologie nicht diskriminiert und ausschließt, sondern vielmehr Vielfalt einlädt, Inklusion schafft und die Unterrepräsentierten in vielerlei Hinsicht ermutigt, insbesondere in der sich schnell entwickelnden Technologiebranche, zu der wir gehören.“

Laut Chaffey besteht kein Zweifel daran, dass bei der Personalbeschaffung immer Menschen einbezogen werden müssen und dass sie von Natur aus voreingenommen sind, was zu Herausforderungen führt.

„Hackajob hilft dabei, indem es die Conversions in jeder Phase des Prozesses verfolgt“, sagte Chaffey. „Die neue KI-Funktion in Hackjob besagt, dass sie Kandidaten auf der Grundlage von Diversitäts- und Inklusionszielen priorisiert und gleichzeitig den Schutz der Vertraulichkeit der Kandidaten gewährleistet.“

Opal sagt, dass sie leider nicht oft sieht, dass Frauen in ihren Rollen befördert werden, insbesondere schwarze Frauen.

„Seit Beginn meiner Karriere als Software-Ingenieurin habe ich noch nie mit einer schwarzen Ingenieurin zusammengearbeitet, und ich hoffe, dass ich das in Zukunft noch erleben werde“, sagte Opal. „Es hat etwas so Inspirierendes und Ermutigendes, mit jemandem zusammenzuarbeiten, der wie Sie aussieht. Ich habe von vielen talentierten und erfahrenen Ingenieuren gearbeitet und von ihnen gelernt, aber ich arbeite auch mit jemandem zusammen, der auch zu den 0,7 % der schwarzen Frauen gehört, die in der Tech-Branche arbeiten.“ Großbritannien wäre ein ganz besonderer Moment für mich.“

Wilson sagt, sie würde sich wünschen, dass in Tech-Teams vielfältigere Talente im weiteren Sinne arbeiten, die sich nicht nur auf Geschlecht, ethnische Zugehörigkeit oder Neurologie konzentrieren, sondern auch besser eingesetzt werden, damit die Leute bei der Einstellung das Gefühl haben, dazuzugehören. Sie haben es verdient, dort zu sein und die Möglichkeit zu haben, sich weiterzuentwickeln und nicht wie ein Außenseiter behandelt zu werden.

„Ich habe gesehen, dass mehr Frauen in die Technologiebranche einsteigen, während sich die Zahlen der Neurodiversität etwas nach oben verschoben haben“, sagte Wilson. „Aber ich sehe auch, dass Kandidaten den Arbeitsplatz verlassen, weil die Infrastruktur oder die Unternehmenskultur nicht dazu beigetragen hat, neuen Mitarbeitern das Gefühl zu geben, sich wohl zu fühlen oder ausreichend unterstützt zu werden, um ein Gefühl der Integration und Zugehörigkeit zu verspüren.“

„Wenn wir sagen, dass Vielfalt im Einstellungsprozess wichtig ist, müssen wir auch sicherstellen, dass die Kultur oder Infrastruktur, in die sie eintreten, auch so gestaltet ist, dass sie sie fördert und unterstützt“, fügt Wilson hinzu.

„Ich hoffe, dass mehr Technologie-Rekrutierungsunternehmen intelligente und fairere Wege entwickeln, um sicherzustellen, dass vielfältigen Kandidaten größere Chancen geboten werden, und dass sie mit Organisationen zusammenarbeiten, um bessere Strategien und Richtlinien im Einstellungsprozess umzusetzen“, sagte Wilson.

Wilson ist davon überzeugt, dass Organisationen und Technologieteams eine Vision und einen langfristigen Ansatz für ihre Strategien benötigen und gleichzeitig Gleichberechtigung bei Einstellungen, weiterer Unterstützung und Beförderungen wahren müssen.

„Die Einstellung von Mitarbeitern im Hinblick auf Diversität ist kein geradliniger Weg, aber wir reden schon lange über dieses Thema, daher ist es gut zu sehen, dass sich etwas durchsetzt“, sagte Wilson. „Wir haben noch einen weiten Weg vor uns, denn ich würde mir auch eine Veränderung in der menschlichen Sichtweise und im Verhalten hinsichtlich der Bedeutung von Inklusion wünschen, insbesondere wenn es um Diversität geht.“

AKTIE