Die Illustration zeigt einen binären Code hinter verschiedenen Gruppen von Menschen

Diversität und KI – mehr Mensch, weniger Maschine

Wie muss Künstliche Intelligenz (KI) gestaltet werden, damit sie Ungleichheiten reduziert statt reproduziert? Kinga Schumacher reiste für das Vortragsprogramm der Bundesregierung nach Barcelona, um in der Reihe „Women in Tech“ über Chancen und Risiken von KI zu sprechen.

Bellaterra, eine kleine Gemeinde in der Nähe von Barcelona. Im Konferenzraum des Spanischen Forschungsinstituts für Künstliche Intelligenz (IIIA) sind die Stühle noch leer, Kaffeeduft zieht durch die Gänge. In einer Stunde wird Kinga Schumacher hier einen Vortrag halten – über faire, diskriminierungsfreie KI-Technologien, sogenannte diversitätsbewusste KI. Es ist die letzte Station auf ihrer Reise. In den vergangenen Tagen hat sie sich intensiv mit Vertreter:innen aus Medizin, Politik, Bildung, Klimaforschung und Wirtschaft über KI ausgetauscht. „Ich nehme viele Impulse und neue Perspektiven mit“, sagt sie, „und genau das ist wichtig für unsere Arbeit: verschiedene Sichtweisen.“

Unbewusstes bewusst machen

Seit drei Jahren forscht Kinga Schumacher am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) im Labor in Berlin zu „diversitätsbewusster KI“, zu KI-Systemen also, die die Vielfalt der Gesellschaft berücksichtigen und Ungleichheiten nicht reproduzieren, sondern reduzieren. Dafür entwickeln Kinga Schumacher und ihr Team Richtlinien, beispielsweise Fragen, die sich Wissenschaftler:innen und Entwickler:innen während des gesamten Design- und Entwicklungsprozesses stellen sollten: Welche Diversitätsdimensionen spielen für mein Projekt eine Rolle – Geschlecht, Alter, Herkunft, Kultur? Wie lassen sich diese Kriterien berücksichtigen? Welche Daten wähle ich wie aus?

„Es geht darum, sich unbewusste Annahmen und Vorurteile bewusst zu machen, sie zu dokumentieren und mit anderen zu diskutieren und so Biases – also Verzerrungen und Voreingenommenheit – zu vermeiden.“ Möglichst unterschiedliche Stakeholder und potenzielle Nutzer:innen sollten in den Design- und Entwicklungsprozess einbezogen werden.

Diverse Teams, diverse KI

Sie erinnert sich an einen Doktoranden, der in seiner Dissertation Mobilitätsdaten erhob, basierend auf der Annahme, dass Personen ihr Smartphone in der Hosentasche tragen. „Hätte er sich seine Annahmen aufgeschrieben und bewusst Frauen in seine Studie einbezogen, wäre ihm vermutlich aufgefallen, dass nicht alle Menschen ihr Handy in der Hose transportieren – insbesondere Frauen tun es kaum. Ein Austausch in einem diversen Team hätte früh auf diese Problematik hingewiesen.“

Diverse Teams seien die Grundlage für KI-Systeme, die für alle Menschen gleichermaßen gut funktionieren. Daher spielt Diversität auch am DFKI, einem der weltweit größten gemeinnützigen Forschungsinstitute für KI, eine Rolle. „Unsere Teams sind international und interdisziplinär, Frauen sind inzwischen häufiger vertreten als noch vor einigen Jahren.“

„Guten Morgen, Frau Schumacher – guten Morgen, meine Herren!“

Kinga Schumachers eigener Weg in die KI-Forschung war keineswegs vorgezeichnet. „Als Kind wollte ich Meeresbiologin werden“, sagt sie und lacht. „Als ich mit zehn meinen ersten Computerkurs belegte, dachte ich: Meeresbiologin ist ein schöner Traum, aber in meinem Heimatland Ungarn gibt es keinen Zugang zum Ozean, das wird schwierig – Informatik macht auch Spaß.“ Sie hatte ihren Studienplatz in Ungarn schon sicher, als sie Mitte der 1990er-Jahre nach Deutschland ging, um eine dritte Fremdsprache zu lernen. Doch sie lernte nicht nur die Sprache, sondern auch ihren heutigen Partner kennen – und blieb.

Zu Frauen kommen Frauen. Es gibt weniger Berührungsängste.

Dass ihr Berufswunsch für eine Frau damals ungewöhnlich war, sei ihr erst in Deutschland bewusst geworden. „In Ungarn war es selbstverständlich, dass Frauen MINT1-Fächer studierten. In Deutschland stieß meine Entscheidung auf Verwunderung.“ Im Studium an der Hochschule Mannheim habe es anfangs drei Frauen im Jahrgang gegeben. „Nach wenigen Monaten waren wir nur noch zwei, und ab dem zweiten Semester war ich allein“, erinnert sie sich. „Da hieß es dann: ,Guten Morgen Frau Schumacher, guten Morgen meine Herren‘. Einfach so fehlen, wie meine Kommilitonen, ging also nicht – oder nur mit guter Begründung.“ Sie habe sich wegen ihres Geschlechts aber nie benachteiligt gefühlt.

Hatte sie Vorbilder? Menschen, die sie in ihrem Weg in einen männerdominierten Beruf bestärkt haben? „Ich habe mich damals wenig umgeschaut und bin einfach meinem Interesse gefolgt. Meine Eltern haben mich unterstützt, aber Vorbilder hatte ich nicht – es gab schlichtweg keine.“ Das ist heute glücklicherweise anders: Quoten, Förderprogramme und Initiativen, um Frauen für technische Berufe zu begeistern, zeigen Wirkung.

Am DFKI leitet Kinga Schumacher inzwischen ein Team, das überwiegend aus Frauen besteht. „Zu Frauen kommen Frauen“, sagt sie. „Es gibt weniger Berührungsängste.“ Jungen Frauen und Mädchen, die über einen MINT-Beruf nachdenken, rät sie, weniger auf die Meinungen anderer und mehr auf das Bauchgefühl zu hören. „Oft wissen wir intuitiv, was uns liegt und wirklich interessiert. Und genau diese Intuition ist etwas, das kein KI-System ersetzen kann.“

Menschliche Gefühle – die letzte Bastion?

Hier liegt aber auch die Herausforderung. Entwickler:innen arbeiten daran, KI-Systeme „menschlicher“ zu gestalten und emotionale Intelligenz zu imitieren, was emotionale Abhängigkeiten schaffen und unser Einfühlungsvermögen beeinflussen kann. Menschen, die sich in ihren KI-Chatbot verlieben, sind längst Realität. Kinga Schumacher sieht diese Entwicklung kritisch. „Es ist wichtig, dass KI-Systeme klar offenlegen, was sie sind: eine Technologie. Der Unterschied zwischen Mensch und Maschine sollte sichtbar bleiben.“ Diese Risiken seien auch in den letzten Tagen in den Veranstaltungen ihrer Vortragsreise immer wieder angesprochen worden. Die Teilnehmer:innen seien sich einig gewesen: Es ist wichtig, die KI-Kompetenz in der Gesellschaft zu stärken.

„Viele Menschen setzen KI heute mit ChatGPT gleich, also mit KI-Systemen, die neue Inhalte produzieren. Diese sogenannte generative KI hat das Thema zwar der breiten Öffentlichkeit zugänglich gemacht, vor allem durch ihre leicht nutzbaren Tools. Doch es gibt zahlreiche nichtgenerative KI-Systeme, die weniger im Fokus öffentlicher Debatten stehen, aber längst sinnvolle Arbeit leisten: Bilderkennung, Sprachkorrekturprogramme, Wettervorhersage, KI-gestützte Diagnosen. ,Predictive Policing‘ zum Beispiel ist eine KI-basierte Methode, die Datenanalysen nutzt, um potenzielle kriminelle Aktivitäten vorherzusagen und Polizeieinsätze effizienter zu gestalten.“

„Das größte Risiko ist nicht die KI“

Um mehr Menschen zu vermitteln, wie KI funktioniert, hat das DFKI mit anderen Forschungsinstituten und Partnern den ‚KI-Campus‘ entwickelt – eine kostenlose Lernplattform mit Online-Kursen, Videos und Podcasts für unterschiedliche Zielgruppen, an deren Umsetzung Kinga Schumacher beteiligt war. „Man lernt dort nicht nur die Grundlagen: Wie funktioniert KI? Welche Methoden gibt es? Wie wird KI in verschiedenen Berufsgruppen eingesetzt? Man lernt beispielsweise auch, selbst einen Chatbot entwickeln.“ Ebenso werden ethische Fragen diskutiert.

Das größte Risiko ist nicht die KI selbst, sondern der Mensch.

„Um die Chancen von KI zu nutzen und Risiken zu minimieren, müssen wir lernen, diese Technologien kritisch zu hinterfragen und verantwortungsvoll anzuwenden. Denn während KI viel Positives bewirkt, liegt es an uns, die Balance zwischen technologischem Fortschritt und menschlichen Werten zu wahren. Das größte Risiko ist nicht die KI selbst, sondern der Mensch.“ Deshalb unterstütze sie auch Regulierungen wie den kürzlich vom EU-Parlament verabschiedeten AI Act. „Denn letztlich dient das Gesetz dem Schutz der Menschenrechte.“

Die Gender Data Gap und das Potenzial von KI

Die größten Chancen von KI sieht Kinga Schumacher in der Medizin und Gesundheitsversorgung: Telemedizin, personalisierte Medizin, verbesserte Diagnostik und Medikamentenentwicklung. „KI-Systeme können gezielt eingesetzt werden, um bestehende Ungleichheiten wie die Gender Data Gap zu überwinden. Noch bis vor Kurzem haben KI-Anwendungen das Herzinfarktrisiko bei Frauen nicht erkannt, weil die Trainingsdaten überwiegend von männlichen Probanden stammten. Statt KI deshalb zu verteufeln, hat man moderne KI-Anwendungen entwickelt, die geschlechtsspezifische Unterschiede, beispielsweise in den Symptomen, berücksichtigen und das Risiko bei Frauen inzwischen viel besser erkennen. Genau diesen konstruktiven Umgang brauchen wir, um das volle Potenzial dieser Technologie zum Wohl aller Menschen zu entfalten.“

Doch nicht nur im medizinischen Bereich können KI-Anwendungen dabei helfen, Ungleichheiten zu verringern. Bei einer Veranstaltung am Barcelona Supercomputing Center ging es um die Frage, wie Klimamodelle gerechter gestaltet werden können. „Bislang basieren langfristige Klimaberechnungen fast ausschließlich auf Daten aus der Nordhalbkugel. Das schafft systematische Lücken und macht die Vorhersagen für Länder der südlichen Hemisphäre ungenauer. KI-Systeme können helfen, diese Datenlücke zu schließen.“

Gibt es KI-Systeme, die völlig „biasfrei“ sind? „Ein KI-System kann für einen spezifischen Zweck, eine bestimmte Region oder Kultur weitgehend biasfrei gestaltet werden“, sagt Kinga Schumacher. „Aber was biasfrei bedeutet, ist kontextabhängig. Es gibt keine universelle Messlatte. KI-Anwendungen für Frauengesundheit haben beispielsweise kein Problem mit Genderbias. Bildgenerierungssysteme in Europa können Fotos schulterfreier Personen zeigen, während es in anderen Ländern und Kulturen nicht Teil des kulturellen Standards oder sogar verboten ist.“ Um biasfreie KI-Systeme zu entwickeln, sei es wichtig, sich auf konkrete Diversitätskriterien zu einigen und die Richtlinien für diversitätsbewusste KI einzubeziehen.

„Je größer und diverser der Personenkreis, desto besser“

In Bellaterra hat sich der Konferenzraum inzwischen gefüllt. Kinga Schumacher steht auf dem Podium, das Licht ihrer PowerPoint-Präsentation erhellt die Gesichter im Publikum, darunter jüngere und ältere Forscher:innen, die wie Kinga Schumacher ethische Fragen in den Fokus ihrer Arbeit stellen. Zum Abschluss ihres Vortrags zitiert sie den KI-Experten Amit Ray: „Je mehr künstliche Intelligenz in unsere Welt Einzug hält, desto mehr emotionale Intelligenz muss in die Führung einziehen.“ Ein Nicken geht durch die Reihen, dann folgt eine Frage- und Austauschrunde.

Am Ende der Veranstaltung wird Kinga Schumacher weitere Kontakte geknüpft haben und Ideen für künftige Kooperationen mit zurück nach Deutschland nehmen. „Es ist wichtig“, hatte sie zuvor gesagt, „dass wir gemeinsam Anstrengungen unternehmen, um faire KI-Systeme zu entwickeln. Je größer und diverser der Personenkreis, desto besser.“

 

1Mathematik, Informatik, Naturwissenschaften und Technik.

Über Kinga Schumacher
Portrait von Kinga Schumacher
Kinga Schumacher
Senior Researcherin am Deutschen Forschungszentrum für KI

Kinga Schumacher ist wissenschaftliche Mitarbeiterin und stellvertretende Forschungsbereichsleiterin der Forschungsgruppe Kognitive Assistenzsysteme am Deutschen Forschungszentrum für Künstliche Intelligenz. Sie promovierte im Bereich KI an der Universität Potsdam. Zu ihren Forschungsschwerpunkten zählen „diversity-aware AI“ und Mensch-Maschine-Interaktion. Ihre Analysen von Methoden und Fähigkeiten von KI-Systemen fließen in die Regulierungsaktivitäten von Deutschland und der EU ein.

Vortragsprogramm der Bundesregierung

Expert:innen aus Politik, Wissenschaft, Kultur und Medien informieren in Vorträgen und Podiumsdiskussionen aktuell und vielschichtig über Deutschland. Das ifa organisiert das Vortragsprogramm der Bundesregierung zusammen mit den deutschen Botschaften und Konsulaten im Ausland. Es richtet sich an Multiplikator:innen der Zivilgesellschaft in diesen Ländern. Weitere Informationen auf der Website des ifa.