Zum Inhalt springen

Header

Zur Übersicht von Play SRF Audio-Übersicht

Einkommensschwache Länder Gewalt, illegale Inhalte, Tod: KI-Training belastet Arbeitskräfte

Künstliche Intelligenz erleichtert in vielen Bereichen das Leben. Doch dahinter steckt oft die Arbeit unzähliger Menschen, die vorwiegend in einkommensschwachen Ländern leben. Diese Jobs sind teils schlecht bezahlt und setzen manche Arbeiterinnen und Arbeiter über lange Zeit toxischen Inhalten aus.

«Ich bearbeite ihre Daten, die Unternehmen verdienen damit Millionen. Warum können sie nicht dafür sorgen, dass ich ein menschenwürdiges Leben führen kann? Müssen sie mich für ihr Wachstum opfern?» Michael Geoffrey sitzt weinend in einem alten Hochhaus in Nairobi und erzählt seine Geschichte dem Westschweizer Radio und Fernsehen (RTS). Jahrelang hat er im Bereich der künstlichen Intelligenz gearbeitet.

Fernab der glänzenden Büros des Silicon Valley zählt Kenia zu den internationalen Zentren für die weniger glamourösen Aufgaben hinter der KI. Giganten wie Meta, ChatGPT oder Tiktok lagern einen grossen Teil dieser Arbeit dorthin aus – Aufgaben, die für das Funktionieren der generativen KI unerlässlich sind.

Menschliches Eingreifen ist «unerlässlich»

Dazu gehört beispielsweise die Analyse von Objekten im Strassenverkehr: Auto, Baum, Fussgängerin. Damit die KI diese Objekte erkennt, muss ein Mensch ihr das beibringen. Auch beim Trainieren eines Chatbots wie ChatGPT braucht es den Menschen, erklärt Professor Robert West in Lausanne.

RTS-Recherche (mit dt. Untertiteln)

Der Spezialist hat gerade ein Forschungsjahr bei Microsoft beendet, einer der weltweiten Schaltzentralen der generativen KI. «Ohne menschliches Eingreifen wäre es eine Katastrophe. Im Internet gibt es viele Inhalte, die ChatGPT nicht verbreiten soll: Extremismus, Verschwörungstheorien und so weiter. Man muss das Modell also quasi zähmen.»

Unwürdige Arbeitsbedingungen

Eine mühsame und oft schlecht bezahlte Tätigkeit. In Kenia arbeiten viele KI-Trainerinnen und -Trainer mit belastenden Inhalten. So ging es auch Michael Geoffrey. Monatelang brachte er der KI bei, pornografisches Material zu filtern. Die Folge: Er konnte keine intime Beziehung mehr zu seiner Frau haben, und die Ehe zerbrach. «Wir haben uns schliesslich getrennt», vertraute er RTS an.

Auch Moderatoren für soziale Medien sind toxischen Inhalten ausgesetzt. Auf Tiktok beispielsweise werden 85 Prozent der unangemessenen Inhalte durch KI gefiltert. Aber menschliches Eingreifen bleibt unerlässlich. 

Diskutieren Sie mit:

Ethan (Name geändert) arbeitet in Nairobi für ein Subunternehmen von Tiktok und spürt unangebrachte Inhalte auf. Täglich findet er Hunderte, teils extrem schockierende Videos.

«Es gibt alles: Selbstmorde, Folter, Menschen, die lebendig verbrannt werden, Kinderpornografie … Die Leute sehen normalerweise nur, was gut ist. Aber sie wissen nicht, dass es Menschen wie mich gibt, die die schlechten Inhalte filtern, auf Kosten ihrer psychischen Gesundheit», erklärt er.

Ein auf Ausbeutung basierendes Modell

Für diese Beschäftigten ist es schwierig, ihre Rechte gegenüber den Unternehmen durchzusetzen. Dies insbesondere, weil die Technologiekonzerne sie nicht direkt anstellen.

Für die Beschäftigten wehrt sich Mercy Mutemi. Die Anwältin führt mehrere Gerichtsverfahren gegen Meta. «In Kenia basiert der KI-Sektor – auf Ebene der Datenannotation, Inhaltsmoderation und des Algorithmustrainings – auf einem ausbeuterischen Modell, das zwei Dinge beinhaltet: Menschenhandel oder Zwangsarbeit.»

Die Verfahren, die Mutemi angestossen hat, sind derzeit vor Gerichten hängig. Weder Meta noch Tiktok, OpenAI und Tesla haben auf entsprechende Anfragen von RTS reagiert.

RTS; A bon entendeur; 4.11.2025; 20:10 Uhr; sten

Meistgelesene Artikel