KI macht stereotypische Aussagen über Kantone
Ein Experiment von Forschenden aus Oxford und Kentucky zeigt auf, dass ChatGPT problematische oder gar rassistische Stereotype reproduziert. Intelligenter, fleissiger, wohlriechender: Weissere, reichere Regionen stehen im Experiment wiederholt besser da als andere Weltregionen. Die Erkenntnisse treffen auch zu, wenn die Bundesstaaten in den USA oder Stadtteile Londons im Fokus stehen. Openai, das Unternehmen hinter dem Chatbot ChatGPT, hat auf die Anfrage von SRF News nicht reagiert. In US-Medien nahm Openai in der Vergangenheit allerdings Stellung zu den Studienergebnissen aus Oxford und Kentucky. «ChatGPT ist so konzipiert, dass es standardmässig objektiv ist und keine Stereotypen unterstützt», teilte eine Sprecherin gegenüber der Washington Post mit. Sie sagte ausserdem, dass Forschungsergebnisse, die auf Eingabeaufforderungen basieren, die den Chatbot von OpenAI zwingen, zwischen bestimmten Optionen zu wählen, «nicht widerspiegeln, wie ChatGPT normalerweise genutzt wird».