Chat-Protokoll:
Was für neue Arbeitsplätze wird es mit KI geben? Ich bin ziemlich beunruhigt, was die Zukunft unserer Jugend betrifft. Ich lese nur von Uniabgänger, dass viele Arbeiten von KI übernommenen wird und sie damit keine Stelle finden.
Nathalie Klauser: Eine Frage, die gerade viele umtreibt und deshalb auch stark in der Presse ist. Generell ist vor allem automatisierbare Wissensarbeit stark von der KI-Transformation betroffen. Das heisst spezialisierte handwerkliche Berufe eher weniger. Für diese braucht es noch einen grösseren Sprung in der Robotik, wobei sich auch diese auf skalierbare generalisierbare Handwerksarbeiten fokussieren werden. Das heisst jetzt aber nicht, dass alle Handwerker:innen werden sollen – denn wohin es geht, wissen auch die Expert:innen nicht. Für die Jugend heisst das menschliche Fähigkeiten vorallen einzuüben: Empathie, Agilität, Kreativität und Kollaboration. Als einzelne Person generell heisst das neue Technologien zu antizipieren und sich weiterzubilden – aber auch sich im Diskurs einzubringen, ob in ihrer Arbeit, in der Schule oder politisch. Die Frage ist wo & wie wollen wir KI einsetzen und wie stellen wir uns ein gutes Leben innerhalb der KI-Transformation vor? Hier ein Überblick über Branchen und Berufsbilder betroffen von KI in der diese Woche erschienen ETH-Studie.
Was wird der nächste grosse Schritt mit LLMs? Mehr Tokens löst ja das grundsätzliche Problem mit dem Halluzinieren nicht. Gibts da schon Ansätze, wie das gelöst werden kann?
Guido Berger: Ich würde zwei Stossrichtungen ansprechen: Erstens versucht man, die Maschine aus anderen Datenquellen lernen zu lassen als digitale Daten (wie Text oder Video) – insbesondere «Welt"-Daten, also ganz viel Sensor-Input von Dingen, die irgendwie physikalisch sind.
Einfaches Beispiel: Vielleicht lernt eine Maschine besser, was ein Tisch ist und wie ein Glas darauf steht, wenn sie den Tisch und die Gravitation etc. erfühlen kann, also irgendwie robotisch. Man spricht von «World Models» statt einfach «Language Models».
Und die zweite Stossrichtung ist, dass man Modelle auf Modelle schichtet. Dass also nicht ein Modell jede Anfrage beantwortet, sondern dass z.B. ein Modell nur darauf trainiert wird, die Anfrage an das richtige Experten-Modell zu schicken; dass ein weiteres Modell die Antwort überprüft, etc.
Was sind die grössten Gefahren von KI und wie ernst sind die teils apokalyptischen Warnungen von Experten der Szene wie Geoffrey Hinton und Joshua Bengio zu nehmen?
Guido Berger: Die grösste Gefahr würde ich in einer erneuten Disruption der Arbeitswelt sehen (nach Deindustrialisierung und Digitalisierung), die Gewinner und Verlierer produziert und die letzteren nicht abfedert.
Dass also konkret Jobs wegrationalisiert werden, ohne sich darum zu kümmern, was denn mit den wegrationalisierten Menschen geschieht.
Kann sich ein Programm gegen das Abschalten weigern?
Guido Berger: Keines der Programme, die wir schon haben. Weil sie keine Willen, keine Autonomie, keine Ziele oder Bedürfnisse haben. Sollten sie all das mal erlangen, wäre dann auch noch die Frage zu klären, was denn «Abschalten» überhaupt bedeutet. Ein Programm in der Cloud mit Backups und rund um die Welt verteilten Instanzen könnte man gut auch unterbrechen/pausieren, ohne es «abzuschalten», also dauerhaft zu löschen. Eine solche fiktive KI mit Bewusstsein hätte vielleicht keine Angst vor dem Tod wie wir und würde sich deshalb auch nicht gleichermassen davor fürchten.
Bilder, welche mit Nano Banana erzeugt wurden, haben zum Teil einen illegalen Ursprung. Kann ich verklagt werden nach einer Veröffentlichung?
Guido Berger: Ob die Modelle beim Training etwas gemacht haben, das nicht erlaubt war, wird noch diskutiert – entsprechend ist auch noch offen, ob denn das Verwenden weitere Probleme mit sich ziehen könnte. Ein Jurist (also nicht ich) würde wohl dazu raten, eine Risiko-Abwägung vorzunehmen: Wie exponiert ist man? Was könnte man maximal verkraften? Wie wichtig ist denn die Veröffentlichung?
Fast alle Firmen und Privatpersonen führen diplomatisch ausgedrückt ihre Daten nicht in systematischer Ordnung. Kennen Sie Beispiele oder können Sie sich vorstellen, wo die existierenden KI-Lösungen punktuell beim «Aufräumen» helfen (z.B. Inhalt erkennen und kategorisieren).?
Guido Berger: Ich könnte jetzt nicht eine fix fertige Lösung nennen, aber zumindest theoretisch müsste das etwas sein, das eine KI gut kann: mit nicht präzisen, wenig strukturierten Daten arbeiten und darin Muster erkennen.
Die Frage ist in einem solchen Fall immer: Was kostet das total, wie viele Fehler werden gemacht und was kosten die (kann man damit leben oder muss man investieren ins Finden und Ausmerzen), und lohnt sich diese Investition?
Aktuell scheinen viele Unternehmen ihre ursprünglichen KI-Experimente wieder zurückzufahren. Das muss aber nicht heissen, dass die Investitionen zweifelhaft sind – es könnte auch darauf hinweisen, dass es schwierig ist, die Fähigkeiten der KI richtig (also wirklich produktivitätssteigernd) einzusetzen.
Es besteht die Angst, dass KI oder Roboter irgendwann einmal finden, dass sie den Menschen nicht mehr brauchen und anfangen ihn auszurotten. Dies ist ein sehr düsteres Szenario, was hoffentlich nie eintritt. Wie kann die Welt, Politik, Wissenschaft verhindern, dass dies jemals geschieht. In einer Diskussion habe ich mal gehört, dass wenn solche Weiterentwicklungen weltweit verboten würden und trotzdem irgendein Land weiter macht, es nur eine Variante gibt, nämlich die Atombombe einzusetzen. Wie ist eure Ansicht zu diesem Thema. Besten Dank
Guido Berger: Sie beschreiben ein Szenario von Eliezer Yudkowsky. Er sagt es etwas komplizierter: Sollte man feststellen, dass jemand eine KI gebaut hat, die in der Lage wäre, unsere Spezies zu bedrohen, dann müsste man bereit sein, diese KI mit Gewalt zu zerstören – was eben auch bedeuten könnte, dass man ein Rechenzentrum bombardieren müsste, was natürlich als kriegerischer Akt gedeutet und im Extremfall zu einer nuklearen Eskalation führen könnte.
In diesem Satz sind aber sehr, sehr viele Annahmen eingebaut, und bei keiner ist sicher, ob die eintreffen könnte. Hat eine KI überhaupt die physischen Mittel, uns körperlich zu bedrohen? Hat eine KI die Fähigkeit und den Anreiz, das zu tun – ist es überhaupt möglich, eine KI zu bauen, die diesen Grad von Zielsetzung, Autonomie, Logik etc. erreicht? Hat man keine anderen Mittel mehr als eine Bombe? Wird das als kriegerischer Akt gedeutet? usw. usf.
Ich halte das Szenario für nicht sehr plausibel. Es macht aber wohl dennoch Sinn, sich zu überlegen, wie man es verhindern könnte, einfach für den Fall. Doch die realere Gefahr ist wohl, dass man Leute wegrationalisiert ohne klaren Plan, was die dann tun sollen oder etwas Ähnliches. Das tönt halt etwas weniger apokalyptisch.
Wem gehören die Daten der KI?
Nathalie Klauser: Die Frage kann ich auf zwei verschiedene Arten verstehen:
1. Betreffend der Eingabe-Daten: Dürfen die Unternehmen ihre Nutzungs- und Eingabedaten zu Trainingszwecken und zu Verbesserung ihrer Produkte nutzen. Bei kostenloser Nutzung von KI-Chatbots meist der Fall. Bei bezahlter Nutzung müssen sie das bei den Einstellungen spezifisch ihre Präferenz hinterlegen.
2. Betreffend Daten, die die KI produziert: Darauf können die Unternehmen Anspruch darauf erheben. Ist insbesondere bei generierten Programmiercodes ein grosses Thema, dass dann die Eigentumsrechte angefochten werden können.
Wie zweckbringend ist es der in Forschung? Und was werden abschätzbar die Folgen sein, ist die «Intelligenz» dermassen überlegen, wie z.B. im Schach?
Anne Scherer: Für die Forschung ist KI schon heute sehr hilfreich bei Routineprozessen: Literatur sichten, Entwürfe und Code vorschlagen, Daten sauberer machen. All das spart Zeit und hebt die Basisqualität. Langfristig kann KI als Sparring-Partner dienen:
Grosse Sprachmodelle „lesen“ weit mehr, als ein Mensch je bewältigen kann, und schlagen dadurch Hypothesen, Gegenbeispiele und Studienpfade vor, die wir sonst vielleicht übersehen würden. Mit KI lassen sich Experimente und Studien vorab simulieren, um schneller zu entscheiden, was sich real zu testen lohnt.
Das macht Forschung nicht automatisch besser, aber deutlich schneller iterativ. Überlegenheit wie im Schach gilt nur für eng definierte Rechenaufgaben; offene Wissenschaft bleibt ein Feld, in dem Menschen Konzepte und Theorien bilden, Prioritäten setzen und Überzeugungsarbeit leisten müssen.
Das beste Ergebnis entsteht im Team: KI skaliert Ideenraum und Testgeschwindigkeit, Forschende wählen aus, überprüfen und steuern die Richtung.
Gibt es eine Zusammenstellung von allen Betrugsgefahren die von KI ausgehen?
Guido Berger: Betrüger sind kreativ, diese Liste ist also sicher nicht abgeschlossen. Spontan kommen mir folgende Anwendungen in den Sinn: – Generative KI wird genutzt, um Programm-Code zu schreiben. – Um falsche Websites zu bauen (für Phishing z.B.). – Um Texte von E-Mails zu schreiben (Phishing, Spam). – Um Stimmen von Menschen zu imitieren (Erpressung, Social Engineering). – Um Webdienste auf bekannte Lücken abzuklopfen.
Guten Tag, Ich habe zwei Fragen: * Man kann sich ja ein KI-Modell lokal auf den Rechner laden und dann brauchen. Wie steht es mit der Aktualität der Daten und wie muss man das handhaben. Muss man das verwendete Modell in gewissen Abständen wieder herunterladen oder sieht man Updates oder wie funktioniert das? * Gibt es eine geeignete und validierte Methode, um generierte Daten/Informationen zu prüfen? Ich habe von einem FLUF-Test oder CRAP-Test gehört. Besten Dank
Guido Berger: Es gibt viele Modelle, die man herunterladen und anwenden kann. Die sind dann in der Regel viel kleiner als die grossen Modelle der grossen Anbieter – und benötigen oft auch weniger Rechenleistung, sind also in ihren Fähigkeiten eingeschränkt. Zunächst sind sie dann einfach so, wie sie trainiert wurden, werden also nicht aktualisiert, lernen nichts dazu. Je nach Modell und eigener Fähigkeiten kann es aber auch sein, dass man ein solches Modell weiter trainiert oder mithilfe eines Modells ein neues trainiert etc.
Die von Ihnen erwähnten FLUF- und CRAP-Methoden verstehe ich als eine Art Denkmodell, um strukturiert die Ausgabe eines Sprachmodells zu überprüfen und damit nicht nur eine Einschätzung zu gewinnen, ob das denn stimmt, sondern auch das eigene Verständnis zu verbessern, wie man mit der KI interagiert, wofür man sie einsetzt und wie man ihren Output interpretiert. Also nicht ein Test im Sinne von «Maschine, die sagt ob's stimmt», sondern eine Anleitung zum kritischen Denken.
Wäre es nicht sinnvoller als sog. Künstliche «Intelligenz» zu propagieren, die natürliche auszubauen, auszubilden und zu nutzen?
Nathalie Klauser: Guter Punkt. Viele KI-Studien kommen genau auch auf den Schluss. Sie zeigen, dass sich Menschen auch zu fest auf die Maschinen verlassen (Verringerung des kritischen Denkens) oder auch wenig bis keinen Lerneffekt bei Verrichtung von Aufgaben haben – durch beispielsweise verringerter Gehirnleistung. Genau aus dem Grund muss die Anwendung von KI-Systeme zielgerichtet und verantwortungsvoll erfolgen. Nur weil es KI-Systeme gibt, muss man sie nicht für alles anwenden.
1. Orientieren & Befähigen: Sich über Auswirkungen aufklären
2. Experimentieren: verantwortungsvoll ausprobieren
3. Evaluieren: wissen, wo der Mehrwert liegt und dann
4. Einsetzen: zielgerichtet dafür nutzen oder bewusst sich auch dagegen entscheiden. Das Ziel ist ja uns Menschen einen Mehrwert zu dienen und nicht aus Prinzip KI einzusetzen und ja da stimme ich ihnen absolut bei: Dafür braucht's menschliche Intelligenz.
Guten Tag, die folgende Aussage bezieht sich auf einen Artikel von Tagesanzeiger (6.1.25): Die Generation Beta umfasst Kinder, die ab 2025 geboren werden und in einer Welt aufwachsen, in der künstliche Intelligenz, Automatisierung und die Verschmelzung von digitaler und physischer Realität selbstverständlich sind. Ihre Eltern – vor allem aus Generation Z – werden voraussichtlich bewusster mit Technologie umgehen und Bildschirmzeit stärker begrenzen, während gleichzeitig digitale Kompetenz, aber auch Risiken wie geringere Aufmerksamkeitsspannen oder soziale Fähigkeiten eine Rolle spielen. Zudem wird die Generation Beta voraussichtlich länger in Ausbildung bleiben, später selbständig werden und durch globale Herausforderungen wie den Klimawandel stärker auf Gemeinschaft, Nachhaltigkeit und Solidarität setzen. Wie kann künstliche Intelligenz in der frühen Kindheit der Generation Beta so eingesetzt werden, dass sie digitale Stärken entwickelt, ohne dass soziale Fähigkeiten und Aufmerksamkeitsspanne darunter leiden?
Guido Berger: Ich würde den Begriff «Computational Literacy» ins Spiel bringen. Der meint die Fähigkeit, ein komplexes Computersystem (wie z.B. ein KI-Chatbot) dazu zu bringen, eine Aufgabe zu erledigen. Also in der Lage sein, ein System effektiv anzuwenden. Das kann alles bedeuten zwischen «die richten Knöpfe drücken» über ein kompliziertes Prompt bis hin zu einer Programmiersprache.
Und es setzt ein tiefes Verständnis voraus, wie das komplexe System funktioniert, welche Stärken und Schwächen es hat, wie man es bedient oder manipuliert oder missbraucht. Darauf würde ich in Erziehung und Ausbildung das Hauptaugenmerk setzen, damit wir nicht einfach blind Knöpfe von Blackboxes drücken.
In der Vergangenheit wurden technologische Entwicklungen resp. deren Nutzen/Einfluss in der Tendenz kurzfristig überschätzt und mittel/langfristig unterschätzt. In Bezug auf die Entwicklung bei KI / ML und die 'Gesellschaft/Wirtschaft von übermorgen': Was unterschätzen wir möglicherweise (mittel-/langfristig)?
Anne Scherer: Wir unterschätzen vermutlich weniger „Magie“ der Modelle, sondern die leisen, langsamen Umbrüche um sie herum: neue Tätigkeiten, neue Organisationsformen, neue Infrastruktur und Regeln. Das war bei PC, Internet und Smartphone ähnlich. Heute nicht mehr wegzudenken und überall eingebaut, mit Jobs und Märkten, die vorher keiner kannte. Das wird mit KI nicht anders sein: Wir überschätzen heute oft einzelne Tools oder Features und unterschätzen, wie sehr sich unsere alltägliche Arbeit, unser Zusammenleben und Alltagsgeräte durch „eingebaute“ KI verändern werden.
Ist es richtig? Da sich KI nur im eigenen „Wissensbrei“ dreht, das dem System aus vergangenen Depots gefüttert wurde, wird es wohl künftig zunehmend schwieriger werden, dass aus unserer Gesellschaft „Einstein‘s“ heran- oder herauswachsen können?
Nathalie Klauser: Es ist richtig, dass KI-Systeme sich auf vergangene Daten stützen und aus diesen heraus mit Wahrscheinlichkeiten Voraussagen für eine Lösung sagen. Sie erfinden somit nie was wirklich Neues, sondern kombinieren jeweils 'nur' neu. Sie haben aber die Möglichkeit von millionenfachen Denkwege durchzudenken. Was das für die Entwicklung von Menschen bedeutet, ist eine andere Frage. Gerade darin könnten wir ein Potenzial sehen, dass wir als Menschen hier agiler und genialer wirken können und deshalb gemeinsam mit der KI diesen Weg in der «Genialität» beschreiten.
Wie weit ist die Entwicklung in der KI um auch «kognitive» Prozesse auszuführen bzw. ein «Bewusstsein» zu entwickeln?
Guido Berger: Keine der aktuellen Sprachmodelle hat etwas wie ein Bewusstsein. Dafür benötigte es z.B. «Erleben», dass also nicht nur mechanisch auf ein Reiz reagiert wird, sondern dass wahrgenommen wird, dass es einen Reiz gab und wie sich das anfühlte. Aus diesem Erleben entsteht dann z.B. eine Schmerzwahrnehmung; daraus wiederum Angst vor diesem Schmerz; und daraus dann wieder ein Ziel, Schmerz zu vermeiden. All das (Erleben, Emotionen, Ziele, selbstgesteuerte Aktivität) hat KI heute nicht – und damit auch nichts, was man Bewusstsein nennen würde. Wenn Chatbots trotzdem so tun, als hätten sie Angst oder Gefühle, dann ist das nicht ein Indiz dafür, dass sie tatsächlich Gefühle empfinden – sondern sie geben einfach ein Muster wieder, dass sie beim Training in Texten gefunden haben. Sie spielen also sozusagen die Rolle des Computers mit Gefühlen, den es in unzähligen Science-Fiction-Texten gibt. Die Maschine reproduziert einfach die in diesen Texten gefundenen Muster. Das ist etwas völlig anderes als ein menschliches Gefühl.
Die Entwicklung von KI, insbesondere LLMs, war in den letzten zwei, drei Jahren so rasant, dass man sich als Laie oft fragt: Was kommt als Nächstes? Wie geht es weiter? Mich würde deshalb interessieren: Woran wird im Moment am intensivsten geforscht, wenn es um KI geht und welche Entwicklungen bezüglich KI werden in den nächsten Jahren für Nutzer:innen wichtig?
Anne Scherer: Aktuell wird vor allem an agentischer KI gearbeitet, also KI Assistenten mit besseren Reasoning-Modellen, die mehrstufig planen, Tools nutzen und Aufgaben wirklich zu Ende bringen (recherchieren, vergleichen, buchen, nachfassen).
Dazu kommen multimodale Systeme (Text, Bild, Audio, Video) und On-Device/Private AI fürs Smartphone. Daraus ergeben sich schon jetzt für Nutzer:innen spürbare Änderungen, z.B. Online Shopping mit personalisierten Empfehlungen von einem „Trusted AI Advisor“, produktivere Office-Workflows (E-Mail, Meetings, Code) und AI Twins, die „Was-wäre-wenn“-Szenarien für Entscheidungen simulieren.
Nächster Schritt ist Physical/Embodied AI: dieselben agentischen Fähigkeiten wandern in Roboter, Geräte und Fahrzeuge und werden damit im physischen Umfeld greifbar. Man könnte die Reise wie folgt zusammenfassen: von „KI, die Inhalte generiert“ zu „KI, die Aufgaben eigenständig durchdenkt, simuliert, und erledigt“ –erst digital, dann zunehmend auch in der realen Welt.
Wie verarbeitet Meta die Daten von WhatsApp und Instagram in ihren KI-Modellen? Muss ich davon ausgehen, dass sämtliche Inhalte auf Facebook, WhatsApp und Insta für KI-Modelle genutzt werden?
Guido Berger: Seit Frühling hat sich Meta das Recht genommen, öffentliche Posts zum Training ihrer KI-Modelle zu verwenden. Ausser man hat damals Widerspruch eingelegt, was aber kompliziert war. (Link zu einer Kassensturz-Sendung dazu)
Wie kann man sich absichern, dass die KI uns nicht mit falschen oder erfundenen Antworten antworten, und wer garantiert mir, dass die Resultate meiner Arbeit, z.B. Grafik und 3D, mit KI am Schluss nicht zum allgemeinen Gut werden?
Guido Berger: Indem man ihr nicht blind vertraut und bei wichtigen Dingen überprüft. Ausserdem muss man lernen, wofür z.B. Chatbots wirklich geeignet sind, was sie gut oder nicht so gut können. Dass sie z.B. Nachrichten sehr oft falsch wiedergeben oder komplexe Texte nicht gut zusammenfassen, wird immer wieder gezeigt – und daraus muss man lernen, dass das vielleicht eine falsche Anwendung ist. Die zweite Frage wird vor verschiedenen Gerichten verhandelt – es ist also noch unklar, was KI zum Training verwenden darf. Aktuell sieht es so aus, dass alle Grossen nach dem Prinzip handelten «wir saugen jetzt alles auf und kümmern uns dann später darum, ob wir das durften». Vielleicht gibt es da in Zukunft klarere Regeln.
Ich frage mich, ob wir immer die Kontrolle behalten können. Zum Beispiel, wenn KI übers WWW trainiert wird und sich selbstständig Server etc. sucht und mit ihnen agiert. Auch militärisch oder mit Geldtransfers.
Guido Berger: Wir bauen diese Systeme. Wir entscheiden, wie die designed werden und was sie können. Wir können und müssen versuchen, die Systeme so zu gestalten, dass sie nicht Dinge tun, die wir nicht wollen.
Das ist natürlich nicht einfach, und Fehler werden passieren.
Aber die Vorstellung, dass die Technologie einfach von alleine wächst und Dinge tut, ist zu fatalistisch.
Hat sich der Gesetzgeber schon überlegt, wer im Fall eines Fehlers einer KI haftet? Zum Beispiel bei selbstfahrenden Autos.
Guido Berger: Ja, da ist der Gesetzgeber dran. Dafür gibt es die verschiedenen Stufen des autonomen Fahrens – und jeweils separate Zulassungsverfahren.
Aktuell sind ja fast nur Autos zugelassen im Modus 2, die also nur assistieren, aber immer davon ausgehen, dass die Fahrer jederzeit die Kontrolle übernehmen können.
Damit ist auch die Verantwortlichkeit klar. Es gibt aktuell erst ein Auto in der Schweiz, dass unter gewissen Bedingungen (Autobahn, gutes Wetter etc.) auch autonom fahren darf, bzw. das dem Fahrer mehr Zeit gibt, sich wieder um das Steuer zu kümmern.
Dort ist die Frage der Verantwortlichkeit aber noch offen, weil es noch keine Unfälle gibt – und wird dann im Detail geklärt werden müssen (geschah der Unfall z.B. vor oder nach einer Warnung vom System etc.).
Also kurz: Die Frage ist sehr kompliziert im Detail und noch nicht geklärt, doch viele beschäftigen sich damit (Hersteller, Behörden, Versicherungen etc.).
Wie beweisen Sie, dass wir hier mit Menschen schreiben und nicht mit einem KI-Chatbot? ;)
Nathalie Klauser: Sehr gute Frage. Ich versuche immer in meinen Erklärungen oder Hintergrundinfos einzubringen, die eher in der Deutsch-Schweiz lokal verankert sind und anwendungsorientiert in unserem Kontext funktionieren, das, weil unsere 'Schweizer' Trainingsdaten hier einfach nicht so gut erschlossen scheinen bzw. im lokalen Kontext nicht so hoch angezeigt werden.
Generell: sie können sich nie sicher sein. Dafür müssten sie KI-Jailbreak ausprobieren.
Sie dürfen uns aber gerne auch mal so anschreiben oder auch persönlich treffen ;)
Welche Auswirkungen hat die regelmässige Benutzung von solchen intelligenten Sprachmodellen auf unsere eigene Intelligenz? Werden unsere Gehirnstrukturen nachhaltig beeinflusst/verändert – oder anders gefragt: besteht die Gefahr, dass wir als Mensch eigenes Denken/Problemlösen mit der Zeit verlieren/verlernen?
Anne Scherer: KI «macht unser Gehirn nicht kaputt». Wie frühere Technologien zuvor schon ändert es aber sehr wohl, wie wir arbeiten und Dinge speichern.
So haben Forschende bereits vor Jahren einen «Google Effect on Memory» aufgedeckt, der zeigt: Wir merken uns eher, wo etwas steht, anstatt was genau (transaktives Gedächtnis).
Erste Studien zu KI zeigen Ähnliches: Wir lagern Prozesse aus und merken uns teils weniger eigentliche Inhalte. Menschen nutzen Werkzeuge seit jeher, um Denken zu entlasten und Innovation zu ermöglichen.
Daher heisst es auch bei KI: Wir verlernen Denken nicht automatisch; die eigentliche Gefahr ist Bequemlichkeit. Daher KI als Werkzeug/Partner nutzen, nicht als Autopilot.
Wenn ich mittels Mikrofon eine Frage stelle, kann dann meine Stimme auch für Betrug verwendet werden?
Nathalie Klauser: Wenn sie die Stimmfunktion auf KI-Chatbots eingeschaltet haben und das Einverständnis gegeben haben, dass man ihre Daten zu Trainingszwecken nutzen darf, dann hat die betreffende Firma dies bei sich gespeichert.
Für einen Betrug müsste die Firma unvertrauenswürdig sein, da sie dann Ihre Stimme nicht für Trainings, sondern Betrugszwecken einsetzt. Das wäre dann illegal.
Das Risiko würden grössere KI-Chatbots (ChatGPT, Claude, Mistral, Perplexity etc.) nicht eingehen. Das Risiko ist also dafür dort gering. Jedoch besteht immer die Gefahr, dass diese gehackt werden.
Aber auch dieses Risiko würde ich eher tief einschätzen, weil die Firmen sich den Wert ihrer Daten bewusst sind und somit Sicherheitsmassnahmen hoch sind.
Wenn ein KI-Modell das eigene Denken bildet und darauf reagiert, unterscheidet sie sich dann fundamental von menschlicher Selbstwahrnehmung oder bewegen wir uns in Richtung eines maschinellen Bewusstseins, das wir ethisch völlig neu einordnen müssen? Und wer entscheidet das letztlich: die Technik, die Philosophie oder die Ethik? Wenn eine KI auf Fragen über ihr eigenes Bewusstsein antwortet, glauben wir ihr dann, weil sie uns überzeugt, oder weil wir es glauben ‚wollen‘?
Anne Scherer: Wenn KI-Modelle «über sich selbst» bildet (also ihr eigenes Verhalten beschreibt und darauf reagiert), ist das noch kein Bewusstsein.
Das sind nützliche Selbstbeschreibungen für bessere Vorhersagen ähnlich einem Spiegel, der reflektiert, aber nichts «fühlt».
Menschliche Selbstwahrnehmung umfasst dagegen Erleben (Schmerz, Freude, Ich-Gefühl). Dafür gibt es bei heutigen Systemen keine belastbaren Hinweise; sie können über Bewusstsein reden, ohne eins zu haben.
Ethisch wichtig ist daher: Überzeugende Worte sind kein Beweis. Sprachmodelle sind Meister der Rhetorik; wir anthropomorphisieren leicht. Glauben sollten wir Aussagen über „eigenes Bewusstsein“ nur, wenn unabhängige Kriterien erfüllt sind, z.B. etwa konsistente Tests, reproduzierbare Befunde und klare Abgrenzung von Täuschung/Prompting-Effekten. Wer entscheidet? Nicht «die Technik» allein.
Es ist ein gesellschaftlicher Aushandlungsprozess: empirische Forschung (Informatik/Neuro), philosophische Klärung der Begriffe, ethische Leitlinien und schliesslich Recht/Standards. Kein einzelnes Feld kann das abschliessend bestimmen.
Wie viel Energie/Strom benötigt KI in der Zukunft?
Nathalie Klauser: Über wie viel Strom KI-Systeme tatsächlich nutzen, ist je nach Quelle sehr unterschiedlich – aber es ist klar, dass es durch ihre Verbreitung ein Stromfresser ist.
Aussagen wie von Microsofts Sustainability Officer in 2025 zeigen, dass es sich schwer in der CO2-Bilanz niederschlägt: «In 2020, Microsoft leaders referred to our sustainability goals as a ‘moonshot,’ [...] we have had to acknowledge that the moon has gotten further away. However, the force creating this distance from our goals in the short term is the same one that will help us build a bigger, faster, and more powerful rocket to reach them in the long term: artificial intelligence (AI).»
Wie sich das in Zukunft zeigen wird, ist noch unklar. Es wird an unterschiedlichen Fronten daran gearbeitet, dass KI-Systeme sparsamer werden mit entweder kleineren spezialisieren Aufgabensystemen (DeepL vs. ChatGPT) oder mit neuen Methoden Energiesysteme zu erweitern (Zell- Mytochondrien als Stromgenerierer). Woraus sich natürlich neue Auswirkungen bzw. ethische Fragestellungen ergeben.
Ich bin Lehrperson auf der überobligatorischen Schulstufe und erkenne, dass die Schulen keinen Plan haben, wie man mit KI umgehen soll. Arbeiten und Aufgaben werden mit KI generiert und dann abgegeben. Nachweisen können wir es nicht, aber es ist stets eindeutig. Da die meisten Schulen «Bring your own device» haben, gibt es keine Kontrolle darüber, was die SchülerInnen auf ihren Laptops laufen lassen – und meistens kümmert sie der Datenschutz überhaupt nicht. Was sind ihre Empfehlungen?
Nathalie Klauser: Ich freue mich, dass sie das offen ansprechen und auch das wäre meine Empfehlung: Sprechen sie das mit ihren Kolleg:innen und Vorgesetzten und gehen sie das Thema gemeinsam an! KI gehört nicht nur zu unserer Realität, sondern auch jener unserer Kinder.
KI-Systeme sind für Kinder, wenn sie Zugriff zu Whatsapp und einen Browser haben, offen. Ohne Begleitung auch wirklich problematisch, weil, wie sie sagen, die Reflexion über Datenschutz und verantwortungsvolle Nutzung zu Implikationen für sich und andere wenig gemacht wird.
Wenn möglich, bauen sie das in Übungen in ihren Schulunterricht ein. Thematisieren Sie den Umgang. Viele Schulen legen Leitlinien für den Umgang fest und bauen es auch in Aufgaben aktiv ein.
Wichtig ist, dass die Kinder lernen und üben, worauf sie achten müssen und wo es einen Mehrwert bringt und wo nicht. Kritisches Denken lernen sie in der Schule und das lässt sich mit KI aktiv jedes Mal üben. Ein Verbot von KI-Systemen würde ich dabei nicht empfehlen, sondern mehr auf den bewussten Umgang setzen und Fähigkeiten wie Empathie, Menschlichkeit, Kreativität und Kollaboration fördern.
Ich bin aktuell an meinem Bachelor in Artificial Intelligence and Machine Learning. Das Wissen und Verständnis wird immer grösser, doch eine Frage bleibt. Werden auch in der Informatik immer mehr Jobs wegrationalisiert oder bleibt man spezifisch mit einer Ausbildung in Fachrichtung KI «ahead of the curve»?
Guido Berger: Wann immer Programmierer zum ersten Mal einen Assistenten wie z.B. Claude-Code benutzen, dann schreiben sie nachher panisch «It's over» auf Linkedin.
Das überrascht mich immer ein wenig – denn dass die Sprachmodelle eine strukturierte Sprache wie Programmier-Sprachen recht gut können, ist eigentlich viel weniger überraschend als, dass sie natürliche, menschliche Sprache können.
Programmiersprachen sind ja genau dazu da, mit der Maschine so zu kommunizieren, dass sie genau weiss, was sie tun soll – und all die Zweideutigkeiten und Unklarheiten natürlicher Sprache vermieden werden. Das heisst drum im Umkehrschluss überhaupt nicht, dass es Programmierer nicht mehr braucht. Jemand muss die Assistenten und Agenten einsetzen, jemand muss Systeme designen, jemand muss verstehen, ob das, was der Agent vorschlägt, auch wirklich gut ist.
Das ist eine anspruchsvolle Aufgabe. Ausserdem: Wir bauen stetig komplexere Systeme, die stetig kompliziertere Dinge können. Ich gehe deshalb davon aus, dass es weiterhin gute Informatiker braucht, die zusammen mit KI-Werkzeugen Dinge tun können, von denen man vor zehn Jahren nur träumen konnte.
Wo sehen sie die Chancen, wo die Gefahren von KI, die uns in Zukunft herausfordern werden?
Anne Scherer: KI bietet kurzfristig grosse Chancen: Sie automatisiert Routinearbeit, verbessert Zugang zu Informationen (Übersetzen, Barrierefreiheit), unterstützt Medizin und Wissenschaft und kann Verwaltung sowie Unternehmen effizienter machen.
Gleichzeitig steigen auch Risiken: täuschend echte Desinformation, Verzerrungen in Entscheidungen (Bias), Datenschutz- und Urheberrechtsfragen, neue Abhängigkeiten von wenigen Anbietern, und ein wachsender Energiebedarf.
Für die Arbeitswelt heisst das: Tätigkeiten verschieben sich; ohne Weiterbildung und Mitbestimmung drohen Ungleichheiten. Entscheidend sind daher klare Leitplanken. Wie jede Technologie bringt KI Chancen und Risiken, neu ist allerdings ihr Verstärkungseffekt: Gute Strukturen werden produktiver; schlechte (z.B. Bias im Hiring) skalieren schneller zu grossem Schaden.
Social-Media explodiert gerade am Anteil von KI Content, die Qualität sinkt, Fake News und Scam steigen. Wenn KI durch solche Inhalte trainiert wird, degeneriert sie. Stichwort KI Demenz. Wie sehen Experten das?
Guido Berger: Das ist die Theorie vom «Modell-Kollaps»: Wenn ein Modell Output generiert, und dieser Output wieder verwendet wird, um das Modell zu trainieren, «degeneriert» das Modell und wird stetig schlechteren Output generieren. Weil sich zum Beispiel zufällig gemachte Fehler verstärken und vervielfachen. Es gibt Forschung dazu und Methoden, wie man allenfalls Modellkollaps vermeiden kann, aber es ist noch offen, ob das gelingt. Dennoch: Der Grundsatz bleibt wohl, dass das System immer wieder nicht-maschinellen Input benötigt, um besser zu werden.
Ich mag Perplexity, Gemini & Copilot. Wie kann ich relativ sicher gehen, dass meine Daten nicht fürs Training oder via Marketplaces, wie bei den Browser Cookies, weitergegeben werden? Reicht es jeweils in den Einstellungen die Erlaubnis fürs Training zu entziehen? Oder ist es aus diesem Grund ratsam, anstatt die Gratisversion besser eine bezahlte Version zu benutzen?
Nathalie Klauser: Generell: Wenn sie für ein Produkt nicht zahlen, sind sie das Produkt bzw. ihre Nutzung. Deshalb, wie sie selbst schreiben, da müssen sie Vorsicht walten gegenüber Daten, die ihre oder anderen Personen ihre Privatsphäre beeinträchtigen.
Wenn sie aber eine generische Anfrage ohne sensible Daten eingeben und es sie nicht stört, dass dies fürs Training genutzt wird, dann können sie weiterhin die Gratisversionen nutzen. Wichtig: Auch bei Bezahlversionen müssen sie sicherstellen, dass sie das Häkchen bei 'Daten nicht fürs Training nutzen' setzen.
Wie stelle ich sicher, dass meine Abfragen, Auswertungen von Daten, Research, vertrauliche Firmendaten, etc. in einem KI-Tool nicht für das Training der KI verwendet wird und vor allem privat bleiben?
Guido Berger: Je nach KI-Anwendung ist das etwas, das man in den Einstellungen an- oder ausschalten kann (was für Training verwendet werden darf). Das bedeutet aber auch, dass man dem Hersteller der App vertraut und glaubt, dass die Daten wie versprochen behandelt werden.
Sagt ein Hersteller nichts dazu oder bietet eine entsprechende Einstellungsmöglichkeit nicht, würde ich zur Sicherheit davon ausgehen, dass die Daten zum Training gesammelt und genutzt werden.
Meine Sorge ist, dass KI in der Anwendung dazu führt, dass ihr Output gar nicht mehr kritisch hinterfragt werden wird. Wenn KI-Aussagen z.B. nicht mehr genügend kritisch nachvollzogen werden können, weil sie auf einer zu komplexen Datenbasis gründen. Gibt es Erfahrungen, wie gut KI-Sprachmodelle im Argumentieren und im Dialog sind?
Anne Scherer: Sprachmodelle argumentieren oft sehr überzeugend, teils durch Personalisierung sogar noch überzeugender als Menschen, doch ihre Wahrheitsnähe schwankt; sie können halluzinieren, klingen dabei aber sehr sicher. Das fördert die sogenannte «kognitive Auslagerung»: Wir hinterfragen weniger, wenn Antworten gut klingen.
Gleichzeitig zeigen Studien aber auch: Richtig eingebettet, z.B. als geführter, interaktiver Tutor, kann KI Lernen und Arbeit spürbar verbessern. Entscheidend ist am Ende wie ich KI nutze: KI sollte Partner für Denken, nicht Ersatz für unser Denken sein!
Mein Tipp daher: Arbeiten Sie zuerst selbst und nutzen Sie die KI als Sparringspartner. Vergleichen Sie Antworten (Modell A vs. B) und klären Sie Widersprüche. Erden Sie Fakten mit Quellen und definieren Sie Kriterien für Entscheidungen. Das Mindset sollte also sein: «KI arbeitet mit mir» anstatt «KI macht's für mich»!
Muss ich mir bald einen neuen Job suchen – da KI bald viele Bürojobs ersetzen wird?
Nathalie Klauser: Es kommt definitiv auf die Art ihrer Arbeit darauf an und wie auch KI innerhalb ihres Jobs genutzt wird. Kurzfristig sind die Auswirkungen noch marginal – langfristig wird es aber nach Einschätzung von vielen Expert:innen eine Verschiebung im Arbeitsmarkt geben.
Generell hilft es sich auf die menschlichen Fähigkeiten im Job zu fokussieren und zu vertiefen: Empathie, Menschlichkeit, Agilität und Kollaboration. Die ETH hat diese Woche eine spannende Studie herausgegeben zum Einfluss von KI auf die unterschiedlichen Berufsfelder
Kann KI auf meine gespeicherten Daten auf meinem PC zugreifen / absaugen? Kann KI beim Nutzen, egal welcher Anbieter, Cookies, Malware usw. einschleusen.
Guido Berger: KI-Anwendungen wie ChatGPT, die Sie im Browser oder einer App bedienen, können nur Daten verarbeiten, welche Sie ihnen explizit geben, also z.B. ein Foto, das sie in die App hochladen. Es werden aber auch immer mehr KI-Agenten in bestehenden Apps oder auf der Ebene des Betriebssystems eingebaut, und die erhalten dann je nach Einstellung evtl. auch Zugriff auf Dateien, die schon auf Ihrem PC liegen.
Da kann man keine allgemeine Antwort geben, sondern muss einfach raten, dass man sich bei jeder App, die KI verwendet, schlaumachen muss, was die genau macht und welche Rechte man ihr genau gibt.
Was und wie muss ich als Arbeitnehmer gegenüber meinen Angestellten rund um das Thema KI-Nutzung regeln? Gibt es Vorlagen für eine Vereinbarung?
Nathalie Klauser: Eine sehr wichtige Frage und schön zu hören, dass Sie sich ihrer Verantwortung als Arbeitgeber bewusst sind.
Ein Grossteil der Mitarbeitenden gemäss Studien in der Schweiz schwankend zwischen 65 und 80 Prozent nutzen bereits KI im spezifischen Generative KI am Arbeitsplatz, dies, obwohl das Wissen noch relativ tief zur Technik, Nutzung und Auswirkungen sind.
Deshalb ist es wichtig, den Arbeitnehmenden Orientierung zu geben und sie zu befähigen, die Tools zielgerichtet und verantwortungsvoll einzusetzen.
Dafür empfehle ich Ihnen eine KI-Strategie, das heisst die Rahmenbedingungen zum Einsatz und Nutzung zu regeln mit konkreten Guidelines, Befähigungsprogrammen mit konkreten Use Cases innerhalb ihres Arbeitsalltags, eine Evaluation für den effektiven Mehrwert der Technologie zu hinterfragen und zu verankern innerhalb von Reflexionsräumen. Je nach Branche können sich die Leitlinien anders aussehen. Ich persönlich finde die Guidelines des Kanton Bern ein gutes Vorbild.
Warum besteht so viel Angst vor KI? Schlussendlich bin ich immer noch Mensch, der beurteilen kann, was die KI sagt und stehe mit meinem Urteilungsvermögen über allem
Guido Berger: Ich würde sagen, die Angst hat zwei Aspekte: Einerseits geht es um einen Kontrollverlust, die Befürchtung, dass da Werkzeuge geschaffen werden, die wir nicht durchschauen, und die aber für uns relevante Dinge entscheiden, ohne dass wir uns wehren können. Oder schlicht, dass Jobs wegrationalisiert werden.
Und die andere Angst ist eine des Selbstbildes: Sind wir tatsächlich so clever, wie wir immer dachten, die mit dem grössten Hirn und den besten Fähigkeiten?
Oder bauen wir gerade eine Maschine, die uns ablöst? Ich halte die erste Angst für viel relevanter: Ich habe weniger Angst vor einer KI, die uns alle umbringt, als vor faulen Menschen, die untaugliche KI bedenkenlos einsetzen.
Würden Sie sagen, dass gewisse Chatbots «biased» sind? Ich staune immer wieder, gerade bei Gemini, wie gewisse Infos als «sensibel» gelten und nicht darauf eingegangen wird. Wie beurteilen Sie das?
Anne Scherer: Ja, Sprachmodelle zeigen gewisse Verzerrungen. Sie entstehen aus den Trainingsdaten, in denen manche Perspektiven überwiegen (Studien finden z. B. teils OpenAI/ChatGPT eher links, Meta/LLaMA teils konservativer – abhängig von Test, Sprache und Prompt).
Dazu kommen Sicherheitsregeln, die sensible Themen vorsorglich blocken. Unterschiede zwischen Anbietern sind normal: Modelle werden unterschiedlich „abgesichert“, was zu Überblockieren führen kann, aber Missbrauch reduzieren soll.
Mein Tipp daher: Anfragen neutral formulieren, bei Ablehnungen nach Begründung fragen und Aussagen gegen unabhängige Quellen prüfen!