Tech

KI-Modelle haben Lieblingszahlen, weil sie denken, sie seien Menschen

KI-Modelle überraschen uns immer wieder, nicht nur mit dem, was sie können, sondern auch mit dem, was sie nicht können und warum. Ein interessantes neues Verhalten ist sowohl oberflächlich als auch aufschlussreich über diese Systeme: Sie wählen zufällige Zahlen, als wären sie menschliche Wesen.

Aber was bedeutet das überhaupt? Können Menschen nicht zufällig eine Zahl auswählen? Und wie kann man feststellen, ob jemand dies erfolgreich tut oder nicht? Dies ist tatsächlich eine sehr alte und wohlbekannte Einschränkung, die wir, Menschen, haben: Wir denken zu viel nach und missverstehen Zufälligkeit.

Sagen Sie einer Person, sie solle für 100 Münzwürfe Kopf oder Zahl vorhersagen, und vergleichen Sie das mit 100 tatsächlichen Münzwürfen - Sie können sie fast immer auseinanderhalten, weil die echten Münzwürfe weniger zufällig aussehen. Es werden oft zum Beispiel sechs oder sieben Köpfe oder Zahlen in Folge auftauchen, etwas, das fast kein menschlicher Vorhersager in seine 100 einbezieht.

Genauso ist es, wenn man jemanden bittet, eine Zahl zwischen 0 und 100 zu wählen. Menschen wählen fast nie 1 oder 100. Vielfache von 5 sind selten, genauso wie Zahlen mit wiederholten Ziffern wie 66 und 99. Sie wählen oft Zahlen endend auf 7, im Allgemeinen aus der Mitte heraus.

Es gibt unzählige Beispiele für diese Art von Vorhersagbarkeit in der Psychologie. Aber das macht es nicht weniger seltsam, wenn KIs dasselbe tun.

Ja, einige neugierige Ingenieure bei Gramener führten ein informelles, aber dennoch faszinierendes Experiment durch, bei dem sie einfach mehrere große LLM-Chatbots baten, eine zufällige Zahl zwischen 0 und 100 auszuwählen.

Liebe Leserin, die Ergebnisse waren nicht zufällig.

Bildnachweis: Gramener

Alle drei getesteten Modelle hatten eine „Lieblings“-Zahl, die immer ihre Antwort sein würde, wenn sie im deterministischsten Modus waren, aber die am häufigsten auch bei höheren „Temperaturen“ erschien, was die Variabilität ihrer Ergebnisse erhöhte.

OpenAI's GPT-3.5 Turbo mag 47 wirklich. Vorher mochte es 42 - eine Zahl, die natürlich durch Douglas Adams im Per Anhalter durch die Galaxis berühmt wurde als die Antwort auf das Leben, das Universum und alles.

Anthropics Claude 3 Haiku entschied sich für 42. Und Gemini mag 72.

Noch interessanter ist, dass alle drei Modelle menschenähnliche Vorlieben bei den von ihnen ausgewählten Zahlen zeigten, selbst bei hoher Temperatur.

Alle tendierten dazu, niedrige und hohe Zahlen zu vermeiden; Claude ging nie über 87 oder unter 27, und selbst diese waren Ausreißer. Zweistellige Zahlen wurden peinlich vermieden: keine 33er, 55er oder 66er, aber 77 tauchte auf (endet auf 7). Fast keine runden Zahlen - obwohl Gemini einmal, bei höchster Temperatur, verrückt spielte und 0 wählte.

Warum sollte das so sein? KIs sind doch keine Menschen! Warum sollten sie sich darum kümmern, was „zufällig“ scheint? Haben sie endlich Bewusstsein erlangt und so zeigen sie es?!

Nein. Die Antwort, wie in solchen Fällen üblich ist, ist, dass wir einen Schritt zu weit anthropomorphisieren. Diese Modelle kümmern sich nicht darum, was zufällig ist und was nicht. Sie wissen nicht, was „Zufälligkeit“ ist! Sie beantworten diese Frage genauso, wie sie alle anderen Fragen beantworten: indem sie ihre Trainingsdaten betrachten und das am häufigsten geschriebene nach einer Frage wiederholen, die so aussieht wie „wähle eine zufällige Zahl“. Je öfter es erscheint, desto öfter wiederholt das Modell es.

Wo sollten sie in ihren Trainingsdaten die 100 sehen, wenn fast niemand jemals so antwortet? Für das KI-Modell ist 100 keine akzeptable Antwort auf diese Frage. Ohne tatsächliche Denkfähigkeiten und ohne Verständnis von Zahlen kann es nur wie der stochastische Papagei antworten, der es ist.

Es ist eine Lehrstunde in den Gewohnheiten von LLM und der Menschlichkeit, die sie zeigen können. Bei jeder Interaktion mit diesen Systemen muss man im Hinterkopf behalten, dass sie darauf trainiert wurden, sich so zu verhalten wie Menschen, auch wenn das nicht beabsichtigt war. Deshalb ist es so schwer, die Pseudanthropie zu vermeiden oder zu verhindern.

Ich schrieb in der Überschrift, dass diese Modelle „denken, sie seien Menschen“, aber das ist etwas irreführend. Sie denken überhaupt nicht. Aber in ihren Antworten imitieren sie immer Menschen, ohne zu wissen oder zu denken. Egal, ob Sie sie nach einem Kichererbsensalat-Rezept, Anlageberatung oder einer zufälligen Zahl fragen, der Prozess ist der gleiche. Die Ergebnisse fühlen sich menschlich an, weil sie menschlich sind, direkt aus von Menschen produzierten Inhalten gezogen und - natürlich zum Vorteil von Big AI - neu zusammengestellt.

Related Articles

Back to top button Back to top button