Auch dumme Bots lösen Probleme (oder helfen uns zumindest dabei)

Eine Studie zweier Sozialwissenschaftler hat gezeigt: Menschen lösen gewisse Probleme besser, wenn Bots dazwischenfunken, die ihnen intellektuell nicht so ganz das Wasser reichen können. Mehr dazu: In meinem aktuellen Blogbeitrag „Neuer Effizienztrick fürs Gesundheitswesen: Künstliche Dummheit“ bei E-HEALTH-COM.

Sind dumme Roboter die besseren Kollegen?

Künstliche Intelligenz – ein schon oft gebrochenes Versprechen. Aber ist das das einzige lohnenwerte Ziel: Maschinen so klug wie möglich zu machen? Also ihnen möglichst große Wissensdatenbanken und möglichst raffinierte Machine-Learning-Algorithmen mitzugeben? Eine in Nature veröffentlichte Studie der Sozialwissenschaftler Nicholas Christakis und Hirokazu Shirado (Universität Yale) zeigte nämlich, dass Menschen bei der Problemlösung auch von dummen Bots profitieren können. Das berichtete kürzlich das Onlinemagazin TheVerge.

Christakis und Shirado gaben in dieser Studie insgesamt 4000 menschlichen Spielern (übrigens rekrutiert über Amazons Crowdworking-Plattform Mechanical Turk) in Gruppen von jeweils 20 die Aufgabe, in einem Netzwerk aus farbigen Punkten jeweils dafür zu sorgen, dass jeder Punkt eine andere Farbe hat als seine Nachbarn. Dabei konnte jeder Spieler nur seinen eigenen Punkt sehen und dessen direkte Nachbarn, nicht das Netzwerk als großes Ganzes. (Jegliche Ähnlichkeiten zu traditionellen Arbeitsweisen innerhalb des deutschen Gesundheitswesens sind rein zufällig und von den US-amerikanischen Autoren der Studie sicher nicht beabsichtigt.) Die Spieler konnten jedoch nur gewinnen, wenn das Team die ganzheitliche Aufgabe lösen konnte – wenn nach Ablauf von fünf Minuten zwei gleichfarbige Punkte nebeneinander stehenblieben, verloren alle Spieler im Team.

Unbemerkt von den menschlichen Spielern wurden nun einige von ihnen durch Bots ersetzt. Diese waren so programmiert, dass sie meistens, wie ihre menschlichen Teamkollegen, die Strategie verfolgten, Farben mit möglichst geringer Konfliktwahrscheinlichkeit zu wählen. Zusätzlich wurde ihnen jedoch einprogrammiert, in einer geringen Anzahl der Fälle die Farbe einfach nach dem Zufallsprinzip zu wählen – also in der Logik des Spiels Fehler zu machen. Es stellte sich heraus, dass die Teams am besten abschnitten, deren zentrale Knoten im Netzwerk von Bots „betreut“ wurden, die eine einprogrammierte Zufallsquote von 10% hatten. Bei einer Zufallsquote von 30% sank der Erfolg wieder.

Wie ist das zu erklären? Wenn nur menschliche Spieler gegeneinander antreten, dann geraten sie leicht in eine Art Patt-Situation – jeder Spieler hat für sich das Problem optimal gelöst, sieht aber nicht, dass seine optimale Lösung im großen Ganzen mit den optimalen Lösungen der Mitspieler kollidiert. Das System steckt, würde man im Machine Learning sagen, in einem lokalen Minimum fest. Im Machine Learning hat man schon vor langer Zeit festgestellt, dass solche Patt-Situationen überwunden werden können, indem man ein bisschen Zufälligkeit einführt – sozusagen am Sieb rüttelt. Die Studie von Christakis und Shirado zeigt, dass auch Systeme aus menschlichen Spielern unter diesem Problem leiden können – und dass die Patt-Situation gelöst wird, indem man Mitspieler einführt, die nicht homogen und vorhersehbar handeln wie alle anderen.

Klar: In kritischen Bereichen der Patientenversorgung brauchen wir Menschen keine Bots, die zufällige Fehler machen, das schaffen wir leider selber. Aber wie steht es mit Bereichen, in denen jeder die für sich optimale Strategie fährt, und am Ende ein suboptimales Ergebnis herauskommt? Es findet sich bestimmt ein freundlicher Bot, der mal für ein Jahr die Zu- und Abschläge für stationäre Behandlungen auswürfelt.