Fünf KI-Pannen, die Unternehmen peinlich berührt zurückließen

DAS WICHTIGSTE IM ÜBERBLICK

In den Anfängen der künstlichen Intelligenz können Misserfolge und Pannen peinlich, katastrophal und manchmal sogar lustig sein. Sie können auch ein Unternehmen mit einem hochroten Gesicht zurücklassen – und sogar zu einem Einbruch der Bewertung führen.

Künstliche Intelligenz (KI) ist im Begriff, unsere Welt für immer zu verändern und stellt eine der größten technologischen Revolutionen dieses Jahrhunderts dar.

Doch wie bei jeder anderen Erfindung, die von Menschen gemacht wird, können auch hier Fehler, Pannen und ungeplante Unfälle passieren.

Während es sich bei einigen davon nur um kleinere Probleme handelt, die ein Projekt für eine Weile zum Scheitern oder es in den frühen Entwicklungsphasen zum Stillstand bringen können, haben andere weitaus schlimmere Folgen.

Ein missglückter KI-Einsatz kann eine bekannte Marke mit einem roten Gesicht zurücklassen und ihrem Ruf schaden – auch wenn dies manchmal auf recht komische Weise geschieht.

Sehen wir uns ein paar dieser peinlichen, katastrophalen und manchmal auch lustigen KI-Pannen der letzten Jahre an:

Durch den KI-Assistenten zum Schweigen gebracht

Vor ein paar Jahren, im Jahr 2018, waren KI-Assistenten eine ziemliche Neuheit, die einen sehr profitablen neuen Markt geschaffen hat.

Es überrascht nicht, dass viele Akteure auf den Zug aufsprangen, und LG war einer von ihnen. Sie versuchten, Cloi auf den Markt zu bringen, einen kleinen sprechenden Roboter, der ein intelligentes Haus steuern sollte, indem er mit ihm sprach.

Bei ihrem Debüt in der Öffentlichkeit mochte Cloi den Besitzer jedoch offenbar nicht und demütigte damit den US-Marketingchef von LG, David VanderWaal.

Nach einer Weile begann die winzige und niedliche KI, Befehle wiederholt zu ignorieren und einen verlegenen und frustrierten VanderWaal zum Schweigen zu bringen (mit freundlicher Genehmigung von Youtube).

Vielleicht wollte Cloi damit signalisieren, dass es an der Zeit war, eine Beziehungspause einzulegen.

Der (gar nicht so) winzige Unterschied zwischen “Glatze” und “Ball”

Im Oktober 2020, als die Covid-19-Pandemie oft bedeutete, dass man auf menschliches Personal verzichten musste, nutzte ein schottischer Fußballverein eine automatische Kamera, um ein Spiel aufzuzeichnen.

Die automatische Kamera funktionierte eine Zeit lang gut und zeichnete das Spiel zwischen Inverness Caledonian Thistle und Ayr United im Caledonian Stadium ohne Probleme auf.

Als das Spiel jedoch in vollem Gange war, verwechselte die Kamera den glänzenden, kahlen Kopf eines Linienrichters mit dem Ball selbst.

In einer äußerst komischen Situation wurde den Zuschauern das eigentliche Spielgeschehen vorenthalten, indem der Kopf des armen Mannes in den Mittelpunkt gestellt wurde.

Wir alle freuen uns auf eine Zukunft, in der die Fußballvereine das Tragen von Hüten und Perücken für alle Linienrichter und Spieler vorschreiben werden.

Wenn die Gesichtserkennung Sie nicht erkennt – so überhaupt gar nicht

Unseren jüngsten Untersuchungen zufolge scheint die Gesichtserkennung alles andere als eine zuverlässige Technologie zu sein, und ihre Fehler können verheerende Folgen für das Leben der Menschen haben – bis hin zu Gefängnisstrafen.

Manchmal sind diese Missgeschicke jedoch besonders peinlich für die Entwickler dieser Tools, vor allem, wenn KI-Missverständnisse zu unvorhersehbaren Fehlern führen.

Ein solcher Fall betraf die chinesische Regierung selbst. In vielen Städten wird eine Methode angewandt, um Menschen vom unerlaubten Überqueren von Straßen abzuhalten, indem die Fußgänger öffentlich beschämt werden.

Ihre Gesichter werden von Straßenkameras erfasst und dann auf großen Bildschirmen gezeigt, zusammen mit den rechtlichen Konsequenzen.

Im Jahr 2018 erfasste eine solche Kamera das Gesicht von Dong Mingzhu, einer Milliardärin, die Chinas größtem Hersteller von Klimaanlagen vorsteht und auf einer Werbetafel für einen Bus in der Nähe abgebildet war. Die Kamera reagierte auf ihr Gesicht und beschämte sie, obwohl sie gar nicht anwesend war.

Unnötig zu sagen, dass die chinesische Regierung am meisten beschämt wurde, aber um die Dinge fair und ausgewogen zu halten, waren sie nicht die einzigen, die ihre eigene Dosis von … auf Gesichtserkennung basierender Peinlichkeit erleben mussten (Wortspiel beabsichtigt).

Im selben Jahr hat die Rekognition-Überwachungstechnologie von Amazon die Fahndungsfotos von Kriminellen, die wegen eines Verbrechens verhaftet wurden, fälschlicherweise den Gesichtern von 28 Kongressmitgliedern zugeordnet.

Vielleicht hat die KI die Behauptung, dass alle Politiker Kriminelle sind, ein bisschen zu wörtlich genommen…

Warum KI niemals den Rat Ihres Arztes ersetzen sollte

Eine weitere Regierung, die durch eine fehlerhafte KI geschädigt wurde, war die britische Regierung im Jahr 2020.

Als die Coronavirus-Pandemie in vollem Gange war, starteten die britischen Gesundheitsbehörden CIBot, einen KI-gesteuerten virtuellen Assistenten, der die Menschen mit nützlichen Informationen über das COVID-19-Virus versorgen sollte.

Die Idee war, die Öffentlichkeit mit wichtigen Ratschlägen zu versorgen, aber das Tool beschränkte sich nicht nur auf die Auswertung offizieller Quellen und ging ein wenig zu weit.

Am Ende lieferte der Bot ungenaue Informationen über den Schweregrad und die Übertragungswege des Virus und empfahl Behandlungen, darunter das Inhalieren von Dampf. Wenigstens können wir uns glücklich schätzen, dass er am Ende nicht Bleichmittel als Therapie empfohlen hat.

Wenn generative KI anfängt, sich etwas auszudenken

Viele sagen, dass generative KI wie Kinder sind, die ihre ersten Schritte in die Welt der echten, selbstbewussten Intelligenz machen.

Es gibt einige Fälle wie diesen, in denen diese Behauptung besonders zutreffend klingt. Wenn Kindern eine Frage gestellt wird, über die sie absolut nichts wissen, erfinden sie nicht selten auf der Stelle Dinge, um gut dazustehen oder um ihr sehr begrenztes Wissen über die Welt voll auszuschöpfen.

Vor ein paar Monaten machte Googles KI-Chatbot Bard anscheinend denselben Fehler, sehr zum Leidwesen seiner eigenen Schöpfer. Und das gleich in seiner ersten Demo.

Auf die Frage “Welche neuen Entdeckungen des James-Webb-Weltraumteleskops kann ich meinem 9-jährigen Kind erzählen?” gab der Chatbot eine stichpunktartige Antwort, die u. a. besagte, dass das Teleskop “die allerersten Bilder eines Planeten außerhalb unseres eigenen Sonnensystems aufgenommen hat”.

Einige Astronomen bemerkten treffend, dass das erste Bild eines Exoplaneten fast 20 Jahre früher, im Jahr 2004, aufgenommen wurde.

Dieser “Kinderfehler” wäre nicht weiter schlimm, wenn er nicht dazu geführt hätte, dass die Google-Aktien in nur einem Tag 100 Milliarden Dollar an Börsenwert verloren hätten.

Die Schlussfolgerung

Auch wenn diese KI-Patzer nicht so schrecklich sind wie die Zeiten, in denen die KI aus dem Ruder gelaufen ist, so können sie doch eine Quelle erheblicher Peinlichkeiten für ihre Unternehmen und Entwickler sein.

Dennoch können wir nicht leugnen, wie unterhaltsam es manchmal sein kann, die Absurditäten zu beobachten, die durch unerfahrene oder fehlerhafte generative KI entstehen.

Die Spiele enden hier nicht, zum Beispiel als Google Fotos den Kopf eines Mannes in einen Berg verwandelte oder als es “rohe” Lachse darstellte, die in einem Fluss schwammen.

Als Menschen lernen wir mehr aus Fehlern als aus Erfolgen – wir können nur hoffen, dass diese Fehler der KI helfen, sich noch schneller zu verbessern.

Verwandte Begriffe

Claudio Buttice

Dr. Claudio Butticè, Pharm.D., ist ein ehemaliger Klinik- und Krankenhausapotheker, der für mehrere öffentliche Krankenhäuser in Italien sowie für die humanitäre Nichtregierungsorganisation Emergency arbeitete. Heute ist er ein erfolgreicher Buchautor, der über Themen wie Medizin, Technologie, Armut in der Welt, Menschenrechte und Wissenschaft für Verlage wie SAGE Publishing, Bloomsbury Publishing/ABC-Clio und Mission Bell Media geschrieben hat. Seine neuesten Bücher sind "Universal Health Care" (2019) und "What You Need to Know about Headaches" (2022). Als Datenanalyst und freiberuflicher Journalist wurden viele seiner Artikel in Zeitschriften wie Cracked, The Elephant, Digital Journal, The Ring of Fire und Business Insider veröffentlicht. Dr. Butticè…