7.12.2024
Der Fall David Mayer ChatGPTs rätselhafte Namensblockade

Das Mysterium um David Mayer: Warum ChatGPT den Namen verweigerte

Ende 2024 sorgte ein ungewöhnliches Verhalten des KI-Chatbots ChatGPT für Verwirrung und Spekulationen im Internet: Die Eingabe des Namens „David Mayer“ mit Leerzeichen zwischen Vor- und Nachname führte zu Fehlermeldungen oder sogar zum Abbruch der Kommunikation. Clemens J. Setz berichtete in der Frankfurter Allgemeinen Sonntagszeitung (F.A.S.) vom 07.12.2024 über dieses Phänomen. Während die zusammengeschriebene Variante „DavidMayer“ problemlos funktionierte, scheiterte ChatGPT an der gängigen Schreibweise mit Leerzeichen.

Die F.A.S. schildert die darauffolgende Suche des Internets nach der Ursache. Die Spekulationen reichten von einem vermeintlichen Terroristen mit dem Pseudonym „David Mayer“ bis hin zu Verschwörungstheorien um den britischen Unternehmer und Umweltaktivisten David Mayer de Rothschild. Setz erläutert in der F.A.S., dass ChatGPT zwar Informationen über andere Mitglieder der Rothschild-Familie oder über David M. de Rothschild liefern konnte, jedoch bei der expliziten Nennung des zweiten Vornamens „Mayer“ versagte.

Auch heise online griff das Thema am 02.12.2024 auf. Eva-Maria Weiß beschreibt in ihrem Artikel, wie ChatGPT die Frage nach David Mayer nicht beantworten und den Namen nicht ausgeben konnte. Als mögliche Gründe wurden ein Rechtsstreit mit OpenAI, die Datenschutzgrundverordnung (DSGVO) oder Fehler im Trainingsprozess der KI diskutiert. Weiß erwähnt zudem weitere Namen, die ähnliche Probleme verursachten, darunter einen italienischen Anwalt, der sein „Recht auf Vergessen“ geltend gemacht hatte.

InvestmentWeek berichtete ebenfalls am 02.12.2024 über die Weigerung von ChatGPT, den Namen „David Mayer“ zu schreiben, und die damit einhergehenden Spekulationen. Es wurde die Möglichkeit eines DSGVO-Antrags von David Mayer de Rothschild erwogen, ebenso wie die Theorie eines Namensvetters, der fälschlicherweise auf einer Blacklist gelandet sein könnte. Der Artikel unterstreicht die Ungewissheit darüber, wie KI-Modelle mit solchen Anfragen umgehen und welche Mechanismen zu solchen Fehlern führen.

Blick.ch berichtete am 01.12.2024 über das „Rätsel-Verhalten“ von ChatGPT und beschrieb, wie die KI den Namen „David Mayer“ nicht schreiben konnte und bei wiederholten Versuchen sogar vor einem Regelverstoß warnte. Die Spekulationen um David Mayer de Rothschild und die Rothschild-Familie wurden thematisiert, ebenso wie die Möglichkeit eines Künstlers mit Urheberrechtsproblemen oder die Geschichte des US-Veteranen David Mayer. Der Artikel zitiert eine unklare Antwort von ChatGPT, die auf „sensible Entitäten“ und Schutzmaßnahmen hinweist.

Medialist.info veröffentlichte am 02.12.2024 einen Artikel über die Schwierigkeiten von ChatGPT mit dem Namen „David Mayer“ und die damit verbundenen Fragen. Der Artikel erwähnt die verschiedenen Erklärungsansätze, von rechtlichen Problemen bis hin zu Programmierfehlern, und hebt die Faszination und die Herausforderungen der Entwicklung künstlicher Intelligenz hervor.

Unilad Tech berichtete am 03.12.2024 über den Vorfall und nannte neben David Mayer weitere Namen, die ChatGPT nicht verarbeiten konnte. Der Artikel thematisiert die Spekulationen über Datenschutzanfragen und erzählt die Geschichte von Brian Hood, einem australischen Bürgermeister, der ChatGPT wegen falscher Behauptungen verklagt hatte.

Nau.ch berichtete am 01.12.2024 über das Phänomen und beschrieb die verschiedenen Theorien, die im Internet kursierten, von Urheberrechtsproblemen bis hin zu Verschwörungstheorien rund um die Rothschild-Familie. Der Artikel erwähnt auch die Geschichte des US-Veteranen David Mayer und die vage Antwort von ChatGPT, die auf „sensible Inhalte“ verweist.

Die New York Times veröffentlichte am 06.12.2024 einen Artikel über die Geschichte von David Mayer, einem Theaterprofessor, dessen Name mit dem eines tschetschenischen Rebellen verwechselt wurde. Der Artikel beschreibt die Probleme, die Mr. Mayer dadurch im Laufe seines Lebens entstanden, und stellt eine Verbindung zu dem ChatGPT-Vorfall her. Die Autorin thematisiert die Fragen nach Datenschutz und den Grenzen von KI-Systemen.

Quellen:

Weitere
Artikel