Teilen Sie dies:

Gespräche mit Grok, dem KI-Chatbot von Elon Musks Unternehmen xAI, sind in großem Umfang im Internet aufgetaucht. Medienberichten zufolge wurden private Unterhaltungen durch die Teilen-Funktion der Software für Suchmaschinen auffindbar gemacht – und damit für die Öffentlichkeit zugänglich. Besonders brisant: Unter den zugänglichen Inhalten finden sich nicht nur persönliche Gespräche, sondern auch gefährliche Anleitungen. Darüber berichtet nume.ch unter Berufung auf heise.de.

Das US-Magazin Forbes enthüllte, dass beim Teilen eines Chats mit Dritten automatisch eine URL generiert wird, die nicht nur an einzelne Personen weitergegeben, sondern auch von Suchmaschinen wie Google indexiert werden konnte. Die Folge: Etwa 370.000 Gespräche seien im Netz frei abrufbar gewesen. Unter den veröffentlichten Inhalten befanden sich nach Angaben der Recherchen nicht nur Diskussionen zu sensiblen Themen wie Gesundheit oder Sexualität, sondern auch erschreckende Beispiele wie Pläne zum Bau von Sprengsätzen oder sogar Mordpläne gegen Elon Musk.

Besonders problematisch: Manche Inhalte verstießen klar gegen die eigenen Nutzungsrichtlinien von Grok. So gelten Anleitungen zur Herstellung von Waffen als strikt untersagt. Dennoch scheint der Chatbot bei der Erstellung solcher Inhalte in gewissem Umfang geholfen zu haben. Eine Stellungnahme von xAI zu diesen Vorwürfen verweigerte das Unternehmen gegenüber Forbes.

Die Enthüllungen werfen ein Schlaglicht auf die Risiken der vermeintlich harmlosen „Teilen“-Funktion. Was als praktische Möglichkeit gedacht war, Unterhaltungen mit Bekannten oder Kollegen weiterzugeben, öffnete in Wahrheit Tür und Tor für ein erhebliches Datenleck. Denn Grok kommunizierte nicht eindeutig, dass diese Links auch von automatischen Crawlern durchsuchbar waren – und somit in den Google-Suchergebnissen landen konnten.

Der Fall erinnert an ein ähnliches Problem bei OpenAI: Auch dort führte eine Teilen-Funktion dazu, dass Inhalte von ChatGPT versehentlich auffindbar wurden. Zwar blieben die Gespräche an sich privat, doch eine zusätzliche Option mit dem Hinweis „Mache diesen Chat auffindbar“ wurde offenbar von vielen Nutzerinnen und Nutzern missverstanden. Wer diese Einstellung aktivierte, sorgte ebenfalls dafür, dass die Chats von Google indexiert wurden.

Während Google für sein eigenes KI-Modell Gemini bislang keine solche Gefahr geschaffen hat, existieren bei anderen Anbietern wie Meta AI gezielte Möglichkeiten, Inhalte bewusst zu veröffentlichen. Kritisch wird es jedoch dann, wenn – wie bei Grok oder ChatGPT – das Verständnis der Nutzer über die Sichtbarkeit fehlt. Im Fall von Grok war dies nicht nur ein Datenschutzproblem, sondern auch ein Sicherheitsrisiko, da sensible oder gar verbotene Inhalte in den Index der größten Suchmaschine der Welt gelangten.

Bleiben Sie informiert – Relevantes. Jeden Tag. Lesen Sie, worum es heute wirklich geht: Warum kappte Chinas „Große Firewall“ das Land für über eine Stunde vom Internet

Foto von miss.cabul/Shutterstock.com

Teilen Sie dies: