Warum Unternehmen ihren Mitarbeitenden eine sichere KI-Option bieten müssen – am Beispiel der Meta-AI-Datenpanne
Was nach einer überzeichneten Dystopie klingt, ist real: Bei Meta AI sind vertrauliche Chatverläufe öffentlich geworden. Nicht durch Hacker, sondern durch unklare UI-Designs, irreführende Freigabeoptionen und fehlende technische Sicherungen. Es geht um Fragen zu Steuerhinterziehung, medizinischen Diagnosen oder peinliche persönliche Geständnisse – samt Namen, Profilbild und Originaltext.
Ein klarer Fall von „nicht böswillig – aber katastrophal“. Und ein Warnsignal für alle Unternehmen, die ihren Mitarbeitenden keine DSGVO-konforme, kontrollierte Alternative zu öffentlichen KI-Systemen bieten.
Wie intime KI-Chats auf öffentlichen Plattformen landeten
Nutzerinnen und Nutzer von Meta AI entdeckten plötzlich ihre Gespräche im öffentlichen Discover Feed. Der Skandal: Es handelt sich nicht um einen Bug – es ist ein Feature.
Einige Beispiele:
-
Mashable: „Meta AI warnt, dass Ihre Chatbot-Konversationen öffentlich sein könnten.“
-
Malwarebytes: „Ihre Meta AI-Chats könnten öffentlich sein – und es ist kein Fehler.“
-
Digital Watch Observatory: „Pop-up-Warnung wurde erst nach dem Vorfall ergänzt.“
-
PCMag: „Achtung – Ihre Chats könnten versehentlich öffentlich werden.“
-
9to5Mac: „Meta AI ist eine Datenschutzkatastrophe.“
Meta hatte nicht ausreichend klargemacht, dass die Freigabefunktion standardmäßig aktiviert ist oder leicht versehentlich genutzt werden kann.
Dabei waren nicht nur harmlose Fragen betroffen. Nutzer:innen suchten rechtlichen Rat, gaben Geschäftsstrategien preis – alles nun aufrufbar durch Dritte.
Was bedeutet das für Unternehmen?
Wenn Unternehmen keine eigene, gesicherte KI-Instanz wie Notivo anbieten, passiert zwangsläufig Folgendes:
-
Schatten-KI entsteht: Mitarbeitende nutzen Tools wie ChatGPT oder Meta AI – ohne Kontrolle, ohne Datenschutz.
-
Verlust von Wissen und Daten: Vertrauliche Inhalte wandern in Cloud
Quellen:
- 404 Media
- Direkt Zitierte:
- Mashable: „Meta AI warnt, dass Ihre Chatbot-Konversationen öffentlich sein könnten.“
-
Malwarebytes: „Ihre Meta AI-Chats könnten öffentlich sein – und es ist kein Fehler.“
-
Digital Watch Observatory: „Pop-up-Warnung wurde erst nach dem Vorfall ergänzt.“
-
PCMag: „Achtung – Ihre Chats könnten versehentlich öffentlich werden.“
-
9to5Mac: „Meta AI ist eine Datenschutzkatastrophe.“