Warum Unternehmen ihren Mitarbeitenden eine sichere KI-Option bieten müssen – am Beispiel der Meta-AI-Datenpanne

Was nach einer überzeichneten Dystopie klingt, ist real: Bei Meta AI sind vertrauliche Chatverläufe öffentlich geworden. Nicht durch Hacker, sondern durch unklare UI-Designs, irreführende Freigabeoptionen und fehlende technische Sicherungen. Es geht um Fragen zu Steuerhinterziehung, medizinischen Diagnosen oder peinliche persönliche Geständnisse – samt Namen, Profilbild und Originaltext.

Ein klarer Fall von „nicht böswillig – aber katastrophal“. Und ein Warnsignal für alle Unternehmen, die ihren Mitarbeitenden keine DSGVO-konforme, kontrollierte Alternative zu öffentlichen KI-Systemen bieten.

Wie intime KI-Chats auf öffentlichen Plattformen landeten

Nutzerinnen und Nutzer von Meta AI entdeckten plötzlich ihre Gespräche im öffentlichen Discover Feed. Der Skandal: Es handelt sich nicht um einen Bug – es ist ein Feature.

Einige Beispiele:

  • Mashable: „Meta AI warnt, dass Ihre Chatbot-Konversationen öffentlich sein könnten.“

  • Malwarebytes: „Ihre Meta AI-Chats könnten öffentlich sein – und es ist kein Fehler.“

  • Digital Watch Observatory: „Pop-up-Warnung wurde erst nach dem Vorfall ergänzt.“

  • PCMag: „Achtung – Ihre Chats könnten versehentlich öffentlich werden.“

  • 9to5Mac: „Meta AI ist eine Datenschutzkatastrophe.“

Meta hatte nicht ausreichend klargemacht, dass die Freigabefunktion standardmäßig aktiviert ist oder leicht versehentlich genutzt werden kann.

Dabei waren nicht nur harmlose Fragen betroffen. Nutzer:innen suchten rechtlichen Rat, gaben Geschäftsstrategien preis – alles nun aufrufbar durch Dritte.

Was bedeutet das für Unternehmen?

Wenn Unternehmen keine eigene, gesicherte KI-Instanz wie Notivo anbieten, passiert zwangsläufig Folgendes:

  1. Schatten-KI entsteht: Mitarbeitende nutzen Tools wie ChatGPT oder Meta AI – ohne Kontrolle, ohne Datenschutz.

  2. Verlust von Wissen und Daten: Vertrauliche Inhalte wandern in Cloud

Quellen: