Gedacht hat es sich wohl schon einmal jeder, der mit ChatGPT, Copilot oder Gemini ein persönliches Gespräch geführt hat: „Die Daten, die ich hier eingebe, werden garantiert abgegriffen.“ Stimmt, sagt eine Studie der Datenschutzfirma Incogni, welche die großen Sprachmodelle und ihren Umgang mit den privaten Daten der Nutzer bewertet. Fazit: Das Potenzial für das unautorisierte Teilen von Daten, deren Missbrauch und das Bloßstellen persönlicher Daten habe so schnell zugenommen, dass der Datenschutz nicht mehr mithalten könne.
Um zu beurteilen, wie stark die Sprachmodelle die Privatsphäre ihrer Nutzer genau verletzen, haben die Macher der Studie ein Punktesystem entwickelt, das berücksichtigt, mit welchen Daten die LLMs trainiert werden, welche sie an Partner weitergeben und wie sie mit den Daten verfahren, die ihre Nutzer eingeben. Danach geht der französische KI-Anbieter Mistral mit Le…