Künstliche Intelligenz
Deepseek in der Kritik: Angeblich geklaute OpenAI-Daten und Keylogging
Das KI-Startup "Deepseek" aus China sorgt in der Branche für Aufruhr. Nun tauchen Mutmaßungen über geklaute Trainingsdaten sowie Datenschutzbedenken auf.

Das chinesische KI-Startup "DeepSeek" hat kürzlich sein R1-Modell vorgestellt, das durch eine kostengünstige Entwicklung und beeindruckende Leistungen Aufmerksamkeit erregte. Das Unternehmen gab an, das Modell mit nur 2.048 Nvidia H800-Grafikkarten und Kosten von 5,6 Millionen Dollar tra...
Das chinesische KI-Startup "DeepSeek" hat kürzlich sein R1-Modell vorgestellt, das durch eine kostengünstige Entwicklung und beeindruckende Leistungen Aufmerksamkeit erregte. Das Unternehmen gab an, das Modell mit nur 2.048 Nvidia H800-Grafikkarten und Kosten von 5,6 Millionen Dollar trainiert zu haben – ein Bruchteil dessen, was Wettbewerber wie OpenAI oder Google investieren müssen. Diese Nachrichten führten zu Turbulenzen an den Börsen; allein der Aktienkurs von Nvidia fiel zeitweise um 17 Prozent.
Die Erfolge von DeepSeek werfen allerdings auch Fragen zur Datensicherheit auf. Das Unternehmen sammelt dem Portal Wired zufolge umfangreiche Nutzerdaten, darunter Eingaben, Audiodateien und sogar Tastaturanschlagsmuster. Diese Informationen werden laut Datenschutzerklärung auf Servern in China gespeichert, wo Cybersicherheitsgesetze den Behörden weitreichenden Zugriff auf Unternehmensdaten ermöglichen.
Experten warnen entsprechend vor den Risiken dieser Datensammlung und raten zur Vorsicht bei der Nutzung solcher KI-Modelle. So solle man "keine persönlichen oder privaten Daten in einen solchen KI-Assistenten eingeben", wie Sicherheitsexperte Lukasz Olejnik vom Londoner King's College gegenüber Wired erklärt.
Auch zwischen den Wettbewerbern im KI-Segment braut ein Sturm auf. Laut eines Bloomberg-Berichts haben Sicherheitsforscher von Microsoft Ende 2024 ungewöhnliche Aktivitäten im Zusammenhang mit Deepseek festgestellt. Entwicklerkonten, die mit der chinesischen KI in Verbindung stehen, sollen über die API von OpenAI - dem Entwickler hinter ChatGPT - große Datenmengen extrahiert haben.
Während die API für die Integration von OpenAIs Modellen in eigene Anwendungen genutzt werden darf, stellt das Extrahieren der Ausgaben einen Verstoß gegen die Nutzungsbedingungen dar. Entsprechend steht der Vorwurf des sogenannten "Modell-Destillierens" im Raum, bei der kleinere Modelle von größeren lernen, um ähnliche Ergebnisse mit weniger Ressourcen zu erzielen. OpenAI hat in einer Stellungnahme betont, dass sie Maßnahmen ergreifen, um ihr geistiges Eigentum zu schützen und den Zugriff auf ihre fortschrittlichen Modelle sorgfältig zu steuern.