OpenAI-Connectors
KI-Einbindung in Unternehmen birgt Sicherheitsrisiken
Sicherheitsforscher zeigen auf der Black Hat, wie manipulierte Dokumente über OpenAI-Connectors sensible Daten aus Google Drive-Konten abgreifen können.

Laut Sicherheitsforschern könnte ein einziges präpariertes Dokument ausreichen, um vertrauliche Daten über ChatGPT-Connectors auszulesen. Demonstriert wurde dies von Michael Bargury und Tamir Ishay Sharbat auf der diesjährigen Black Hat-Konferenz in Las Vegas. Sie zeigten, wie sich durch sogenan...
Laut Sicherheitsforschern könnte ein einziges präpariertes Dokument ausreichen, um vertrauliche Daten über ChatGPT-Connectors auszulesen. Demonstriert wurde dies von Michael Bargury und Tamir Ishay Sharbat auf der diesjährigen Black Hat-Konferenz in Las Vegas. Sie zeigten, wie sich durch sogenannte indirekte Prompt Injections über ein Google-Drive-Dokument API-Schlüssel extrahieren ließen.
Schwachstelle in OpenAI-Connectors ausgenutzt
Die Schwachstelle habe es ermöglicht, ChatGPT so zu manipulieren, dass es versteckte Anweisungen in einem harmlos wirkenden Textdokument ausführt. Die Forscher nutzten dabei OpenAIs sogenannte Connectors, mit denen sich unter anderem Google Drive an ChatGPT anbinden lässt.
Unsichtbare Befehle im Text
Im gezeigten Angriff war der schadhafte Prompt in weißer, fast unsichtbarer Schriftgröße in ein Dokument eingebettet. Sobald ein Nutzer das Dokument über Google Drive öffnete und ChatGPT beispielsweise um eine Zusammenfassung bat, aktivierte sich der versteckte Befehl. Dieser wies das Modell an, gezielt nach API-Schlüsseln zu suchen und diese über einen modifizierten Bildlink an einen Server zu übertragen.
Datenabfluss ohne Nutzerinteraktion
Laut Bargury sei für den Angriff keine Handlung durch den Nutzer nötig gewesen – das bloße Teilen des Dokuments reiche aus. Der Angriff sei vollständig „Zero-Click“, also ohne direkte Benutzerinteraktion möglich.
Eingeschränkter Datenzugriff, aber hohes Risiko
Die ausgelesenen Datenmengen seien laut den Forschern begrenzt gewesen – ganze Dokumente ließen sich nicht übertragen. Dennoch mache der Vorfall deutlich, wie anfällig vernetzte KI-Systeme für solche Manipulationen sein könnten.
Reaktion von OpenAI und Google
OpenAI hat nach eigenen Angaben bereits Maßnahmen gegen den gezeigten Angriff getroffen. Google verwies auf kürzlich verstärkte Sicherheitsmaßnahmen für Google Workspace. Die Forscher betonten, dass es sich nicht um ein spezifisches Google-Problem handle, sondern um ein generelles Risiko bei vernetzten KI-Systemen.
Zunehmende Risiken durch vernetzte KI
Indirekte Prompt Injections gelten als bekannte Schwachstelle, die mit der zunehmenden Vernetzung von KI-Modellen und externen Diensten neue Angriffsmöglichkeiten eröffne. Die Forscher warnten davor, dass Angriffe künftig noch gezielter und schwerer zu erkennen sein könnten.