July 27, 2024

Derart private Informationen sollte ChatGPT nicht liefern – im API-Modus tat die Text-KI es dennoch: Sie zeigte Mailressen von «New York Times»-Reportern an.chatgpt private informationen

Das Wichtigste in Kürze

  • Die KI ChatGPT sollte keine privaten Informationen zu Personen anzeigen können.
  • In einem Entwicklermodus liessen sich jedoch Mailressen abrufen.
  • Erst einmal im Modell gespeicherte Informationen lassen sich nur schwer wieder löschen.

Mittels der KI «ChatGPT-3.5-Turbo» erhielt ein Forschungsteam der Indiana University Bloomington Zugriff auf die Mailressen von Reportern der «New York Times». Zwar waren diese Mailressen nicht geheim – doch deren Herausgabe widerspricht gegen die selbstauferlegten Regeln der KI-Entwickler. Diesen nach sollen durch das Programm weder Mailressen, noch andere private Information offengelegt werden.

Entwicklermodus gewährte erweiterten Zugriff

Das Forschungsteam nutzte dabei nicht den normalen Anwendermodus, sondern den sogenannten API-Modus. Mit diesem lässt sich die KI als Entwickler nutzen, notwendig dafür sind ein API-Key und ein Abonnement bei OpenAI. Im Gegensatz zum normalen Modus, lieferte die Suchanfrage des Teams hier Ergebnisse.

Wie «Golem» berichtet, waren von den angezeigten Mailressen rund 80 Prozent korrekt. Unter den anderen fanden sich falsche Buchstaben oder schlichtweg unbrauchbare ressen.

Datensätze können nicht aus KI-Modell gelöscht werden

Das IT-Magazin thematisiert die damit verbundenen Probleme, welche durch grosse Datensammlungen entstehen können. So seien Informationen innerhalb eines etablierten KI-Modells kaum löschbar, wenn diese von Unternehmen und Regierungseinrichtungen gespeichert werden. Würde nun ein Gerichtsbeschluss die Löschung einzelner Datensätze fordern, müsste das jeweilige Institut sein gesamtes KI-Modell löschen. Anschliessend müsste es ein neues Modell mit bereinigten Datensätzen neu «antrainieren», was enormen (finanziellen) Aufwand bedeutet.

Künstliche Intelligenz lernt aus Informationen

Auch sei nicht vorab klar, welche Details eine KI aus dem ihr zur Verfügung stehenden Datensatz lernt. Dies würde sich erst bei Leaks oder ungewollten automatischen Antworten zeigen. Selbst bei einem zuverlässigen Herausfiltern der sensiblen Informationen, würden sich diese dann noch im Datensatz befinden.