Der Einsatz von ChatGPT durch Samsung-Mitarbeiter führt zu Vertraulichkeitsverletzungen von Daten.

Untitled-design-3 (1).png

Samsungs Halbleiterdivision verließ sich auf ChatGPT, um bei der Fehlerbehebung in ihrem Quellcode zu helfen. Bei der Nutzung des AI-Chatbots jedoch haben sie versehentlich vertrauliche Informationen preisgegeben, wie beispielsweise den Quellcode für ein neues Programm und interne Besprechungsnotizen zu ihrer Hardware. Leider handelte es sich hierbei nicht um einen isolierten Vorfall, da innerhalb eines Monats drei Vorfälle gemeldet wurden.

Um ähnliche Verstöße in Zukunft zu vermeiden, arbeitet Samsung nun daran, ein eigenes KI-Tool zu entwickeln, das ähnlich wie ChatGPT ausschließlich für die Verwendung durch interne Mitarbeiter vorgesehen ist. Dadurch können die Mitarbeiter in der Fertigung schnelle Unterstützung erhalten und gleichzeitig die sensiblen Informationen des Unternehmens schützen. Allerdings wird dieses neue Tool nur Eingabeaufforderungen verarbeiten, die eine Größe von 1024 Bytes oder weniger haben.

Das Problem ist aufgetreten, weil ChatGPT von einem Drittanbieter verwaltet wird, der externe Server verwendet. Daher trat ein Datenleck auf, als Samsung ihren Code, Testsequenzen und interne Besprechungsinhalte in das Programm eingegeben hat. Samsung informierte umgehend ihre Führungskräfte und Mitarbeiter über das Risiko einer gefährdeten vertraulichen Information. Bis zum 11. März erlaubte Samsung ihren Mitarbeitern nicht, den Chatbot zu nutzen.

Samsung ist nicht das einzige Unternehmen, das mit diesem Problem kämpft. Viele Firmen beschränken die Nutzung von ChatGPT, bis sie eine klare Richtlinie für den Einsatz von generativer KI etabliert haben. Obwohl ChatGPT eine Opt-out-Option zur Datensammlung bietet, ist es wichtig zu beachten, dass die Informationen, die dem Service zugeführt werden, immer noch vom Entwickler abgerufen werden können.

Was ist ChatGPT und wie funktioniert es?

ChatGPT ist eine von OpenAI entwickelte KI-Anwendung, die Deep Learning nutzt, um menschenähnlichen Text als Reaktion auf Benutzeranfragen zu erzeugen. Es kann Text in verschiedenen Stilen und für verschiedene Zwecke generieren, einschließlich Verfassen von Texten, Beantworten von Fragen, Erstellen von E-Mails, Führen von Gesprächen, Übersetzen von natürlicher Sprache in Code und Erklären von Code in verschiedenen Programmiersprachen.

ChatGPT funktioniert, indem es das nächste Wort in einem gegebenen Text anhand der Muster vorhersagt, die es während seines Trainingsprozesses aus einer Vielzahl von Daten gelernt hat. Durch Analyse des Kontexts der Eingabeaufforderung und seines bisherigen Lernens erzeugt ChatGPT eine Antwort, die so natürlich und zusammenhängend wie möglich sein soll.

Welche Maßnahmen hat Samsung ergriffen, um zukünftige Lecks zu verhindern?

Nach den Datenlecks, die durch ChatGPT verursacht wurden, hat Samsung mehrere Schritte unternommen, um solche Vorfälle zukünftig zu verhindern. Erstens hat das Unternehmen seine Mitarbeiter angewiesen, beim Austausch von Daten mit ChatGPT Vorsicht walten zu lassen. Sie haben auch eine Beschränkung für die Länge von Fragen eingeführt, die an den Dienst gesendet werden, wobei diese auf 1024 Bytes begrenzt sind.

Darüber hinaus entwickelt Samsung derzeit ein KI-Tool, das ähnlich wie ChatGPT ist, aber exklusiv für den internen Gebrauch durch Mitarbeiter. Dadurch wird gewährleistet, dass Mitarbeiter in der Fabrik prompte Unterstützung erhalten, während gleichzeitig sensible Firmeninformationen geschützt werden. Bis zur Entwicklung dieses Tools hatte Samsung seine Mitarbeiter vor den potenziellen Risiken bei der Verwendung von ChatGPT gewarnt. Sie haben auch betont, dass die in ChatGPT eingegebenen Daten an externe Server übertragen und dort gespeichert werden, wodurch es für das Unternehmen unmöglich ist, die Daten nach der Übergabe zu kontrollieren.

Welche Konsequenzen hatte das für die Mitarbeiter, die vertrauliche Daten weitergegeben haben?

Die Konsequenzen für die Samsung-Mitarbeiter, die vertrauliche Daten an ChatGPT weitergegeben haben, wurden in den verfügbaren Informationen nicht explizit genannt. Samsung Electronics ergreift jedoch Maßnahmen, um weitere Lecks sensibler Informationen durch ChatGPT zu verhindern. Dazu gehört die Festlegung einer Begrenzung von 1024 bytes für die Größe der eingereichten Fragen. Das Unternehmen hat seine Mitarbeiter auch vor den potenziellen Risiken der Nutzung von ChatGPT gewarnt.

Darüber hinaus entwickelt Samsung Semiconductor ein eigenes AI-Tool für interne Mitarbeiter, das auf die Verarbeitung von Anweisungen mit weniger als 1024 Bytes beschränkt ist. Diese Maßnahmen zeigen, dass Samsung den Schutz seiner vertraulichen Informationen ernst nimmt und Maßnahmen zur Minimierung der mit der Verwendung von ChatGPT verbundenen Risiken umsetzt.

Welche Art von vertraulichen Informationen wurde geleakt?

Wie oft haben Mitarbeiter von Samsung vertrauliche Daten an ChatGPT weitergegeben?

Gemäß den Suchergebnissen haben Mitarbeiter von Samsung mindestens drei Mal vertrauliche Unternehmensinformationen an ChatGPT weitergegeben.

Zugehörige Artikel

Mehr anzeigen >>

Nutzen Sie die Kraft der KI mit HIX.AI!