Geben Sie Ihre Unternehmensinformationen nicht an künstliche Intelligenz weiter

KI-Tools können uns helfen, Ideen zu entwickeln, Textpassagen zusammenzufassen oder zu paraphrasieren oder sogar eine Grundlage für eine Geschäftsstrategie zu schaffen. Beim Einsatz künstlicher Intelligenz dürfen wir jedoch nicht vergessen, dass die Informationen, die wir in die Tools eingeben, nicht mehr uns gehören, sobald wir den Senden-Button drücken.

Eines der Hauptprobleme bei der Verwendung großer Sprachmodelle (LLMs) wie ChatGPT ist der Austausch sensibler Daten mit großen internationalen Unternehmen. Bei diesen Modellen handelt es sich um Online-Texte, die es ihnen ermöglichen, Benutzeranfragen effektiv zu interpretieren und zu beantworten. Allerdings kann es sein, dass wir jedes Mal, wenn wir mit einem Chatbot interagieren und um Informationen oder Unterstützung bitten, unbeabsichtigt Informationen über uns selbst oder unser Unternehmen weitergeben. Wenn wir eine Eingabeaufforderung für einen Chatbot schreiben, werden die eingegebenen Informationen öffentlich. Das bedeutet nicht, dass Chatbots diese Informationen schnell in erster Linie nutzen, um anderen Nutzern zu antworten. Der LLM-Anbieter oder seine Partner können jedoch auf diese Abfragen zugreifen und sie in zukünftige Versionen der Technologie integrieren.

OpenAI, die Organisation hinter ChatGPT, hat die Option eingeführt, den Chat-Verlauf zu deaktivieren, um zu verhindern, dass Benutzerinformationen zum Trainieren und Verbessern der KI-Modelle von OpenAI verwendet werden. Auf diese Weise haben Benutzer mehr Kontrolle über ihre Informationen. Wenn Mitarbeiter Tools wie ChatGPT nutzen möchten, sollte das Deaktivieren des Chatverlaufs ihr erster Schritt sein. Auch wenn der Chatverlauf deaktiviert ist, werden alle Eingabeaufforderungsinformationen weiterhin auf den Chatbot-Servern gespeichert. Das Speichern aller Anfragen auf externen Servern birgt die potenzielle Gefahr eines unbefugten Zugriffs durch Hacker. Darüber hinaus können technische Fehler gelegentlich dazu führen, dass Unbefugte auf Informationen über andere Chatbot-Benutzer zugreifen.

Verwendung von Kundendaten als Input Der erste häufige Fehler, den Mitarbeiter bei der Nutzung von LLMs machen, besteht darin, vertrauliche Informationen über die Kunden ihres Unternehmens weiterzugeben. Mitarbeiter müssen wissen, wie sie ihre Anfragen dauerhaft anonymisieren können, bevor sie sie in Chatbots eingeben. Um die Vertraulichkeit der Kunden zu wahren, müssen sie vertrauliche Informationen wie Name, Adresse oder Kontonummer überprüfen und sorgfältig extrahieren. Die beste Vorgehensweise besteht darin, die Verwendung personenbezogener Daten von vornherein zu vermeiden und sich auf allgemeine Fragen oder Anfragen zu verlassen.

Hochladen vertraulicher Dokumente auf Chatbots Chatbots können teure Werkzeuge sein, um große Datenmengen schnell zusammenzufassen und Entwürfe, Präsentationen oder Berichte zu erstellen. Das Hochladen von Dokumenten in Tools wie ChatGPT kann jedoch eine Gefährdung der in diesen Dokumenten gespeicherten Unternehmens- oder Kundeninformationen bedeuten. Auch wenn es verlockend sein mag, einfach Dokumente zu kopieren und das Tool zu bitten, Zusammenfassungen oder Zitate für Präsentationsfolien zu erstellen, ist dies keine sichere Methode zur Datenverarbeitung. Dies gilt sowohl für wertvolle Dokumente wie Entwicklungsstrategien als auch für weniger wertvolle Dokumente wie Besprechungsprotokolle, die dazu führen können, dass Mitarbeiter das teure Know-how ihres Unternehmens preisgeben. Mitarbeiter müssen Dokumente manuell überprüfen, bevor sie eine Zusammenfassung oder Unterstützung vom Chatbot anfordern.

Offenlegung von Unternehmensinformationen auf ChatGPT Stellen Sie sich vor, Sie versuchen, einige Anwendungen und Arbeitsabläufe Ihres Unternehmens zu verbessern. Sie benötigen Hilfe von ChatGPT bezüglich Zeitmanagement oder Missionsstruktur. Sie geben wertvolles Wissen und andere Informationen in die Eingabeaufforderung ein, um dem Chatbot bei der Entwicklung einer Analyse zu helfen. Genau wie die Eingabe vertraulicher Dokumente oder Kundendaten in Chatbots ist die Einbeziehung vertraulicher Unternehmensinformationen in eine Informationsanfrage eine gängige, aber potenziell schädliche Praxis, die zu unbefugtem Zugriff oder der Offenlegung vertraulicher Informationen führen kann.

Ähnliche Beiträge

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert