Das Team für künstliche Intelligenz von Microsoft hat versehentlich 38 TB an Informationen durchsickern lassen

Das Training produktiver KI-Modelle erfordert die Abstimmung und Zusammenarbeit vieler Entwickler. Diese Zusammenarbeit macht auch zusätzliche Sicherheitskontrollen notwendig. scheinbar Microsoft weist an dieser Stelle einige Schwächen auf. Denn die Gruppe für künstliche Intelligenz des Unternehmens Eine Mengehat vertrauliche Informationen durchsickern lassen.

38 TB-Fehler

Microsoft, 20. Juli 2020 bis 24. Juni 2023in der Mitte der Termine GitHub Durch ein öffentliches Repository in wurde der Öffentlichkeit ein riesiger Datenschatz zugänglich gemacht. Cloud-Sicherheitsunternehmen Zaubererentdeckte das Problem und meldete es am 22. Juni 2023 an Microsoft, worauf das Unternehmen zwei Tage später reagierte. schloss die Lücke.Wiz-Forscher, azurblauDie Shared Access Signature (SAS)-Funktion der Plattform wurde von Microsoft-Mitarbeitern missbraucht und 38 TerabyteEr sagt, dass aus diesem Grund private Informationen preisgegeben wurden.

Laut Wiz enthüllte Microsoft außerdem Festplatten-Backups der Workstations zweier Mitarbeiter sowie Trainingsdaten für Modelle der künstlichen Intelligenz. In den Reserven“ Geheimnisse„, private kryptografische Schlüssel, Passwörterund mehr als 30.000 Fälle mit Beteiligung von 359 Microsoft-Mitarbeitern. interne Microsoft Teams-Nachricht Es wurde lokalisiert. Bis Microsoft Vorkehrungen traf, konnte jeder, der wollte, auf insgesamt 38 TB private Dokumente zugreifen.

Laut Wiz verdeutlicht der Multi-Terabyte-Vorfall von Microsoft die Risiken, die mit dem Training von KI-Modellen verbunden sind. Die Forscher betonen, dass diese neue Technologie „große Datensätze zum Trainieren“ erfordert und dass viele Entwicklungsgruppen „große Datenmengen“ verarbeiten. Wiz gibt außerdem an, dass Entwicklungsgruppen Informationen mit ihren Kollegen austauschen.

Ähnliche Beiträge

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert