Die Schattenseite von ChatGPT: Es kann schädliche Software produzieren!

ChatGPT erschafft weiterhin einige nützliche und unterhaltsame Dinge in echten Händen. Allerdings gibt es auch eine dunkle Seite der KI, die die Zukunft der IT vor große Herausforderungen stellen könnte. Nur wenige IT-Experten haben kürzlich über das gefährliche Potenzial von ChatGPT gesprochen Endpunkterkennung und -reaktion (EDR)fast unmöglich zu fangen polymorphfasste seine Fähigkeit zusammen, Software für schlechte Zwecke zu entwickeln.

Codes können sich ändern und schwerer zu erkennen sein

EDR ist eine Art Cybersicherheitstechnik, mit der Schadsoftware abgefangen werden kann. Experten argumentieren jedoch, dass dieses Protokoll nicht der potenziellen Verschwendung entspricht, die ChatGPT verursachen kann. Hier kommt der Begriff polymorph ins Spiel, denn Codes können sich ändernund es kann viel schwieriger sein, es zu erkennen.

ChatGPTmehrere Sprachlernmodelle (LLM) wurde von seinen Erstellern mit Filtern ausgestattet, um die Erstellung unangemessener Inhalte zu vermeiden. Diese Filter können von bestimmten Aspekten bis hin zu Schadcodes reichen. Es dauerte jedoch nicht lange, bis Benutzer Möglichkeiten fanden, diese Filter zu umgehen. Es ist diese Taktik, die ChatGPT besonders anfällig für Personen macht, die versuchen, verschwenderische Skripte zu erstellen.

IT-Sicherheitsingenieur Jeff Simsin seiner Aussage, „Mithilfe dieser neuen Techniken kann ein Bedrohungsakteur eine Reihe typischerweise gut erkennbarer Verhaltensweisen in einer ungewöhnlichen Kombination kombinieren und der Erkennung entgehen, indem er die Unfähigkeit des Modells ausnutzt, sie als bösartiges Muster zu erkennen.“sagt.

Ähnliche Beiträge

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert