Die Schattenseite von ChatGPT: Es kann schädliche Software produzieren!


Codes können sich ändern und schwerer zu erkennen sein
EDR ist eine Art Cybersicherheitstechnik, mit der Schadsoftware abgefangen werden kann. Experten argumentieren jedoch, dass dieses Protokoll nicht der potenziellen Verschwendung entspricht, die ChatGPT verursachen kann. Hier kommt der Begriff polymorph ins Spiel, denn Codes können sich ändernund es kann viel schwieriger sein, es zu erkennen.
ChatGPTmehrere Sprachlernmodelle (LLM) wurde von seinen Erstellern mit Filtern ausgestattet, um die Erstellung unangemessener Inhalte zu vermeiden. Diese Filter können von bestimmten Aspekten bis hin zu Schadcodes reichen. Es dauerte jedoch nicht lange, bis Benutzer Möglichkeiten fanden, diese Filter zu umgehen. Es ist diese Taktik, die ChatGPT besonders anfällig für Personen macht, die versuchen, verschwenderische Skripte zu erstellen.
IT-Sicherheitsingenieur Jeff Simsin seiner Aussage, „Mithilfe dieser neuen Techniken kann ein Bedrohungsakteur eine Reihe typischerweise gut erkennbarer Verhaltensweisen in einer ungewöhnlichen Kombination kombinieren und der Erkennung entgehen, indem er die Unfähigkeit des Modells ausnutzt, sie als bösartiges Muster zu erkennen.“sagt.