CyberArk Labs laat ChatGPT zelf kwaadaardige code muteren

Onderzoekers van CyberArk Labs hebben ChatGPT zelf kwaadaardige code laten schrijven en automatisch laten muteren om zo security-tools te kunnen omzeilen. Vorige week werd al bekend dat ChatGPT ingezet kon worden om code als onderdeel van malware te schrijven, maar CyberArk Labs gaat nog een stuk verder door ChatGPT zelf de malware te laten maken, die bovendien niet door security-tools wordt opgemerkt.

CyberArk Labs laat ten eerste zien hoe ze het contentfilter van de AI-dienst hebben omzeild en tegen de eigen regels in toch malware kunnen maken die, in runtime queries, ChatGPT kwaadaardige code laat laden. De malware bevat hierdoor zelf geen kwaadaardige code, omdat het de code van ChatGPT ontvangt. Bovendien wordt deze gevalideerd (controleren of de code correct is), en vervolgens uitgevoerd zonder een spoor achter te laten. Daarnaast is het CyberArk Labs gelukt om ChatGPT te vragen de code te muteren.

De zogeheten ‘naked malware’ of polyforme malware, die hiermee ontstaat bevat geen kwaadaardige modules en wordt daardoor niet door security-tools opgemerkt. Dit is in eerdere onderzoeken nog niet gelukt.

Eran Shimony, onderzoeker bij CyberArk Labs: “Polymorfe malware is zeer moeilijk aan te pakken voor beveiligingsproducten omdat je ze niet echt kunt herkennen. Bovendien laten ze meestal geen sporen achter op het bestandssysteem, omdat hun kwaadaardige code alleen in het geheugen wordt verwerkt. Bovendien, als men het uitvoerbare bestand zelf bekijkt, ziet het er waarschijnlijk onschuldig uit.”

 

Gerelateerde berichten...

X