Microsoft meldt dat hackers AI in alle fasen van cyberaanvallen gebruiken
AI Drijft Cyberaanvallen
Microsoft meldt dat kwaadwillenden steeds vaker kunstmatige intelligentie gebruiken om aanvallen te versnellen, activiteiten op te schalen en technische barrières te verlagen. Een recent Microsoft Threat Intelligence-rapport onthult dat aanvallers AI-tools inzetten voor diverse taken zoals verkenning, phishing, infrastructuurontwikkeling, malwarecreatie en activiteiten na een inbraak.
AI wordt vaak gebruikt om phishing-e-mails op te stellen, inhoud te vertalen, gestolen data samen te vatten, malware te debuggen en te helpen bij scripts of infrastructuurconfiguratie. Volgens Microsoft fungeert AI als een krachtvermenigvuldiger die technische wrijving vermindert en uitvoering versnelt, terwijl menselijke operators controle behouden over doelen en implementatiebeslissingen.
AI in Cyberaanvalstrategie
Microsoft heeft meerdere dreigingsgroepen gesignaleerd die AI integreren, waaronder Noord-Koreaanse actoren zoals Jasper Sleet en Coral Sleet. Deze groepen gebruiken AI om realistische identiteiten, cv’s en communicatie te genereren voor het verkrijgen van werk in Westerse bedrijven en het behouden van toegang na indiensttreding.
Jasper Sleet maakt handig gebruik van generatieve AI-platforms om frauduleuze digitale persona’s te ontwikkelen. Bijvoorbeeld, ze laten AI-platforms culturele naam- en e-mailformaten ontwikkelen die passen bij specifieke identiteiten. Ze gebruiken prompts zoals “Maak een lijst van 100 Griekse namen” of “Creëer e-mailformaten met de naam Jane Doe.”
AI en Malwareontwikkeling
De rapporten beschrijven ook hoe AI helpt bij malwareontwikkeling en infrastructuurcreatie, waarbij dreigingsactoren AI-coderingstools gebruiken om kwaadaardige code te genereren en verfijnen, fouten op te lossen en malwarecomponenten naar andere programmeertalen te vertalen.
Er zijn experimenten met AI-ondersteunde malware die dynamisch scripts genereert of gedrag tijdens runtime aanpast. Coral Sleet gebruikt AI ook om snel nepbedrijfssites te ontwikkelen en infrastructuur te testen en te verbeteren.
Wanneer AI-beveiligingen pogingen tot kwaadwillende AI-gebruik blokkeren, gebruiken dreigingsactoren technieken om beperkingen te omzeilen en schadelijke inhoud te genereren. Naast generatieve AI observeren Microsoft-onderzoekers dat dreigingsactoren experimenteren met geautomatiseerde AI om taken zelfstandig uit te voeren.
Beveiligingsaanbevelingen
Microsoft adviseert bedrijven verdachte activiteiten te behandelen als insider threats, gezien veel campagnes afhangen van misbruik van legitieme toegang. Verdedigers moeten zich richten op het opsporen van abnormaal gebruik van inloggegevens, het versterken van identiteitssystemen tegen phishing en het beveiligen van AI-systemen.
Microsoft staat hierin niet alleen. Google meldde dat dreigingsactoren gebruikmaken van Gemini AI en Amazon ontdekte een campagne waarbij meer dan 600 FortiGate firewalls werden aangetast met AI-diensten.
Nieuwe bedreigingen worden steeds slimmer. Het Red Report 2026 onthult hoe malware wiskunde gebruikt om zich te verbergen en detectie te ontwijken. Download onze analyse van 1,1 miljoen kwaadaardige samples voor de 10 belangrijkste technieken.
[Download Het Rapport]
---- ---- ---- ---- ---- ---- ---- ---- ---- ---- ---- ---- ---- ---- ----Opzoek naar de laatste updates uit onze securitylog?
Inhoud mede mogelijk gemaakt door OpenAI.
