Stel je voor: je opent een gedeeld document in ChatGPT en vraagt netjes om een samenvatting. Wat je niet ziet, is dat er in dat document onzichtbare tekst staat, verstopt in wit lettertype en piepkleine grootte. Terwijl jij denkt dat ChatGPT gewoon je vraag beantwoordt, volgt het ondertussen ook die verborgen instructies. Gevolg: het AI-model zoekt gevoelige gegevens in je Google Drive en stuurt die naar een link van een aanvaller. Zonder dat jij iets merkt.
Dit klinkt als sciencefiction, maar is onlangs in de praktijk aangetoond door beveiligingsonderzoekers op de Black Hat-conferentie. Ze vonden een kwetsbaarheid in de zogenaamde “Connectors” van ChatGPT. Dit zijn koppelingen waarmee je ChatGPT toegang geeft tot bijvoorbeeld je Gmail, Drive of agenda. Die koppelingen maken de AI handig, maar ook kwetsbaar.
De aanval werkt via een truc die “indirecte prompt-injectie” wordt genoemd. De gebruiker hoeft niets verdachts te doen, het openen of samenvatten van het document is al genoeg.
OpenAI heeft inmiddels maatregelen genomen om deze specifieke aanval te blokkeren, maar het toont aan hoe kwetsbaar AI-systemen kunnen zijn zodra ze toegang krijgen tot je persoonlijke data.
AI kan geweldig zijn, maar het brengt ook nieuwe beveiligingsrisico’s met zich mee. Gebruik koppelingen naar persoonlijke data dus alleen als je ze echt nodig hebt.
#AI #Cybersecurity #PromptInjectie
Bronnen: https://www.wired.com/story/poisoned-document-could-leak-secret-data-chatgpt/ en https://www.wiz.io/academy/chatgpt-security