Europol waarschuwt voor grote taalmodellen zoals ChatGPT
In reactie op de toenemende publieke aandacht voor ChatGPT heeft het Europol Innovation Lab een aantal workshops georganiseerd met deskundigen in deze materie om te onderzoeken hoe criminelen misbruik kunnen maken van grote taalmodellen (LLM's) zoals ChatGPT en hoe deze taalmodellen de onderzoekers kunnen helpen bij hun dagdagelijkse taken.
De inzichten van deze onderzoekers zijn gebundeld in het eerste Tech Watch Flash-rapport van Europol, dat op 27 maart 2023 werd gepubliceerd. Onder de titel "ChatGPT - de impact van grote taalmodellen op de rechtshandhaving" geeft dit document een overzicht van het mogelijke misbruik van ChatGPT. Het document biedt eveneens een vooruitblik op wat nog komen kan.
Het doel van dit verslag is het bewustzijn over het mogelijke misbruik van LLM's te vergroten, een dialoog met bedrijven op het gebied van artificiële intelligentie (AI) op gang te brengen om hen te helpen betere waarborgen in te bouwen en de ontwikkeling van veilige en betrouwbare AI-systemen te bevorderen.
Wat zijn grote taalmodellen (LLM’s)?
Een groot taalmodel is een type systeem van artificiële intelligentie (AI) dat teksten kan verwerken, manipuleren en genereren.
Bij het trainen van een LLM worden grote hoeveelheden gegevens - zoals boeken, artikelen en websites - ingevoerd zodat het AI-systeem de patronen en verbanden tussen woorden kan leren om nieuwe inhoud te genereren.
ChatGPT is een LLM die werd ontwikkeld door OpenAI en in november 2022 als onderdeel van een vooronderzoek werd vrijgegeven voor het grote publiek.
Het huidige voor publiek toegankelijk model dat ten grondslag ligt aan ChatGPT is in staat om begrijpelijke tekst te verwerken en te genereren in antwoord op aanwijzingen van gebruikers. Het model kan vragen over uiteenlopende onderwerpen beantwoorden, teksten vertalen, conversaties aangaan ("chatten"), nieuwe inhoud genereren en functionele codes produceren.
De schaduwzijde van grote taalmodellen
Terwijl de mogelijkheden van LLM's zoals ChatGPT actief worden verbeterd, biedt de mogelijke exploitatie van dit soort AI-systemen door criminelen een negatief toekomstbeeld.
De volgende drie misdrijven behoren tot de aandachtspunten die de deskundigen van Europol hebben vastgesteld:
- Fraude en social engineering: Het vermogen van ChatGPT om zeer realistische teksten op te stellen, maakt het een nuttig instrument voor phishingdoeleinden. Het vermogen van LLM's om taalpatronen te reproduceren kan worden gebruikt om de spreekstijl van specifieke personen of groepen na te bootsen. Dit vermogen kan worden misbruikt op grote schaal om potentiële slachtoffers te misleiden zodat zij hun vertrouwen in de handen van criminelen of criminele organisaties stellen.
- Desinformatie: ChatGPT blinkt uit in het snel en op grote schaal produceren van authentiek klinkende tekst. Dit maakt het model ideaal voor propaganda en desinformatie aangezien het gebruikers in staat stelt met relatief weinig inspanning berichten te genereren en te verspreiden die een specifiek verhaal weerspiegelen.
- Cybercriminaliteit: Naast het genereren van begrijpelijke taal, kan ChatGPT code produceren in een aantal verschillende programmeertalen. Voor een potentiële crimineel met weinig technische kennis is dit een hulpmiddel van onschatbare waarde om kwaadaardige codes te produceren.
Naarmate de technologie uitbreidt en er nieuwe modellen beschikbaar zijn, zal het voor de onderzoeksinstanties steeds belangrijker worden om deze ontwikkelingen op de voet te volgen en misbruiken te voorkomen.
De aanbevelingen van Europol en de volledige bevindingen van het rapport vindt u hier.