Misbruik

Een van de meest indrukwekkende en zorgwekkende gevallen betrof een zogeheten 'geavanceerde actor' die gebruik maakte van Claude om gelekte inloggegevens van beveiligingscamera's te analyseren. Met deze gegevens trachtte de actor toegang te verkrijgen tot de apparaten, aldus Anthropic. Hoewel niet is bevestigd of deze poging succesvol was, illustreert dit incident de aanzienlijke risico's die gepaard gaan met het gebruik van kunstmatige intelligentie door kwaadwillende partijen.

Een ander voorbeeld betreft een individu met beperkte technische kennis die dankzij Claude in staat was malware te ontwikkelen waarvoor normaliter aanzienlijke expertise vereist is. Door gebruik te maken van Claude kon een eenvoudig open-sourcepakket worden uitgebreid met geavanceerde functionaliteiten, waaronder gezichtsherkenning en de mogelijkheid om het dark web te doorzoeken. Anthropic stelt dat dit aantoont hoe kunstmatige intelligentie een krachtig instrument kan zijn in handen van individuen die anders geen substantiële bedreiging zouden vormen.

 

Deze bots waren actief betrokken bij het reageren, liken en delen van content afkomstig van tienduizenden echte gebruikers. Volgens het rapport opereerden de bots op basis van politiek gemotiveerde persona's, waarbij vermoedelijk klanten met specifieke politieke doelstellingen achter de operatie stonden. De betrokken accounts waren actief in meerdere landen en talen, wat duidt op een zorgvuldig gecoördineerde internationale campagne.

AI-gestuurde beïnvloeding

Anthropic wijst erop dat dit type AI-gestuurde beïnvloeding een significante stap markeert in de evolutie van digitale propaganda en desinformatiecampagnes. Het rapport benadrukt de noodzaak van waakzaamheid en pleit voor intensieve samenwerking tussen AI-ontwikkelaars, overheidsinstanties en platformbeheerders om deze risico's effectief te adresseren.