Published 23 sep 2024 2 minutes read
Last Updated 14 okt 2024

Bescherming tegen AI-gestuurde audio-oplichting

AI-gestuurde audio-oplichting neemt toe en richt zich op bedrijven en individuen. Het gebruik van veilige zinnen en verbeterde verificatiesystemen kan helpen. Bedrijven moeten waakzaam blijven en hun werknemers voorlichten over deze risico's

Nieuws

De groeiende dreiging van AI-gestuurde audio-oplichting

AI-gestuurde oplichting met audio wordt een steeds groter probleem voor zowel consumenten als bedrijven. Volgens onderzoek van Starling Bank is 28% van de mensen het afgelopen jaar minstens één keer het doelwit geweest van zwendel met AI-stemherkenning. Bijna de helft van de ondervraagden was zich echter niet bewust van dit soort zwendel.

Oplichters hebben maar een paar seconden audio nodig om de stem van een persoon overtuigend na te bootsen. Ze richten zich vaak op video’s op sociale media om het benodigde materiaal te verzamelen. Zodra ze de audio hebben, kunnen ze vrienden en familie misleiden om geld te sturen. Bedrijven moeten daarom waakzaam zijn en maatregelen nemen om zichzelf en hun klanten te beschermen tegen dergelijke zwendelpraktijken.

Effectieve fraudepreventiemaatregelen implementeren

Gebruik veilige zinnen

Een effectieve maatregel is het gebruik van veilige zinnen onder goede contacten. Een veilige zin kan helpen om de authenticiteit van een gesprek te verifiëren. Lisa Grahame, Chief Information Security Officer bij Starling Bank, wijst erop dat het instellen van een veilige zin bij familie en vrienden slechts een paar minuten duurt. Deze eenvoudige actie kan oplichters tegenhouden die gebruik maken van stemherkenningstechnologieën.

Verbeterde verificatiesystemen

Bedrijven kunnen verbeterde verificatiesystemen implementeren om verdachte activiteiten te identificeren. Zo kan het bellen van een vertrouwde contactpersoon om een verzoek te verifiëren een snelle en efficiënte manier zijn om fraude te voorkomen. Daarnaast moeten bedrijven hun klanten voorlichten over de risico’s en methoden om AI-gestuurde oplichting te herkennen.

Het Britse cyberbeveiligingsagentschap benadrukte dat AI het steeds moeilijker maakt om phishingberichten te herkennen die bedoeld zijn om persoonlijke gegevens te ontfutselen. Daarom kan het gebruik van multifactorauthenticatie en andere verificatiesystemen van cruciaal belang zijn.

Waakzaamheid van bedrijven tegen Deepfake-technologie

Het gebruik van AI in zwendelpraktijken gaat verder dan individuele doelwitten. Grote bedrijven zijnbijvoorbeeld het slachtoffer geworden van geraffineerde zwendelpraktijken. De politie van Hong Kong onderzocht een zaak waarbij een werknemer van een bedrijf werd misleid tot het overmaken van aanzienlijke bedragen via een deepfake videoconferentie. Er werd AI gebruikt om hoge functionarissen van het bedrijf te imiteren.

Dit illustreert dat bedrijven, ongeacht hun omvang, voorzichtig moeten zijn. Het is essentieel dat werknemers zich bewust zijn van de risico’s en voldoende zijn opgeleid om deepfake-technologie te herkennen. Verificatieprocessen moeten robuust genoeg zijn om deze geavanceerde aanvallen te weerstaan.

Kansen en uitdagingen van AI

Opkomende AI-tools bieden nieuwe kansen en uitdagingen voor bedrijven. Bedrijven als JPMorgan Chase en Morgan Stanley rollen AI-tools uit om de efficiëntie te verbeteren. Deze vooruitgang brengt echter ook risico’s met zich mee. Effectieve planning, strategische investeringen en een streven naar continu leren zijn essentieel om deze uitdagingen met succes aan te gaan.

Voortdurende training en bewustwording

Daarnaast zijn voortdurende training en bewustwordingsprogramma’s van vitaal belang. Werknemers moeten op de hoogte blijven van de nieuwste AI-technologieën en de bijbehorende risico’s. Deze proactieve aanpak zorgt ervoor dat bedrijven potentiële bedreigingen voor blijven.

Conclusie

Uiteindelijk vereist de bescherming tegen AI-gestuurde audio-oplichting een veelzijdige aanpak. Bedrijven moeten veilige zinnen implementeren, verificatiesystemen verbeteren en waakzaam blijven voor deepfake-technologieën. Omdat AI zich blijft ontwikkelen, moeten onze beschermingsstrategieën dat ook doen. Met weloverwogen planning en voortdurend leren kunnen bedrijven zichzelf en hun klanten beschermen tegen deze opkomende bedreigingen.

Gepubliceerd 23 sep 2024
Categorie
Nieuws