Uwaga na oszustwa „na wnuczka"– teraz z użyciem sztucznej inteligencji
Oszustwa „na wnuczka" to od lat jedna z najczęstszych i najbardziej dotkliwych metod wyłudzania pieniędzy od osób starszych. Przestępcy podszywają się pod członków rodziny – najczęściej wnuczków lub dzieci i składają dramatyczne prośby o pomoc finansową, wykorzystując emocje i zaufanie seniorów. Jednak w ostatnim czasie klasyczny schemat uległ znaczącej zmianie dzięki rozwojowi technologii sztucznej inteligencji (AI).
Nowoczesne narzędzia AI pozwalają oszustom na tworzenie realistycznych głosów bliskich osób, a nawet na generowanie ich wizerunków w czasie rzeczywistym podczas rozmów wideo. Dzięki temu ofiara słyszy przez telefon głos, który brzmi identycznie jak jej wnuczek lub córka, a w niektórych przypadkach może nawet zobaczyć ich twarz w komunikatorze – wszystko to za sprawą zaawansowanych technik deepfake i klonowania głosu. To sprawia, że oszustwa są dziś trudniejsze do rozpoznania niż dawniej. Technologia potrafi świetnie naśladować ton, emocje i sposób mówienia znanych nam osób powodując, że prośba o pieniądze wydaje się więc całkowicie wiarygodna i pilna.
Oszust, podszywając się pod bliskiego, błaga o pilną pomoc finansową, często powołując się na „nagły wypadek", hospitalizację lub problem z policją. Przestępcy wykorzystują presję czasu i silne emocje, by ofiara nie miała możliwości skonsultowania się z rodziną lub sprawdzenia prawdziwości rozmowy.
Co warto zapamiętać:
- Jeśli ktoś dzwoni i prosi o pieniądze – zawsze najpierw skontaktuj się z rodziną na znany numer telefonu.
- Nie przelewaj pieniędzy pod wpływem emocji czy nacisków.
- Nie podawaj kodów ani danych do konta bankowego przez telefon.
W czasach, gdy technologia może zarówno pomagać, jak i szkodzić, najskuteczniejszą bronią przeciwko oszustom pozostaje zdrowy rozsądek i ostrożność.