Rozwój sztucznej inteligencji postępuje w zawrotnym tempie, otwierając przed nami nieskończone możliwości. Jednak te same technologie, które fascynują nas swoim potencjałem, mogą stać się narzędziami w rękach cyberprzestępców. Ataki phishingowe, długo uważane za jedną z najbardziej prymitywnych form wyłudzeń, nabrały nowego wymiaru dzięki zaawansowanym metodom jak deepfake i klonowanie głosu. W tym artykule przyjrzymy się, jak sztuczna inteligencja zmienia krajobraz cyberzagrożeń, jakie nowe możliwości daje oszustom i jak możemy się przed nimi chronić
Deepfake i klonowanie głosu – dostępne dla każdego?
Deepfake to technologia, która za pomocą algorytmów uczenia maszynowego umożliwia manipulowanie obrazem i dźwiękiem na niebywałą dotąd skalę. Dzięki deepfake, twarz jednej osoby może być zastąpiona twarzą innej, a wszystko to w czasie rzeczywistym i z niezwykłą precyzją. Kiedyś, aby zrobić deepfake potrzebne były umiejętności i duże zasoby sprzętowe, teraz powstają co raz to nowe narzędzia, które pozwalają stworzyć deepfake za pomocą jednego zdjęcia twarzy i filmu, na który chcemy ją nałożyć. https://github.com/s0md3v/roop
Z kolei klonowanie głosu to inna fascynująca, ale i niebezpieczna technologia. W tym przypadku, nie jest potrzebny żaden zaawansowany sprzęt czy umiejętności — wystarczą ogólnodostępne narzędzia takie jak Voicemod czy Tacotron 2. Co więcej, te narzędzia ciągle się rozwijają, stając się coraz dokładniejsze i łatwiejsze w użyciu. To oznacza, że potencjalnie każdy, kto ma dostęp do internetu, może klonować głos innej osoby.
Co łączy te dwie technologie? Oba narzędzia są coraz częściej wykorzystywane w cyberprzestępczości, dając oszustom nowe sposoby na manipulację, wyłudzanie danych czy szantaż. A co najgorsze, ze względu na ich dostępność i łatwość użycia, nie jest to już domena tylko zaawansowanych hakerów, ale także przeciętnych osób z minimalnymi umiejętnościami technicznymi.
Co to jest vishing?
Vishing (voice phishing) to forma oszustwa polegająca na wykorzystaniu połączenia telefonicznego w celu wyłudzenia poufnych informacji lub danych finansowych od ofiary. Oszuści udają przedstawicieli zaufanych instytucji i próbują zdobyć dane takie jak kody BLIK, numery kart kredytowych czy hasła do kont bankowych.
Technologie klonowania głosu otwierają nowy rozdział w ewolucji vishingu, gdzie cyberprzestępcy wykorzystują głos jako narzędzie manipulacji. Oto dwie historie, które rzucają światło na skalę problemu i pokazują, jak naiwność może przekształcić się w katastrofę finansową.
Oszuści i klonowanie głosu dzieci
W pierwszej połowie 2023 roku internet obiegła informacja o próbie wyłudzenia okupu za 15-letnią Brie z Arizony. Jennifer DeStefano, jej matka, otrzymała telefon od rzekomych porywaczy. Na tle rozmowy słychać było głos, który brzmiał dokładnie jak głos jej córki, błagającej o pomoc. Ostatecznie okazało się, że Brie była cały czas w domu, a głos został sklonowany przez oszustów. Nawet firmy technologiczne jak ElevenLabs dostrzegają problem rosnącej liczby przypadków niewłaściwego użycia klonowania głosu.
Oszustwo na 35 milionów dolarów
W 2020 roku, menedżer japońskiej firmy w Hongkongu otrzymał telefon od swojego dyrektora z informacją o potrzebie przekazania 35 milionów dolarów na nową akwizycję. Oszuści użyli “deep voice” technologii do klonowania głosu dyrektora i wysłali autentycznie wyglądające maile. Menedżer dokonał przelewów, nie zdając sobie sprawy, że został oszukany. Cała operacja była skoordynowanym atakiem, w którym uczestniczyło co najmniej 17 osób.
Deepfake jako narzędzie szantażu
Deepfake nie służy tylko manipulacji obrazem w celach humorystycznych czy artystycznych. Coraz częściej technologia ta jest używana do tworzenia kompromitujących materiałów, które są następnie wykorzystywane w szantażu. Wyobraź sobie sytuację, w której twoja twarz jest montowana na ciele aktora w filmie dla dorosłych i następnie ten materiał jest wysyłany do twoich bliskich lub współpracowników. Idealny sposób na wyłudzanie pieniędzy.
Jak się przed tym bronić?
Mimo że AI i związane z nimi technologie rozwijają się w bardzo szybkim tempie, to dalej nie są doskonałe. Można rozpoznać, że mamy do czynienia z fałszywym głosem, czy fałszywym video. Oto kilka sposobów, jak się ustrzec:
- Zwróć uwagę na nieścisłości w głosie lub obrazie. AI często nie jest w stanie w pełni oddać ludzkich emocji lub gestów. Często w filmkiach z deepfake możemy zobaczyć “brak życia” w oczach, czy nienaturalne miny, albo “glitchujący” się obraz. Wygenerowanemu głosowi często brakuje zachowań typowo ludzkich, czyli brak pomyłek, zacięć, ma zbyt długie przerwy w wypowiedzi, czy nawet nie oddycha.
- Jeżeli mamy wątpliwości dotyczące tożsamości osoby, z którą rozmawiamy, warto zadać szczegółowe pytanie, na które odpowiedź będzie znała tylko osoba, z którą powinniśmy rozmawiać.
- Uważaj na podejrzane prośby. Zwróć uwagę na prośby o przesłanie pieniędzy, szczególnie za pomocą kodów podarunkowych, przelewów za pośrednictwem BLIK(odnośnik do artykułu o oszustwach BLIK), czy kryptowalut.
- I chyba jedna z najważniejszych zasad ogranicz udostępnianie informacji. Bądź ostrożny z tym, jakie informacje i zdjęcia publikujesz online. Zastanów się, czy nie są one zbyt wskazujące i czy nie mogą być użyte przeciwko tobie.
Pamiętając o tych zasadach, możesz znacznie zminimalizować ryzyko nabrania się na tego typu oszustwa, oraz padnięcia ofiarą wykorzystania twojego wizerunku w celu wyłudzeń i szantażów.