Sztuczna inteligencja – narzędzie przedsiębiorstw i hakerów
Sztuczna inteligencja stała się już niezwykle ważnym narzędziem, oferującym ogromne możliwości, które mogą służyć nie tylko przedsiębiorstwom, ale też cyberprzestępcom.
W dzisiejszych czasach firmy na całym świecie z rosnącym zainteresowaniem śledzą rozwój technologii opartych na sztucznej inteligencji, coraz częściej wykorzystując ją w kontekście uszczelniania i usprawniania procedur cyfrowego bezpieczeństwa, w którym dotychczasowe, bardziej tradycyjne metody działania okazują się niewystarczające. Narzędzia, dla których to AI jest podstawą ich funkcjonowania, mogą w mgnieniu oka i z łatwością identyfikować wzorce zawarte w dużych zbiorach danych, błyskawicznie wykrywać i rozpoznawać próby phishingu oraz instalowania złośliwego oprogramowania jeszcze zanim dojdzie do faktycznego ataku.
Obszary, w których sztuczna inteligencja może najbardziej pomóc w rozwoju cyberbezpieczeństwa
Przewidywanie możliwych zagrożeń
W przeciwieństwie do standardowych systemów bezpieczeństwa – opartych na regułach i procedurach działania – te, których kluczowym komponentem jest sztuczna inteligencja, są w stanie przewidywać możliwe ataki, nawet jeśli im podobne jeszcze nigdy wcześniej nie miały miejsca. Następnie AI może wykorzystywać te prognozy do sugerowania ochronnych działań zapobiegawczych, uwzględniając przy tym potencjalne koszty, które może generować ich wdrożenie.
Monitorowanie bezpieczeństwa
Stałe monitorowanie systemów generuje niewyobrażalne wręcz ilości danych, które następnie trzeba odpowiednio przeanalizować pod kątem potencjalnych zagrożeń cybernetycznych. Technologie oparte na sztucznej inteligencji są w stanie pomóc również i w tej kwestii, mogąc przyspieszyć i w znaczącym stopniu zautomatyzować te analizy, a co za tym idzie, pozwolić na szybsze wprowadzanie kluczowych zmian w życie.
Należy też przy tym nadmienić, że sztuczna inteligencja jest znacznie mniej podatna na różnego rodzaju błędy analityczne, które stosunkowo regularnie mogą popełniać pracownicy, oraz że może ona dostrzec problemy, które człowiek mógłby omyłkowo przeoczyć.
Błyskawiczne łatanie luk w zabezpieczeniach
Oprócz samego monitorowania bezpieczeństwa, sztuczna inteligencja może też pozyskiwać szczegółowe dane z systemów cyberbezpieczeństwa, aby odciążać zespoły zarządzania podatnościami, i szczegółowo określać relacje zachodzące między systemami w sieci oraz identyfikować luki w zabezpieczeniach, które następnie jest w stanie samodzielnie załatać, minimalizując ryzyko wynikające z takich cyberataków jak na przykład ataki typu zero-day.
Zapobieganie wyciekom danych
Technologie oparte na sztucznej inteligencji mogą też oszczędzić znacznych nakładów żmudnej i powtarzalnej pracy, aby zapobiec możliwym naruszeniom – AI z łatwością, przez długi czas może bez znudzenia monitorować i klasyfikować wszelki ruch, związane z nim dane oraz identyfikować informacje wrażliwe, które powinny być lepiej zabezpieczone.
Nowe taktyki cyberataków stosowane przez hakerów oparte na generatywnej sztucznej inteligencji
Niestety, gwałtowny rozwój technologii opartych na SI ma też swoje ciemne strony – mogą być one wykorzystywane w celach, które są niezgodne z prawem. Poniżej prezentujemy listę najczęstszych i najgroźniejszych oszustw korzystających z dobrodziejstw sztucznej inteligencji.
Klonowanie głosu
Klonowanie głosu to jeden z bardziej niepokojących typów oszustw, wykorzystujących technologie oparte na sztucznej inteligencji. Polega on na pobraniu przez hakerów próbki głosu od osoby, pod którą chcą się podszyć – najczęściej odbywa się to za pomocą niewinnie brzmiącej rozmowy telefonicznej, podczas której oszuści podszywają się pod telemarketerów. Następnie nagranie to wykorzystywane jest do wygenerowania komunikatu, który brzmi, jakby był rzeczywiście wypowiadany przez ofiarę, a który służy do wyłudzenia pieniędzy od jej rodziny i najbliższych.
Deepfakes
Deepfake oznacza dość zaawansowany technicznie sposób manipulowania nagraniami obrazu lub dźwięku, który korzysta z technologii sztucznej inteligencji lub mechanizmów głębokiego nauczania maszynowego, by zwiększyć wiarygodność sfabrykowanych materiałów. Sam termin deepfake powstał z połączenia anglojęzycznych wyrazów deep (ang. głęboki, od głębokiego nauczania maszynowego) oraz fake (ang. fałszywy, falsyfikat).
Głównym zadaniem deepfake’ów jest próba wprowadzenia odbiorcy w błąd, przy użyciu niezwykle autentycznie wyglądających materiałów audio lub wideo. Bardzo często zdarza się, że takich nagrań nie da się na pierwszy rzut oka zidentyfikować jako spreparowanych, czym znacząco się różnią od typowych obrazów otrzymywanych za pośrednictwem przeciętnych generatywnych sztucznych inteligencji.
I choć niektóre deepfake’i powstają wyłącznie w celach humorystycznych i rozrywkowych, coraz częściej słyszy się o zaawansowanych taktykach cyberprzestępczych, które w przebiegły i rozmyślny sposób wykorzystują najróżniejsze materiały otrzymywane techniką deepfake, by oszukiwać niczego niepodejrzewające ofiary, od których następnie wyłudzane są różnego rodzaje poufne dane i informacje. Zdarzają się także przypadki, w których deepfake’ów używa się w celu rozprzestrzeniania fałszywych informacji, a nawet manipulacji politycznych! Na szczęście jednak, wraz z rozwojem tej technologii, zaczyna się też pojawiać coraz więcej dedykowanych algorytmów i narzędzi, za pomocą których możliwe jest łatwe odróżnianie deepfake’ów od faktycznych nagrań.
Phishing
Wraz z popularyzacją narzędzi opartych na sztucznej inteligencji, czasy klasycznych i powszechnie znanych przekrętów na „zaginionego członka rodziny” lub „bogatego, afrykańskiego księcia”, wraz z wszelkimi, właściwymi im błędami ortograficznymi i interpunkcyjnymi przechodzą do historii. W dzisiejszych czasach generatywna sztuczna inteligencja pozwala cyberprzestępcom na proste i szybkie tworzenie znacznie bardziej przekonujących komunikatów.
Sama natura phishingu pozostaje jednak w zasadzie bez zmian. Phishing to wciąż rodzaj cyberataku, którego głównym celem jest wyłudzenie od ofiary poufnych informacji. I choć przez wielu jest on uznawany za jeden z najprostszych rodzajów cyberoszustw, w tym typie ataków mogą też zawierać się inne – to znaczy, że na przykład podczas próby wyłudzenia, może dojść do zainfekowania urządzeń użytkownika oprogramowaniem typu malware.
Spear phishing
Ataki nazywane mianem spear phishing’u nie są niczym innym jak znacznie bardziej wysublimowaną formą bardziej tradycyjnego phishingu. Oszuści, zamiast iść na ilość, idą na jakość – nie działają na szeroką skalę i nie liczą na to, że ktoś połknie przysłowiowy haczyk, tylko przed przystąpieniem do ataku wykonują niezwykle wnikliwą analizę swojej ofiary, aby uzyskać o niej jak najwięcej informacji, nierzadko podszywając się pod jej bliskich i znajomych. Zdobyte w ten sposób informacje są przez nich następnie używane, by wyłudzać poufne dane.
Jak chronić się przed cyberatakami z użyciem sztucznej inteligencji?
W celu zapewnienia sobie możliwie jak największej ochrony w dobie zaawansowanych technik cyberprzestępczych, warto jest rozważyć korzystanie z dodatkowych, zewnętrznych zabezpieczeń w formie aplikacji lub usług, takich jak na przykład VPN Chrome wtyczka, które na wiele sposobów pomaga w utrzymaniu wysokiego poziomu cyfrowych zabezpieczeń – anonimizując lokalizację użytkownika, zapobiegając wyciekom danych za pomocą szyfrowanego połączenia itd.
Należy jednak przy tym pamiętać, że żadne zabezpieczenia nie pomogą nam tak, jak zdrowy rozsądek, który jest najsilniejszą bronią w walce z wszelkimi oszustwami – czy to z tymi polegającymi na sztucznej inteligencji, czy tymi bardziej tradycyjnymi.