Jak hakerzy kradną miliony przez Chat GPT
Hakerzy odkryli, jak używać czatu GPT do własnych samolubnych celów, używając go jako narzędzie do kradzieży poufnych danych i wyłudzania milionów dolarów od niczego niepodejrzewających ofiar w ciągu ostatnich dwóch miesięcy. Chat GPT zyskał uwagę ze względu na swoją imponującą zdolność do tworzenia ludzkich odpowiedzi na wiadomości. Stał się dobrze powiązanym narzędziem zarówno dla firm, jak i osób prywatnych, pomagając skrócić czas realizacji, zwiększyć skuteczność komunikacji. Jednak nie wszyscy używają czatu GPT w dobrej wierze.
Czym jest CHAT GPT?
Chat GPT to model językowy oparty na sztucznej inteligencji opracowany przez Open AI, jest narzędziem, które zyskało wiele uwagi od czasu jego wydania. W listopadzie użytkownicy eksperymentowali z nim do różnych celów, w tym symulowanie historii, pisanie artykułów i postów na blogach, a nawet Copywrit’ingu jako narzędzie do tworzenia dużych modeli językowych. Chat GPT jest zasilany przez duże ilości danych i techniki obliczeniowe, które umożliwiają przewidywanie i łączenie słów razem w poprawną składniowo treść. Ma dostęp do ogromnej ilości słownictwa i informacji, które pozwalają mu naśladować wzorce mowy, posiadając encyklopedyczną wiedzę.
Należy pamiętać, że czat GPT nie mówi ze świadomością i nie myśli tak jak ludzie, nie odczuwa emocji i jak na razie nie jest w stanie zastąpić ludzkiego myślenia lub podejmowania decyzji. Profesor prawa na Uniwersytecie Emory, który bada implikacje praw autorskich dla szkolenia i korzystania z dużych modeli językowych takich jak Chat GPT wyjaśnił, że istnieje z natury różnica między sposobem, w jaki ludzie tworzą język, a w jaki robią to duże modele językowe. Niedawne próby wykorzystania chatbotów do rzeczywistych usług wzbudziły obawy
z dziwnymi rezultatami. Na przykład firma Coco znalazła się pod ostrzałem po użyciu Chat’u GPT w wersji 3 do odpowiadania użytkownikom. Pomimo tych obaw inni badacze przyjmują bardziej wyważone podejście do generatywnych narzędzi AI, takich jak czat GPT. Daniel Leonard Jr, profesor na Northwestern University, który współpracuje z organizacją non-profit prawników na rzecz lepszych warunków mieszkaniowych eksperymentuje z chatbotem o nazwie Reintervention, który wykorzystuje Chat GPT do bardziej szczegółowych listów i poprawy odpowiedzi, jednocześnie oceniając jego ograniczenia, podczas gdy niczego niepodejrzewający użytkownicy nadal posiadają interakcję z czatem GPT. Są nieświadomi złowieszczych planów hakerów, pragnących pozyskać w nielegalny sposób Miliony.
Jak hakerzy wykorzystują CHAT GPT?
GPT zyskuje popularność wśród deweloperów i entuzjastów. Niestety przyciąga również uwagę cyberprzestępców, którzy wykorzystują go do swoich złośliwych działań. Hakerzy badają różne sposoby wykorzystywania możliwości przetwarzania języka naturalnego przez boty czatu AI, aby opracować wyrafinowane ataki, które są trudniejsze do wykrycia. Jednym ze sposobów jest tworzenie wysoce przekonujące wiadomości Phishingowych, które mogą ominąć tradycyjne zabezpieczenia. Przez czat szkoleniowy GPT o przeszłości skutecznych wiadomości Phishingowych hakerzy mogą generować tekst, który bardzo dobrze naśladuje legalne wiadomości e-mail, co utrudnia odbiorcom rozróżnienie ich od fałszywych wiadomości. Wygenerowany tekst może zawierać elementy takie jak logo firmy, podpisy, a nawet techniki inżynierii społecznej, aby nakłonić użytkowników do kliknięcia złośliwych linków lub pobierania załączników. Oprócz tych technik hakerzy używają również czatu GPT do automatyzacji ataków, zmniejszając przy tym czas oraz wysiłek. Zaprzęgane są jako generator do generowania dużych ilości treści spamowych i komentarzy na platformach mediów społecznościowych, przytłaczając legalne treści, utrudniając przy tym znalezienie dokładnych informacji. Ogromną obawą jest fakt, że hakerzy szkolą Chat GPT na wrażliwych danych, takich jak numery kart kredytowych, hasła w celu opracowania nowego złośliwego oprogramowania i usprawnienia metod Cyberataków. Mają one na celu wykorzystać je do tworzenia niestandardowych wiadomości Phishingowych, zidentyfikować luki w dużych systemach i przeprowadzać ataki, które mogą Wykradzeniem poufnych danych i stratami finansowymi.
Przyjrzyjmy się kilku przykładom hakerów wykorzystujących czat GPT do nielegalnych celów.
Przypadek pierwszy:
Steel Dealerzy- to rodzaj złośliwego oprogramowania, które celuje w poufne wrażliwe dane na komputerze ofiary i wysyła je z powrotem do atakującego, co może obejmować informacje takie jak dane logowania, dane finansowe lub inne dane umożliwiające identyfikację. 29 grudnia 2022 r. pojawił się wątek na popularnym podziemnym forum hakerskim, gdzie haker wykorzystał chat GPT do stworzenia podstawowego w Pythonie złośliwego oprogramowania, mającego na celu wyszukiwanie określonych typów plików na komputerze ofiary. Kopiował je do katalogu tymczasowego przed wysłaniem ich na zakodowany serwer FTP. Jednym z najbardziej niepokojących aspektów tego konkretnego przypadku jest to, że pliki zostały wysłane na serwer FTP bez żadnego szyfrowania lub innych środków bezpieczeństwa. Oznacza to, że atakujący nie tylko mógł uzyskać dostęp do wrażliwych informacji, ale może być również przechwycone przez inne strony i wykorzystane do złośliwych celów.
Przypadek drugi:
Tworzenie narzędzia szyfrującego - ten przypadek dotyczy podmiotu stanowiącego zagrożenie znany jako usdod, który opublikował skrypt Python. Skrypt na podziemnym forum, który został rzekomo stworzony za pomocą GPT 21 grudnia 2022 r. Wydaje się on być mieszanką wielu operacji kryptograficznych, tym generowanie, szyfrowanie i deszyfrowanie. Podczas gdy sam skrypt może nie być złośliwy, można go łatwo zmodyfikować np. jako część złośliwego oprogramowania wymuszającego okup zwanego Ransomware (Ransom z angielskiego znaczy okup). nie ma ograniczeń, jest tylko jeszcze nie odnaleziona wiedza, która podkreśla potencjał wykorzystania narzędzi do wykorzystania przez cyberprzestępców do tworzenia wyrafinowanego złośliwego oprogramowania.
Fakt, że usdod jest renomowanym członkiem podziemnej społeczności, który angażuje się w różne nielegalne działania, w tym sprzedaż dostępu do skompromitowanych firm i skradzionych baz danych sugeruje, że ta osoba może planować wykorzystanie skryptu do niecnych celów. Dlatego też, musimy zrozumieć, że zaawansowana sztuczna inteligencja stanowi poważne zagrożenie. Jeśli nie jest odpowiednio zabezpieczona, hakerzy mogą wykorzystać tę technologię do manipulowania ludźmi w bardzo wyrafinowany sposób. Czaty stają się coraz bardziej zaawansowane.
Ważne jest, aby zdawać sobie sprawę z zagrożeń. Ważne jest, aby aktualizować oprogramowanie zabezpieczające i uważać na wszelkie rozmowy z nieznajomymi online. Jesteśmy pewni, że niektórzy z was już używali czatu GPT jako narzędzia lub po prostu dla Zabawy. Przejdźmy zatem do najważniejszego rozdziału.
Jak się chronić się przed hakowaniem AI?
GPT to potężne narzędzie, które może sprawić, że komunikacja będzie łatwiejsza i bardziej wydajna, natomiast stwarza również znaczące ryzyko, jeśli wpadnie w niepowołane ręce. Przedstawimy kilka wskazówek w jaki sposób osoby fizyczne i firmy mogą chronić się przed atakami hakerskimi. Jeden z najprostszych i najskuteczniejszych sposobów ochrony przed atakami hakerskimi AI jest używanie silnych haseł i włączenie uwierzytelniania dwuskładnikowego tam, gdzie to możliwe. Utrudni to hakerom uzyskać dostęp do systemów. Nawet jeśli uda im się uzyskać poświadczenia logowania podczas tworzenia hasła upewnij się, że używasz kombinacji wielkich i małych liter, cyfr i symboli. Unikaj używania łatwych do odgadnięcia informacji, takich jak imię i nazwisko, data urodzenia lub adres. Zamiast tego używaj zaufanych programów typu: KeePass do generowania i przechowywania silnych haseł. Należy zachować ostrożność podczas odbierania wiadomości z systemów. Hakerzy mogą wykorzystywać techniki inżynierii społecznej, aby nakłonić użytkownika do kliknięcia linków lub podania poufnych informacji. Zawsze weryfikujcie autentyczność wiadomości przed odpowiedzią. Aby chronić się przed atakami hakerskimi trzeba zainwestować w edukację i szkolenia. Zagrożenia cyberbezpieczeństwa nieustannie ewoluują i konieczne jest bycie na bieżąco z najnowszymi technikami i trendami. Świat przestępczy jaki był 10 lat temu w tej chwili jest nastawiony na maksymalne zyski a niezabezpieczane urządzenia w sieci to dla nich najlepszy kąsek...
Oto kilka sposobów, w jakie edukacja i szkolenia mogą pomóc:
Wiedza i umiejętności w zakresie cyberbezpieczeństwa może pomóc w zrozumieniu rodzajów zagrożeń i sposobie ich działania. Można dowiedzieć się o najczęstszych metodach ataków stosowanych przez hakerów jak je rozpoznawać i im zapobiegać. Szkolenie w zakresie cyberbezpieczeństwa może pomóc opracować najlepsze praktyki w zakresie danych osobistych i biznesowych. Można dowiedzieć się, jak tworzyć silne hasła, uwierzytelniania dwuskładnikowego i unikać klikania podejrzanych linków lub załączników. Jako firma informatyczna możemy pomóc w stworzeniu kultury bezpieczeństwa w miejscu pracy lub organizacji poprzez zachęcanie pracowników do zachowania czujności i ostrożności, zmniejszyć ryzyko cyberataków i poprawić ogólne bezpieczeństwo i zachować zgodność z przepisami. W niektórych branżach istnieją wymagania dotyczące utrzymywania określonych standardów cyberbezpieczeństwa. Edukacja i Szkolenia mogą pomóc zapewnić, że Ty i twoja organizacja pozostanie w zgodzie z z tymi przepisami. Inwestowanie w dobre wsparcie informatyczne pomaga chronić siebie i swoją organizację przed atakami hakerskimi AI. Ważne jest, aby użytkownicy byli świadomi tego ryzyka i stosowali odpowiednie podejście do korzystania z Chat-GPT oraz innych chatbotów. Kluczowe jest zachowanie krytycznego myślenia, weryfikowanie informacji z różnych źródeł i zachowanie ostrożności w udzielaniu poufnych informacji.