Dział: TECHNOLOGIE

Dodano: Luty 15, 2024

Narzędzia:

Drukuj

Drukuj

Microsoft przyłapał hakerów z Chin, Rosji i Iranu korzystających z narzędzi AI do siana dezinformacji

Microsoft ogłosił swoje odkrycie, wprowadzając całkowity zakaz dla wspieranych przez państwo grup hakerskich korzystających z jej produktów AI (fot. Wikimedia Commons)

Microsoft opublikował raport, z którego wynika, że wspierani przez państwo hakerzy z Rosji, Chin i Iranu korzystają z narzędzi OpenAI do doskonalenia swoich działań i siania dezinformacji.

W swoim raporcie Microsoft, który jest głównym inwestorem OpenAI stwierdza, że śledził grupy hakerskie powiązane z rosyjskim wywiadem wojskowym, irańską Gwardią Rewolucyjną oraz rządami Chin i Korei Północnej, próbujących udoskonalić swoje kampanie hakerskie przy użyciu dużych modeli językowych. Te programy komputerowe, często nazywane sztuczną inteligencją, korzystają z ogromnych ilości tekstu, aby generować odpowiedzi brzmiące tak, jakby zostały wypowiedziane przez rzeczywiste postacie.

Firma ogłosiła swoje odkrycie, wprowadzając całkowity zakaz dla wspieranych przez państwo grup hakerskich korzystających z jej produktów AI.

"Niezależnie od tego, czy doszło do naruszenia prawa lub warunków świadczenia usług, po prostu nie chcemy, aby zidentyfikowane przez nas podmioty - które śledzimy i o których wiemy, zagrażały naszemu bezpieczeństwu. Nie chcemy, by miały dostęp do tej technologii technologii” - agencji Reutera powiedział Tom Burt, wiceprezes Microsoftu ds. bezpieczeństwa klientów.

Rzecznik chińskiej ambasady w USA - Liu Pengyu - stwierdził natomiast, że sprzeciwia się ona "bezpodstawnym oszczerstwom i oskarżeniom wobec Chin” i opowiada się za "bezpiecznym, niezawodnym i kontrolowanym” wdrażaniem technologii sztucznej inteligencji w celu "poprawy wspólnego dobrobytu całej ludzkości”.

Zarzut, że hakerzy wspierani przez państwo zostali przyłapani na korzystaniu z narzędzi sztucznej inteligencji w celu zwiększenia swoich możliwości szpiegowskich, prawdopodobnie uwydatni obawy związane z szybkim rozprzestrzenianiem się tej technologii i jej potencjałem do nadużyć. Od zeszłego roku wysocy rangą urzędnicy ds. cyberbezpieczeństwa na Zachodzie ostrzegają, że nieuczciwi użytkownicy nadużywają takich narzędzi, chociaż jak dotąd nie podano żadnych szczegółów.

"To jeden z pierwszych, jeśli nie pierwszy przypadek, gdy firma zajmująca się sztuczną inteligencją wypowiada się i publicznie omawia, w jaki sposób podmioty zagrażające cyberbezpieczeństwu wykorzystują technologie sztucznej inteligencji” - powiedział Bob Rotsted, który kieruje analizą zagrożeń cyberbezpieczeństwa w OpenAI.

Hakerzy rzekomo działający na rzecz rosyjskiej wojskowej agencji szpiegowskiej, powszechnie znanej jako GRU, wykorzystali modele AI do zbadania "różnych technologii satelitarnych i radarowych, które mogą odnosić się do konwencjonalnych operacji wojskowych na Ukrainie” - podał Microsoft.

Firma twierdzi, że północnokoreańscy hakerzy wykorzystali te modele do wygenerowania treści, "które prawdopodobnie można wykorzystać w kampaniach phishingu typu spear-phishing” przeciwko regionalnym ekspertom. Microsoft twierdzi, że irańscy hakerzy również wykorzystali te modele, aby napisać bardziej przekonujące e-maile.

(MAC, 15.02.2024)

* Jeśli znajdziesz błąd, zaznacz go i wciśnij Ctrl + Enter
Pressletter
Ta strona korzysta z plików cookies. Korzystając ze strony bez zmiany ustawień dotyczących cookies w przeglądarce zgadzasz się na zapisywanie ich w pamięci urządzenia. Dodatkowo, korzystając ze strony, akceptujesz klauzulę przetwarzania danych osobowych. Więcej informacji w Regulaminie.