Baza wiedzy
Czas bliżej przyjrzeć się AI. I nie, nie będziemy rozwodzić się nad kolejnymi wersjami ChatGPT, Gemini (dawniej Bard), Copilot czy wielu, wielu innych rozwiązaniach pączkujących jak grzyby po deszczu. Coraz więcej firm wdraża lub planuje wdrożyć AI w swoich organizacjach. Postępu nie zatrzymamy. Ważne, aby robić to z głową.
Zacznijmy na początku czym jest AI (sztuczna inteligencja). To dziedzina informatyki, która bada i tworzy systemy komputerowe zdolne do imitowania ludzkich funkcji poznawczych. Obejmuje następujące elementy.
- Algorytmy - zestawy instrukcji, które umożliwiają komputerowi/systemowi na wykonywanie określonych zadań.
- Dane czyli informacje, które są wykorzystywane do trenowania i uruchamiania algorytmów AI.
- Moc obliczeniowa czyli zasoby komputerowe również te związane z poborem energii elektrycznej potrzebne do uruchamiania algorytmów AI.
Skupmy się przez chwilę na mocy obliczeniowej. Aby wygenerować 1 obraz graficzny AI potrzebuje około 25-100 watów mocy. Oczywiście, wszystko „zależy”. Od algorytmu, złożoności modelu, używanego sprzętu itd. Patrząc z jakim impetem AI wchodzi w obszar grafiki komputerowej już teraz możemy powiedzieć, że jest to technologia, na tą chwilę dosyć energochłonna. Warto więc zawczasu pomyśleć o nowoczesnych, energooszczędnych procesorach graficznych w firmach planujących w większej skali korzystać z dobrodziejstw AI.
To tylko początek wyzwań…
Wróćmy jednak do bezpieczeństwa IT w kontekście wdrażania AI. I nie będziemy zajmować się „trywialnymi” kolorowymi, czasami śmiesznymi obrazkami, a nieco poważniejszym tematem. A tym tematem jest BEZPIECZEŃSTWO IT.
Wprowadzenie sztucznej inteligencji (Artificial Intelligence) do infrastruktury sieciowej firm niesie ze sobą wiele korzyści, ale także potencjalne zagrożenia dla bezpieczeństwa. Chcę zwrócić uwagę jedynie na wybrane aspekty:
Ataki z wykorzystaniem AI
Cyberprzestępczość to nie nowość a wraz z popularnością i dynamicznym rozwojem AI przestępcy dostali nowe narzędzie do ręki. Już teraz można kupić w darknecie oprogramowanie oparte o algorytmy AI. Brzmi jak senny koszmar? Niestety, to nie sen. To już się dzieje. Na naszych oczach, w sieciach IT, infrastrukturze zarządzanej przez działy bezpieczeństw IT. Darknetowe algorytmy też są zasilane danymi i się uczą. Pamiętajmy o tym. To tykająca bomba, o której producenci oprogramowania antywirusowego nowej generacji, tacy jak np. Carbon Black czy SentinelOne od dawna wiedzą.
Oczywiście, można powiedzieć eeee, ubezpieczyciel to duża firma. A co jeśli jesteś małą organizacją z unikalnym know how, która została w ten sposób zhakowana, bo cała wiedza została zaimplementowana do AI? Przestępcy na tacy mają całą Twoją firmę. To nie jest już jeden pracownik odchodzący do konkurencji. To tak jakby wszyscy pracownicy z wiedzą i doświadczeniem przeszli do konkurencji tego samego dnia. Zabierając ze sobą przy okazji komputery, serwery a nawet ulubiony kubek.
Zaufanie do modeli AI
Sami twórcy najpopularniejszych modeli AI nie wiedzą w jaki sposób podejmują one decyzje co rodzi szereg nie tylko pytań ale i zagrożeń. Jak weryfikować dane wygenerowane przez AI? Jeśli jest to nasz system wewnętrzny, zamknięty w organizacji – można powiedzieć, że prawdopodobieństwo błędów związanych z procesem uczenia się jest nieco mniejsze bo mamy nad tym 100% kontrolę. Ale czy nasz model jest odpowiednio zabezpieczony przez nieuprawnionym dostępem i „wstrzyknięciem obcych” danych na których dalej, jak gdyby nic będzie się dalej uczył? Czy możemy mieć do niego 100% zaufanie? Bez odpowiedniego zabezpieczenia infrastruktury IT igramy z ogniem. Bo skąd będziemy wiedzieć, że jest zainfekowany oraz, że uczy się na błędnych danych? Pamiętajmy o tym, że nadal Forcepoint Next-Generation Firewall wraz z modułem IPS są pierwszą linią obrony przed nieuprawnionym dostępem, a opierając się dodatkowo modelem bezpieczeństwa Zero Trust, zwiększamy naszą skuteczność.
Przetwarzanie danych przez AI
Aby modele miały sens muszą być zasilone olbrzymią ilością danych. W kontekście bezpieczeństwa warto już na etapie projektowania modelu AI zastanowić się, jakie dane są do nauki niezbędne, a jakie zbędne. Które zaimplementowane w bazie dane niosą za sobą ryzyko naruszenia prywatności danych (dane poufne). Głośny jest case study (czytaj więcej >>) wielkiej sieci drogerii z USA, w której model AI błędnie wytypował tysiące klientów jako zagrożenie tylko na podstawie ich koloru skóry i płci. Odpowiedni nadzór nad modelami oraz danymi, które są nimi zasilane a także zdrowy rozsądek to podstawa. Jak widać na przytoczonym przykładzie, czasami tego brakuje.
Zależność od twórców/dostawców modeli AI
Wdrażając własny, choć tworzony na bazie zewnętrznego silnika model AI, organizacje mogą stać się zależne od dostawców tego oprogramowania. Może rodzić to ryzyko związane z długookresowym funkcjonowaniem dostawcy rozwiązania, a także z ewentualnymi lukami w zabezpieczeniach oprogramowania dostarczanego przez tą firmę. Warto pamiętać, że na fali zachwytu nad AI powstają codziennie setki firm na całym świecie tworzące modele AI. Ile z nich będzie działać za miesiąc, rok czy 5 lat? Wdrażając AI w swojej organizacji warto również o tym pamiętać.
Wnioski
Modele AI to nowoczesne i przydatne narzędzie w organizacji. Powiedzmy sobie szczerze. Jeszcze nie do końca przez nas na chwilę obecną zrozumiane. Ich wdrożenie i stosowanie bez udziału zespołów odpowiedzialnych za bezpieczeństwo infrastruktury IT niesie za sobą olbrzymie zagrożenie. Pamiętajmy: ścisłe monitorowanie, ciągła ocena, odpowiednie środki zaradcze aby zminimalizować ryzyko ataków i zapewnić integralność, dostępność i poufność danych i systemów – o tym powinni pamiętać dysydenci planujący wdrożenie AI w swojej organizacji. Bez działów bezpieczeństwa IT to taniec na Titanicu. A wszyscy wiemy jak się skończył.
Zainteresował Cię ten wpis?
Chcesz dowiedzieć się więcej?
Bartosz Zabielski
Inżynier bezpieczeństwa IT z 8-letnim doświadczeniem. W Monolit IT od 2018 roku. Odpowiedzialny za projektowanie i implementacje rozwiązań bezpieczeństwa informatycznego.
Zobacz wszystkie artykuły danego autora »