Sztuczna inteligencja (AI) staje się nieodłącznym elementem współczesnych przedsiębiorstw, ale jej implementacja niesie ze sobą zarówno ogromne korzyści, jak i poważne ryzyka. Firmy, które zwlekają z wdrażaniem AI, mogą stracić okazję na zwiększenie produktywności i unikalne korzyści konkurencyjne. Jednak pochopne podejście lub błędne systemy mogą prowadzić do narażenia danych klientów czy całego biznesu na nieprzewidziane zagrożenia. Odpowiedzią na te wyzwania staje się nowa generacja startupów koncentrujących się na bezpieczeństwie w obszarze AI.
Jednym z liderów tej szybko rozwijającej się branży jest Mindgard, brytyjski spin-off uniwersytecki, który przyciąga uwagę innowacyjnym podejściem do problemów związanych z bezpieczeństwem AI. Jak zauważa CEO i CTO Mindgardu, profesor Peter Garraghan, “AI to wciąż oprogramowanie, zatem typowe zagrożenia cybernetyczne również mają tutaj zastosowanie”. Dodaje jednak, że “oparta na losowości i nieprzejrzystości natura sieci neuronowych oraz systemów AI wymaga nowego podejścia do bezpieczeństwa”.
Mindgard profituje ze swojej unikalnej technologii Dynamic Application Security Testing for AI (DAST-AI), która zajmuje się wykrywaniem luk w systemach AI w trakcie ich rzeczywistego użytkowania. Technologia ta opiera się na ciągłej i zautomatyzowanej symulacji ataków (tzw. red teaming), korzystając z własnej biblioteki zagrożeń opracowanej przez Mindgard. Przykładowym zastosowaniem jest testowanie odporności klasyfikatorów obrazu na niebezpieczne i wrogie dane wejściowe.
Za rozwój tej technologii odpowiada zespół badawczy pod przewodnictwem Garraghana, który jako profesor i naukowiec od lat zajmuje się bezpieczeństwem w obszarze AI. Warto zauważyć, że kiedy zaczynał swoją pracę, modele takie jak ChatGPT jeszcze nie istniały, ale przewidział, że w przyszłości narzędzia bazujące na NLP i przetwarzaniu obrazów mogą stać się celem nowych typów ataków. Dzięki współpracy z Uniwersytetem Lancaster, Mindgard dysponuje imponującym zapleczem badawczym, obejmującym wkład 18 doktorantów w rozwój firmy. Jak podkreśla Garraghan: „Nie ma drugiej takiej firmy na świecie, która mogłaby pochwalić się takim układem.”
Choć Mindgard ma silne fundamenty w badaniach naukowych, jest firmą w pełni komercyjną, oferującą swoje produkty w modelu SaaS (Software as a Service). Współzałożyciel firmy, Steve Street, pełni funkcje COO i CRO, koncentrując się na rozwijaniu działalności. Oprócz globalnych przedsiębiorstw, naturalnymi klientami Mindgardu są zespoły zajmujące się testami penetracyjnymi oraz startupy AI chcące zwiększyć wiarygodność w oczach swoich klientów, poprzez pokazanie, że stosują skuteczne mechanizmy zabezpieczeń ryzyk AI.
Z rosnącą liczbą potencjalnych klientów z USA, firma rozszerza swoją obecność na tamtejszym rynku. Po udanym zebraniu 3 milionów funtów w ramach początkowej rundy finansowania w 2023 roku, Mindgard ogłosił kolejną rundę finansowania na kwotę 8 milionów dolarów, prowadzoną przez bostoński fundusz .406 Ventures, przy wsparciu m.in. Atlantic Bridge, WillowTree Investments, IQ Capital i Lakestar. Środki te zostaną przeznaczone na rozwój zespołu, rozbudowę produktu, badania i rozwój, a także ekspansję na kluczowy rynek amerykański. Nowo zatrudniony wiceprezes ds. marketingu, Fergal Glynn, pracujący wcześniej jako CMO w Next DLP, ulokowany jest w Bostonie. Tymczasem działalność badawczo-rozwojowa oraz inżynierska pozostają w Londynie.
Obecnie firma zatrudnia 15 osób i planuje zwiększyć zespół do 20-25 osób w najbliższym roku. Podejście to wynika z przekonania, że dziedzina bezpieczeństwa AI dopiero wkracza na etap szerokiej adopcji. Kiedy jednak sztuczna inteligencja stanie się wszechobecna, a zagrożenia związane z jej wykorzystywaniem osiągną szczyt, Mindgard będzie przygotowany, aby sprostać tym wyzwaniom. Jak powiedział Garraghan: „Tworzymy tę firmę z myślą o pozytywnym wpływie na świat. Naszym celem jest, aby ludzie mogli ufać AI i korzystać z niej w bezpieczny sposób.”