Eksperci nie ufają AI. Jej niedoskonałość może być niebezpieczna, co oznacza, że programiści dalej będą potrzebni

Eksperci nie ufają AI. Jej niedoskonałość może być niebezpieczna, co oznacza, że programiści dalej będą potrzebni

W ostatnich miesiącach obserwujemy dynamiczny rozwój branży sztucznej inteligencji, przez co zaczęły się pojawiać obawy, że wkrótce sporo programistów przestanie być potrzebnych. W pewnym sensie są to uzasadnione obawy, bo sporą część mniej wymagającej pracy będzie można zlecić AI. Pojawiają się jednak głosy ekspertów, że AI nie jest doskonała, dlatego dobrzy programiści będą cały czas w cenie.

Dane Eurostatu za 2024 rok pokazują, że z AI korzystało 13,5% europejskich firm, z widoczną tendencją wzrostową. Według raportu The Linux Foundation narzędzia AI są najczęściej wykorzystywane do wykrywania anomalii w kodzie i łagodzenia ich skutków (35% odpowiedzi), testowania oprogramowania (34%) i generowania dokumentacji dla aplikacji (34%). Specjaliści często wskazywali również na wykorzystanie AI w celu analizy podatności i ograniczenia ryzyka (31%) oraz generowania kodu (29%).

Spierają się poglądy, czy AI przyczyni się do większego bezpieczeństwa oprogramowania, czy zadziała bardziej na niekorzyść – Algorytmy sztucznej inteligencji mogą wspierać działania deweloperów, jednak nie zastąpią ich pracy. Poleganie wyłącznie na AI w pracy nad kodem jest częstą przyczyną błędów, a także utrudnieniem na etapie późniejszych poprawek. Podobnie w przypadku bezpieczeństwa – AI może pomóc w ochronie aplikacji i systemów, jednak nie jest to rozwiązanie, które daje nam stałą gwarancję odpierania ataków. Musimy pamiętać, że cyberprzestępcy stosują coraz bardziej zaawansowane metody, dlatego o bezpieczeństwo należy dbać przekrojowo – wyjaśnia Dariusz Świąder, Linux Polska.

Zdaniem Świądra sztuczna inteligencja jest podatna na tworzenie słabej jakości kodu lub błędów, które mogą stać się luką do ataku hakerskiego lub użycia złośliwego oprogramowania  – Oprócz identyfikacji luk i błędów w kodzie analiza ryzyka open source powinna obejmować również wydajność i kompatybilność kodu, dokumentację, poziom długu technologicznego, wskaźnik zainteresowania projektem, liczbą i profil kontrybutorów czy zmiany w licencjach. Tych aspektów, które mogą wpłynąć na bezpieczeństwo organizacji, jest bardzo dużo, a ich analiza wymaga sporo czasu i często specyficznych kompetencji. Aby ułatwić organizacjom zarządzanie ryzykiem, stworzyliśmy naszą platformę – system, który mierzy ryzyko przy pomocy metody analizy rozwiązań informatycznych SCARE. Prosty do interpretacji indeks pozwala na podjęcie odpowiednich decyzji projektowych, a Centrum Indywidualnego Wsparcia Technicznego SourceMation wspiera organizację w zakresie analizy prawnej i technicznej, doboru optymalnych rozwiązań oraz ich wdrożeń – wyjaśnia Radosław Żak-Brodalko, Linux Polska.

Wniosek obojga ekspertów jest taki, że korzystanie z narzędzi AI do tworzenia kodu wymaga ścisłej współpracy z programistami.