Sztuczna inteligencja (AI) szturmem wdarła się do biznesu. Obiecuje zwiększenie produktywności, automatyzację monotonnych zadań i generowanie nowych pomysłów. Trzeba jednak pamiętać, że obok korzyści pojawiają się realne zagrożenia. Przykład firmy KP Labs pokazuje, jak brak krytycznej weryfikacji wyników generowanych przez AI może przynieść poważne konsekwencje finansowe i wizerunkowe.
Przypadek KP Labs – kiedy halucynacje AI blokują rozwój
KP Labs to gliwicka spółka z branży kosmicznej, która w 2024 r. osiągnęła ponad 21 mln zł przychodów i zatrudnia 85 osób. Na początku 2025 r. firma złożyła wniosek do Narodowego Centrum Badań i Rozwoju (NCBR) o dotację na opracowanie nowej jednostki obliczeniowej z algorytmami AI dla satelitów i łazików kosmicznych.
Ekspert NCBR oceniający wniosek uznał jednak, że projekt nie jest wystarczająco innowacyjny, ponieważ na rynku rzekomo istnieją podobne rozwiązania. W karcie oceny błędnie porównano technologię KP Labs z parametrami satelity EagleEye i mikrosatelitów Camila – danymi, które w rzeczywistości nigdy nie zostały publicznie ujawnione. Jeszcze większe zdumienie wywołało porównanie z parametrami łazika „Analog Mars Yard”, który… w ogóle nie istnieje. Okazało się, że dane te są typową halucynacją modeli generatywnej AI, którą bezkrytycznie wykorzystano w ocenie.
NCBR tłumaczyło, że ekspert korzystał tylko z wyszukiwarek Google i Bing. Niezależnie od źródła błędnych danych – AI czy automatycznych podsumowań wyszukiwarek – wynik był taki sam: błędna ocena zablokowała finansowanie projektu wartego 17 mln zł.
Raport KPMG: pracownicy używają AI i często to ukrywają
Odpowiedzialność za podobne wpadki może ciążyć nie tylko na instytucjach publicznych, lecz także na prywatnych firmach. Z raportu KPMG „Sztuczna inteligencja w Polsce” wynika, że:
- 69 % badanych Polaków korzysta z AI regularnie, ale tylko 29 % przeszło jakiekolwiek szkolenie z tego zakresu.
- 55 % respondentów nie ujawnia, że korzystało ze sztucznej inteligencji w pracy, przedstawiając wygenerowane przez AI treści jako własne.
- 90 % osób nie wie o istnieniu regulacji dotyczących AI.
Raport wskazuje również, że pracownicy często nie doceniają ograniczeń AI: mniej niż 40 % badanych uwzględnia możliwość pominięcia kontekstu lub zniekształcenia sytuacji przez AI przy korzystaniu z jej wyników. Z perspektywy pracodawcy oznacza to, że w wielu firmach już teraz powstaje “szara strefa” AI – projekty, analizy czy oferty przygotowane przez generatory mogą zawierać fałszywe dane, a kierownictwo nie ma o tym pojęcia.
Ukryte ryzyka dla pracodawcy
Przykład KP Labs i błędnej oceny przez NCBR oraz wnioski z raportu KPMG pokazują, że brak świadomości w obszarze AI niesie realne zagrożenia:
- Utrata finansowania lub klienta
Decyzje podejmowane przez zewnętnych ekspertów na podstawie zmyślonych danych mogą skutkować utratą dotacji, klienta lub reputacji – jak w przypadku niesprawiedliwej oceny projektu KP Labs. - Ujawnienie tajemnic firmowych
Pracownik wprowadzający do chatbota poufne informacje (np. specyfikacje produktu) może nieświadomie przekazać je zewnętrznemu dostawcy modelu, a wygenerowane treści mogą trafić w ręce konkurencji. - Niezgodność z regulacjami
90 % badanych nie zna przepisów dotyczących AI. Naruszenie zasad ochrony danych osobowych czy wymogów branżowych może prowadzić do wysokich kar. - Mylne decyzje strategiczne
Halucynacje AI mogą wypaczyć analizy rynku, prognozy finansowe czy oceny konkurencji. W raporcie KPMG mniej niż jedna trzecia respondentów rozważa zarówno korzyści, jak i zagrożenia przed zastosowaniem AI w pracy.
Jak się zabezpieczyć? Edukacja i kultura odpowiedzialnego korzystania z AI
Nie chodzi o to, by zrezygnować ze sztucznej inteligencji – wręcz przeciwnie, jej umiejętne wykorzystanie daje przewagę konkurencyjną. Kluczem jest świadomość i szkolenie:
- Stwórz jasne zasady korzystania z AI
Spisz, jakie narzędzia są dopuszczalne, jakie dane mogą być wprowadzane do modeli i jak weryfikować otrzymane wyniki. - Zainwestuj w szkolenia
Tylko 29 % polskich pracowników przeszło jakiekolwiek szkolenie z AI. Dobrze przygotowany program nauczy zespoły krytycznego myślenia, weryfikacji źródeł i ochrony danych. - Buduj kulturę transparentności
Zachęcaj pracowników, by informowali o użyciu AI i dzielili się wątpliwościami. Ukrywanie narzędzi generatywnych przed przełożonymi powinno być sygnałem alarmowym. - Monitoruj i aktualizuj procesy
Technologia rozwija się szybciej niż przepisy. Regularnie przeglądaj stosowane narzędzia i praktyki, aby zapewnić zgodność z prawem i najlepszymi standardami.
Zadbaj o swoje zespoły razem z techrunners
Jeśli chcesz uniknąć scenariuszy takich jak niesłuszna ocena projektu KP Labs i zmniejszyć ryzyko błędnych decyzji czy wycieku danych, nie zostawiaj edukacji na później. W techrunners przygotowaliśmy kompleksowe szkolenie dla pracowników i menedżerów, które pokazuje, jak odpowiedzialnie wykorzystywać AI w biznesie:
- Uczymy, jak rozpoznawać halucynacje AI i weryfikować informacje.
- Pokazujemy, jak chronić własność intelektualną i dane firmowe.
- Pomagamy wypracować wewnętrzne procedury i kulturę transparentności.
Zapraszamy do kontaktu – pomożemy Twojej firmie wykorzystać potencjał AI w sposób bezpieczny i zgodny z regulacjami. Dzięki odpowiednim szkoleniom Twoi pracownicy staną się świadomymi użytkownikami technologii, a Ty zmniejszysz ryzyko kosztownych błędów i utraty zaufania klientów.
źródła: Puls Biznesu, Raport KPMG