Skip to main content

Sztuczna inteligencja na dobre zadomowiła się w naszych miejscach pracy. Od pisania maili, przez tworzenie grafik, po analizę danych – narzędzia AI stają się cichymi partnerami w codziennych zadaniach. Ich wartość jest niezaprzeczalna, ale jak każde potężne narzędzie, niesie ze sobą zestaw ukrytych ryzyk i nieintuicyjnych zasad. Ich nieznajomość może prowadzić do problemów, o których nawet nie pomyśleliśmy – od naruszenia prawa po utratę kluczowych zasobów firmy.

W tym artykule przyjrzymy się czterem kluczowym zasadom, które powinien znać każdy profesjonalista korzystający z AI. Co ciekawe, nie są to luźne przemyślenia, a wnioski płynące prosto z analizy oficjalnych, wewnętrznych wytycznych dla jednej z polskich instytucji publicznych. To nadaje im szczególną wagę i pokazuje, jak poważnie podchodzi się do tych zagadnień na poziomie organizacyjnym.

Oto cztery zasady, które pomogą Ci korzystać z AI mądrze, bezpiecznie i odpowiedzialnie. Niektóre z nich mogą Cię zaskoczyć.

1. Ostateczna odpowiedzialność i tak spoczywa na Tobie

Łatwo jest myśleć o AI jako o autonomicznym asystencie, który wykonuje pracę za nas. To jednak pułapka. Prawda jest taka, że sztuczna inteligencja to tylko i aż narzędzie – zaawansowany edytor tekstu czy program graficzny, ale wciąż tylko narzędzie. Oznacza to, że pełna odpowiedzialność za jakość, poprawność i skutki wygenerowanych przez nią treści spoczywa na Tobie, tak jakbyś stworzył je całkowicie samodzielnie.

Jak trafnie ujmują to wewnętrzne wytyczne:

Narzędzia AI pomagają Ci w pracy, ale nie zastępują Ciebie.

Bezkrytyczne kopiowanie wyników pracy AI bez ich dogłębnej weryfikacji to poważny błąd zawodowy. Generatory potrafią zmyślać fakty, popełniać subtelne błędy merytoryczne i tworzyć treści, które tylko na pierwszy rzut oka wyglądają poprawnie. Pamiętaj: przed wysłaniem, publikacją czy podjęciem decyzji na podstawie materiału od AI, to Ty jesteś ostatnim filtrem i gwarantem jego jakości.

2. Darmowe narzędzia AI mogą zdradzić Twoje sekrety

Wygoda darmowych narzędzi AI ma swoją cenę, a często jest nią prywatność Twoich danych. Kluczowa różnica między wersjami darmowymi a płatnymi (biznesowymi) leży w sposobie traktowania informacji, które wprowadzasz. Darmowe usługi często wykorzystują Twoje prompty do trenowania i doskonalenia swoich modeli.

Oznacza to, że wszystko, co wpiszesz, może stać się częścią „wiedzy” modelu. Stwarza to ogromne zagrożenia, zwłaszcza w kontekście zawodowym. Wprowadzając dane firmowe, ryzykujesz ujawnienie informacji poufnych. Wklejając fragmenty dokumentów zawierające dane osobowe, możesz naruszyć przepisy RODO. W najgorszym scenariuszu informacje, które wprowadziłeś, mogą pojawić się w odpowiedziach generowanych dla zupełnie innych użytkowników na drugim końcu świata.

Oficjalne dokumenty ostrzegają wprost:

Wersje bezpłatne Narzędzi AI często nie zapewniają ochrony dla danych wprowadzanych do systemu.

Zanim wkleisz cokolwiek do darmowego chatbota, zadaj sobie pytanie: czy czułbyś się komfortowo, gdyby ta informacja trafiła na publiczne forum? Jeśli nie, pod żadnym pozorem nie wprowadzaj jej do narzędzia.

3. To, co stworzy dla Ciebie AI, nie należy do Ciebie

To jedna z najbardziej zaskakujących i brzemiennych w skutki zasad. Zgodnie z obecnym stanem prawnym, treści w całości wygenerowane przez sztuczną inteligencję nie są uznawane za „utwór” w rozumieniu prawa autorskiego. A skoro nie ma twórcy (człowieka), nie ma też ochrony prawnoautorskiej.

Jakie są tego praktyczne konsekwencje?

    • Twoja firma nie posiada wyłącznych praw do tekstu, grafiki czy kodu stworzonego w 100% przez AI.
    • Nie możesz zabronić innym kopiowania i wykorzystywania tych treści, gdy tylko zostaną upublicznione.
    • Jeśli Twoja firma zobowiązała się w umowie do przeniesienia praw autorskich do stworzonego dzieła (np. projektu dla klienta), nie będzie w stanie wywiązać się z umowy, jeśli dzieło zostało w całości wygenerowane przez AI.

Rozwiązanie? Potraktuj wynik działania AI jako surowy materiał, a nie gotowy produkt. Zawsze edytuj, modyfikuj i dodawaj do niego swój własny, ludzki wkład twórczy. Tylko w ten sposób możesz nadać mu cechy utworu i zapewnić mu ochronę prawną.

4. Możesz niechcący stworzyć „system AI wysokiego ryzyka”

Brzmi groźnie i trochę jak science fiction, ale jest to realne ryzyko prawne wynikające z unijnego rozporządzenia AI Act. „System AI wysokiego ryzyka” to system używany w jednym z kluczowych obszarów, które unijne rozporządzenie AI Act formalnie klasyfikuje jako „wysokiego ryzyka” w swoim załączniku III. Co najważniejsze, nie trzeba budować skomplikowanego algorytmu od zera, aby wejść w tę kategorię.

Wystarczy, że użyjesz ogólnodostępnego narzędzia AI w jednym z tych zastosowań. Ryzyko pojawia się, gdy wykorzystujesz AI w kontekście:

    • Kształcenia i szkolenia zawodowego (np. do oceny testów).
    • Zatrudnienia (np. do selekcji CV).
    • Zarządzania pracownikami (np. do oceny wydajności).

Nawet jednorazowe użycie AI w takim celu może sprawić, że Twoja firma zostanie uznana za operatora systemu wysokiego ryzyka. Wiąże się to z nałożeniem szeregu skomplikowanych i trudnych do spełnienia obowiązków formalnych, a ich niedopełnienie grozi bardzo wysokimi karami finansowymi.

Podsumowanie

Sztuczna inteligencja to rewolucja, która zmienia sposób, w jaki pracujemy. Jednak jak każda rewolucja, wymaga od nas nabycia nowych kompetencji. Okazuje się, że kluczowe są nie tylko umiejętności techniczne związane z pisaniem dobrych promptów, ale przede wszystkim świadomość prawna, etyczna i zawodowa odpowiedzialność.

Korzystanie z AI to nieustanny taniec między maksymalizacją korzyści a minimalizacją ryzyka. Znajomość powyższych zasad to pierwszy krok, by w tym tańcu nie pomylić kroków.

Skoro AI stawia przed nami tyle nowych wyzwań, jak myślisz, co jest najważniejszą umiejętnością, którą musimy rozwinąć, by korzystać z niej mądrze i bezpiecznie?