Dlaczego umowy dotyczące AI różnią się od tradycyjnych kontraktów IT
Wyobraź sobie: Twój kierownik projektu korzysta z ChatGPT do przygotowania specyfikacji wymagań, która zawiera poufne dane klienta. Trzy miesiące później podobne sformułowania pojawiają się w ofercie konkurencji.
Przypadek? Mało prawdopodobne.
Umowy AI różnią się zasadniczo od klasycznych licencji na oprogramowanie. W przypadku systemu CRM wiesz dokładnie, co potrafi, a czego nie. Natomiast modele AI działają w szarej strefie prawdopodobieństw i ciągłych procesów uczenia.
EU AI Act, który od 2024 roku wchodzi w życie etapami, zaostrza wymagania prawne. Firmy muszą teraz oceniać kategorie ryzyka i wdrażać odpowiednie środki ochronne.
W związku z tym pojawiają się trzy kluczowe obszary problemowe:
Przejrzystość przepływu danych: Gdzie trafiają Twoje dane wejściowe? Czy są używane do treningu? Te pytania pozostają często bez odpowiedzi w standardowych regulaminach.
Nieprzewidywalność wyników: AI potrafi „halucynować”, dyskryminować lub generować po prostu błędne rezultaty. Kto odpowiada za skutki uboczne?
Uzależnienie od dostawcy (Vendor Lock-in): Specjalnie wytrenowane modele trudno jest przenieść. Twoje dane i modyfikacje zostają u dostawcy.
Dobra wiadomość: odpowiednimi klauzulami umownymi można te ryzyka znacząco zredukować.
Siedem kluczowych klauzul w skrócie
Nie każda implementacja AI wymaga 50-stronicowej umowy. Ale siedem kluczowych obszarów zawsze trzeba adresować:
- Wykorzystanie i ochrona danych: Jasne zasady dotyczące danych wejściowych, trenowania i przechowywania
- Podział odpowiedzialności: Kto ponosi ryzyko błędnych wyników AI?
- Własność intelektualna: Status prawny treści generowanych przez AI
- Service Level Agreements: Mierzalne standardy jakości i dostępności
- Zgodność i audyty: Potwierdzenie spełnienia wymogów prawnych
- Zasady wypowiedzenia: Zwrot i usunięcie danych po zakończeniu umowy
- Zarządzanie zmianami: Postępowanie przy aktualizacjach modeli i zmianach funkcji
Te kwestie brzmią technicznie, ale mają bezpośrednie znaczenie biznesowe. Brak procedury zwrotu danych może odciąć Cię od najważniejszego narzędzia AI na wiele miesięcy.
Szczególnie przy większych wdrożeniach – jak chatbot firmowy czy system typu RAG – każdy aspekt musi być precyzyjnie uregulowany.
Powód jest prosty: Projekty AI rzadziej zawodzą z powodów technicznych niż przez niejasność odpowiedzialności.
Ochrona danych i compliance: Rdzeń każdej umowy dotyczącej AI
Tu robi się konkretnie: Twoi pracownicy codziennie wprowadzają do narzędzi AI wrażliwe informacje. Dane klientów, strategie, kalkulacje.
RODO wymaga podstawy prawnej przy każdej operacji na danych. W przypadku AI to skomplikowane, bo często nie wiadomo, co dokładnie dzieje się z danymi.
Zdefiniuj cel przetwarzania: Zażądaj pisemnego potwierdzenia, do czego wykorzystywane są Twoje dane. „Do świadczenia usługi” to za mało. Dopytaj o szczegóły: Czy używane do trenowania? Czy profilowane?
Ureguluj przetwarzanie powierzone: Gdy dostawca AI przetwarza dane osobowe, potrzebujesz umowy powierzenia przetwarzania (DPA) zgodnie z art. 28 RODO. Wielu dostawców z USA oferuje standardowe umowy.
Zwróć uwagę na lokalizację danych: Gdzie przetwarzane i przechowywane są Twoje dane? U europejskich dostawców to bywa proste. U amerykańskich wymagane są standardowe klauzule lub Data Privacy Framework.
Ustal terminy usuwania danych: Wskaż wyraźnie, kiedy i w jaki sposób Twoje dane będą usuwane. „Po zakończeniu umowy” to zbyt ogólnikowe. Lepiej: „30 dni po pisemnym wypowiedzeniu ze świadectwem usunięcia”.
Przykład praktyczny: producent maszyn korzysta z AI do przygotowania ofert. Do systemu trafiają dane klientów, ceny i specyfikacje techniczne.
Bez jasnych zasad użycia danych firma ryzykuje karę RODO do 4% rocznego obrotu. Przy 50 milionach euro to już 2 miliony euro.
Rozwiązanie: szczegółowy plan przepływu danych w umowie. Każdy typ danych ma odrębne zasady przechowywania, przetwarzania i usuwania.
Zabezpiecz prawa audytowe: Zastrzeż prawo do kontroli zgodności. Więksi dostawcy często udostępniają raporty SOC-2.
Pytania o odpowiedzialność i rozkład ryzyka: Kto za co odpowiada?
AI popełnia błędy. To fakt, nie wada techniczna.
Large Language Models „halucynują” w pewnym procencie przypadków – w zależności od zadania. Computer Vision może błędnie sklasyfikować obiekt. Predictive Analytics czasem daje absurdalne prognozy.
Pytanie brzmi: kto odpowiada za szkody spowodowane przez błędne wyniki AI?
Zrozum wyłączenia standardowe: Większość dostawców AI wyklucza odpowiedzialność za szkody pośrednie. Oznacza to: jeśli przez błędną ofertę AI tracisz kontrakt, dostawca nie wypłaci nic.
Wynegocjuj limity odpowiedzialności: Wymagaj realistycznych limitów. Przy kluczowych zastosowaniach wartość limitu powinna odpowiadać potencjalnej szkodzie, a nie kosztom licencji.
Ustal obowiązki dokumentacyjne: EU AI Act przy systemach wysokiego ryzyka nakłada obowiązek szczegółowej dokumentacji. Jasno określ, kto dostarcza takie dowody.
Konkretna sytuacja: agencja pracy korzysta z AI do selekcji CV. System systematycznie dyskryminuje kandydatów powyżej 50. roku życia.
Efekt: pozew o dyskryminację, utrata reputacji, wstrzymanie rekrutacji.
Gdy klauzule odpowiedzialności są nieprecyzyjne, firma sama ponosi wszelkie koszty. Lepiej: klauzula nakładająca na dostawcę obowiązek zapewnienia algorytmicznej fair play.
Sprawdź ochronę ubezpieczeniową: Twoja polisa OC firmy często nie obejmuje szkód AI. Potrzebne są specjalne ubezpieczenia cyber lub dodatki AI.
Zdefiniuj procedury awaryjne: Co się dzieje po błędzie AI? Wskaż ścieżki zgłaszania, czas reakcji i działania naprawcze.
Realizm ważniejszy jest tu niż perfekcyjne zabezpieczenia. Żaden dostawca nie przejmie nieograniczonej odpowiedzialności za AI. Ale można wymusić minimalne standardy i uczciwy podział ryzyka.
Własność intelektualna: Do kogo należą treści generowane przez AI?
To pytanie dzieli prawników na świecie: czy AI może stworzyć utwór chroniony prawem autorskim? W Niemczech odpowiedź jest jasna: nie.
Prawa autorskie chronią tylko wytwory człowieka. Efekty działania AI są co do zasady domeną publiczną – teoretycznie.
W praktyce bywa trudniej:
Zważ prawa do danych wejściowych: Jeśli korzystasz z materiałów chronionych prawem autorskim jako input dla AI, mogą powstać naruszenia. Niektóre modele AI były trenowane na chronionych treściach.
Wyjaśnij użycie outputów: Nawet jeśli teksty AI nie są chronione, dostawca może w umowie ograniczyć prawa do użytkowania. Zawsze czytaj drobny druk.
Zabezpiecz prawo do przeróbek: Czy możesz swobodnie modyfikować i sprzedawać wyniki AI? Powinno to być jasno uregulowane.
Przykład praktyczny: agencja marketingowa tworzy z DALL-E obrazy reklamowe dla klienta. Jeden z obrazów przypadkiem przypomina istniejące dzieło sztuki.
Efekt: wezwanie do zaprzestania, roszczenie o odszkodowanie, przerwanie kampanii.
Rozwiązanie: Klauzule nakładające na dostawcę obowiązek kontroli i odszkodowanie na wypadek naruszenia praw.
Chroń tajemnice przedsiębiorstwa: Treści generowane przez AI często bazują na Twoich poufnych danych. Zabezpiecz, by nie trafiły do danych treningowych innych klientów.
Miej na uwadze prawa do znaków towarowych: AI może przypadkiem użyć cudzej marki. Określ w umowie, kto odpowiada za naruszenia.
Nie ma jednej odpowiedzi na pytania IP. Każdy przypadek należy regulować indywidualnie.
SLA oraz gwarancje wydajności dla systemów AI
Tradycyjne oprogramowanie działa albo nie działa. Sztuczna inteligencja to zupełnie inna historia.
Chatbot może być technicznie dostępny, a mimo to udzielać bezużytecznych odpowiedzi. Narzędzie do tłumaczenia – tłumaczy, ale z fatalną jakością.
Uczynij dostępność mierzalną: 99,9% dostępności to standard. Ale umów się, co to znaczy „dostępny” – czas reakcji powyżej 30 sekund przy wielu zastosowaniach oznacza bezużyteczność.
Ustal metryki jakości: Tu zaczynają się trudności. Jak mierzyć jakość tłumaczenia AI lub tekstu wygenerowanego przez system?
Możliwe podejścia:
- Oceny ludzkie na próbie losowej
- Benchmarki wobec uznanych narzędzi
- Progi satysfakcji klientów
- Poprawność merytoryczna przy standardowych testach
Rozwiązuj problemy ze spadkiem wydajności: Modele AI mogą po aktualizacji działać gorzej. Warto zastrzec możliwość cofnięcia się do poprzedniej wersji.
Przykład z życia: Firma wykorzystuje AI do ekstrakcji danych z dokumentów. Po aktualizacji systemu rozpoznawalność spada z 94% do 78%.
Bez klauzul SLA nie masz żadnej podstawy do działania. Z odpowiednimi zapisami możesz wymusić rollback albo zrekompensowanie strat.
Wymagaj gwarancji skalowalności: Co się stanie, jeśli zapotrzebowanie wzrośnie o 500%? Przy udanych wdrożeniach musisz znać ograniczenia wydajnościowe.
Ważne: miej realistyczne oczekiwania. Jakość AI z definicji jest zmienna, ale minimalne standardy można wprowadzić.
Klauzule wyjścia i przenoszalność danych
Najczarniejszy scenariusz: Twój dostawca AI zostaje przejęty, podnosi ceny o 300% albo zamyka usługę.
Bez strategii wyjścia czeka Cię problem: miesiące lub lata pracy z danymi przepadają.
Ustal formaty eksportu danych: W jakim formacie otrzymasz swoje dane? CSV? JSON? Formaty zamknięte nic Ci nie dadzą.
Uzgodnij czas transferu: Ile trwa eksport danych? Przy dużej ilości może to być kilka tygodni. Uwzględnij to w harmonogramie przejścia.
Wyjaśnij przenoszalność modeli: Czy możesz zabrać wytrenowany model? Często technicznie to niemożliwe, ale dane treningowe można zwykle wyeksportować.
Przykład praktyczny: Przedsiębiorstwo przemysłowe przez dwa lata trenuje chatbot AI na własnych FAQ. Dostawca podwaja ceny.
Z dobrą klauzulą wyjścia: eksport danych treningowych, 90 dni równoległego działania, wdrożenie u konkurencji.
Bez strategii wyjścia: miesiące bez chatbota lub konieczność zaakceptowania podwyżki.
Wymagaj potwierdzenia usunięcia danych: Po eksporcie danych żądaj pisemnego potwierdzenia ich usunięcia u dotychczasowego dostawcy.
Negocjuj wsparcie przy migracji: Więksi dostawcy często oferują wsparcie migracyjne do konkurencji. To standard przy profesjonalnych usługach B2B – choć brzmi przewrotnie.
Klauzule wyjścia to rodzaj polisy ubezpieczeniowej. Lepiej, by się nigdy nie przydały – ale jeśli już, ratują Ci projekt.
Praktyczna checklista do negocjacji
Zanim przystąpisz do negocjowania umowy, przygotuj się w następujących obszarach:
Przed negocjacjami:
- Wypisz kategorie danych: Jakie dane trafiają do systemu?
- Przeprowadź ocenę ryzyka: Jakie są najgorsze możliwe scenariusze?
- Zapewnij budżet na obsługę prawną: Przy kontrakcie rocznym powyżej 50 000 euro warto skorzystać z eksperckiego wsparcia
- Przeanalizuj alternatywnych dostawców: Z opcją rezerwową masz silniejszą pozycję
Klauzule obowiązkowe:
- Szczegółowe zasady użycia danych
- Zgodna z RODO umowa powierzenia przetwarzania
- Realistyczne limity odpowiedzialności
- Mierzalne wymogi SLA
- Pełna przenoszalność danych
Przydatne dodatki:
- Darmowe testy aktualizacji
- Depozyt kodu źródłowego dla kluczowych systemów (Escrow)
- Priorytetowy czas wsparcia
- Regularne raporty zgodności
Pamiętaj: umowy są przedmiotem negocjacji. Standardowe regulaminy to tylko punkt wyjścia, nie ostateczne warunki.
Przy większych kontraktach masz więcej przestrzeni do negocjacji niż przy prostej licencji. Skorzystaj z niej.
Wnioski: Pewność prawna bez hamowania innowacji
Umowy dotyczące AI są bardziej złożone niż zwykłe licencje na oprogramowanie. Ale to nie jest problem nie do rozwiązania.
Najważniejsza wskazówka: nie daj się odstraszyć złożonością techniczną. Skup się na kluczowych ryzykach biznesowych.
Ochrona danych, odpowiedzialność i strategia wyjścia to obowiązkowe punkty. Reszta podlega negocjacjom.
Bariery prawne da się pokonać – jeśli zaplanujesz działania odpowiednio wcześnie i zachowasz realistyczne oczekiwania.
Twój kolejny krok: zidentyfikuj najważniejsze przypadki użycia AI w swojej firmie i opracuj wzór umowy, który wykorzystasz we wszystkich negocjacjach.
To pozwoli Ci zaoszczędzić czas i ułatwi konsystencję inwestycji w AI.