Ogólne uregulowania

AI (artificial intelligence – sztuczna inteligencja), jako że nie jest podmiotem praw autorskich, nie ponosi odpowiedzialności za generowane przez siebie treści. Nie jest to jednak kwestia oczywista i w przyszłości pewnie nadal będzie budzić wątpliwości. Już teraz pojawiają się głosy – np. przy pracach prowadzonych przez ustawodawcę unijnego i pomyśle „osoby elektronicznej” – że wraz z rozwojem AI taką podmiotowość prawną – a w konsekwencji możliwość ponoszenia odpowiedzialności za spowodowane szkody – uzyska.

Podobnie – wobec jednoznacznej definicji utworu w polskim prawie autorskim, której rozumienie nie budzi w zasadzie sporów – wytwory tworzone przez (lub za pomocą) AI nie będę kwalifikowane jako utwór. Utworem (objętym ochroną) jest każdy przejaw działalności twórczej o indywidualnym charakterze, ustalonym w jakiejkolwiek postaci, niezależnie od wartości, przeznaczenia i sposobu wyrażenia [1]. Kluczowe znaczenie ma tu element „twórczości”. Najogólniej, przez twórczość rozumie się wysiłek intelektualny, kreacyjny prowadzący do powstania określonego rezultatu. Na ten moment – z uwagi na sposób działania i ograniczenia AI oraz uregulowania prawne – przesłanka ta może być spełniona wyłącznie przez człowieka.

Ryzyko naruszenia praw autorskich

Wszystko to (brak podmiotowości prawnej AI i brak uznania jej wytworów za utwory podlegające ochronie prawnej na gruncie prawa autorskiego) nie oznacza, że korzystanie z AI oraz wykorzystywanie treści, w tym grafiki, muzyki czy tekstu, wygenerowanych przez AI nie może doprowadzić do naruszenia praw autorskich. Truizmem będzie stwierdzenie, że efekt pracy AI sam w sobie może stanowić plagiat czy w wyraźny sposób korzystać z fragmentów istniejących utworów, czy naśladować styl danego twórcy. Zresztą AI jest w tych celach powszechnie wykorzystywane, np. w przypadku naśladowania przez AI stylów słynnych malarzy. Trzeba jednak pamiętać, że w większości przypadków takiego wykorzystania ochrona z tytułu praw autorskich do dzieł tychże malarzy wygasła ze względu na upływ normatywnego okresu (którego początek najczęściej liczony jest od dnia śmierci twórcy).

Należy mieć na uwadze, że obecnie najpopularniejsze powszechnie wykorzystywane systemy AI nie weryfikują kreowanych efektów przez pryzmat tego, czy efekt ten jest zbliżony do utworów lub czy wykorzystuje całość czy fragmenty utworów podlegających ochronie prawnoautorskiej, a ogólnie czy narusza prawa autorskie. Stąd ryzyko i ciężar weryfikacji naruszeń spoczywa co do zasady na użytkowniku narzędzia AI.

Roszczenia i sankcje prawnokarne

W przypadku naruszenia przepisy polskiego prawa autorskiego przyznają temu, kogo prawa zostały naruszone, szereg roszczeń, m.in.: żądanie:

  • zaniechania naruszeń,
  • usunięcia skutków naruszeń,
  • naprawienia wyrządzonej szkody na zasadach ogólnych albo poprzez zapłatę – zależnie od winy – odpowiedniej wielokrotności wynagrodzenia za korzystanie z utworu czy wydania
  • uzyskanych korzyści,
  • opublikowania stosownych oświadczeń w prasie,
  • podania do publicznej wiadomości treści orzeczenia sądowego [2].

Uwzględnienie i egzekucja roszczeń mogą mieć zatem istotne finansowe skutki.

W skrajnych przypadkach naruszenie praw autorskich może wiązać się także z reakcją karną. Polskie prawo autorskie przewiduje bowiem sankcję na przykład za przywłaszczenie cudzego utworu, wprowadzenie w błąd co do jego autorstwa, bezprawne utrwalanie lub rozpowszechnianie czy obrót nielegalnymi kopiami utworu [3].

Zarówno wymienione roszczenia cywilne, jak i reakcja karna muszą być skierowane w stosunku do osoby, która prawa naruszyła bądź wypełniła znamiona czynu zabronionego, przy czym na gruncie prawa cywilnego zawinienie nie ma co do zasady wpływu na ponoszenie odpowiedzialności.

Podmiot odpowiedzialny

Powstaje zatem pytanie, kto będzie odpowiedzialny za naruszenie praw autorskich w przypadku AI: czy będzie to twórca systemu AI, dalszy podmiot oferujący system AI odbiorcom (sprzedawcy, dystrybutorzy, operatorzy) czy może końcowy użytkownik?

Na ten moment odpowiedzi będą zależeć od okoliczności danego naruszenia, przy czym oceniając każdorazowy przypadek naruszenia, należy odwoływać się do obowiązujących ogólnych przepisów prawa cywilnego, w tym prawa autorskiego. Pomimo intensywnych prac legislacyjnych, głównie na szczeblu europejskim, nie wprowadzono jeszcze szczegółowych regulacji dotyczących odpowiedzialności za AI. Warto wspomnieć o koncepcji ukształtowania tych zasad na kształt odpowiedzialności za produkt niebezpieczny (opierającej się na zasadzie ryzyka – podmiot odpowiada za sam skutek w postaci powstania szkody, w oderwaniu od możliwości przypisania mu winy za zdarzenie wyrządzające szkodę).

Z jednej strony możliwe, że algorytm AI stworzono w taki sposób, że jego działania, niezależnie od woli i czynności podejmowanych przez użytkownika, zawsze będą wiązały się z naruszeniem praw autorskich – wówczas odpowiedzialności należy poszukiwać u jego twórcy. Z drugiej, może on być stworzony w sposób, który jak najbardziej umożliwia korzystanie z niego bez naruszenia praw osób trzecich, a to działania użytkownika, wprowadzane przez niego dane i komendy prowadzą do wygenerowania lub wykorzystania efektu prowadzącego do naruszenia praw autorskich. W takiej sytuacji do naruszenia praw autorskich może dochodzi c w istocie bez wiedzy i bez zamiaru użytkownika. Trudno bowiem zakładać, że przeciętny użytkownik w czasie formułowania komend czy po otrzymaniu wyniku pracy AI będzie w stanie kompleksowo zweryfikować, czy dany wynik nie jest podobny, nie stanowi przeróbki lub że nie wykorzystuje całości albo fragmentu chronionego prawem utworu.

Na marginesie, sam system AI (jako program komputerowy) także stanowi przedmiot prawa autorskiego (utwór) i korzystanie z niego (bez odpowiedniej licencji, jeśli jest wymagana) będzie stanowiło naruszenie praw autorskich jego twórcy.

Potencjalne spory

W każdym z powyższych przypadków, gdy dojdzie do naruszenia praw autorskich poprzez wykorzystanie działania AI – niezależnie od reprezentowanej strony (potencjalnego naruszyciela czy poszkodowanego) – konieczne jest należyte przygotowanie do potencjalnego sporu. Ważne będzie:

  • precyzyjna weryfikacja i identyfikacja podstaw odpowiedzialności,
  • zbadanie legitymacji, zwłaszcza poprzez ocenę wkładu poszczególnych podmiotów w działanie systemu AI i uzyskany efekt jego pracy,
  • oszacowanie poniesionej szkody,
  • dobór roszczenia albo zarzutów
  • zadbanie o środki dowodowe, w tym także odpowiednie prywatne ekspertyzy.

Zapewnienie profesjonalnej obsługi prawnej już na etapie przedsądowym istotnie zwiększa szansę na uzyskanie satysfakcjonującego rezultatu oraz znacząco skraca okres trwania sporu. Oczywiste jest, że ewentualny spór, zwłaszcza przed sądem, z uwagi na novum, jakim jest AI, oraz skomplikowany i techniczny charakter i związany z tym brak wypracowanej linii orzeczniczej co do wykładni relewantnych przepisów – wiązać się będzie z wieloma trudnościami prawnymi i faktycznymi, w tym trudnościami dowodowymi. W wielu przypadkach zaistnieje konieczność przeprowadzenia dowodu z opinii biegłego o odpowiedniej specjalności, aby między innymi ustalić w jaki sposób i w jakim zakresie działanie AI oraz działanie użytkownika wpłynęło na efekt końcowy.

Dodatkowo analiza w zakresie podmiotu odpowiedzialnego za naruszenie praw autorskich powinna obejmować także weryfikację treści regulaminów poszczególnych narzędzi AI. Regulaminy zakładają różny rozkład odpowiedzialności za korzystanie z efektu pracy AI. Przykładowo regulamin ChatGPT stanowi, że na użytkownika przenoszona jest cała odpowiedzialność za wykorzystywanie wygenerowanej treści, a w regulaminie narzędzia Midjourney zawarto, że zakres praw użytkownika do wytworu zależy od wykupienia przez niego odpowiedniej wersji narzędzia (przy odpłatnej wersji uzyskana licencja umożliwia korzystanie z wytworu na szeroko opisanych polach eksploatacji). Odpłatność, między twórcą AI a użytkownikiem, może stanowić istotny element przy próbie przypisania odpowiedzialności za dane naruszenie i rozliczenia jego finansowych następstw.

Ograniczenie ryzyka poniesienia odpowiedzialności

Oczywiście, jeżeli celem użytkownika czy twórcy AI będzie chęć przerabiania już istniejących utworów z wykorzystaniem AI – przyjmując, że takie działanie będzie stanowiło odrębne pole eksploatacji utworu – konieczne będzie uprzednie uzyskanie od twórcy pierwotnego utworu przeniesienia majątkowych praw autorskich do tego utworu albo odpowiedniej licencji.

Jeżeli natomiast cel nie jest sprecyzowany, a efektów wykorzystania systemu AI nie można przewidzieć, warto wprowadzić rozwiązania, które należycie zabezpieczą interes przedsiębiorcy, w tym poprzez wprowadzenie odpowiednich postanowień dotyczących zasad korzystania i odpowiedzialności za korzystanie z narzędzi AI w przypadku naruszenia praw autorskich w stosowanych umowach z pracownikami i współpracownikami czy kontrahentami. Dodatkowo, jeżeli w przedsiębiorstwie już wykorzystywane są narzędzia AI, warto przeprowadzić audyt przyjętych rozwiązań, a także w ramach stosownych polityk i regulaminów uregulować możliwie w bezpieczny i kompleksowy sposób wszelkie zasady postępowania.

Author

  • Rödl & Partner

    Rödl & Partner to międzynarodowa firma świadcząca zintegrowane usługi profesjonalne w obszarach: audyt, Business Process Outsourcing, doradztwo podatkowe, doradztwo prawne, consulting. Działa w 50 krajach i ma 107 biur, w których pracuje 5260 osób. W Polsce zatrudnia ponad 500 pracowników w sześciu lokalizacjach – Gdańsku, Gliwicach, Krakowie, Poznaniu, Warszawie i Wrocławiu. Od 30 lat łączy tradycyjne wartości z nowoczesnym podejściem do biznesu. To firma, w której okazywanie troski i duch zespołowości kształtują wzajemne relacje i budują zaufanie wśród klientów na całym świecie. Atutem Rödl & Partner jest wysoko wykwalifikowana kadra pracowników biegle władających językiem niemieckim i angielskim. Doradcy Rödl & Partner wychodzą poza liczby, tabele i paragrafy, stawiając na zrozumienie biznesu i szczere zaangażowanie. Skuteczny doradca podąża za rozwojem biznesu klienta, pomaga nie tylko przewidywać trudności, lecz także wskazywać na szanse.