Sztuczna inteligencja została w ostatnim czasie odmieniona przez wszystkie przypadki. Przez ostatnie kilkanaście miesięcy mamy możliwość korzystania z udogodnień, bazujących na sztucznej inteligencji. Coraz częściej używamy urządzeń, których praca jest wspierana sztuczną inteligencją. Chociaż wydaje się, że ciągle jest to nowość w naszej codzienności, to od dłuższego już czasu urządzenia codziennego użytku jak telefony, komputery, czy nawet samochody korzystają z systemów opartych na sztucznej inteligencji. Dla przykładu opracowany przez OpenAI chatbot – Chat GPT – który został oparty na generatywnej sztucznej inteligencji, został uruchomiony jako prototyp już pod koniec 2022 roku.
Sztuczna inteligencja wprawdzie zdecydowanie ułatwia nam nie tylko codzienne funkcjonowanie, ale też w znacznym zakresie ma wpływ na wykonywaną pracę. Szerokie zastosowanie AI może się wiązać ze zmianą struktury zatrudnienia w poszczególnych branżach, a także nie pozostaje bez wpływu na podejmowane przez człowieka decyzje. W tym roku głośnym echem odbiła się sprawa odszkodowawcza rodziców przeciwko OpenAI w związku ze śmiercią ich dziecka. Jednym zdaniem wpływ sztucznej inteligencji na człowieka może być znaczny, nie zawsze jednak można uznać go za pozytywny.
Dyskusja na temat sztucznej inteligencji w ostatnich miesiącach znowu wzrosła m.in. z uwagi na częściowe wejście w życie Rozporządzenia Parlamentu Europejskiego i Rady (EU) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (Akt w sprawie sztucznej inteligencji), powszechnie nazywane również w skrócie AI Act.
Skontaktuj się z nami!
KontaktAI Act – co reguluje, kogo dotyczy i jak klasyfikuje ryzyko
AI Act będzie obowiązywać w całości dopiero od 2 sierpnia 2026 r. Jednak częściowo, m.in. w zakresie postanowień ogólnych, zakazanych praktyk, czy też organów nadzorujących przestrzeganie rozporządzenia a w szczególności przewidzianych kar w związku z naruszeniem rozporządzenia, AI Act zaczął obowiązywać kolejno 2 lutego 2025 r. oraz 2 sierpnia 2025 r.
AI Act ma na celu poprawę funkcjonowania i promowanie upowszechniania zorientowanej na człowieka i godnej zaufania sztucznej inteligencji (AI), przy jednoczesnym zapewnieniu wysokiego poziomu ochrony zdrowia, bezpieczeństwa, praw podstawowych zapisanych w Karcie, w tym demokracji, praworządności i ochrony środowiska, przed szkodliwymi skutkami systemów AI w Unii oraz wspieraniu innowacji.
Rozporządzenie reguluje takie kwestie jak:
- wprowadzanie do obrotu, oddawanie do użytku oraz wykorzystywanie systemów AI w Unii;
- zakazane praktyki w zakresie AI;
- szczególne wymogi dotyczące systemów AI wysokiego ryzyka oraz obowiązki spoczywające na operatorach takich systemów;
- przejrzystość systemów AI;
- zasady wprowadzania do obrotu modeli AI ogólnego przeznaczenia;
- monitorowanie wprowadzania do obrotu, nadzór rynku;
- wsparcie innowacji, ze szczególnym uwzględnieniem MŚP, w tym przedsiębiorstw typu startup.
AI Act ma zastosowanie do dostawców wprowadzających do obrotu lub oddających do użytku systemy AI, lub wprowadzających do obrotu modele AI ogólnego przeznaczenia w Unii, podmiotów stosujących systemy AI, importerów i dystrybutorów systemów AI, producentów produktu, którzy pod własną nazwą lub znakiem towarowym oraz wraz ze swoim produktem wprowadzają do obrotu, lub oddają do użytku system AI czy też osób, na które AI ma wpływ i które znajdują się w Unii. Co istotne, rozporządzanie stosuje się niezależenie od siedziby podmiotów, istotne jest jednak czy system AI jest używany lub oferowany na terenie UE.
Jako system AI zgodnie z rozporządzeniem należy rozumieć: system maszynowy, który został zaprojektowany do działania z różnym poziomem autonomii po jego wdrożeniu oraz który może wykazywać zdolność adaptacji po jego wdrożeniu, a także który – na potrzeby wyraźnych lub dorozumianych celów – wnioskuje, jak generować na podstawie otrzymanych danych wejściowych wyniki, takie jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne.
System AI działa na podstawie danych wejściowych, na podstawie których może generować określone wyniki (predykcje, treści, zalecenia lub decyzje). Narzędzia sztucznej inteligencji mogą działać z różnym poziomem autonomii, niekiedy funkcjonują samodzielnie, jak również w pewnym zakresie po wdrożeniu adoptują się do środowiska (powszechnie nazywa się to procesem uczenia AI).
Zgodnie z motywem 26 AI Act do postanowień rozporządzenia znajduje zastosowanie podejście oparte na analizie ryzyka. Rodzaj i treść przepisów musi odpowiadać intensywności i zakresowi ryzyka, jakie mogą powodować systemy AI. Rozporządzenie wprowadza zakaz stosowania niektórych niedopuszczalnych praktyk w zakresie sztucznej inteligencji, a także definiuje systemy AI wysokiego ryzyka oraz odpowiednie do nich wymogi i obowiązki spoczywające na operatorach systemów AI (tj. dostawcach, producentach produktu, podmiotach stosujących, upoważnionych przedstawicielach, importerach lub dystrybutorach).
Rozporządzenie dodatkowo wyróżnia modele AI ogólnego przeznaczenia – zwykłe i generujące systemowe ryzyka.
AI Act a ochrona danych osobowych
Systemy AI działają w oparciu o dane wejściowe, również dane osobowe. Rozporządzenie już w motywach akcentuje, konieczność zagwarantowania prawa do prywatności i ochrony danych osobowych przez cały cykl życia systemu AI.
Przetwarzanie danych osobowych w dalszym ciągu musi być zgodne z obowiązującym prawem. Zasady minimalizacji danych oraz uwzględniania ochrony danych na etapie projektowania (tzw. privacy by design).
Rozporządzenie przewiduje pewne odstępstwa w zakresie przetwarzania danych osobowych, m.in. dopuszczalność przetwarzania szczególnych kategorii danych osobowych pod warunkiem stosowania odpowiednich zabezpieczeń w zakresie, w jakim jest to bezwzględnie konieczne do celów zapewnienia wykrywania i korygowania stronniczości systemów AI wysokiego ryzyka. Rozporządzenie precyzuje dokładne warunki dopuszczalności przetwarzania danych szczególnych. Ponadto, rozporządzenie precyzuje możliwość przetwarzania danych osobowych w ramach piaskownicy regulacyjnej w zakresie AI w celach rozwoju, trenowania i testowania systemów AI – oczywiście w przypadku spełnienia wymienionych w rozporządzeniu przesłanek.
Prawa autorskie AI – kto (i czy) jest twórcą utworów i obrazów generowanych przez AI
Już w motywach rozporządzenia zaakcentowano problematykę generowania tekstów, obrazów i innych treści przez sztuczną inteligencję. Zgodnie z definicją ujętą w Rozporządzeniu model AI to: model AI, w tym model AI trenowany dużą ilością danych z wykorzystaniem nadzoru własnego na dużą skalę, który wykazuje znaczną ogólność i jest w stanie kompetentnie wykonywać szeroki zakres różnych zadań, niezależnie od sposobu, w jaki model ten jest wprowadzany do obrotu, i który można zintegrować z różnymi systemami lub aplikacjami niższego szczebla – z wyłączeniem modeli AI, które są wykorzystywane na potrzeby działań w zakresie badań, rozwoju i tworzenia prototypów przed wprowadzeniem ich do obrotu.
W tym aspekcie wykorzystywanie treści przez modele AI może stanowić problem dla artystów, autorów i innych twórców w odniesieniu do sposobu tworzenia, rozpowszechniania, wykorzystywania i konsumowania ich treści kreatywnych.
Każde wykorzystanie treści chronionych prawem autorskim wymaga zezwolenia danego podmiotu praw, względnie korzystania z utworów, do których autorzy nie zastrzegli swoich praw. Zgodnie z rozporządzeniem dostawcy modeli AI ogólnego przeznaczenia powinni wprowadzić politykę w celu zapewnienia zgodności z prawem Unii dotyczącym prawa autorskiego i praw pokrewnych, w szczególności w celu identyfikacji i zastosowania się do zastrzeżenia praw przez podmioty uprawnione.
Czy AI może być twórcą?
Zgodnie z ustawą o ochronie praw autorskich przedmiotem prawa autorskiego jest każdy przejaw działalności twórczej o indywidualnym charakterze, ustalony w jakiejkolwiek postaci, niezależnie od wartości, przeznaczenia i sposobu wyrażenia. Zarówno orzecznictwo jak i komentarze na chwilę obecną prezentują jednoznaczną tezę, zgodnie z którą utwór musi być dziełem człowieka. Również orzecznictwo TSUE wskazuje na konieczność spełnienia przesłanki „własnej twórczości intelektualnej”.
Zatem na ten moment sztuczna inteligencja nie może zostać postrzegana jako twórca. Odpowiedź na to pytanie może być jednak rozwojowa, w szczególności w przypadku rozwoju modeli AI. Niebawem kluczowe i oczekiwane może okazać się jasne stanowisko ustawodawcy w tym zakresie.
Inna kwestia to taka, czy można nazwać autorem utworu osobę, wykorzystującą sztuczną inteligencję do powstania utworu. Już teraz pojawiają się stanowiska, które wskazują na możliwą ingerencję i przejaw twórczości w generowaniu treści przez model AI.
Wobec powyższego warto już teraz zwrócić uwagę na takie kwestie jak, czy i w jakim zakresie sztuczna inteligencja jest wykorzystywana w bieżącej działalności, dodatkowe obowiązki przewidziane rozporządzeniem, wyzwania w zakresie praw autorskich i wykorzystywania treści, a także kwestię przetwarzania danych, w tym danych osobowych oraz danych osobowych szczególnej kategorii. Warto zweryfikować już teraz, czy wewnętrzne procedury i umowy z dostawcami / odbiorcami zapewniają odpowiednią ochronę.
Rozwój sztucznej inteligencji otwiera ogromne możliwości, ale jednocześnie rodzi liczne wyzwania prawne – od odpowiedzialności za skutki jej działania, przez ochronę danych osobowych, aż po prawa autorskie. AI Act wprowadza ramy, które mają zapewnić bezpieczne i zgodne z wartościami Unii Europejskiej funkcjonowanie systemów AI. Już dziś warto przygotować swoje przedsiębiorstwo na nadchodzące zmiany, weryfikując stosowane rozwiązania i procedury. W razie potrzeby wsparcia w analizie nowych obowiązków i dostosowaniu działalności do wymogów regulacyjnych – zachęcamy do kontaktu z naszą kancelarią.


