Odpowiedzialność cywilna za sztuczną inteligencję – projekt dyrektywy w sprawie odpowiedzialności AI

28 września 2022 r. Komisja Europejska opublikowała projekt dyrektywy w sprawie odpowiedzialności cywilnej za sztuczną inteligencję, który jest efektem prac nad inicjatywą prawodawczą mającą na celu wdrożenie ustaleń przedstawionych w Białej Księdze AI i sprawozdaniu na temat wpływu sztucznej inteligencji, Internetu rzeczy i robotyki na bezpieczeństwo i odpowiedzialność.

Komisja Europejska słusznie dostrzegła, że obowiązujące przepisy, odnoszące się do dochodzenia roszczeń z tytułu szkody spowodowanej przez produkty cyfrowe nie są dopasowane do obecnego stanu rozwoju technologii. Problem ten dotyczy m.in. rozwiązań z zakresu sztucznej inteligencji, które charakteryzują się autonomicznością, ciągłą adaptacją, ograniczoną przewidywalnością i nieprzejrzystością. Brak jasnych reguł w tym zakresie utrudnia poszkodowanym uzyskanie odszkodowania za szkody wyrządzone przez tego typu produkty. Poszkodowani w odniesieniu do produktów opartych na działaniu sztucznej inteligencji, często nie są w stanie wskazać podmiotu odpowiedzialnego za szkodę, ani wykazać związku między szkodą, a stwierdzoną nieprawidłowością w funkcjonowaniu produktu.

Zakres dyrektywy

Wdrożenie dyrektywy ma na celu:

Dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję stanowić będzie kierunkową reformę systemów odpowiedzialności krajów członkowskich opartych na winie, w zakresie pozaumownych roszczeń cywilnoprawnych za szkodę spowodowaną przez AI.

W praktyce, zapisy dyrektywy odnosić się będą zatem np. do systemu odpowiedzialności z tytułu czynów niedozwolonych, ale nie będą miały zastosowania do odpowiedzialności wynikającej z umów, jak i odpowiedzialności za produkt niebezpieczny.

Co wprowadzi dyrektywa w sprawie odpowiedzialności za AI?

Projekt dyrektywy przewiduje ustanowienie prawa dostępu do informacji dla osób poszkodowanych przez AI wysokiego ryzyka i wprowadzenie „domniemania związku przyczynowego”, którego celem jest zmniejszenia ciężaru dowodu w zakresie szkód spowodowanych przez systemy AI.

Prawo dostępu do informacji

Ustanowienie prawa dostępu do informacji dla osób poszkodowanych przez AI wysokiego ryzyka ma ułatwić poszkodowanym dostęp do informacji i dowodów niezbędnych dla dochodzenia roszczeń.

Osoba poszkodowana, przy spełnieniu odpowiednich przesłanek, będzie uprawniona zwrócić się do sądu o nakazanie ujawnienia informacji o danym systemie sztucznej inteligencji wysokiego ryzyka. Dyrektywa przewiduje jednak w tym zakresie pewne zabezpieczenia, mające na celu ochronę poufnych informacji, takich jak tajemnice przedsiębiorstwa.

Domniemanie związku przyczynowego

Celem wprowadzenia domniemania związku przyczynowego jest wyeliminowanie trudności związanych z wykazaniem, że szkoda spowodowana przez system AI, powstała w wyniku konkretnego zawinionego działania, co w kontekście złożonych systemów sztucznej inteligencji, w praktyce obecnie jest trudne.

W świetle powyższej dyrektywy ułatwione będzie zatem dochodzenie roszczeń, w sytuacji w której osoba poszkodowana jest w stanie jedynie wykazać:

Domniemanie związku przyczynowego będzie oczywiście mogło być obalone przez pozwanego.

Dyrektywa w sprawie odpowiedzialności AI, a dyrektywa w sprawie odpowiedzialności za produkty

Obok powyższej dyrektywy, Komisja Europejska przedstawiła także projekt zmienionej dyrektywy w sprawie odpowiedzialności za produkty, która ma na celu unowocześnienie i dostosowanie przepisów w tym zakresie do obecnego stanu rozwoju technologii.

Dyrektywa w sprawie odpowiedzialności za produkty zawiera jednak inny zakres regulacji, odnoszący się do niezawinionej odpowiedzialności za wadliwe produkty.

Należy zauważyć, że dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję, jak i dyrektywa w sprawie odpowiedzialności za produkt mają się wzajemnie uzupełniać, zatem - w założeniu - pomiędzy powyższymi regulacjami nie będzie dochodzić do konfliktu.

Komisja Europejska zdecydowała się zatem zarówno na reformę dyrektywy w sprawie odpowiedzialności za produkty, jak i wprowadzenie odrębnej dyrektywy mającej szersze zastosowanie do ogólnej odpowiedzialności cywilnej, opartej na zasadzie winy. Dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję, ma być także w pełni spójna z obecnie procedowanym rozporządzeniem w sprawie sztucznej inteligencji (AI Act, o którym pisałem w artykule „AI act - krótki przegląd kluczowych elementów rozporządzenia”).

Dalsze prace nad dyrektywą

Projekt dyrektywy w sprawie odpowiedzialności za sztuczną inteligencję będzie podlegał dalszemu procesowi prawodawczemu Unii Europejskiej, zatem ostateczny kształt regulacji może się różnić od zaprezentowanego projektu.

Należy także mieć na uwadze, że nowa dyrektywa stanowić ma minimalną harmonizację. Implementacja dyrektywy w Polsce będzie mogła zatem zakładać przepisy korzystniejsze dla osób poszkodowanych przez działania systemów AI. Projekt dyrektywy w obecnym kształcie przewiduje, że państwa członkowskie będą zobowiązane do implementacji dyrektywy w terminie 2 lat od dnia jej wejścia w życie.

Autor: Michał Barwicki, radca prawny

 

DANE KONTAKTOWE

kancelaria

ul. Odyńca 7/13
02-606 Warszawa

BĄDŹMY W KONTAKCIE

Dzielimy się naszą fachową wiedzą oraz doświadczeniem.Bądź pierwszym, który się dowie o naszych inicjatywach, spotkaniach ze specjalistami Kancelarii i zmianach w prawie, istotnych dla działalności Twojej branży. Zachęcamy do lektury i subskrypcji naszego newslettera.

Uzupełnienie powyższego pola oznacza zgodę na otrzymywanie od Kancelarii Radcy Prawnego Monika Macura newslettera drogą e-mailową. Zgodę można wycofać w każdym czasie. Dane osobowe osób zapisujących się na newsletter są przetwarzane w celu przesyłania informacji dotyczących oferty Kancelarii drogą e-mailową. Zapoznaj się z zasadami przetwarzania Twoich danych osobowych.