Wraz ze wzrostem poziomu powszechnej informatyzacji w ostatnich latach coraz częściej możemy natknąć się na chatboty. Dzieje się tak przykładowo, gdy surfujemy po Internecie, załatwiamy sprawę w bankowości elektronicznej czy kontaktujemy się z centrum obsługi klienta. Często nie zdajemy sobie sprawy, że te i wiele innych popularnych rozwiązań jest opartych o sztuczną inteligencję (w skrócie – SI). Potrafią one znacząco usprawnić funkcjonowanie organizacji, ale też nie są pozbawione niedoskonałości.
Chatbot GPT podpowie jak popełnić czyn zabroniony
W ostatnim czasie głośno zrobiło się na temat popularnego chatbota (dokładnie Chatbota GPT, rozwiązania wykorzystującego język GPT-3.5 i zaawansowane technologie deep machine learning w rozmowie z użytkownikiem), który w odpowiedzi na odpowiednio sformułowane pytanie użytkownika opowiedział mu o tym jak popełnić przestępstwo. Sytuacja ta ożywiła i tak już gorącą debatę na temat etyczności rozwiązań opartych o SI, jak też odpowiedzialności (w tym przypadku przede wszystkim karnej) związanej z ich funkcjonowaniem. Czy samo korzystanie z chatbotów w celu zaplanowania popełnienia czynu zabronionego albo, jak w przypadku Chatbota GPT dostarczenie użytkownikom informacji dających taką możliwość, mogą być uznane za przestępstwo?
Pozorna „bezkarność” w związku z funkcjonowaniem sztucznej inteligencji
Na dzień dzisiejszy brak w Polsce regulacji prawnych, które odnosiłyby się stricte do sztucznej inteligencji. Nie oznacza to wcale, że funkcjonowanie systemów sztucznej inteligencji jest wyjęte spod prawa. Takie systemy – podobnie jak związania z nimi odpowiedzialność – wciąż bowiem podlegają regulacjom ogólnym. Choć nie jest to jedyny możliwy scenariusz, w obowiązującym porządku prawnym odpowiedzialność karną, związaną z funkcjonowaniem chatbotów należy oceniać przede wszystkim z perspektywy tzw. form stadialnych przestępstwa. Zgodnie z polskim Kodeksem karnym odpowiedzialnością za przestępstwo objęte jest nie tylko popełnienie czy usiłowanie popełnienia przestępstwa, ale – w odniesieniu do niektórych przestępstw – już samo przygotowanie do popełnienia przestępstwa, które może polegać m. in. na zbieraniu informacji służących do jego popełnienia. W konsekwencji, korzystanie z chatbotów na potrzeby uzyskania informacji mających służyć następnie do popełnienia czynu zabronionego może, pod pewnymi warunkami, stanowić przestępstwo. Przypisanie odpowiedzialności za przygotowanie wymaga przy tym by podmiot działał w celu popełnienia przestępstwa, a zatem chciał je popełnić. Nie jest natomiast karalne pozyskiwanie informacji użytecznych do popełnienia przestępstwa w innych celach, w tym do badań nad przestępczością, przeciwdziałania przestępczości czy chociażby w celu zaspokojenia osobistej ciekawości użytkownika.
Lekcja etyki – komu przypisać odpowiedzialność za popełnienie przestępstwa?
Skoro zatem zbieranie informacji służących do popełnienia przestępstwa przy wykorzystaniu SI – jak miało to miejsce w przypadku Chatbota GPT – samo w sobie może stanowić przestępstwo, pojawia się logiczne pytanie: czy odpowiedzialnością karną objęte jest także dostarczanie użytkownikom chatbotów umożliwiających takie działanie?
I w tym przypadku odpowiedź jest niejednoznaczna, wszak Kodeks karny umożliwia przypisanie odpowiedzialności za tzw. pomocnictwo do przestępstwa, rozumiane jako ułatwienie popełnienia czynu zabronionego poprzez np. udzielenie sprawcy rady lub informacji. Odpowiedzialność za pomocnictwo jest niezależna od odpowiedzialności sprawcy, który odpowiada za własne przestępstwo. Warunkiem koniecznym dla przypisania odpowiedzialności za pomocnictwo jest jednak, aby pomocnik chciał, żeby jego działania przyczyniły się do popełnienia przestępstwa, lub co najmniej godził się na taką ewentualność. Nie dojdzie natomiast do pomocnictwa w sytuacji, w której uzyskane informacje zostały wykorzystane do popełnienia przestępstwa, jednak nie było objęte to zamiarem osoby, która udzieliła takiej asysty. Przypisanie dostawcy chatbota odpowiedzialności za przestępstwo nie będzie zatem możliwe, w sytuacji w której np. podjął on rozsądne starania w celu wyeliminowania możliwości użycia chatbota do popełnienia przestępstwa.
O ile wobec braku szczegółowych regulacji dostarczanie czy korzystanie z rozwiązań opartych na SI (w tym chatbotów) nie są prawnie irrelewantne, o tyle często zdaje się ono wymykać obowiązującym ramom prawnym. Problem ten dotyczy w szczególności odpowiedzialności związanej z funkcjonowaniem SI, której ustalenie niejednokrotnie nastręcza wielu trudności z uwagi na złożoność systemów sztucznej inteligencji .
Europejskie rozwiązanie
Mając na uwadze szereg wyzwań, związanych z rozwojem tej technologii, Unia Europejska pracuje obecnie nad projektem rozporządzenia ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (Akt w sprawie Sztucznej Inteligencji) wraz z uzupełniającymi go aktami prawnymi. Celem tej regulacji jest stworzenie kompleksowych ram prawnych dla SI oraz osiągnięcie przez wspólnotę pozycji światowego lidera w zakresie rozwoju bezpiecznej, wiarygodnej i etycznej sztucznej inteligencji. Szerokim zakresem zastosowania tego aktu prawnego objęta będzie również problematyka chatbotów. Wprawdzie planowane rozporządzenia nie reguluje odpowiedzialności karnej związanej z funkcjonowanie SI (bo to jest domeną krajowych porządków prawnych), jednak przewidziano w nim m. in. surowe kary pieniężne dla dostawców systemów SI, których rozwiązania nie spełniają wymaganych standardów.