Dylematy dotyczące zasad prawnych i moralnych, jakimi będą się kierowały urządzenia wyposażone w sztuczną inteligencję, pojawiły się w literaturze fantastycznej kilkadziesiąt lat temu. Dziś rozwój generatywnej sztucznej inteligencji spowodował, że futurystyczne rozważania stały się realnym wyzwaniem.
Isaac Asimov, popularny pisarz i futurysta, w 1942 roku stworzył trzy prawa robotów i przedstawił je w fantastycznym opowiadaniu Zabawa w berka (Runaround). Celem tych praw było uregulowanie kwestii stosunku pomiędzy myślącymi maszynami a ludźmi. Przedstawiały się one następująco:
Pierwsze Prawo: Robot nie może zranić człowieka ani przez zaniechanie działania dopuścić do jego nieszczęścia.
Drugie Prawo: Robot musi być posłuszny człowiekowi, chyba że stoi to w sprzeczności z Pierwszym Prawem.
Trzecie Prawo: Robot musi dbać o siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.
Osiemdziesiąt lat później, 30 listopada 2022 roku, firma OpenAI udostępniła w sieci chatbota o nazwie ChatGPT, który potrafi odpowiadać na pytania niezależnie od języka i tematyki. Aplikacja napisze wiersz na zadany temat, wymyśli dowcip, przygotuje esej, odrobi pracę domową. A to tylko drobna próbka jego możliwości. Pokazał to Ammaar Reshi, design manager, który dzięki sztucznej inteligencji „napisał” książkę dla dzieci. W ciągu kilku godzin, posługując się dwoma narzędziami: ChatGPT i Midjourney, stworzył książeczkę Alice and Sparkle, a następnie wystawił ją na sprzedaż w serwisie Amazon. Reshi na cały proces, od pomysłu przez tworzenie treści i ilustracji aż do publikacji 14‑stronnicowej książeczki, potrzebował zaledwie 72 godzin.
Chat GPT okazał się wszechstronnym narzędziem, które może być wykorzystane do szerokiego zakresu zadań związanych z przetwarzaniem języka naturalnego. Zafascynowani możliwościami potężnego chatbota, opracowanego przez firmę OpenAI, studenci i uczniowie zaczęli zlecać aplikacji przygotowanie opracowań i odrabianie lekcji, a redaktorzy, copywriterzy i marketerzy znaleźli sposób na wykorzystywanie aplikacji do pracy.
Problem w tym, że AI zbiera i przetwarza wiedzę zebraną w sieci, a więc korzysta z tego, co przygotowali wcześniej twórcy i autorzy. I tu pojawiają się wątpliwości natury etycznej oraz prawnej:
Czy AI może być autorem pracy naukowej, dzieła literackiego, eseju? Kto jest właścicielem praw autorskich?
Czy korzystanie z algorytmów nie będzie zakłamywało prawdy o świecie?
Czy w związku z użyciem AI nie rośnie ryzyko masowego pojawiania się treści ksenofobicznych, rasistowskich i prześladujących mniejszości?
Kto ponosi odpowiedzialność za konsekwencje treści kłamliwych bądź nawołujących do przemocy czy innych działań szkodliwych dla odbiorców treści lub ich otoczenia?
Czy AI może być wykorzystane do pisania złośliwego oprogramowania?
Gdzie leży potencjał do uczciwego wykorzystania AI?
Jak korzystać z inteligentnych algorytmów, by nie narazić się o posądzenie o plagiat?
Czy regulacje prawne są gotowe na twórczość algorytmów?
I wreszcie, czy AI zagrozi naszym miejscom pracy?
Na te i wiele innych pytań próbowaliśmy odpowiedzieć podczas debaty „MIT Sloan Management Review Polska”, w której uczestniczyli:
Agnieszka Gargas‑Zielińska, radczyni prawna, Kancelaria Adwokacka Barabasz
Olga Leśniewska, Senior Associate, DLA Piper
Michał Stępień, radca prawny, Kancelaria Kondrat i Partnerzy
Jan Wosiura, Of Counsel, Kancelaria Pniewski Zeuschner Legal.
Debatę prowadził Paweł Kubisiak, redaktor naczelny „MIT Sloan Management Review Polska”. Zapis spotkania prezentujemy w załączonym materiale wideo. Kliknij TUTAJ, aby obejrzeć.