Dynamiczny rozwój sztucznej inteligencji (AI) budzi zarówno duże nadzieje, jak i wiele obaw. Eksperci podkreślają, że ludzkość stoi u progu kolejnej rewolucji technologicznej, która głęboko i w sposób nie do końca przewidywalny wpłynie na sposób funkcjonowania człowieka w bardzo wielu obszarach.
Rozwiązania oparte na algorytmach AI są już szeroko stosowane, wzrasta także zainteresowanie tzw. AI-generated content, czyli treściami produkowanymi przez algorytmy komputerowe, jak Chat GPT. Pojawiają się w związku z tym pytania związane z konsekwencjami zastosowania sztucznej inteligencji, możliwością jej kontrolowania, odpowiedzialnością za wyniki jej zastosowania, a także ochroną integralności i godności jednostki poprzez zabezpieczenie jej przed nadmierną ingerencją w sferę osobistą. Z punktu widzenia biznesu szczególnie ważne są konsekwencje i ograniczenia związane z użyciem sztucznej inteligencji w ramach prowadzonej działalności.
Kwestiom regulacyjnym na szczeblu krajowym i unijnym związanym ze stosowaniem technologii wykorzystujących sztuczną inteligencję poświęcone było spotkanie Komisji ds. cyfryzacji i Przemysłu 4.0 oraz Komisji ds. Legal Tech Polsko-Niemieckiej Izby Przemysłowo-Handlowej (AHK Polska) w dn. 6 grudnia br. Asumpt do spotkania dał opracowywany obecnie na poziomie Unii Europejskiej tzw. AI Act, czyli projekt pionierskiego rozporządzenia o sztucznej inteligencji. Przesłanką stworzenia przepisów ponadnarodowych było ustalenie wymogów, które powinna spełniać AI, aby była bezpieczna i harmonizacja istniejących już przepisów. Docelowo unijny ustawodawca zmierza do tego, aby nowe przepisy stały się wspólnotowym standardem na wzór RODO, obowiązującym jednolicie w państwach wspólnoty. Zaproszeni eksperci prawni, Sebastian Zieliński oraz Katarzyna Witkowska z kancelarii Crido Legal J. Ziółek i Wspólnicy, wygłosili referat „Co Akt o sztucznej inteligencji mówi menadżerom na temat wdrażania AI”. Uczestniczący w spotkaniu członkowie komisji dyskutowali o założeniach projektu rozporządzenia oraz o kwestiach związanych z pożądanym zakresem regulacji sztucznej inteligencji, a także jej potencjalnym wpływie na rozwój biznesu.
Mimo trwających prac na poziomie europejskiego regulatora są nadal punkty, które nie zostały w pełni uzgodnione, jak choćby tak fundamentalna kwestia, jak definicja sztucznej inteligencji. Jako podstawowe cele legislacyjne regulacji wskazano zapewnienie bezpieczeństwa systemów sztucznej inteligencji, w szczególności w odniesieniu do obowiązujących na terenie UE praw podstawowych oraz unijnych wartości, zapewnienie pewności prawa na potrzeby inwestycji i innowacji w zakresie AI oraz możliwości jego skutecznego egzekwowania, a także zapewnienie jednolitego rozwoju rynku.
W ramach opracowywanego rozporządzenia zdefiniowane będą zakazane praktyki AI, wprowadzone szczególne wymogi dotyczące systemów wysokiego ryzyka oraz uregulowane kwestie związane z wchodzeniem sztucznej inteligencji w interakcje z osobami fizycznymi. Zakazane mają być w szczególności systemy działające podprogowo, wykorzystujące dowolne słabości określonej grupy osób, używane (zwłaszcza przez organy państwowe) na potrzeby oceny lub kwalifikacji wiarygodności osób fizycznych, a także systemy identyfikacji biometrycznej w przestrzeni publicznej oraz tzw. scoring społeczny. Za krytyczne obszary uznano między innymi orzecznictwo sądowe, kwestie predykcji kryminalnej, niektóre zastosowania w edukacji i medycynie, ale także związane z oceną pracowników i uczniów, czy procesami rekrutacji.
Zasady ogólne przyświecające całej regulacji to przede wszystkim bezpieczeństwo, zapewnione dzięki przejrzystości i wyjaśnialności procesów decyzyjnych realizowanych przez AI, a także możliwość nadzoru człowieka na każdym etapie tych procesów. Systemy powinny być zatem łatwe do zrozumienia i zarządzania dla użytkowników. Nie mogą także poprzez swoje działania naruszać godności człowieka, powinny promować różnorodność i uwzględniać zasadę niedyskryminacji. Przy wdrażaniu sztucznej inteligencji należy obok dobrostanu społecznego także brać pod uwagę dobrostan środowiskowy.
Jednym z kluczowych zagadnień z punktu widzenia menadżerów w kontekście wdrażania systemów opartych na sztucznej inteligencji była kwestia odpowiedzialności, w szczególności odpowiedzialności zarządu. Wskazywano, że systemy wykorzystujące AI stosowane są już od lat, a technologia wyprzedziła regulacje prawne. Uczestnicy spotkania podkreślali jednak, że istnieje szereg przepisów w kodeksie cywilnym, karnym, spółek prawa handlowego, a także w ustawach dotyczących np. ochrony danych osobowych, prawa autorskiego, czy ustawodawstwie antydyskryminacyjnym, które z powodzeniem mogą być stosowane do regulowania wykorzystywania AI.
Wskazywano także na, zdaniem uczestników dyskusji, niedoszacowane koszty wdrożenia projektowanych przepisów, zwłaszcza w przypadku zastosowań wysokiego ryzyka. W takiej sytuacji podmiot odpowiedzialny ma obowiązek prowadzania ciągłego nadzoru przez cały cykl życia sztucznej inteligencji. Opracowując mechanizm mitygacji ryzyka należy uwzględnić wiedzę techniczną, szkolenia, jakich oczekuje się od użytkownika oraz docelowego środowiska, w którym ma działać oprogramowanie. W praktyce oznacza to, że software powinien być odpowiednio przystępny i dobrze przetestowany, co pociąga za sobą znaczne koszty. Może to się zwłaszcza okazać barierą dla mniejszych firm i w efekcie odbić się na ich konkurencyjności.
Osobną kwestią jest zakres odpowiedzialności producenta w przypadku autonomicznych systemów sztucznej inteligencji, które, zasilone wstępnie danymi, w trakcie użytkowania same „uczą się”, podlegają modyfikacjom. Produkt użytkowany po pewnym czasie jest zatem innym produktem, niż ten, który został kupiony. Czy zatem producent jest zwolniony w przypadku generatywnej AI od odpowiedzialności? W jakim zakresie? Kluczowe jest tu odpowiednie uregulowanie tych kwestii z producentem czy dostawcą rozwiązania. Klauzule typu „take it or leave it” mają być zgodnie z rozporządzeniem niedozwolone.
Uczestnicy spotkania podkreślali, że uregulowania powinny być proporcjonalne – należy wprowadzać obowiązujące przepisy tam, gdzie istnieje wysokie ryzyko, natomiast dla pozostałej sfery użytkowania sztucznej inteligencji tworzyć pożądane standardy, wdrażać raczej dyrektywy niż rozporządzenia. Wskazywano także, że wobec tak dynamicznej materii jak stale rozwijająca się sztuczna inteligencja, regulowanie „wyprzedzająco” może okazać się przeciwskuteczne i doprowadzić do „przeregulowania” tej dziedziny. Europa odpowiada za ok. 3-4% rynku sztucznej inteligencji, nie jest zatem światowym liderem w tej dziedzinie, a nadmierne regulowanie tego obszaru może mieć negatywny wpływ na decyzje inwestorskie i spowodować odpływ kapitału do USA i Chin. Kraje te nie wprowadzają podobnych ograniczeń dla AI. Rodzi to potencjalnie szereg dalszych negatywnych konsekwencji, np. związanych z utrudnionym dochodzeniem ewentualnych roszczeń czy ustalaniem jurysdykcji dla rozstrzygnięcia sporu w przypadku produktów pochodzących z tych krajów. Pożądane byłoby globalne uregulowanie tego obszaru.
Uczestnicy spotkania zgodzili się, że zagadnienie jest kompleksowe i interdyscyplinarne, wyrazili zarazem chęć kontynuowania pogłębionych spotkań poświęconych kwestiom wdrażania AI w przyszłości.
٭ Posiedzenie Komisji ds. cyfryzacji i Przemysłu 4.0 AHK Polska odbyło się 6 grudnia, a więc tuż przed zakończeniem negocjacji pomiędzy Radą, Komisją i Parlamentem Europejskim w sprawie AI Act i opierała się na stanie prawnym znanym na tę chwilę.Dół formularza
Komunikat prasowy Parlamentu Europejskiego opublikowany po zakończeniu negocjacji znajduje się tutaj: