MMC Polska
Sztuczna inteligencja coraz odważniej wkracza w niemal wszystkie obszary gospodarki. Ostatnie lata to gwałtowny rozwój programów komputerowych pozwalających na szybkie analizowanie danych i podawanie gotowych rozwiązań konkretnego problemu. Artificial Intelligence pomaga optymalizować procesy zachodzące na przykład w przemyśle, szeroko rozumianych finansach oraz profesjonalnej obsłudze klienta. Dlatego koniecznością stało się uregulowanie zasad związanych z wprowadzaniem i korzystaniem z systemów sztucznej inteligencji. Rozporządzenie w sprawie sztucznej inteligencji (AI Act) i dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję (AI Liability Directive) są odpowiedzią na potrzebę wdrożenia jednolitych przepisów w tej dziedzinie.
Rozporządzenie w sprawie sztucznej inteligencji (AI Act)
Rozporządzenie w sprawie sztucznej inteligencji (AI Act) zostało poprzedzone wprowadzeniem tzw. Białej Księgi AI, w której zawarto ogólne ramy prawne dotyczące sztucznej inteligencji. AI Act ma za zadanie ujednolicić przepisy dotyczące wprowadzania, stosowania i kontrolowania systemów zawierających elementy sztucznej inteligencji. Rozporządzenie wprowadziło także ważny podział oprogramowania ze względu na stopień ryzyka. Określone zostały systemy, które nie mogą być dopuszczone do użytkowania ze względu na działanie przeciwko nadrzędnym wartościom Unii. Zdefiniowano także systemy AI wysokiego ryzyka. Zaliczają się do nich oprogramowania, które mogą wpływać na bezpieczeństwo mieszkańców krajów członkowskich lub na ich gospodarkę.
Dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję (AI Liability Directive)
Dyrektywa powstała z myślą o ochronie praw osób poszkodowanych na skutek błędów w działaniu sztucznej inteligencji. Obecnie problemy zaczynają się już na etapie wnoszenia sprawy do sądu, ponieważ nie wiadomo kto jest odpowiedzialny za oprogramowanie ze sztuczną inteligencją – producent, użytkownik, a może organ zajmujący się wdrażaniem systemu w danym przedsiębiorstwie? Wprowadzane zmiany powinny wpłynąć na łatwiejsze dochodzenie roszczeń, między innymi poprzez prawo pozyskania informacji o działaniu danego systemu AI. Dzięki temu będzie można wykazać jaki konkretnie błąd odpowiedzialnego za powstanie szkody. Oczywiście o udostępnieniu danych będzie decydował sąd, a wnioski w takich sprawach będą musiały być wiarygodnie udokumentowane.
Dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję ma również uregulować nazewnictwo używane w tym obszarze. Jest to duży krok w kierunku ułatwienia sporządzania jasnej dla wszystkich stron dokumentacji procesowej.
Obowiązki i odpowiedzialność operatorów systemów AI
Złożony proces produkcji, wdrażania i monitorowania produktów lub usług wykorzystujących sztuczną inteligencję sprawia, że trudno jest wskazać osobę odpowiedzialną za pojawienie się błędu. Wprowadzane zmiany w prawie nie przewidują nadania sztucznej inteligencji osobowości prawnej. Nadal za błędy popełniane przez AI odpowiadać będzie człowiek. Jednak ujednolicone przepisy i zwiększony dostęp do danych znajdujących się w systemach pozwolą na łatwiejsze określenie winowajcy. Nie ulega wątpliwości, że najbardziej obciążeni ryzykiem odpowiedzialności są i będą producenci oraz podmioty wdrażające sztuczną inteligencję w firmach. To w dużym stopniu na nich spoczywa obowiązek dokładnego przetestowania systemu pod kątem bezpiecznego użytkowania.
Wdrożenie systemów wspomaganych sztuczną inteligencją
Wdrożenie w firmach systemów zawierających sztuczną inteligencję ma przede wszystkim zwiększyć wydajność pracy oraz wpłynąć na ulepszenie oferty produktowej lub usługowej. Na rynku dostępnych jest wiele rozwiązań, które w teorii doskonale sprawdzają się w tym zadaniu. Jednak przed wyborem oprogramowania należy wykonać dokładną i szczegółową analizę działalności przedsiębiorstwa. Wprowadzony rodzaj AI powinien być dopasowany do specyfiki konkretnej firmy i odpowiadać na jej potrzeby.
Kolejnym elementem przed wdrożeniem jest zbadanie jakości danych zebranych przez przedsiębiorstwo. Nawet najlepszy system sztucznej inteligencji nie przyniesie spodziewanych efektów, jeśli wprowadzone do niego dane będą niepełne i nieuporządkowane. Ze względu na skomplikowany zakres wykonywanych czynności oraz konieczność wykazania się znajomością procesów zachodzących w firmie, wdrożenie AI powinno być przeprowadzane przez doświadczonych specjalistów, którzy dodatkowo będą mogli liczyć na pomoc pracowników firmy, w której wprowadzany jest system sztucznej inteligencji.
Cykl życia projektów AI
Warunkiem odpowiedniego wdrożenia oraz nadzorowania systemów AI jest wybór firmy, która będzie potrafiła na każdym etapie właściwie pokierować pracami, a następnie kontrolować działanie systemu. Praca ze sztuczną inteligencją jest procesem, który ciągle ewoluuje i musi być dostosowywany do zmieniających się danych. Osoby odpowiedzialne za efekty działania AI muszą posiadać odpowiednią wiedzę z zakresu ulepszania jakości danych oraz właściwego dopasowywania ich do najważniejszych dla firmy celów. Oprogramowanie używające sztucznej inteligencji powinno być na bieżąco aktualizowane i rozszerzane wraz z rozwojem przedsiębiorstwa. Tylko całościowe podejście do AI przyniesie spodziewane efekty. Źle dobrany system lub nieodpowiedni nadzór nad nim w późniejszym czasie, może doprowadzić do rozczarowania możliwościami sztucznej inteligencji i poczuciem źle zainwestowanych środków finansowych.
W celu szczegółowego zgłębienia tematu, zachęcamy do udziału w dwudniowych warsztatach on-line: Sztuczna inteligencja w organizacji – planowane regulacje prawne i praktyczne wykorzystanie rozwiązań AI podczas których, szeroko omówione zostaną zmiany w przepisach dotyczące sztucznej inteligencji oraz sposoby wdrażania i monitorowania produktów oraz usług AI.