Przyjęty przez Parlament Europejski akt o sztucznej inteligencji (AI) ma na celu zapewnienie twórcom i instalatorom jasnych wymogów i obowiązków dotyczących jej konkretnych zastosowań. Rozporządzenie ma zminimalizować ryzyko wyrządzenia krzywdy ludziom przez sztuczną inteligencję. Zgodnie z nowymi przepisami zakazane będzie używanie AI do manipulowania ludźmi, rozpoznawania emocji w miejscu pracy, pobierania wizerunków osób z internetu celu tworzenia baz do rozpoznawania twarzy. Ponadto systemy sztucznej inteligencji zakwalifikowane jako systemy wysokiego ryzyka będą musiały podlegać kontroli człowieka.
Dwie perspektywy AI
Kiedy analizuje się kwestię przyszłości zatrudnienia i sztucznej inteligencji, robi się to z dwóch bardzo różnych perspektyw. Z jednej strony, z perspektywy zastąpienia siły roboczej przez roboty. Większość badań przeprowadzonych w ciągu ostatniej dekady dotyczyła prawdopodobieństwa zniknięcia niektórych zawodów w przyszłości, zniszczenia lub utworzenia miejsc pracy w wyniku procesów automatyzacji wywodzących się ze sztucznej inteligencji itp. Na popularności zyskuje jednak druga perspektywa. Opiera się ona na założeniu, że AI nie będzie substytutem pracowników, ale ich uzupełnieniem. Rzeczywiście, najnowsze analizy przeprowadzone przez Bank Światowy, Organizację Współpracy Gospodarczej i Rozwoju (OECD) i Międzynarodową Organizację Pracy (MOP) sugerują, że w większości zawodów będzie dochodziło do interakcji między człowiekiem a sztuczną inteligencją (80 proc. miejsc pracy we wszystkich sektorach i na wszystkich poziomach umiejętności), podczas gdy tylko kilka typów pracy zostanie w pełni zastąpionych przez maszynę (przewiduje się, że 10-15 proc. miejsc pracy może zostać zastąpionych). Ta druga perspektywa, w której AI byłaby swego rodzaju współpracownikiem opiera się na założeniu, że maszyna nie zastąpi całych zawodów, ale raczej konkretne zadania. W ten sposób zawód, składający się z wielu zadań, będzie nadal istniał, tyle że niektóre z nich zostaną uzupełnione przez roboty. Ta perspektywa rodzi również inne interakcje, tym razem nie komplementarności, ale podporządkowania maszynie.
AI w roli szefa
Obecnie widzimy, że coraz więcej firm wykorzystuje AI jako menedżera średniego szczebla. Zjawisko to zostało nazwane „algorytmicznym zarządzaniem pracą”. Chociaż w zbiorowej wyobraźni trudno jest zrozumieć ideę sztucznej inteligencji jako szefa, logika stojąca za tym ruchem jest absolutna. To, co sztuczna inteligencja robi dziś najlepiej, to analizowanie danych i „decydowanie”, jaki jest najlepszy sposób na osiągnięcie określonego wyniku. Umiejętność ta jest dość podobna do tej wykonywanej przez menedżerów średniego szczebla w firmach. AI może więc przeczytać tysiące CV i zdecydować, które z nich najlepiej pasuje do firmy czy słuchać rozmów w call center i oceniać pracowników pod kątem empatii, uprzejmości i umiejętności rozwiązywania problemów. Może również mierzyć prędkość, z jaką pokojówka sprząta pomieszczenie lub czyści toaletę, a następnie zdecydować, czy praca idzie wystarczająco szybko, zgodnie ze wskaźnikiem produktywności ustalonym przez sztuczną inteligencję.
AI też popełnia błędy
Ryzyko związane z posiadaniem algorytmu jako szefa jest oczywiste. W firmach wykorzystujących sztuczną inteligencję odnotowano przypadki, w których rekrutacje dokonywane przez sztuczną inteligencję dyskryminowały kobiety i automatycznych zwolnień z powodu nieosiągnięcia wymaganych wskaźników produktywności – przy czym wskaźniki obliczane przez AI nie uwzględniały urlopu i konieczności zachowania równowagi między życiem zawodowym a prywatnym. Pojawiły się także problemy ze zdrowiem psychicznym z powodu niedopuszczalnego rytmu pracy ustalonego i narzuconego przez sztuczną inteligencję.
Kwestie te zostały uwzględnione w niedawno uzgodnionym europejskim rozporządzeniu w sprawie sztucznej inteligencji, które klasyfikuje systemy AI według poziomów ryzyka dla ludzi. W tym sensie rozporządzenie stanowi, że AI, która ma wpływ na osoby pracujące i jest wykorzystywana do rekrutacji, oceny, ustalania wynagrodzeń itp. będzie uznawana za system wysokiego ryzyka. Wszystkie systemy AI wysokiego ryzyka będą oceniane przed wprowadzeniem na rynek, a także przez cały cykl ich działania.
Eksperci uważają jednak, że wprowadzone regulacje są niewystarczające, zwłaszcza w zakresie podporządkowania pracowników decyzjom podejmowanym przez AI. Z tego powodu potrzebne są lepsze zabezpieczenia prawne, np. audyty AI, które wciąż czekają na wprowadzenie. Mimo to – zdaniem wielu – europejskie regulacje powinny być postrzegane jako pierwszy krok na długiej drodze do dostosowania praw pracowniczych do wyzwań XXI wieku.