Rozporządzanie wymaga od twórców systemów sztucznej inteligencji, które stwarzają ryzyko dla bezpieczeństwa narodowego, gospodarki, zdrowia publicznego lub bezpieczeństwa USA, udostępniania tamtejszemu rządowi wyników ich testów bezpieczeństwa, zanim zostaną upublicznione. Nakazuje ono także agencjom rządowym ustalenie standardów tych testów i zajęcie się powiązanymi z nimi zagrożeniami chemicznymi, biologicznymi, radiologicznymi, nuklearnymi i w obszarze cyberbezpieczeństwa.
– Aby zrealizować obietnice rozwoju sztucznej inteligencji i uniknąć ryzyka, musimy zarządzać tą technologią – mówił prezydent Joe Biden. – Sztuczna inteligencja w niewłaściwych rękach może ułatwić hakerom wykorzystanie luk w oprogramowaniu, dzięki któremu działa nasze społeczeństwo – dodał.
Lista życzeń biurokracji AI
Rozporządzenie wywołało mieszaną reakcję grup branżowych i handlowych zajmujących się AI. Według wielu opinii firmy technologiczne prawdopodobnie będą wzbraniać się przed udostępnianiem rządowi zastrzeżonych danych w obawie, że mogą zostać udostępnione konkurentom. Potrzebne jest według nich wprowadzanie mechanizmu egzekwowania prawa.
NetChoice, krajowe stowarzyszenie branżowe skupiające główne platformy technologiczne, określiło nowe prawo jako „listę życzeń biurokracji AI”, która w efekcie „uniemożliwi nowym firmom i konkurentom wejście na rynek i znacznie zwiększy władzę rządu federalnego nad amerykańskimi innowacjami”.
Nowe wytyczne wykraczają poza dobrowolne zobowiązania podjęte na początku roku przez firmy zajmujące się sztuczną inteligencją, takie jak OpenAI, Alphabet i Meta Platforms , które zobowiązały się do znakowania wodnego treści generowanych przez sztuczną inteligencję, aby uczynić tę technologię bezpieczniejszą.
Reuter, KR