----- Reklama -----

Rafal Wietoszko Insurance Agency

21 sierpnia 2024

Udostępnij znajomym:

Szybki rozwój sztucznej inteligencji powoduje, że regulatorzy są zaniepokojeni społecznymi i potencjalnie egzystencjalnymi zagrożeniami, jakie niesie ze sobą ta technologia, a rządy na całym świecie ścigają się, aby dotrzymać kroku. Portal Verbit przeanalizował wiadomości i raporty rządowe, aby sprawdzić, jakie prawa są uchwalane w celu uregulowania kwestii sztucznej inteligencji.

Unia Europejska uchwaliła w marcu ustawę AI Act, pierwszy na świecie kompleksowy zbiór przepisów regulujących AI. Ustawa tworzy cztery poziomy ryzyka, według których klasyfikuje się różne systemy AI, od „minimalnego ryzyka” do „niedopuszczalnego”. Poza wyjątkami dla organów ścigania, zakazano systemów AI, które stwarzają „niedopuszczalne” ryzyko — w tym tych, które manipulują myślami ludzi, identyfikują ludzi na podstawie ich cech demograficznych lub osobistych przekonań lub identyfikują emocje w miejscu pracy i szkołach. Tymczasem systemy „wysokiego ryzyka”, takie jak te, które szkodzą ludziom lub niezbędnej infrastrukturze, będą wymagały ujawnienia ryzyka i nadzoru ze strony człowieka.

Naukowcy są coraz bardziej przekonani, że AI stanowi poważne ryzyko egzystencjalne dla ludzkiej cywilizacji, podczas gdy firmy technologiczne aktywnie lobbują w Waszyngtonie w nadziei na ukształtowanie fali ustawodawstwa. Ponad 350 organizacji wydało łącznie 569 milionów dolarów, aby wpłynąć na politykę AI w pierwszych trzech kwartałach 2023 roku, według OpenSecrets, organizacji non-profit śledzącej pieniądze lobbingowe.

Co najmniej dwa tuziny stanów w USA pracują nad ustawodawstwem regulującym AI. Na szczeblu federalnym administracja Bidena w październiku ubiegłego roku wydała rozporządzenie wykonawcze w celu ustanowienia pewnych standardów rozwoju i użytkowania AI. Biały Dom wymaga teraz od firm budujących wydajne systemy AI udostępniania rządowi danych dotyczących bezpieczeństwa przed upublicznieniem technologii. Należy również przeprowadzić testy, aby upewnić się, że technologia nie stanowi poważnego zagrożenia dla zdrowia publicznego i bezpieczeństwa narodowego lub bezpieczeństwa gospodarczego.

W listopadzie 2023 r. utworzono Instytut Bezpieczeństwa Sztucznej Inteligencji, który ma kierować działaniami regulacyjnymi rządu. Zgodnie z rozporządzeniem wykonawczym wiele agencji rządowych rozpocznie w tym roku tworzenie planów i regulację AI.

Zarówno rozporządzenie wykonawcze Bidena, jak i przepisy UE wprowadzają nowe zasady regulujące rozwój najpotężniejszych modeli. Pomiar wydajności systemów AI może być trudny, dlatego organy regulacyjne zaczęły oceniać modele na podstawie mocy obliczeniowej potrzebnej do ich wyszkolenia. Na przykład ustawa UE o AI definiuje modele jako ryzyko systemowe, jeśli ich wyszkolenie wymagało więcej niż 10^25 operacji zmiennoprzecinkowych. Ta kategoria obejmuje co najmniej GPT-4 firmy OpenAI, który obsługuje ChatGPT, i prawdopodobnie Gemini firmy Google. Firmy budujące te modele będą musiały dostarczać urzędnikom raporty dotyczące oceny ryzyka, powiadamiać ich o poważnych incydentach i przekazywać informacje o zużyciu energii, jeśli będą chciały działać w UE.

Sądy również odegrają dużą rolę w kształtowaniu ewolucji sztucznej inteligencji. Jedną z najbardziej pilnych kwestii do uzgodnienia jest to, co stanowi naruszenie praw autorskich. Ustawa UE o sztucznej inteligencji wymaga, aby firmy przestrzegały praw autorskich podczas trenowania swoich modeli, ale na tym etapie nie jest do końca jasne, jak wygląda zgodność. Obecnie dość łatwo jest nakłonić systemy sztucznej inteligencji do tworzenia obrazów postaci chronionych prawem autorskim lub rysowania w stylu znanego artysty. Dzieje się tak, ponieważ firmy trenowały wiele wiodących modeli sztucznej inteligencji, przeszukując cały otwarty internet i pobierając tekst, dźwięk, obrazy i wideo.

Wielu artystów i pisarzy twierdzi, że jest to równoznaczne z kradzieżą ich prac, ale obrońcy AI twierdzą, że powinno to podlegać dozwolonemu użytkowi - w końcu nie jest nielegalne, aby artysta doskonalił swoje rzemiosło, studiując innych. Jeśli sądy orzekną, że główne systemy AI naruszają prawa autorskie, firmy, które je stworzyły, będą miały przed sobą dużo pracy.

jm

----- Reklama -----

KD MARKET 2025

----- Reklama -----

Zobacz nowy numer Gazety Monitor
Zobacz nowy numer Gazety Monitor