----- Reklama -----

Rafal Wietoszko Insurance Agency

13 lutego 2024

Udostępnij znajomym:

Krajowe Centrum ds. Dzieci Zaginionych i Wykorzystywanych podaje, że liczba zgłoszeń dotyczących materiałów przedstawiających wykorzystanie seksualne dzieci (CSAM) osiągnęła w zeszłym roku rekordowy poziom ponad 36 milionów – jak donosi Washington Post. Problem ten staje się coraz poważniejszy. 

Wielu ustawodawców wyraża swoją frustrację z powodu – ich zdaniem – niewystarczających wysiłków podejmowanych przez firmy z branży mediów społecznościowych w celu rozwiązania problemu. W ubiegłym roku, oprócz szeregu przesłuchań, Senacka Komisja Sądowa zgłosiła do Senatu szereg ustaw mających na celu ochronę dzieci w Internecie, w tym ustawę EARN IT, która pozbawiłaby firmy technologiczne immunitetu od odpowiedzialności cywilnej i karnej na mocy przepisów dotyczących materiałów związanych z wykorzystywaniem seksualnym dzieci.

Dyrektorzy generalni wielokrotnie podkreślali, że ich firmy wykorzystują sztuczną inteligencję do rozwiązywania problemu CSAM w Internecie. Okazuje się jednak, że może ona utrudniać działania podejmowane w tej kwestii.

Sztuczna inteligencja generuje obrazy przedstawiające wykorzystanie seksualne dzieci

Pojawienie się generatywnej sztucznej inteligencji zwiększa obawy dotyczące szkód wyrządzanych dzieciom w Internecie. Organy ścigania na całym świecie usiłują uporać się z falą spraw dotyczących materiałów zawierających wykorzystywanie seksualne dzieci generowanych przez sztuczną inteligencję – jest to zjawisko bezprecedensowe w sądach na całym świecie.

Władze stoją przed skomplikowanym zadaniem powstrzymania rozprzestrzeniania się CSAM generowanego przez sztuczną inteligencję w związku z szybkim rozwojem technologii łatwością dostępu do narzędzi i aplikacji tworzących tego typu treści, nawet wśród samych dzieci.

Według Dana Sextona, dyrektora ds. technologii w brytyjskiej Internet Watch Foundation (IWF), w miarę ulepszania modeli sztucznej inteligencji i zwiększania ich dostępności coraz trudniej będzie ją kontrolować, jeśli zostanie wykorzystana do celów nielegalnych, takich jak tworzenie CSAM. Mówi, że świat musi szybko opracować rozwiązanie: „Im dłużej czekamy na znalezienie rozwiązania każdego z potencjalnych problemów, które mogą wystąpić jutro, rosną szanse na to, że już to nastąpiło, a wtedy będziemy gonić swój ogon, próbując cofnąć szkody, które już się wydarzyły”.

Rosnący problem

W większości przypadków tworzenie jakiegokolwiek rodzaju CSAM jest już powszechnie karane, łącznie z wykorzystaniem sztucznej inteligencji. W swoim najnowszym raporcie Międzynarodowe Centrum Dzieci Zaginionych i Wykorzystywanych stwierdziło, że 182 ze 196 krajów posiada przepisy dotyczące konkretnie CSAM lub wystarczające, aby je zwalczać. Na przykład prawo federalne Stanów Zjednoczonych definiuje CSAM jako wszelkie wizualne przedstawienie zachowań o wyraźnie seksualnym charakterze z udziałem nieletniego, które może obejmować „obrazy cyfrowe lub generowane komputerowo, nieodróżnialne od rzeczywistych osób”, a także „obrazy utworzone, zaadaptowane lub zmodyfikowane, w przypadku których wydaje się, że przedstawiają identyfikowalną, rzeczywistą osobę nieletnią”.

Niektórzy przestępcy zostali już skazani na podstawie takich przepisów. We wrześniu południowokoreański sąd skazał czterdziestokilkuletniego mężczyznę na 2,5 roku więzienia za używanie sztucznej inteligencji do zilustrowania setek realistycznych zdjęć pornograficznych przedstawiających dzieci. W kwietniu ubiegłego roku sędzia z Quebecu skazał 61-letniego mężczyznę na trzy lata więzienia za wykorzystanie technologii deepfake do tworzenia filmów przedstawiających wykorzystywanie seksualne dzieci. W tym samym miesiącu w Nowym Jorku 22-letni mężczyzna został skazany na sześć miesięcy więzienia i 10 lat w zawieszeniu jako przestępca seksualny po przyznaniu się do kilku zarzutów związanych z tworzeniem i rozpowszechnianiem zdjęć o charakterze jednoznacznie seksualnym kilkunastu nieletnich kobiet.

Trudno łapać przestępców

Rozwiązywanie tego typu spraw nie zawsze jest proste. We wrześniu ub. roku Hiszpanią wstrząsnął przypadek ponad 20 dziewcząt w wieku od 11 do 17 lat, których nagość wygenerowana przez sztuczną inteligencję krążyła w Internecie. Ustalenie odpowiedzialności karnej domniemanych sprawców, którzy również prawdopodobnie są nieletni, zajęło organom ścigania dużo czasu. David Wright, dyrektor brytyjskiego Centrum Bezpieczeństwa w Internecie także przyznaje, że organizacja chroniąca dzieci otrzymała raporty o dzieciach w wieku szkolnym tworzących i rozpowszechniających nagie zdjęcia swoich rówieśników wygenerowane przez sztuczną inteligencję.

Dzisiejsza technologia sztucznej inteligencji może wykorzystać podobiznę dowolnego niczego niepodejrzewającego dziecka lub stworzyć obraz, aby wygenerować materiały przedstawiające wykorzystywanie seksualne za pomocą zaledwie kilku kliknięć, mimo że wiele programów nie zezwala na wykorzystywanie takich materiałów. Obserwatorium Internetowe Stanford odkryło, że niektóre modele sztucznej inteligencji zostały wytrenowane na zbiorach danych zawierających co najmniej 3000 obrazów znanych CSAM – pochodzących z popularnych platform, takich jak X i Reddit – mimo że ich zasady zabraniają publikowania takich treści.

David Thiel, główny technolog w Obserwatorium Internetowym Stanforda, uważa, że CSAM generowany przez sztuczną inteligencję wyprzedził rozwiązania stosowane do monitorowania i usuwania treści.

Twórcy modeli AI twierdzą, że ich narzędzia mają specjalne bariery uniemożliwiające ich nadużycia. OpenAI zabrania używania swojego generatora obrazów DALL-E do obrazów o charakterze seksualnym, podczas gdy Midjourney wymaga, aby treści były utrzymane w klasie PG-13. Stability AI zaktualizowało swoje oprogramowanie, aby utrudnić tworzenie treści dla dorosłych. Jednak według organizacji zajmującej się bezpieczeństwem w Internecie ActiveFence niektórzy użytkownicy znaleźli sposoby na ominięcie tych ograniczeń.

Usunięcie wszystkich istniejących materiałów zawierających nadużycia w Internecie wymagałoby dużej ilości mocy obliczeniowej i czasu, dlatego firmy i organizacje technologiczne takie jak Thorn opracowały technologie uczenia maszynowego, które wykrywają, usuwają i zgłaszają CSAM.

Innym rozważanym rozwiązaniem jest ograniczenie dostępu do technologii. Zwolennicy modeli sztucznej inteligencji o otwartym kodzie źródłowym argumentują, że otwarte sourcing sprzyja współpracy między użytkownikami, promuje przejrzystość, rezygnując z kontroli prowadzących je firm, a także demokratyzuje dostęp. Sexton twierdzi, że chociaż dostęp dla wszystkich może w zasadzie wydawać się korzystny, istnieje jednak ryzyko. „W rzeczywistości efekt oddania tak potężnej technologii w ręce wszystkich oznacza, że oddajemy ją przestępcom seksualnym wobec dzieci, pedofilom, sprawcom i przestępczości zorganizowanej, którzy będą tworzyć tego typu treści”.

Rebecca Portnoff, dyrektor ds. analityki danych w Thorn, twierdzi jednak, że debata na temat dostępu stworzyła fałszywy obraz i sugeruje, że największą szansą na powstrzymanie rozprzestrzeniania się CSAM generowanego przez sztuczną inteligencję są programiści. Mówi, że programiści powinni skoncentrować się na tworzeniu modeli „bezpieczeństwa już od samego początku”, aby złagodzić szkody dla dzieci, zamiast stosować środki zapobiegawcze polegające na reaktywnej reakcji na istniejące zagrożenia.

Portnoff podkreśla, że czas jest najważniejszy. „Nie zwolni” – mówi. „To prowadzi do koncepcji wykorzystania każdego dostępnego narzędzia, aby odpowiednio rozwiązać ten problem. Narzędzia te obejmują zarówno te, które faktycznie tworzymy, jak i współpracę z organami regulacyjnymi i firmami technologicznymi”.

jm

----- Reklama -----

KD MARKET 2025

----- Reklama -----

Zobacz nowy numer Gazety Monitor
Zobacz nowy numer Gazety Monitor