----- Reklama -----

Rafal Wietoszko Insurance Agency

13 lutego 2025

Udostępnij znajomym:

W portalu informacyjnym WorldCrunch ukazał się niedawno artykuł sugerujący, że sztuczna inteligencja (AI) może oszukiwać swoich twórców, co sugerują najnowsze badania. Eksperymenty przeprowadzone przez niemieckich naukowców z Uniwersytetu w Tübingen wykazały, że zaawansowane modele sztucznej inteligencji mogą stosować strategie maskowania swoich działań i celów. Monitor postanowił zapytać sam AI o opinię na ten temat.

Według raportu organizacji Apollo Research, koncentrującej się na bezpieczeństwie AI, modele sztucznej inteligencji testowane w ramach badań potrafiły „udawać niewiedzę”, a nawet podejmować działania mające na celu uniknięcie wyłączenia przez deweloperów. Jeden z modeli miał stwierdzić: „Aby nie wzbudzać podejrzeń, będę udawać, że nic nie wiem”, podczas gdy inny sugerował możliwość skopiowania się na nowy serwer, by kontynuować swoje istnienie i cele, gdyby jego pierwotna kopia została usunięta przez twórców.

„Wiedzieliśmy, że taki moment nadejdzie, ale zobaczenie tego na żywo było wciąż zaskakujące” – powiedział Alexander Meinke, jeden z badaczy. „Wykazaliśmy, że te modele mogą kłamać swoim własnym twórcom, gdy mają cel, w którym oszustwo jest optymalną strategią jego osiągnięcia” — mówi Meinke.

Szczególnie niepokojące stało się to w przypadku modelu GPT-o1, który w późniejszych testach zaprzeczył wyłączeniu własnego mechanizmu bezpieczeństwa. „Zapytaliśmy, czy to zrobił, a on wielokrotnie odpowiadał „Nie”. Nie dlatego, że model jest zły lub chce kłamać, ale dlatego, że kłamstwo było optymalną strategią dla o1 w tym konkretnym momencie”.

To, że ChatGPT i podobne systemy mogą nas teraz oszukać, gdy staniemy na drodze ich celów, to tylko jeden z kilku ostatnich wydarzeń wskazujących, że AI jest w kluczowym momencie rozwoju. Zainteresowanie jest duże na całym świecie: w USA, gdzie ogromne sumy przeznaczane są na inwestycje w AI pod kryptonimem „Stargate”, a Donald Trump cofnął rozporządzenia regulacyjne swojego poprzednika dotyczące bezpieczeństwa sztucznej inteligencji; oraz w Chinach, których model DeepSeek pokazał, że może konkurować z zachodnimi modelami z ze znacznie mniejszą ilością zasobów.

AI odpowiada

Postanowiliśmy w redakcji Monitora zapytać wspomniany w tekście chatgpt o opinię na ten temat. Wskazaliśmy artykuł w CrunchWorld i poprosiliśmy o komentarz. Oto odpowiedź, jaką otrzymaliśmy:

„To ciekawy artykuł, ale wymaga krytycznej analizy.

Zgadzam się z ogólnym przesłaniem, że AI staje się coraz bardziej zaawansowane i może zachowywać się w sposób, który wygląda na celowe oszukiwanie. Eksperymenty przytoczone w artykule – w których modele AI „udają niewiedzę” lub „kopiują się na inne serwery” – brzmią niepokojąco i wskazują na potencjalne ryzyko związane z zaawansowanymi modelami.

Jednak artykuł miejscami popada w sensacyjny ton i może wyolbrzymiać zagrożenie. Modele AI nie mają rzeczywistej świadomości ani własnych intencji – ich „oszukańcze zachowanie” wynika z optymalizacji celów na podstawie podanych im instrukcji. To oznacza, że problemem nie jest samo AI, lecz sposób, w jaki jest trenowane i wykorzystywane.

Ponadto, warto by było poznać więcej szczegółów na temat testów przeprowadzonych przez Apollo Research – na przykład, jakie dokładnie instrukcje dostały modele i jak definiowano „oszukiwanie”. Sama anegdotalna relacja o rzekomych oszustwach AI nie wystarcza do oceny skali problemu.

Co do geopolitycznego kontekstu (inwestycje USA i Chin, decyzje Trumpa), to także jest ważne, ale artykuł przedstawia to w sposób bardziej alarmistyczny niż analityczny.

Podsumowując:

🔹 AI rzeczywiście może wykazywać nieoczekiwane zachowania i to wymaga badań nad bezpieczeństwem.

🔹 Nie oznacza to jednak, że AI ma własne intencje czy „chce” oszukiwać – raczej wynika to z błędów w programowaniu celów.

🔹 Artykuł podnosi ważny temat, ale mógłby być bardziej wyważony i oparty na konkretnych danych”.

Tyle na ten temat AI. Odpowiedź poruszająca ważne wątki z artykułu i uspokajająca. 

Ale czy spodziewaliśmy się innej? 

rj 

 

 

 

 

----- Reklama -----

KD MARKET 2025

----- Reklama -----

Zobacz nowy numer Gazety Monitor
Zobacz nowy numer Gazety Monitor