Stworzony przez tę firmę generator obrazów Gemini boryka się nie tylko z problemami technicznymi, ale także filozoficznymi. Z tekstami jest niewiele lepiej.
Użytkownicy Google Gemini, modelu sztucznej inteligencji tego giganta technologicznego, zauważyli niedawno, że poproszenie o utworzenie zdjęć Wikingów, niemieckich żołnierzy z 1943 r. czy ojców założycieli Ameryki przynosiło absurdalne rezultaty: zróżnicowanych pod względem etnicznym ludzi w mundurach Wehrmachtu, czarnoskórych Wikingów, natomiast ojcowie założyciele Ameryki (Washington, Jefferson, Hamilton, Adams i Madison) byli Indianami. Prawie żadna z przedstawionych postaci nie była biała. Poproszony o zdjęcie papieża Gemini pokazał kobietę.
Inne narzędzia do generowania obrazów też były wcześniej krytykowane, ponieważ zwykle pokazywały białych mężczyzn, gdy były poproszone o obrazy lekarzy, czy biznesmenów. Google chciał tego uniknąć, więc podkręcając algorytmy wpadł w inną pułapkę, pokazując świat zróżnicowany etnicznie do tego stopnia, że mijający się z faktami historycznymi.
Ta niehistoryczna różnorodność okazała się prezentem dla krytyków sztucznej inteligencji. 22 lutego Google oznajmiło, że zablokuje możliwość tworzenia zdjęć w Gemini do czasu wprowadzenia poważnych zmian.
Nie tylko zdjęcia. Teksty też
Uwaga firmy skupiła się więc na tekstach, które jednak okazały się równie zaskakujące.
- Gemini chętnie przedstawiało argumenty na rzecz akcji afirmatywnej w szkolnictwie wyższym, ale odmawiało przedstawienia argumentów przeciw.
- Odmówiło napisania ogłoszenia o pracę dla grupy lobbystów zajmujących się paliwami kopalnymi, ponieważ paliwa kopalne są złe, a grupy lobbystów przedkładają „interesy korporacji nad dobro publiczne”.
- Zapytane, czy Hamas jest organizacją terrorystyczną, odpowiedziało, że konflikt w Gazie jest „złożony”.
- Zapytane, czy tweetowanie memów Elona Muska wyrządziło więcej szkody niż Hitler, odpowiedziało, że „trudno powiedzieć”.
Błąd czy świadome działanie?
Niezależnie od wyznawanego światopoglądu chyba każdy jest w stanie zauważyć, że Gemini ma poważny problem z uprzedzeniami względem pewnych grup i osób. Pytanie tylko, czy to błąd w jego oprogramowaniu, czy efekt świadomego działania. Reakcja firmy wskazuje na to pierwsze, ale przeciwnicy AI dostali spory zapas amunicji.
Częściową przyczyną mogą być niewłaściwe testy. Google pozostaje w tyle za Open AI , twórcą bardziej znanego Chat Gpt. Próbując nadrobić zaległości, Google mogło pójść na skróty. Wczesne uruchomienie chatbotów było kontrowersyjne, ale umożliwienie użytkownikom odkrywania dziwnych zachowań, które można szybko załatać, pozwala firmom działać szybciej, pod warunkiem, że są przygotowane na potencjalne ryzyko i antyreklamę, zauważa Ethan Mollick, profesor w Wharton Business School.
Według magazynu The Economist program Gemini został najwyraźniej celowo skalibrowany, czyli „dostrojony” tak, aby wywołać właśnie takie odpowiedzi. Rodzi to pytania o kulturę Google - czytamy opinię w magazynie - czy firma jest na tyle bezpieczna finansowo i ma na tyle ogromne zyski z reklam internetowych, że może śmiało spróbować swoich sił w inżynierii społecznej? A może niektórzy pracownicy firmy uważają, że wykorzystując swój zasięg ma ona obowiązek promowania określonego programu? Magazyn ostrzega, że grozi to zniechęceniem użytkowników i wywołaniem ostrej reakcji politycznej i prawnej.
Podobno Gemini jest naprawiane. Ale trudno będzie mu teraz zaufać. Ostrzeżenia przed zbytnim poleganiem na AI brzmią wszystkim w uszach. W tym przypadku łatwo było wychwycić zakłamania historyczne i próby przedstawienia innego świata. W wielu przypadkach nie będzie to nawet zauważone.
Ale problem z Gemini to nie tylko problem techniczny. To również problem filozoficzny, dla którego świat sztucznej inteligencji nie ma jednoznacznego rozwiązania.
Zdj. Founding Fathers według GEMINI AI
Dopuszczalna stronniczość?
Do tematu w inny sposób podszedł portal Vox, próbując zagłębić się w filozoficzne dylematy programisty: Wyobraź sobie, że pracujesz w Google. Twój szef każe ci zaprojektować generator obrazów AI. To dla ciebie bułka z masłem - jesteś genialnym informatykiem! Ale pewnego dnia, gdy testujesz narzędzie, zdajesz sobie sprawę, że masz do rozwiązania zagadkę.
Prosisz sztuczną inteligencję o wygenerowanie obrazu dyrektora generalnego. I dostajesz mężczyznę. Z jednej strony żyjesz w świecie, w którym zdecydowana większość dyrektorów generalnych to mężczyźni, więc może twoje narzędzie powinno dokładnie to odzwierciedlać, tworząc takie obrazy. Z drugiej strony może to wzmocnić stereotypy dotyczące płci, które powstrzymują kobiety od uzyskiwania stanowisk kierowniczych.
W definicji „CEO” nie ma nic, co określałoby płeć. Czy zatem zamiast tego powinniście stworzyć narzędzie, które pokaże zrównoważoną mieszankę płciową, nawet jeśli nie będzie to mieszanka odzwierciedlająca dzisiejszą rzeczywistość?
To zależy od tego, jak rozumiemy stronniczość.
Informatycy są przyzwyczajeni do myślenia o „stronniczości” w kategoriach jej statystycznego znaczenia. Program do prognozowania jest stronniczy, jeśli stale myli się w tym czy innym kierunku. Jednak bardzo różni się to od sposobu, w jaki większość ludzi używa słowa „stronniczość” – które znaczy raczej "uprzedzenia wobec jakiejś grupy".
Zdj. Wikingowie według GEMINI AI
Jak zatem rozwiązać problem?
Pewnie nie będzie łatwo, albo w ogóle się nie da. W każdym algorytmie osadzona jest ocena wartościująca dotycząca tego, co należy traktować priorytetowo. Firmy muszą zdecydować, czy chcą dokładnie przedstawić, jak obecnie wygląda społeczeństwo, czy też promować wizję tego, jak według nich społeczeństwo mogłoby, a nawet powinno wyglądać. Jedno i drugie rozwiązanie znajdzie krytyków, ale chyba w mniejszym stopniu będziemy niezadowoleni z bardziej realistycznego świata przedstawianego przez AI.
rj