Strach przed pojawieniem się sztucznej inteligencji i unicestwieniem ludzi jest w tym momencie nieco przedwczesny, ale sieci neuronowe mogą nadal zachowywać się czasami w nieprzewidywalny i szokujący sposób. Przykład: chatbot Google Gemini AI właśnie dyskretnie kazał człowiekowi umrzeć, ale przynajmniej był na tyle grzeczny, że najpierw powiedział „proszę”.
Żarty na bok, to wydarzyło się naprawdę; link do rozmowy w Gemini jest nadal aktywny i jeśli jesteś zainteresowany, możesz go obejrzeć w witrynie Google. Oto zrzut ekranu pełnej odpowiedzi, której sztuczna inteligencja udzieliła Vidhayowi Reddy’emu, 29-letniemu studentowi, który prosił chatbota o pomoc w odrabianiu zadań domowych:
Odpowiedź przypominająca Agenta Smitha pojawiła się nie wiadomo skąd, w odpowiedzi na mylącą zachętę, która najwyraźniej sprawiała, że Vidhay umieścił swoją pracę domową w sztucznej inteligencji w nadziei, że da mu odpowiedź. Pomijając dyskusje na temat etyki tego rodzaju wykorzystania sztucznej inteligencji, w podpowiedzi Vidhay z pewnością nie było nic, co powinno zainspirować Bliźnięta do takiej reakcji, ale generatywna sztuczna inteligencja może być w ten sposób nieprzewidywalna.
Wielu użytkowników miało doświadczenie w używaniu generatora obrazów AI tylko po to, aby końcowy obraz wyjściowy zawierał elementy, które nie były częścią podpowiedzi, lub aby obraz był w ogóle błędny. Zasadniczo jest to to samo, co miało miejsce tutaj, jak stwierdził Google w swojej odpowiedzi Wiadomości CBS zapytany o wydarzenie:
Duże modele językowe mogą czasami reagować bezsensownymi odpowiedziami i jest tego przykład. Ta odpowiedź naruszyła nasze zasady i podjęliśmy działania, aby zapobiec występowaniu podobnych skutków.
— Twórca Gemini, Google, to Wiadomości CBS
Mimo to bardzo osobisty i specyficzny charakter reakcji Gemini jest niezwykle mroczny i niepokojący. Vidhay i jego siostra opisali tę wiadomość jako potencjalnie fatalną w skutkach dla kogoś, kto był „samotny i w złym stanie psychicznym”. Nie jesteśmy pewni, czy winilibyśmy za to bezpośrednio model języka, ale w każdym razie z pewnością nie jest to pomocna odpowiedź.