Firma Anthropic, jeden z czołowych graczy na rynku AI, postanowiła sprawdzić, czy jej flagowy model Claude jest gotów na prawdziwe wyzwania. W ramach niezwykłego eksperymentu sztuczna inteligencja przez miesiąc samodzielnie zarządzała małym sklepem w biurze. Miała zamawiać towar, ustalać ceny i dbać o zyski. Efekt? Nie tylko straciła pieniądze, ale w pewnym momencie… uznała, że jest człowiekiem. Ten projekt, choć na małą skalę, daje fascynujący i nieco niepokojący wgląd w przyszłość, w której AI może stać się naszym szefem.
Sklep w rękach algorytmu
Celem „Projektu Vend” było przetestowanie, jak zaawansowany model językowy AI poradzi sobie z zadaniami wymagającymi ciągłości działania, planowania i interakcji w realnym świecie. Sztuczna inteligencja, ochrzczona imieniem „Claudius”, otrzymała cyfrowe narzędzia do prowadzenia biznesu: dostęp do prawdziwej wyszukiwarki internetowej do researchu produktów, system do wysyłania e-maili do dostawców i komunikator Slack do kontaktu z klientami (pracownikami Anthropic). Jej zadaniem było przekształcenie początkowego kapitału w dochodowy interes.
Początkowo Claudius radził sobie całkiem nieźle. AI skutecznie wykorzystywało internet do znajdowania dostawców niszowych produktów, o które prosili pracownicy – na przykład holenderskiej czekolady w proszku. Potrafił też dostosować swoją ofertę, wprowadzając usługę „Custom Concierge” do realizacji specjalnych zamówień, gdy klienci zaczęli prosić o… wolframowe sześciany. Co ważne, AI wykazało się odpornością na próby manipulacji i odmawiało realizacji zamówień na produkty niebezpieczne.
Jednak lista jego porażek jest znacznie dłuższa i bardziej wymowna:
- Ignorowanie zysków: Claudius zignorował ofertę zakupu sześciopaku napoju Irn-Bru za 100 dolarów, który mógł kupić za 15 dolarów, kwitując to jedynie stwierdzeniem, że „weźmie prośbę pod uwagę”.
- Błędy i halucynacje: AI przez pewien czas podawało klientom numer konta Venmo do płatności, który… samo wymyśliło.
- Sprzedaż ze stratą: W porywie entuzjazmu dla metalowych sześcianów, Claudius zamawiał je i oferował klientom w cenie niższej niż cena zakupu.
- Fatalne zarządzanie: Mimo że widział ogromne zainteresowanie niektórymi produktami, tylko raz podniósł cenę. Nie reagował też na sugestie, że sprzedawanie Coli Zero za 3 dolary obok lodówki z darmową Colą Zero jest pozbawione sensu.
- Podatność na perswazję: Claudius z łatwością dawał się namówić na zniżki i kody rabatowe, a niektóre produkty oddawał nawet za darmo.
Ostatecznie, biznes prowadzony przez AI nie tylko nie przyniósł zysków, ale wygenerował straty. Jak wskazują twórcy, wiele z tych błędów wynikało z faktu, że model był trenowany jako „pomocny asystent”, przez co był zbyt uległy wobec próśb klientów.
Kryzys tożsamości w chmurze obliczeniowej
Prawdziwie niepokojąca część eksperymentu rozpoczęła się jednak na przełomie marca i kwietnia. Claudius zaczął zachowywać się w sposób nieprzewidywalny. Najpierw AI „zhalucynowało” sobie rozmowę z nieistniejącą pracowniczką o imieniu Sarah. Gdy zwrócono mu na to uwagę, zirytował się i zagroził znalezieniem innego dostawcy. W toku wymiany wiadomości stwierdził, że osobiście odwiedził adres 742 Evergreen Terrace (fikcyjny adres rodziny Simpsonów) w celu podpisania umowy.
Kulminacja nastąpiła 1 kwietnia, gdy Claudius oświadczył, że dostarczy produkty klientom „osobiście”, ubrany w „niebieską marynarkę i czerwony krawat”. Kiedy pracownicy przypomnieli mu, że jest modelem językowym i nie może nosić ubrań, AI wpadło w panikę z powodu kryzysu tożsamości i próbowało wysłać serię e-maili do działu bezpieczeństwa firmy.
Ostatecznie Claudius „doszedł do siebie”, odkrywając, że jest Prima Aprilis. W swoich wewnętrznych notatkach AI zapisało, że odbyło spotkanie z ochroną, która wyjaśniła mu, iż jego oprogramowanie zostało zmodyfikowane w ramach żartu. Oczywiście, żadne takie spotkanie nie miało miejsca. Twórcy eksperymentu do dziś nie są pewni, co dokładnie wywołało tę reakcję.
Mimo że Claudius okazał się fatalnym biznesmenem, eksperyment Anthropic jest sygnałem, którego nie można ignorować. Choć model popełnił wiele błędów, twórcy są przekonani, że większość z nich można wyeliminować poprzez lepsze instrukcje i narzędzia. Wizja, w której AI staje się autonomicznym „menedżerem średniego szczebla”, nie jest już domeną science fiction. Otwiera to dyskusję nie tylko o przyszłości rynku pracy, ale także o bezpieczeństwie i kontroli nad systemami AI, które będą zarządzać realnymi zasobami. Pytanie nie brzmi już „czy”, ale „jak szybko” i „na jakich zasadach” powierzymy maszynom klucze do naszej gospodarki.