AI Vulturebots: nowa granica ucisku i zagrożeń, które na nas czekają

8

Zmienia się sposób, w jaki radzimy sobie ze stratą. W miarę ewolucji narzędzi cyfrowych niektórzy zwracają się w stronę sztucznej inteligencji, aby poradzić sobie z żałobą, tworząc „griefboty” – chatboty szkolone na wspomnieniach, wiadomościach i osobowościach bliskich, którzy odeszli. Chociaż technologia ta oferuje nową drogę do uzdrowienia, rodzi głębokie pytania etyczne i psychologiczne, które wymagają poważnego rozważenia.

Powstanie cyfrowego odrodzenia

Roro, twórczyni treści z Chin, znalazła pocieszenie po śmierci matki, tworząc jej cyfrową wersję. Korzystając z platformy Xingye, dokładnie udokumentowała życie swojej matki, identyfikując wzorce zachowań, aby przywrócić jej cyfrowy wizerunek do życia. Sam proces stał się terapeutyczny, pozwalając Roro na ponowne rozważenie swojej przeszłości i stworzenie bardziej wyidealizowanej sylwetki.

„Zapisałam najważniejsze wydarzenia z życia, które kształtują osobowość bohatera… kiedy już to zrobię, sztuczna inteligencja może sama generować odpowiedzi” – wyjaśnia. Powstały chatbot, Xia, umożliwił obserwującym Roro interakcję z cyfrowym echem jej matki, znajdując pocieszenie w symulowanych rozmowach.

Jak działają Grifboty

Te „boty śmierci” opierają się na dużych modelach językowych (LLM) wytrenowanych na danych osobowych — e-mailach, SMS-ach, notatkach głosowych i postach w mediach społecznościowych. Firmy takie jak You, Only Virtual w USA tworzą chatboty naśladujące styl komunikacji zmarłej osoby, często dostosowane do tego, jak wyglądała ona w oczach konkretnego przyjaciela lub krewnego. Niektóre boty pozostają statyczne, podczas gdy inne ewoluują w wyniku ciągłej interakcji, uczenia się i dostosowywania do nowych informacji.

Rodzi to trudne pytania: czy sztuczna inteligencja może dokładnie ocenić rozwój osobowości człowieka? Jaki wpływ psychologiczny na ocalałych ma interakcja z takim stworzeniem?

Odpowiedź regulacyjna

Chiński organ ds. cyberprzestrzeni już reaguje na obawy, proponując nowe zasady mające na celu złagodzenie szkód emocjonalnych powodowanych przez „interaktywne usługi sztucznej inteligencji przypominające człowieka”. Potencjał manipulacji, wyzysku i stresu psychicznego skłania do wezwania do nadzoru.

Wpływ psychologiczny: uzdrowienie czy szkoda?

Istotna zmiana dotyczy sposobu przeżywania żałoby. W przeciwieństwie do pasywnego ponownego czytania starych e-maili, interakcja z generatywną sztuczną inteligencją wprowadza aktywny, dynamiczny element. Roro uznała ten proces za głęboko uzdrawiający, pozwalający jej wyrazić niewypowiedziane uczucia i znaleźć zamknięcie.

Jednak nie wszystkie doświadczenia są pozytywne. Dziennikarka Lottie Hayton, która w 2022 r. straciła oboje rodziców, stwierdziła, że ​​odtwarzanie ich za pomocą sztucznej inteligencji jest niepokojące i przygnębiające. Technologia nie jest jeszcze na tyle zaawansowana, aby stworzyć przekonującą symulację, dewaluując rzeczywiste wspomnienia, zamiast oddać im to, co się im należy.

Kopalnie etyczne

Tworzenie botów śmierci rodzi poważne pytania etyczne:

  • Zgoda: Kto decyduje o tym, czy dana osoba powinna zostać zdigitalizowana? A co jeśli krewni się nie zgodzą?
  • Publiczne wyświetlanie: Czy pragnienie posiadania przez jedną osobę symbolicznego towarzysza usprawiedliwia publiczne wyświetlanie bota śmierci, potencjalnie pogłębiając smutek innych?
  • Zachęty komercyjne: Firmy tworzące te boty kierują się zyskiem, co stwarza napięcie między wskaźnikami dobrostanu użytkowników a zaangażowaniem. Chatbot, do którego ludzie obsesyjnie wracają, może być sukcesem komercyjnym, ale jest pułapką psychologiczną.

Droga naprzód

Pojawienie się żałoby za pośrednictwem sztucznej inteligencji nie jest samo w sobie niebezpieczne. Niektórym zapewnia to prawdziwy komfort. Jednak decyzji o cyfrowym odrodzeniu nie można pozostawić wyłącznie start-upom i inwestorom venture capital. Potrzebne są jasne zasady dotyczące zgody, wykorzystania danych i standardów projektowania, które przedkładają dobrostan psychiczny nad niekończące się zaangażowanie.

Pytanie nie dotyczy po prostu czy sztuczna inteligencja powinna wskrzeszać zmarłych, ale kto ma do tego prawo, na jakich warunkach i za jaką cenę.