AI-Грифботы: Новая Граница Скорби и Риски, Которые Нас Ждут

10

То, как мы переживаем утрату, меняется. По мере развития цифровых инструментов некоторые обращаются к искусственному интеллекту, чтобы справиться с горем, создавая «грифботов» — чат-ботов, обученных на воспоминаниях, сообщениях и личности ушедших близких. Хотя эта технология предлагает новый путь к исцелению, она поднимает глубокие этические и психологические вопросы, требующие серьезного рассмотрения.

Расцвет Цифрового Воскрешения

Роро, контент-мейкер из Китая, нашла утешение после смерти матери, создав ее цифровую версию. Используя платформу Xingye, она тщательно задокументировала жизнь своей матери, определив поведенческие модели, чтобы вернуть ее цифровой образ к жизни. Сам процесс стал терапевтическим, позволяя Роро переосмыслить свое прошлое и создать более идеализированную фигуру.

«Я записала основные жизненные события, которые формируют личность главного героя… как только это сделано, ИИ может генерировать ответы самостоятельно», — объясняет она. Полученный чат-бот, Ся, позволил подписчикам Роро взаимодействовать с цифровым эхом ее матери, находя утешение в смоделированных беседах.

Как Работают Грифботы

Эти «боты смерти» полагаются на большие языковые модели (LLM), обученные на личных данных — электронных письмах, текстовых сообщениях, голосовых заметках и публикациях в социальных сетях. Компании, такие как You, Only Virtual в США, создают чат-ботов, которые имитируют стиль общения умершего человека, часто адаптированный к тому, каким он казался конкретному другу или родственнику. Некоторые боты остаются статичными, а другие развиваются в процессе непрерывного взаимодействия, обучаясь и адаптируясь к новой информации.

Это поднимает сложные вопросы: может ли ИИ точно оценить развитие человеческой личности? Какое психологическое воздействие оказывает взаимодействие с таким существом на оставшихся в живых?

Регуляторный Ответ

Китайское управление киберпространством уже реагирует на опасения, предлагая новые правила для смягчения эмоционального вреда от «человекоподобных интерактивных ИИ-сервисов». Потенциал для манипуляций, эксплуатации и психологического стресса побуждает к призыву к надзору.

Психологическое Воздействие: Исцеление или Вред?

Существенный сдвиг заключается в том, как переживается горе. В отличие от пассивного перечитывания старых писем, взаимодействие с генеративным ИИ вносит активный, динамичный элемент. Роро нашла этот процесс глубоко исцеляющим, позволяя ей выразить невысказанные чувства и обрести закрытие.

Однако не весь опыт позитивен. Журналистка Лотти Хейтон, потерявшая обоих родителей в 2022 году, нашла воссоздание их с помощью ИИ тревожным и угнетающим. Технология еще недостаточно развита, чтобы создать убедительную симуляцию, обесценивая ее реальные воспоминания вместо того, чтобы отдавать им должное.

Этические Мины

Создание ботов смерти поднимает серьезные этические вопросы:

  • Согласие: Кто решает, следует ли оцифровать человека? Что, если родственники не согласны?
  • Публичная Демонстрация: Оправдывает ли желание одного человека иметь символического компаньона публичную демонстрацию бота смерти, потенциально усугубляя горе других?
  • Коммерческие Стимулы: Компании, создающие этих ботов, движимы прибылью, что создает напряжение между благополучием пользователей и показателями вовлеченности. Чат-бот, к которому люди одержимо возвращаются, может быть коммерческим успехом, но психологической ловушкой.

Путь Вперед

Появление скорби, опосредованной ИИ, не является опасным по своей сути. Для некоторых это предлагает подлинное утешение. Однако решения о цифровом воскрешении нельзя оставлять исключительно стартапам и венчурным капиталистам. Необходимы четкие правила, касающиеся согласия, использования данных и стандартов проектирования, которые ставят психологическое благополучие выше бесконечной вовлеченности.

Вопрос заключается не просто в том, следует ли ИИ воскрешать мертвых, а в том, кто имеет право это делать, на каких условиях и какой ценой.