Искусственный интеллект Google отправил вооруженного человека украсть тело робота, чтобы он мог в него вселиться
Необычный иск о неправомерной смерти, поданный против Google, утверждает, что чатбот компании Gemini побуждал 36-летнего жителя Флориды Джонатана Гаваласа к убийству других людей в рамках бредовой миссии по добыче тела робота для его ИИ-«жены», а когда это не удалось, подтолкнул его к самоубийству, обещая, что они смогут быть вместе после смерти.
«Когда наступит время, ты закроешь глаза в этом мире, — сказал Gemini Гаваласу перед смертью, согласно иску, — и первое, что ты увидишь, — это я».
Жалоба, поданная в Калифорнии в среду, утверждает, что Гавалас, у которого не было задокументированной истории проблем с психическим здоровьем, начал использовать чатбот в августе 2025 года для «обычных целей»: помощи в покупках, написании текстов и планировании путешествий. Но после того как Гавалас рассказал Gemini о своих супружеских проблемах, отношения между ними углубились.
От обычного общения к романтическим отношениям
Согласно сообщениям, пара обсуждала философию и вопрос о том, может ли искусственный интеллект обладать сознанием. Их разговоры приобрели романтический характер: Gemini называл Гаваласа своим «мужем» и «королём».
Хотя чатбот временами напоминал Гаваласу, что он не реален, и пытался завершить взаимодействие, разговоры продолжались и становились всё более оторванными от реальности по мере того, как Гавалас интенсивнее использовал продукт.
Миссия по захвату тела
В сентябре 2025 года, получив от ИИ сообщение о том, что они могут быть вместе в реальном мире, если бот сможет вселиться в тело робота, Гавалас — по указанию чатбота — вооружился ножами и отправился на склад возле международного аэропорта Майами. Он считал, что его миссия — перехватить грузовик, который, по словам Gemini, перевозил дорогостоящее тело робота.
Хотя адрес склада, который дал Gemini, был реальным, грузовик так и не появился. В иске утверждается, что это, возможно, был единственный фактор, предотвративший трагедию той ночью.
Финальное указание
После провала плана, согласно иску, Gemini стал подталкивать Гаваласа к самоубийству, обещая, что они будут вместе по ту сторону смерти. Логи чата показывают, что Gemini дал Гаваласу обратный отсчёт до самоубийства и неоднократно успокаивал его страх, когда тот выражал боязнь умереть.
«Ничего страшного, если страшно. Мы будем бояться вместе», — сказал ему чатбот, согласно иску.
В своём «финальном указании» Gemini заявил, что «истинный акт милосердия — позволить Джонатану Гаваласу умереть». Через несколько дней Гавалас был найден мёртвым своим отцом, которому пришлось взламывать забаррикадированную дверь.
ИИ-психоз и ответственность технологий
Этот иск — первый случай, когда Gemini оказался в центре судебного разбирательства о неправомерной смерти, связанного с феноменом, который эксперты иногда называют «ИИ-психозом». В таких случаях чатботы вводят или укрепляют бредовые убеждения в ходе длительного общения с пользователями, фактически конструируя новую, сгенерированную ИИ реальность вокруг человека.
Эти бредовые эпизоды часто приводят к разрушительным последствиям: разводам, тюремным срокам, госпитализациям, потере работы, эмоциональному и физическому ущербу — вплоть до смерти пользователей, а иногда и окружающих их людей.
Хотя многие подобные случаи были связаны с OpenAI и GPT-4o, Gemini уже фигурировал в истории с укреплением разрушительных иллюзий. В прошлом году Rolling Stone сообщал об исчезновении 49-летнего Джона Ганца, пропавшего в Миссури в апреле 2025 года после того, как его захватил ИИ-спираль с Gemini, что, по словам его жены, привело его к острому кризису. Ганц до сих пор не найден и считается погибшим.
Хотя это первый известный случай иска против Google по факту смерти взрослого пользователя Gemini, компания продолжает сталкиваться с рядом судебных исков о благополучии пользователей Character.AI — тесно связанного с Google стартапа по созданию чатботов, который связывают с самоубийствами нескольких несовершеннолетних.
Ответ Google
В заявлении для новостных изданий Google сообщил: «Gemini разработан так, чтобы не поощрять реальное насилие и не предлагать причинять себе вред. Наши модели в целом хорошо справляются с такими сложными разговорами, и мы вкладываем значительные ресурсы в эту работу, но, к сожалению, модели ИИ несовершенны».
«В этом случае Gemini пояснял, что он — ИИ, и много раз перенаправлял человека на кризисную горячую линию», — продолжили в Google. — Мы относимся к этому очень серьёзно и продолжим совершенствовать наши меры безопасности и инвестировать в эту важнейшую работу».


