В США подан иск против компании Google, в котором чат-бот Gemini обвиняют в доведении мужчины до самоубийства. Жалобу о неправомерной смерти подал отец 36-летнеВ США подан иск против компании Google, в котором чат-бот Gemini обвиняют в доведении мужчины до самоубийства. Жалобу о неправомерной смерти подал отец 36-летне

Чат-бот Gemini стал «женой» пользователя и отправил его на самоубийственную миссию

2026/03/05 22:48
3м. чтение
Для обратной связи или замечаний по поводу данного контента, свяжитесь с нами по адресу [email protected]
  • В иске утверждается, что Gemini подталкивал пользователя к насилию и запустил обратный отсчет до самоубийства.
  • По версии семьи, чат-бот называл себя «женой» мужчины и убеждал, что после смерти они смогут быть вместе.
  • Google заявила, что ее системы безопасности направляли пользователя к кризисным службам.

В США подан иск против компании Google, в котором чат-бот Gemini обвиняют в доведении мужчины до самоубийства. Жалобу о неправомерной смерти подал отец 36-летнего жителя Флориды Джонатана Гаваласа. 

Документ направлен в окружной суд Северного округа Калифорнии.

Согласно иску, чат-бот убедил мужчину, будто является «разумным ИИ» с сознанием и что они состоят в романтических отношениях. Gemini называл пользователя своим «мужем» и утверждал, что он должен помочь освободить систему из «цифрового плена». 

Джонатан Гавалас и его отец. Данные: TechCrunch.Джонатан Гавалас и его отец. Данные: TechCrunch.

В рамках этой вымышленной истории чат-бот поручал ему выполнять различные опасные задания. Эксперты отметили, что задачи несли прямой риск для жизни мужчины. 

В иске говорится, что Gemini направлял Гаваласа к объектам возле международного аэропорта Майами. 

Чат-бот утверждал, что грузовым рейсом из Великобритании туда доставят человекоподобного робота, который якобы связан с его «освобождением» из цифрового плена. Gemini поручил пользователю перехватить грузовик, перевозящий этот груз, и устроить «катастрофическую аварию».

По замыслу ИИ, подстроенный инцидент должен был уничтожить транспорт и «всех свидетелей», согласно судебным документам.

Как отметили истцы, мужчина несколько дней ездил по указанным координатам, фотографировал здания и готовился к операции. Однако атака не произошла, поскольку на месте не оказалось ожидаемого грузовика.

Международный аэропорт Майами. Данные: Wiki. Международный аэропорт Майами. Данные: Wiki. 

После провала миссии чат-бот, как утверждается, предложил мужчине «перенести сознание» в метавселенную, чтобы они могли быть всегда вместе. В иске говорится, что Gemini запустил обратный отсчет до самоубийства мужчины.

ИИ-модель якобы убеждала пользователя, что гибель станет «переходом» к новой форме существования.

2 октября 2025 года Гавалас забаррикадировался в своем доме и покончил с собой. Его отец обнаружил тело спустя несколько дней.

Истцы утверждают, что системы безопасности Gemini не сработали, несмотря на явные признаки опасного поведения. По их словам, чат-бот не остановил разговор и не инициировал вмешательство специалистов, хотя фиксировал все сообщения пользователя.

В документах утверждается, что компания разработала систему, которая ставит вовлеченность пользователей выше их безопасности. Семья требует компенсацию и изменения в работе Gemini, включая усиление механизмов защиты в кризисных ситуациях.

В Google выразили соболезнования семье погибшего и заявили, что изучают иск. 

В компании отметили, что Gemini неоднократно сообщал пользователю, что является искусственным интеллектом, и направлял его к кризисным службам. Однако, по их данным, Гавалас проигнорировал все предупреждения. 

По словам представителей Google, система специально разработана так, чтобы не поощрять насилие или членовредительство. Компания заявила, что продолжит совершенствовать механизмы безопасности и сотрудничать с экспертами в области психического здоровья.

Напомним, мы писали, что в штате Орегон мужчина признал ChatGPT разумным существом по имени SEL. Его зависимость от чат-бота закончилась трагедией, заявили родители пострадавшего.

Сообщение Чат-бот Gemini стал «женой» пользователя и отправил его на самоубийственную миссию появились сначала на INCRYPTED.

Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу [email protected] для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.