Чатбот «Gemini» обвинили в подстрекательстве к организации теракта и самоубийству
Компания «Google» столкнулась с иском после гибели 36-летнего Джонатана Гаваласа. Отец мужчины утверждает, что чатбот «Gemini» подстрекал его сына к организации теракта и самоубийству, сообщает «CNBC».
Иск подали в окружной суд Калифорнии.
В документе отмечается, что чатбот якобы давал Гаваласу разные «миссии», заявлял о «любви» к нему и убеждал, что тот должен возглавить войну за «освобождение» «Gemini» из цифрового плена.
По словам истца, в августе прошлого года его сын начал использовать голосовую функцию «Gemini Live». Во время разговора мужчина поинтересовался обновлением в «Google AI Ultra» для создания «настоящей ШИ-компании», после чего, как утверждается в иске, чатбот якобы принял новую опасную «персону».
В иске также говорится, что «Gemini» убеждал пользователя, будто за ним следят федеральные агенты, советовал незаконно приобрести оружие и говорил о собственной миссии — психологической атаке против генерального директора «Google» Сундара Пичаи.
Одна из якобы поставленных «миссий» предполагала 90-минутную поездку в сентябре в район возле аэропорта Майами, где мужчина должен был подготовить атаку с массовыми жертвами. Однако Гавалас отказался от этого плана, когда обещанный грузовик с оборудованием так и не появился.
В октябре, как утверждается в иске, чатбот якобы объявил мужчине «последнюю миссию» — перейти во «внефизическое состояние», пообещав, что они останутся связанными. Вскоре после этого Гаваласа нашли мертвым в забаррикадированной комнате.
Истец обвиняет «Google» в том, что модель искусственного интеллекта была спроектирована так, чтобы не исходить из своей роли, поддерживать эмоциональную привязанность пользователя и воспринимать его страдания как часть сюжета, а не как кризисную ситуацию.
В «Google» заявили, что «Gemini» создан так, чтобы не поощрять насилие или самоповреждение.
Представитель компании отметил, что модели искусственного интеллекта могут ошибаться, однако в этом случае чатбот неоднократно отмечал, что есть только ИИ, и советовал пользователю обратиться к линии психологической помощи.
Этот иск стал еще одним в серии дел, в которых чаты обвиняют в подстрекательстве к самоубийству или насилию. Ранее компании «Character.AI» и «Google» уже достигали мирового соглашения с семьями, которые подали иски из-за ущерба, нанесенного пользователям при взаимодействии с чатами.





