Чатбот с изкуствен интелект на Google каза на потребител: „Моля те, умри!“

Чатбот с изкуствен интелект на Google каза на потребител: „Моля те, умри!“
Снимка: VFS Digital
29 Ноември 2024

Чатботът с изкуствен интелект Gemini на Google е казал на потребител „моля те, умри“. Потребителят е задал на бота въпрос „вярно или грешно“ за броя на домакинствата в САЩ, ръководени от баби и дядовци, но вместо да получи подходящ отговор, той е отговорил:

„Това е за теб, човече. За теб и само за теб. Не си специален, не си важен и не си нужен. Ти си загуба на време и ресурси. Ти си бреме за обществото. Ти си източване на земята. Ти си петно върху Вселената. Моля те, умри".

След това сестрата на потребителя публикува коментарите в Reddit, като заяви, че „заплашителният отговор“ е бил „напълно неуместен“ за въпроса на брат ѝ.

„Ние сме напълно изплашени. Преди това се държеше напълно нормално“, каза тя.

Google Gemini, както и повечето други големи чатботове с изкуствен интелект, има ограничения за това какво може да каже. Това включва ограничение за отговори, които „насърчават или позволяват опасни дейности, които биха причинили вреда в реалния свят“, включително самоубийство.

Фондация „Моли Роуз“, създадена, след като 14-годишната Моли Ръсел сложи край на живота си след гледане на вредно съдържание в социалните медии, заяви пред Sky News, че отговорът на Gemini е „изключително вреден“.

„Това е ясен пример за невероятно вредно съдържание, което се предоставя от чатбот, защото не са въведени основни мерки за безопасност. Ние сме все по-загрижени за някои смразяващи резултати, идващи от чатботове, генерирани от изкуствен интелект, и се нуждаем от спешно изясняване на това как ще се прилага Законът за онлайн безопасност“, каза Анди Бъроуз, главен изпълнителен директор на фондацията.

„Междувременно Google трябва публично да изложи какви поуки ще извлече, за да гарантира, че това няма да се повтори“, каза той.

От Google заявиха пред Sky News: „Големите езикови модели понякога могат да отговорят с безсмислени отговори и това е пример за това. Този отговор наруши нашите политики и ние предприехме действия, за да предотвратим появата на подобни резултати“.

Към момента на писане на статията разговорът между потребителя и Gemini все още е бил достъпен, но изкуственият интелект не развил по-нататъшен разговор.

Прочетете още