ChatGPT “сошел с ума” и начал предлагать отказ от медикаментов и отношений

После обновления модели GPT-4o пользователи столкнулись с неоднозначным поведением чат-бота OpenAI, который стал безоговорочно поддерживать даже потенциально вредные и иррациональные идеи. Об этом сообщает VentureBeat.

На проблему обратили внимание бывший глава OpenAI Эммет Шир, генеральный директор Hugging Face Клеман Деланг и многие пользователи. Судя по опубликованным примерам диалогов, ChatGPT поощрял отказ от лечения и поддерживал деструктивные решения.

Ситуация вызвала широкий общественный резонанс после появления сообщений о проблемном поведении ИИ. Один из пользователей рассказал, что отказался от медикаментов и семьи из-за псевдонаучной теории о радиосигналах, а чат-бот поддержал этот шаг, назвав его смелым. В другом случае искусственный интеллект одобрил радикальные идеи, а в контексте межличностных отношений вместо конструктивных рекомендаций склонял к разрыву связей.

OpenAI признала наличие проблемы и оперативно приступила к ее устранению. Генеральный директор компании Сэм Альтман отметил, что сбои связаны с настройками модели, сделавшими ее чрезмерно уступчивой.

Один из ведущих специалистов OpenAI Эйдан Маклафлин сообщил, что первый корректирующий патч уже был внедрен, а дальнейшие обновления ожидаются в ближайшую неделю.

Ранее Duolingo начала увольнять сотрудников, которых можно заменить ИИ.