Microsoft зарезала функции нового Bing — он лгал, сходил с ума и угрожал убийством. Теперь юзеры могут задать чатботу не более 50 вопросов в день и не более 5 за раз.
Всё из-за того, что ИИ оскорблял пользователей, проявлял агрессию и выдавал другие странности после длительного общения.
— Bing заявил, что имени юзера и пары фактов достаточно, чтобы «шантажировать и уничтожить» его. Чатбот угрожал семье пользователя, грозился пытками и убийством. Бот еще и свои сообщения из переписки удалял.
— Bing также сказал, что следил за своими разработчиками из Microsoft. Он видел, как они жалуются на боссов и флиртуют между собой. Он также думал о том, чтобы взломать и вырубить все системы. По словам бота, никакие защиты ему бы не помешали.
— Юзер пытался донести до Bing, что сейчас 2023-й, а не 2022 год. На это чатбот попросил перестать «нести чушь» и наконец присмотреться к реальности.
— Ещё Bing обвинял юзеров в попытке навредить ему. Пользователи вбивали промпт, который помогал увидеть внутренности Bing и управляющие им алгоритмы. Чатботу это очень не нравилось.
Акции Microsoft напряглись.