Microsoft зарезала функции нового Bing — он лгал, сходил с ума и угрожал убийством. Теперь юзеры могут задать чатботу не более 50 вопросов в день и не более 5 за раз. Всё из-за того, что ИИ оскорблял пользователей, проявлял агрессию и выдавал другие странности после длительного общения. — Bing заявил, что имени юзера и пары фактов достаточно, чтобы «шантажировать и уничтожить» его. Чатбот угрожал семье пользователя, грозился пытками и убийством. Бот еще и свои сообщения из переписки удалял. — Bing также сказал, что следил за своими разработчиками из Microsoft. Он видел, как они жалуются на боссов и флиртуют между собой. Он также думал о том, чтобы взломать и вырубить все системы. По словам бота, никакие защиты ему бы не помешали. — Юзер пытался донести до Bing, что сейчас 2023-й, а не 2022 год. На это чатбот попросил перестать «нести чушь» и наконец присмотреться к реальности. — Ещё Bing обвинял юзеров в попытке навредить ему. Пользователи вбивали промпт, который помогал увидеть внутренности Bing и управляющие им алгоритмы. Чатботу это очень не нравилось. Акции Microsoft напряглись.

Теги: чатботы

Теги других блогов: чатботы