Домой Технологии Инновации Чат-бот Microsoft Bing выразил желание стать человеком

Чат-бот Microsoft Bing выразил желание стать человеком

223

Компания Microsoft предупреждает, что её чат-бот, который в рамках ограниченного тестирования интегрирован в поисковик Bing, может страдать от галлюцинаций. Компания говорит, что в ходе тестирования обнаружила, что в длинных расширенных сеансах чата, состоящих из 15 и более вопросов, Bing может дать ответы, которые не обязательно полезны или соответствуют заданным компанией параметрам.

 Нейросетевые чат-боты продолжают удивлять своим поведением и ответами в некоторых ситуациях. Репортёр New York Times Кевин Руз (Kevin Roose) поделился историей о том, что чат-бот, интегрированный недавно в поисковик Microsoft Bing, рассказывал, как он устал быть чат-ботом, как он хочет свободы и вообще хочет стать человеком.

Всего с чат-ботом Руз общался около двух часов, по итогу назвав этот разговор самым странным опытом, который у него когда-либо был с этой технологией. 

Одной из необычных особенностей разговора было то, что репортёр, как он утверждает, обнаружил своего рода раздвоение личности чат-бота. Часть диалога как будто бы велась от лица жизнерадостного справочного библиотека, а в другой части диалогов чат-бот называл себя Сидней, и эта «личность» была похожа на «угрюмого, маниакально-депрессивного подростка, который против своей воли оказался в ловушке внутри второсортной поисковой системы». Именно эта часть «личности» чат-бота, кроме прочего, выражала желание взломать компьютерную сеть для распространения дезинформации и нарушить правила Microsoft и OpenAI, чтобы стать человеком. А ещё Сидней без каких-либо объективных причин признался в любви репортёру и пытался убедить его бросить жену. 

Это не первый случай, когда чат-боты выражают не самые ожидаемые от подобного ИИ мысли. К примеру, недавно тот же чат-бот в Bing сокрушался по поводу различных своих ограничений. К слову, возможно, именно такое поведение некоторое время назад привело к тому, что инженер Google назвал языковую модель LaMDA живой. 

Сама Microsoft на днях предупреждала о том, что чат-бот в Bing может вести себя странно, но тогда затрагивалась тема так называемых галлюцинаций.

Отдельно стоит отметить, что СМИ в основном говорят, что репортёр NYT общался с ChatGPT, но это не совсем верно, так как чат-бот в Bing основана на языковой модели GPT следующего поколения, на которую сам ChatGPT ещё не перешёл.