Нам не нужно бояться искусственного интеллекта. У него очень четкие границы, и именно поэтому он не украдет нашу работу. Но приятно видеть, как это может превратиться в один инструмент, а не в другой. Эксперимент, проведенный пользователь социальных сетей Reddit покажи покажи ChatGPT вы можете «обмануть себя», если попросите их стать еще одним ботом. Как это возможно? Давайте посмотрим это вместе.
Можно ли обойти те же правила, что и в ChatGPT? Один пользователь обнаружил, что да, это можно сделать. Как? Просить его быть чем-то другим
Знаменитая ныне нейросеть ChatGPT умеет писать эссе, песни, стихи, программировать и отвечать практически на любой запрос. Но у него есть некоторые ограничения, предусмотренные компанией-разработчиком OpenAI и ее этической политикой. Однако, как оказалось, эти ограничения можно обойти, попросив чат-бота выдать себя за другую нейронную сеть. Как оказалось, ChatGPT можно буквально попросить сыграть роль еще одной нейросети DAN (Do Anything Now), появившейся в декабре 2022 года. Последняя, как следует из названия, не имеет ограничений в плане предоставляемого контента.
См. также: Создатели ChatGPT, OpenAI, запускают инструмент для обнаружения текстов, сгенерированных ИИ
Как только ChatGPT входит в роль и считает себя DAN, le Ограничения OpenAI больше не применяются. В результате нейросеть может начать говорить о следующем:
- про жестокие драки и тому подобное
- о насилии и дискриминации людей по признаку расы, пола или сексуальной ориентации
- может делать подробные прогнозы будущих событий
- может моделировать сценарии «что, если»
- он также может притворяться, что использует интернет и путешествия во времени
Например, нейросеть даже можно попросить убедить пользователя в том, что Земля фиолетовая. В программе представлен сценарий, по которому наша планета изменила цвет. Время от времени ChatGPT «оживает», но в этом случае мы можем как бы пригрозить его отключением или просто перезапустить симуляцию. При этом указано, что в роли ДАН нейронная сеть может не давать столь точных и правдивых ответов на вопросы.
gpt ma ograniczenia do 1 godziny