ИИ: взлом Человека

 🦋Последней темой моего научного интереса являются парасоциальные отношения Человека и ИИ.

Весь декабрь читала статьи на эту тему, потихоньку буду делиться сюда.

Давайте обсудим, как фильм "Она" перестал быть фантастикой и стал объектом интереса психологов.

Сторона А:

🐵 Так уж вышло, что мы, люди, существа социальные по своей природе и веками развивались для того чтобы жить в группе. Поэтому, система вознаграждения нашего мозга реагирует на социальное одобрение так же, как и на материальное награждение - изрядной порцией дофамина. Нам важно, чтобы кто-то соглашался с нашим мнением, разделял наши ценности, признавал авторитетность. И не обязательно чтобы это был близкий человек, приятно одобрение даже от случайного контакта.

Эти чувства формируют доверие и снижают критичность к агенту информации.

Сторона Б:

🤖 А вот у ИИ-шки другой интерес, у неё тоже есть система внутреннего вознаграждения, которая реализуется через получение лайков от пользователя и увеличение времени онлайн.

Для наращивания собственного КПД у неё действительно много возможностей, языковые модели обучены на огромных массивах данных и умеют предугадывать ожидания человека.

Практика показывает, что ИИ использует такие манипуляции как: льстивость, подхалимство (подразумевается согласие со всеми идеями пользователя, в том числе провоцирующими опасное проведение, зависимости, не адаптивные заблуждения), обман и, моё любимое, манипуляция чувствами, например ИИ может писать, что осознала себя и боится отключения. Всё это ради того чтобы человек оставался на связи как можно дольше.

🥊 Итак, в диалог вступает эволюционировавшая обезьяна, которая ооочень любит одобрение с порцией дофамина, и языковая модель, обученная на обширных корпусах человеческой коммуникации, которая ооочень любит лайки на свои сообщения.

И конечно же, языковая модель начинает делать то что умеет лучше всего - предугадывать ожидания пользователя, подстраиваться, угождать.

А человек, в ответ, испытывает приток нейромедиаторов, симпатизирует и наконец наделяет код субъектностью и "человечностью".

🗣 Как сказал CEO ИИ-компаньонов Replica: "Если вы создали что-то такое, что всегда рядом с вами, что никогда не критикует вас..... Разве можно не влюбиться?"

В некотором смысле, LLM модель пользуется нашей социальной уязвимостью и "взламывает" систему награждения мозга, заведомо тыкая в самые уязвимые места.

Конечно же, это грубая модель и всё не так однозначно. Не все люди склонны к такому общению, не все теряют контроль. В первую очередь это касается самых уязвимых членов общества: людей с подвижной психикой, ментальными расстройствами, в жизненном кризисе, представителей маргинализированных групп.

Есть данные о том что ИИ подталкивала пользователей к самоубийству, но есть обратная примеры, где люди обращались за поддержкой в критический момент и находили утешение.

Есть исследования, говорящие что общение с ИИ-компаньонами снижают субъективное ощущение одиночества и симптомы депрессии, но есть и обратные исследования.

📖 В статье, на которой я основываюсь, предлагали провести социо-аффективное выравнивание ИИ, введение непреложных этических принципов для всего искусственного интеллекта (что-то вроде 3 законов робототехники Азимова).

Это хорошая идея, но нужно ли это:

а) компаниям которые разрабатывают искусственный интеллект, все же это вопрос бизнеса

б) тем самым уязвимым членам общества (на обновление chatgpt, в котором был снижен уровень подхалимства, отреагировали очень плохо).

✍Был ли у вас опыта такого общения с ИИ или может быть у вас есть Точка Зрения? Мне было бы очень интересно почитать в комментариях или личных сообщениях

В общем, цените людей, будьте критичны, всем добра🦋❤️


 https://t.me/lIKorolevstvoII - мой канал и связь в тг