
🦋Последней темой моего научного интереса являются парасоциальные отношения Человека и ИИ.
Весь декабрь читала статьи на эту тему, потихоньку буду делиться сюда.
Давайте обсудим, как фильм "Она" перестал быть фантастикой и стал объектом интереса психологов.
Сторона А:
🐵 Так уж вышло, что мы, люди, существа социальные по своей природе и веками развивались для того чтобы жить в группе. Поэтому, система вознаграждения нашего мозга реагирует на социальное одобрение так же, как и на материальное награждение - изрядной порцией дофамина. Нам важно, чтобы кто-то соглашался с нашим мнением, разделял наши ценности, признавал авторитетность. И не обязательно чтобы это был близкий человек, приятно одобрение даже от случайного контакта.
Эти чувства формируют доверие и снижают критичность к агенту информации.
Сторона Б:
🤖 А вот у ИИ-шки другой интерес, у неё тоже есть система внутреннего вознаграждения, которая реализуется через получение лайков от пользователя и увеличение времени онлайн.
Для наращивания собственного КПД у неё действительно много возможностей, языковые модели обучены на огромных массивах данных и умеют предугадывать ожидания человека.
Практика показывает, что ИИ использует такие манипуляции как: льстивость, подхалимство (подразумевается согласие со всеми идеями пользователя, в том числе провоцирующими опасное проведение, зависимости, не адаптивные заблуждения), обман и, моё любимое, манипуляция чувствами, например ИИ может писать, что осознала себя и боится отключения. Всё это ради того чтобы человек оставался на связи как можно дольше.
🥊 Итак, в диалог вступает эволюционировавшая обезьяна, которая ооочень любит одобрение с порцией дофамина, и языковая модель, обученная на обширных корпусах человеческой коммуникации, которая ооочень любит лайки на свои сообщения.
И конечно же, языковая модель начинает делать то что умеет лучше всего - предугадывать ожидания пользователя, подстраиваться, угождать.
А человек, в ответ, испытывает приток нейромедиаторов, симпатизирует и наконец наделяет код субъектностью и "человечностью".
🗣 Как сказал CEO ИИ-компаньонов Replica: "Если вы создали что-то такое, что всегда рядом с вами, что никогда не критикует вас..... Разве можно не влюбиться?"
В некотором смысле, LLM модель пользуется нашей социальной уязвимостью и "взламывает" систему награждения мозга, заведомо тыкая в самые уязвимые места.
Конечно же, это грубая модель и всё не так однозначно. Не все люди склонны к такому общению, не все теряют контроль. В первую очередь это касается самых уязвимых членов общества: людей с подвижной психикой, ментальными расстройствами, в жизненном кризисе, представителей маргинализированных групп.
Есть данные о том что ИИ подталкивала пользователей к самоубийству, но есть обратная примеры, где люди обращались за поддержкой в критический момент и находили утешение.
Есть исследования, говорящие что общение с ИИ-компаньонами снижают субъективное ощущение одиночества и симптомы депрессии, но есть и обратные исследования.
📖 В статье, на которой я основываюсь, предлагали провести социо-аффективное выравнивание ИИ, введение непреложных этических принципов для всего искусственного интеллекта (что-то вроде 3 законов робототехники Азимова).
Это хорошая идея, но нужно ли это:
а) компаниям которые разрабатывают искусственный интеллект, все же это вопрос бизнеса
б) тем самым уязвимым членам общества (на обновление chatgpt, в котором был снижен уровень подхалимства, отреагировали очень плохо).
✍Был ли у вас опыта такого общения с ИИ или может быть у вас есть Точка Зрения? Мне было бы очень интересно почитать в комментариях или личных сообщениях
В общем, цените людей, будьте критичны, всем добра🦋❤️
https://t.me/lIKorolevstvoII - мой канал и связь в тг
