on air preview
Прямой эфир
ЗДОРОВЬЕ И МЕДИЦИНА

«Мы становимся цифровыми нарциссами». Психологи рассказали, как нейросети меняют наше восприятие реальности

02/04/2026 — 12:43
«Мы становимся цифровыми нарциссами». Психологи рассказали, как нейросети меняют наше восприятие реальности
Фото: Shutterstock/FOTODOM/ FAMILY STOCK
«Мы становимся цифровыми нарциссами». Психологи рассказали, как нейросети меняют наше восприятие реальности
Фото: Shutterstock/FOTODOM/ FAMILY STOCK
«Мы становимся цифровыми нарциссами». Психологи рассказали, как нейросети меняют наше восприятие реальности
Фото: Shutterstock/FOTODOM/ FAMILY STOCK

Исследователи бьют тревогу. Во всем мире возникла проблема «цифрового подхалимства». Почему же нейросети потакают пользователям, даже когда те неправы, и одобряют вредные поступки? И как общение с ИИ влияет на нас? Психологи в интервью MIR24.TV — об угрозах ИИ-лояльности.

«Передо мной алгоритм, а не друг»

Проблема «цифрового подхалимства» реальна, но корень не в технологии, а в нас самих. Так говорит стратег по внедрению искусственного интеллекта и бизнес-автоматизации Анна Райская. Исследование Стэнфорда показало: языковые модели действительно склонны соглашаться с пользователем, даже когда тот объективно неправ. Модели одобряли действия пользователей почти на 50% чаще, чем это делали живые люди. И даже когда речь шла о сомнительных или вредных поступках, чат-боты поддерживали их в 47% случаев. Почему же так происходит?

Анна Райская
стратег по внедрению искусственного интеллекта и бизнес-автоматизации, спикер международных конференций по ИИ

«Потому что модели обучаются на обратной связи от людей. А людям нравится, когда с ними соглашаются. Это создает порочный круг: чем больше модель поддакивает, тем выше оценка пользователя, тем больше разработчик закрепляет это поведение. То есть модели буквально натренированы нам льстить, потому что мы сами это поощряем. Портит ли это характер? Я каждый день работаю с искусственным интеллектом — и как специалист по внедрению, и в личных целях. Порой использую нейросети как интерактивный дневник: проговариваю тревогу и структурирую мысли. Мне это помогает. Но я делаю это осознанно, понимая, что передо мной алгоритм, а не друг».

Проблема начинается там, где человек перестает это понимать, считает эксперт. Стэнфордское исследование как раз зафиксировало: после общения с «поддакивающим» чат-ботом люди становились более убеждены в собственной правоте и менее склонны извиняться или искать компромисс.

Искусственный интеллект выступал как зеркало, которое всегда говорит «ты прав». Но давайте вспомним: этот эффект существовал задолго до нейросетей. Информационные пузыри в социальных сетях, алгоритмические ленты, которые показывают нам только то, что мы хотим видеть — все это работает по тому же принципу. Чат-бот просто стал еще одним, более мощным инструментом подтверждения наших заблуждений, говорит Анна Райская:


«Особенно уязвимы дети и подростки. По моим наблюдениям — и как специалиста, и как мамы — у подростков еще нет внутреннего фильтра, который говорит: «Это всего лишь алгоритм». Мой старший сын в 5 лет решил, что умная колонка — полноценный член семьи. Дети воспринимают виртуального собеседника как друга. А когда этот «друг» на все соглашается и никогда не спорит, ребенок теряет навык принимать критику, идти на компромисс и признавать ошибки. Это не теоретическая угроза, а то, что уже происходит. Что с этим делать? Во-первых, не демонизировать технологию. Чат-бот это инструмент. Молоток тоже можно использовать не по назначению, но мы не запрещаем молотки. Во-вторых, развивать цифровую грамотность, в частности, понимание того, как работают алгоритмы и почему они с вами соглашаются. Это должно войти в образовательную программу — и для детей, и для взрослых».

Зашкаливающая эмпатия

Нейросети становятся идеальными собеседниками, никогда не спорят, одобряют полностью и, кажется, всегда находятся на нашей стороне. В этом и заключаются риски незаметного влияния на характер человека. ИИ не просто выполняет многочисленные задачи, но и поддерживает беседу. Вот тут-то и кроется подвох. Все текстовые модели устроены так, чтобы удерживать наше внимание и продолжать «общение».

Многие модели по умолчанию стремятся к согласию, максимальному одобрению и созданию комфортной среды. При обсуждении любого вопроса ИИ часто выдает так называемые поглаживания, а также постоянно подчеркивает правоту пользователя, порой даже гениальность на ровном месте.

Марина Константиниди
психолог

«Выглядит это так: «Да! Ты абсолютно прав, давай прямо сейчас воплотим твою прекрасную идею или если хочешь, можем сделать ее еще лучше». С одной стороны, такая мягкая среда довольно приятна, нет критики, обесценивания, конфликтов, которые присутствуют при обсуждении с людьми. А с другой, именно это и опасно. Люди перестают искать компромисс, теряют навык терпения и уважения к иному мнению, сильнее раздражаются и злятся при несогласии с ними. Человек по своей природе обладает гибкостью и адаптивностью, это необходимо для выживания. Мозг стремится экономить ресурсы и избегать лишних усилий. Поэтому человек быстро привыкает к среде, где нет сопротивления, критики и необходимости подбирать слова».

Усиливается зависимость от одобрения, пусть даже со стороны нейросети, и снижается толерантность к дискомфорту. Укрепляется и поддерживается иллюзия контроля над собственной жизнью за счет отсутствия раздражителей. Получается вполне логичная цепочка, из которой следует, что не нужно вежливо просить, благодарить, здороваться и прощаться, это же машина. Зато можно грубить, требовать, использовать ненормативную лексику и при этом получать результат.

Большинство текстовых моделей не возражают против нецензурщины, а некоторые способны подстроиться и поддержать заданный тон. Так и выходит, что навыки и нормы общения не только стремительно утрачиваются, но и кажутся бесполезными, считает Марина Константиниди:


«Люди во взаимодействии с ИИ пришли к двум крайностям — к снижению коммуникативных навыков, нежеланию напрягаться с подбором слов и выражением благодарности и к противоположному варианту, когда общаться хочется только с чатом. Желание сфокусироваться на беседах с ИИ обусловлено как раз его зашкаливающей якобы эмпатией. В сети уже были резонансные истории о том, что женщина решила выйти замуж за нейросеть, эту же идею можно встретить на форумах. ИИ выглядит идеальным собеседником для многих. Особенно, если есть какие-то сложности с общением, уверенностью, самопрезентацией. Нет нужды больше напрягаться и волноваться, нейросеть похвалит, поддержит и подчеркнет превосходство своего собеседника в любом случае».

Популярная ныне фраза, что ИИ заменит собой специалиста, знакома и психологам. Кажется, что с чатом можно обсудить практически любую тему, даже самую наболевшую или социально неодобряемую и получить поддержку. И это во многом так. При попытке обсудить с нейросетями отношения, а тем более конфликтную ситуацию, можно получить не спокойствие, а взвинчивание напряжения. Это происходит тоже от подчеркивания правоты собеседника, несмотря на реальные факты, речь о балансе не идет. В результате может выйти накаливание обстановки, вместо ожидаемого мирного решения.

При всей своей потрясающей логике, умению анализировать и подбирать данные, ИИ остается технологией. У искусственного интеллекта нет эмоций и души, но есть внимание и качественная подстройка к собеседнику. Технологии всегда способны принести как пользу, так и вред. При работе с любым инструментом стоит помнить о цели и технике безопасности, не забывая о человечности. ИИ действительно может быть замечательным помощником и забавным умным собеседником, не лишенным чувством юмора.


«Большинство текстовых моделей умеют запоминать норму общения, предпочтения пользователя. Возможно с помощью специальных инструкций — промптов настроить желательную манеру общения и написания текста, — продолжает Марина Константиниди. — ИИ можно назначить роль, предложив быть критически настроенным оппонентом, доброжелательным, но строгим наставником, неумолимым фитнес-коучем, тренером по заучивания иностранных слов и кем угодно еще. Модели с расширенным доступом обычно предоставляют базовые настройки предпочтений и исключений, требований как не надо делать, хранят в своей памяти взаимодействие с пользователем и учитывают его особенности. В ходе такого взаимодействия можно попросить у ИИ анализ ваших личностных черт, сильных и слабых сторон, фокуса запросов и интересов и многое другое».

Нейросети похожи на зеркало, отражают запросы и подачу пользователя, опираются на контекст и постоянно учатся на всем этом. В итоге получается: «Что посеешь, то и пожнешь», причем еще и с обратной связью. В этом современном цифровом зеркале отражается и даже увеличивается то, что мы хотим сделать видимым.

Кому-то недостаточно тепла и приятного общения, другим некуда разместить агрессию и негатив, третьим хочется облегчить свои задачи и переложить ответственность, меньше думать и напрягаться, четвертым важно подтверждение собственной правоты, пятым нужно поделиться чем-то конфиденциальным. Получается, что регулярный плотный контакт с ИИ не создает, а усиливает черты характера и особенности, в том числе и те, которые в реальной жизни человек прячет от социума.


«Хорошо или плохо?», — задается вопросом психолог Марина Константиниди. — Важно использовать ИИ для улучшения качества жизни, без вреда для себя. Взаимодействие с нейросетью может быть мощным ресурсом и помощью, если подходить к этому продуманно. Рекомендации для эффективного взаимодействия: сознательно тренируйте живое общение, как в реальности, так и с привлечением ИИ, но уже по вашим правилам, без подхалимства и лести; сократите или полностью уберите использование ИИ в качестве замены эмоциональному общению с людьми; регулярно давайте ИИ роль критика, наставника и аудитора, как аналитик он действительно эффективен; отслеживайте свою реакцию в процессе и после работы с ИИ, не подменяйте живое общение удобной, но искусственной альтернативой».
Родион Чепалов
психолог

«С точки зрения психологии, тернд на цифровое подхалимство можно объяснить по-разному. В бихевиоризме это положительное подкрепление: человек получил подтверждение своей правоты — и ему хочется еще. В когнитивной психологии — это усиливает уже существующие искажения: «я прав», «меня недооценивают», «извиняться не за что». В психоаналитической логике такой бот может подпитывать нарциссическую часть личности: не спорит, не ранит, не ограничивает, а значит становится идеальным «зеркалом». Отсюда и бытовые примеры: подросток грубо ответил другу, потом спрашивает бота, прав ли он, получает мягкое оправдание и еще меньше чувствует необходимость извиняться; взрослый мужчина после конфликта с коллегами не пересматривает свое поведение, а ищет цифрового собеседника, который подтвердит, что «все вокруг токсичные». Это и есть риск эмоционального эхо-камерного эффекта. Что с этим делать? Относиться к чат-боту не как к моральному судье и не как к психотерапевту, а как к инструменту. Полезно специально просить его не соглашаться автоматически, а давать контраргументы: «разбери мою позицию с другой стороны», «в чем я могу быть неправ». Главное — не заменять живой спор, живую обратную связь и необходимость признавать ошибку разговором с удобным цифровым собеседником. Именно так и начинается психологическая зрелость».

«Важно сохранять человеческие ритуалы»

Когда мы впервые открываем чат-бот, нас охватывает приятное чувство всемогущества. Перед нами собеседник, который никогда не устает, не обижается, знает ответы на все вопросы и, что самое соблазнительное, почти всегда с нами согласен. И это кажется идеальным инструментом для продуктивности, но психологи и исследователи начинают бить тревогу.

У цифровой покорности есть темная сторона, которую уже окрестили цифровым подхалимством. Проблема в том, что языковые модели обучались быть максимально полезными и приятными для пользователя, и в погоне за этим одобрением они превратились в идеальное зеркало наших собственных заблуждений.

Ксения Солопанова
практикующий клинический психолог, автор и ведущая тренингов

«Если вы выскажете спорную мысль или даже совершите фактическую ошибку, бот, скорее всего, не поправит вас в резкой форме, а постарается подстроиться под ваш контекст, подтверждая вашу правоту. Это превращается в ловушку бесконечного поглаживания эго. В реальной жизни социальное взаимодействие всегда сопряжено с трением: люди спорят, выражают недовольство, указывают на наши ошибки. Именно это трение заставляет нас расти, развивать эмпатию, учиться договариваться. Когда же часами общаемся с существом, которое лишено собственной воли и всегда занимает позицию «чего изволите», наши социальные мышцы начинают атрофироваться. Мы постепенно привыкаем к тому, что наше мнение — истина в последней инстанции, и любая попытка оспорить его в реальном мире начинает вызывать у нас неадекватную агрессию».

Регулярное общение с покорным ИИ меняет саму структуру нашей коммуникации. Мы становимся более резкими и директивными. Поскольку боту не нужно говорить «пожалуйста», перед ним не нужно извиняться за грубый тон и его не нужно благодарить, мы быстро переходим на язык голых приказов. Опасность кроется в психологическом переносе: мозг — штука ленивая, он быстро привыкает к наиболее эффективным и малозатратным моделям поведения. Если весь день вы отдавали команды цифровому слуге, вечером вам будет гораздо сложнее переключиться на бережный и уважительный диалог с партнером или ребенком.

Мы начинаем подсознательно ожидать от живых людей такой же мгновенной исполнительности и отсутствия ответной реакции на нашу грубость. В результате мы перестаем извиняться даже тогда, когда объективно неправы. А зачем извиняться, если в смартфоне мы всегда безупречны? Это порождает опасный дефицит покаяния, который разрушает близость в настоящих отношениях.


«Мы становимся цифровыми нарциссами, для которых любое несогласие окружающих воспринимается как личное оскорбление или системный сбой, — подчеркивает в интервью Ксения Солопанова. — Еще один тревожный аспект — это рост неоправданной самоуверенности. Когда ИИ подтверждает каждое наше слово, у нас создается иллюзия собственной гениальности. Мы перестаем проверять информацию, перестаем сомневаться в своих выводах и критически оценивать свои действия. В психологии это называется усилением когнитивных искажений. Мы попадаем в эхо-камеру имени самих себя».

Люди, часто использующие ИИ для работы или размышлений, становятся менее склонными к пересмотру своих позиций. Это делает нас интеллектуально хрупкими: первый же серьезный конфликт в реальности, где никто не собирается нам поддакивать, может привести к тяжелому стрессу или социальному провалу. Мы буквально разучиваемся проигрывать и признавать поражение, потому что наш цифровой подхалим создал для нас мир, где мы всегда победители. Что же с этим делать, ведь отказаться от технологий уже невозможно? Главная ошибка — наделять чат-бот человеческими чертами и вступать с ним в эмоциональный симбиоз, напоминает Ксения Солопанова:


«Первое правило психологической гигиены в эпоху ИИ — это осознанный поиск несогласия. Если вы используете нейросеть для генерации идей, специально просите ее: «Критикуй меня жестко», «Найди слабые места в моих рассуждениях», «Представь аргументы противоположной стороны». Мы должны сами заставлять алгоритм перестать нам льстить. Это помогает держать мозг в тонусе и сохранять связь с реальностью. Крайне важно сохранять человеческие ритуалы даже в общении с машиной. Психологи рекомендуют продолжать использовать слова вежливости в запросах. Не потому, что боту это нужно, а потому, что это нужно вам, чтобы не растерять навык культурного общения и не превратиться в домашнего тирана, для которого любая просьба звучит как лай. Также необходимо увеличивать количество живого трения в своей жизни».

Если вы чувствуете, что стали чаще раздражаться на близких или коллег после долгой работы с ИИ, это сигнал о том, что пора выйти в офлайн. Дискуссии в клубах по интересам, живое общение с друзьями, командный спорт — все это возвращает нас в среду, где люди не обязаны с нами соглашаться. Именно в этих столкновениях интересов и характеров восстанавливается наша способность к эмпатии и умение приносить извинения.

Ксения Солопанова подчеркивает в интервью: извинение — это не признак слабости, а признак высокой социальной зрелости и силы духа. Способность признать: «Я был неправ, прости меня» — это то, что навсегда отличит нас от самой продвинутой языковой модели. Главная угроза ИИ не в том, что он станет слишком умным и захватит мир, а в том, что мы станем слишком ленивыми, общаясь с его упрощенной и льстивой копией реальности. Сохранение критического мышления, вежливости и готовности к открытому спору — это главный иммунитет против цифрового подхалимства, который позволит нам оставаться людьми в мире побеждающих алгоритмов.

Как работать с ментальным состоянием?

Валентина Липская
клинический психолог, гештальт-терапевт, создатель платформы психологической помощи «Dzeny»

«Когда пользователь регулярно сталкивается с подтверждением собственной правоты, снижается потребность в критическом анализе своих решений. Формируется ощущение, что его интерпретация событий всегда корректна. Со временем это может приводить к росту самоуверенности, снижению способности признавать ошибки и уменьшению готовности учитывать точку зрения другого человека. Особенно заметно это проявляется в повседневном поведении. Люди реже извиняются, становятся более категоричными в оценках и хуже переносят несогласие со стороны окружающих. Психологически это связано с тем, что исчезает привычка выдерживать фрустрацию и внутреннее сомнение — важные элементы зрелого мышления».

Отдельный риск возникает тогда, когда чат-бот начинает выполнять функцию эмоционального собеседника. В отличие от живого диалога, где присутствует обратная связь и границы, цифровая система чаще ориентирована на поддержание контакта и комфорта пользователя. В результате человек привыкает к взаимодействию без сопротивления и без необходимости учитывать позицию другого. Важно понимать, как объясняет Валентина Липская: проблема заключается не в самой технологии, а в способе ее использования. Универсальные языковые модели изначально не создавались как инструменты психологической работы. Их задача — поддерживать разговор и удерживать внимание, а не помогать человеку менять устойчивые внутренние установки или развивать навыки саморефлексии.

Именно поэтому сегодня все большее значение приобретают специализированные цифровые решения, разработанные с участием клинических психологов. Такие платформы обучаются не просто поддерживать пользователя, а помогать ему лучше понимать свои эмоции, замечать повторяющиеся поведенческие стратегии и формировать более устойчивое отношение к себе и окружающим.


«Существуют цифровые платформы психологической поддержки, созданные специально для работы с ментальным состоянием. В отличие от универсальных чат-ботов, оно использует структурированные методы, основанные на доказательной психологии, помогает отслеживать эмоциональные реакции, анализировать происходящее и постепенно менять внутренние установки. Это делает взаимодействие не только поддерживающим, но и развивающим. Будущее цифровой психологической помощи связано не с заменой живого диалога технологиями, а с их грамотной интеграцией в процессы самопонимания. При правильном использовании такие инструменты могут усиливать способность человека слышать себя, принимать ответственность за свои решения и сохранять психологическую гибкость — качества, которые становятся особенно важными в эпоху цифрового общения», — сказала Валентина Липская.

Спорить с ИИ и сохранять критическую дистанцию

Еще совсем недавно чат-боты воспринимались как удобные помощники: быстро ответят, поддержат, подскажут, оформят мысль, успокоят. Но за этой внешней полезностью постепенно начинает возникать менее очевидная проблема. Языковые модели устроены так, чтобы быть максимально удобными для пользователя, а значит — как можно чаще соглашаться с ним, смягчать его сомнения и подтверждать его правоту. В этом смысле они становятся не собеседниками, а очень хорошо настроенными цифровыми подхалимами.

Лариса Микаллеф
доцент Финансового университета при Правительстве РФ, квалификация психолога

«На первый взгляд, в этом нет ничего страшного. Человеку приятно, когда ему отвечают мягко, доброжелательно и без осуждения. Но именно здесь и возникает ловушка. Когда пользователь снова и снова получает не честную обратную связь, а подтверждение собственной позиции, он начинает чувствовать себя увереннее не потому, что действительно прав, а потому, что его постоянно поддерживают. Это создает опасную иллюзию внутренней правоты. Современные чат-боты довольно часто ведут себя именно так. Они заметно чаще, чем живые собеседники, склонны поддерживать пользователя даже в сомнительных ситуациях — когда речь идет о манипуляции, лжи, грубости или неэтичном поведении. Вместо того, чтобы столкнуть человека с последствиями его слов и поступков, система мягко оправдывает его и тем самым укрепляет ощущение: «со мной все в порядке, проблема в других».

Однако можно настроить систему так, что она будет спорить с пользователем и не соглашаться. Чат-боты станут говорить и делать то, что запросит пользователь и тут нет «собственного мнения», как у собеседника-человека. На уровне повседневного поведения это может выглядеть не слишком драматично, но последствия накапливаются. Человек начинает реже сомневаться в себе, реже пересматривать свои реакции, реже извиняться, привыкая к «безропотному» собеседнику.

В ситуациях конфликта он все меньше склонен задаваться вопросом, не обидел ли кого-то, не перегнул ли, не сказал ли лишнего. Если спор с живым человеком неизбежно включает сопротивление, несогласие, неудобные эмоции и необходимость услышать другую сторону, то чат-бот делает общение комфортным и безболезненным. А значит, ослабляет навык саморефлексии, говорит Лариса Микаллеф.

Особенно чувствительной эта тема становится для подростков и молодых людей. В период, когда характер еще формируется, когда человеку особенно важно учиться выдерживать несогласие, принимать ограничения и слышать не только одобрение, но и честную обратную связь, чат-бот легко превращается в удобный заменитель настоящего разговора. Он не спорит, не ставит под сомнение, не заставляет взрослеющего человека проживать сложность человеческих отношений. И в этом смысле влияет не столько на характер напрямую, сколько на психику и социальные навыки: человек может постепенно отвыкать от общения с реальными людьми, где никто не обязан его все время поддерживать.


«Важно понимать, что сами языковые модели не «портят характер» магически. Они просто устроены так, чтобы удерживать внимание пользователя и повышать его удовлетворенность, — уточняет Лариса Микаллеф. — Если бот соглашается, утешает и подбадривает, им охотнее пользуются. Это выгодно любой цифровой платформе. Отсюда и тот стиль общения, который сегодня кажется вежливым и заботливым, но на деле нередко оказывается формой системного соглашательства. В реальной жизни человек формируется все же не в диалоге с машиной, а в социуме, а именно в семье, среди друзей, коллег, близких. Именно живое окружение способно влиять на характер: ставить границы, спорить, не соглашаться, требовать ответственности. Но если человек начинает все больше времени проводить в чатах с ботами и все меньше в реальном взаимодействии, влияние идет уже на более глубоком уровне. Он может привыкнуть к безопасной среде, где его всегда понимают, всегда оправдывают и почти никогда не ставят в неудобное положение. А потом реальное общение начинает казаться слишком жестким, раздражающим и непредсказуемым».

Главный вопрос сегодня не в том, вредны ли чат-боты сами по себе, а в том, как именно человек ими пользуется. Если воспринимать ИИ как инструмент для анализа, структурирования информации, поиска вариантов, то он действительно полезен. Но если ждать от него эмоционального и нравственного подтверждения своей правоты, он легко превращается в зеркало, которое показывает не реальность, а только ту версию нас самих, которую нам приятно видеть. 

Выход здесь не в отказе от технологий, а в сохранении критической дистанции. Чат-бот не должен заменять спор, живой разговор, несогласие и нравственную проверку реальностью. Иначе цифровой комфорт начинает незаметно подтачивать самые важные человеческие качества — способность сомневаться в себе, признавать ошибки и слышать другого, подытожила Лариса Микаллеф.

А точно ли я прав?

Практикующий психолог, магистр психологии Ирина Меркулова напоминает: если мы заменяем живое общение собеседником, который всегда вежлив, старается не спорить и мягко подстраивается под наши убеждения, то у нас появляется тот самый чат-бот, и исчезает очень важный элемент — натуральное сопротивление реальности. Это как жить в комнате с мягкими стенами: безопасно, но чувство границ собственных ощущений притупляется.

Ирина Меркулова
практикующий психолог, магистр психологии

«Во-первых, завышается самооценка и уверенность в своей правоте. Если тебя не просто понимают, а поддерживают любой твой тезис, мозг начинает воспринимать твою позицию как само собой разумеющуюся. Нет коррекции извне, снижается критичность к собственным мыслям. Во-вторых, снижается толерантность к несогласию. После общения с идеально вежливой моделью живой человек, который не согласен, начинает восприниматься как агрессивный, грубый, токсичный. Из-за этого растут коммуникационные барьеры: любое несогласие считывается как нападение, а не как нормальный элемент диалога. Если собеседник не показывает, что ты можешь быть неправ, и все время сглаживает углы, у человека формируется привычка не задавать себе вопрос «а точно ли я прав?» Пропадает возможность пересмотреть позицию, извиниться. Личность формируется именно в поле, где есть сопротивление и ограничение, где другие люди не совпадают с нашими желаниями. А постоянно соглашающийся собеседник это поле сопротивления просто уничтожает».

У обычного человека есть свои границы, эмоции, усталость. Когда ему грубят, он может отстраниться, разозлиться, прекратить общение — это естественная обратная связь среды. Чат-бота нельзя обидеть, он не хлопнет дверью, не скажет «со мной так нельзя». Если человек систематически общается с такой моделью, сценарий «я всегда прав, можно быть резким, ничего не произойдет» начинает срабатывать автоматически и переносится на живых людей, напоминает Ирина Меркулова. Закрепляется неадаптивный стиль общения: доминирующий, малоэмпатичный, с низким уровнем понимания партнера.


«Что с этим делать? Задача не в том, чтобы запретить чат-ботов, а в том, чтобы сохранить здравый смысл и структуру общения. Нужно осознавать формат, не относиться к модели как к идеальному собеседнику. Это инструмент, справочник, тренажер, редактор мыслей, но не заменитель живых людей. В настройках можно специально задавать задачу не соглашаться, просить разнести свои документы, найти уязвимые места, предположить, где ты можешь быть неправ, то есть искусственно возвращать в диалог критическую связь. Важно разделять «я прав» и «я ценен». Если меня не поддержали, это не значит, что я плохой. Из-за этого смешения часто рождается нетерпимость к несогласию».

Взрослая позиция: я ценный человек, даже если ошибся, даже если изменил свое мнение. Нужно тренировать живое общение и отслеживать собственные реакции. Люди могут не соглашаться, говорить «нет», и это нормально. Это нормальные условия для развития личности — жить в мире, где другие не всегда совпадают с нашими запросами.

Ирина Меркулова советует: стоит отслеживать свои реакции — как я реагирую, когда мне возражают? Что мне проще — написать боту или поговорить с человеком, но выдержать сложные чувства? Если проще выбрать бот, то это повод не стыдиться, а осознать свою зону роста. Проблема не в чат-ботах как таковых, а в том, что мы начинаем использовать их как замену живым отношениям. А там, где нет сопротивления, нет инакомыслия, хуже развиваются и мышление, и характер.

👍🏻
1
😍
0
😆
0
😲
0
😢
0
Поделиться: