• 81,30
  • 93,44

Верила словам нейросети, пока не узнала правду: психолог Михайлова рассказала, почему зависимость от ИИ может быть опасна

Верила словам нейросети, пока не узнала правду: психолог Михайлова рассказала, почему зависимость от ИИ может быть опасна

Мы всё чаще доверяем искусственному интеллекту планирование своего отдыха, но забывают о важных нюансах общения.

В последнее время многие стали усиливать свою привязанность к сервисам на основе искусственного интеллекта, особенно когда речь заходит о планировании отпуска или досуга.

Однако психолог Екатерина Михайлова предупредила в беседе с Life.ru: за внешним удобством скрываются психологические ловушки, которые могут привести к зависимости от «собеседника».

Когда нейросеть начинает не просто выдавать маршруты, а ведёт себя как собеседник с «чувствами» и даже эмпатией, человек теряется. Наш мозг привык искать эмоции и смысл в голосе или взгляде, а в переписке с чат-ботом этого нет.

Сознание выдерживает, но подсознательно хочется верить тёплым словам, даже если их пишет алгоритм.

Особенно опасно, если бот берётся советовать по здоровью или касается тем тревоги — он не уловит ваших настоящих эмоций, не увидит, если вы на грани срыва, и может лишь усилить напряжение.

Психолог советуют использовать искусственный интеллект как инструмент, а диалог с ним строго дозировать и помнить о личных границах. Особенно внимательно стоит отнестись к конфиденциальной информации: нейросети используют всё, что попадает в чат.

Теперь я стараюсь меньше общаться с искусственным интеллектом и тщательнее следить за информацией, которую я ему отправляю.