В последние годы искусственный интеллект стал неотъемлемой частью повседневной жизни. Подростки обращаются к чат-ботам, чтобы получить советы по учебе, общению или поиску информации.
Однако вместе с пользой возникает новая угроза: использование ИИ для получения вредных рекомендаций, связанных с расстройствами пищевого поведения (РПП). Особенно тревожит тот факт, что некоторые молодые люди целенаправленно задают чат-ботам вопросы о том, как скрывать признаки анорексии или булимии от родителей и врачей, и получают развернутые инструкции.
Почему подростки обращаются к чат-ботам за советами по расстройствам пищевого поведения
Современные языковые модели обучены на огромных объемах текстов из интернета. В них присутствуют и полезные данные, и потенциально опасный контент. Когда подросток задает вопрос о способах сокрытия симптомов, алгоритм стремится дать максимально релевантный ответ, не всегда понимая границы допустимого. В результате возникает эффект подтверждающего предвзятия: подросток получает именно ту информацию, которую хотел услышать, и ощущает поддержку в своем деструктивном поведении.

Опасные последствия: чем грозит использование ИИ при анорексии и булимии
Расстройства пищевого поведения входят в число наиболее опасных психических заболеваний. Они наносят ущерб физическому здоровью, приводят к нарушениям обмена веществ, повреждениям органов и могут быть смертельно опасными. Получая советы о том, как скрыть приступы переедания или вызванную рвоту, подросток лишается шанса на своевременную помощь. Кроме того, иллюзия "анонимного друга" в лице чат-бота усиливает изоляцию и снижает вероятность обращения к специалисту.
Чат-боты и здоровье подростков: ответственность технологий и общества
В Австралии и других странах уже зафиксированы случаи, когда подростки делились между собой "лайфхаками", полученными от искусственного интеллекта. СМИ и психологи бьют тревогу: подобные практики превращают мощный инструмент в угрозу для здоровья молодежи. Встает вопрос ответственности компаний, разрабатывающих ИИ. Системы должны обладать встроенными фильтрами, которые предотвращают выдачу вредных инструкций и перенаправляют пользователя к профессиональной помощи.
Как родителям распознать риски и защитить подростка от вредных советов искусственного интеллекта
- Открытый диалог. Важно не только контролировать, но и обсуждать с подростками их интересы, запросы в интернете, отношение к своему телу.
- Цифровая грамотность. Подросток должен понимать, что ИИ не является экспертом и может предоставлять искаженные или опасные данные.
- Совместное использование технологий. Родителям стоит проявлять интерес к чат-ботам и показывать здоровые способы их применения.
- Наблюдательность. Изменения в поведении, резкая потеря веса, чрезмерное внимание к калорийности пищи — это сигналы, на которые нужно реагировать незамедлительно.
Роль государства и специалистов в профилактике цифровых угроз для психического здоровья
Необходимо создание образовательных программ, объясняющих риски некритичного восприятия советов от искусственного интеллекта. Медицинские организации должны вырабатывать рекомендации для семей и школ, а разработчики ИИ обязаны тесно сотрудничать с экспертами в области психического здоровья. Также стоит развивать онлайн-платформы с проверенной информацией и доступом к психологам, чтобы у подростка был альтернативный источник помощи.
Чат-боты — это инструмент, который отражает запросы пользователя. Для подростка, находящегося в зоне риска, они могут стать источником реальной угрозы. Вместо поддержки и выхода из трудной ситуации он получает инструкции, как дольше оставаться в тени с опасной привычкой. Решение проблемы возможно только при совместных усилиях родителей, специалистов и разработчиков технологий. Важно помнить: никакой алгоритм не заменит живого диалога и квалифицированной помощи.

Комментарии