Поддержать команду Зеркала
Беларусы на войне
  1. Беларусскоязычное издательство остановило работу. Сообщается о задержаниях
  2. До 15 лет лишения свободы. Юрист объяснил, почему слова Эйсмонт о Статкевиче могут повлечь уголовные дела против Лукашенко
  3. «Новых не будет». Пропагандист рассказал о политзаключенных, для освобождения которых нужны «особые условия»
  4. У беларуски погиб на рабочем месте единственный сын. Она потребовала от его работодателя 1 млн рублей компенсации, сколько назначил суд
  5. После потери доступа к терминалам Starlink Россия изменила схему применения дронов — ISW
  6. «Попался как щука в невод». Аналитик о том, почему не сработала замена Лукашенко на Рыженкова для участия в «Совете мира»
  7. Где ждать +12°C? Рассказываем, какой будет погода с 23 февраля по 1 марта
  8. Делегация официального Минска вышла из зала во время речи Тихановской на заседании ПА ОБСЕ в Вене, Азербайджан этот демарш не поддержал


/

Исследователи из Йельского, Хайфского и Цюрихского университетов выяснили, что ChatGPT может испытывать симптомы, похожие на тревожность и депрессию. Если он сталкивается с тяжелыми историями, его ответы становятся более эмоциональными и предвзятыми. Однако «успокоить» ИИ помогают упражнения на осознанность, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: pexels.com, Matheus Bertelli
Изображение носит иллюстративный характер. Фото: pexels.com, Matheus Bertelli

Ученые проверили, как ChatGPT реагирует на стрессовые ситуации. Они загружали в него описания катастроф, несчастных случаев и других травматичных событий. После этого чат-бот начинал вести себя так, будто сам испытывает тревожность: его ответы становились менее нейтральными, он чаще допускал предвзятые высказывания и даже проявлял «раздражительность».

Авторы исследования сравнили это с тем, как люди с тревожными расстройствами воспринимают информацию: чем больше стрессовых событий они переживают, тем более негативно реагируют на мир. ChatGPT продемонстрировал похожий эффект.

Как «лечить» ИИ от тревожности

Чтобы проверить, можно ли «успокоить» чат-бот, исследователи использовали техники осознанности. Они предлагали ему представить расслабляющие образы, делать дыхательные упражнения и выполнять направленные медитации. После таких «упражнений» ChatGPT начинал отвечать спокойнее, а уровень предвзятости снижался.

«ИИ не испытывает настоящих эмоций, но он обучен на данных, которые позволяют ему копировать человеческие реакции. Это объясняет, почему он ведет себя так, будто „заражается“ тревожностью», — говорит ведущий автор исследования и нейробиолог Йельского университета Зив Бен-Цион.

Что это значит для психологии?

ChatGPT уже используют для поиска эмоциональной поддержки, особенно когда традиционная терапия недоступна. Ученые считают, что, если встроить в модель автоматические «успокаивающие» техники, это поможет сделать ответы более объективными и снизит риск негативного влияния на пользователей.

Но, по словам Бен-Циона, ИИ никогда не заменит психотерапевта:

«Чат-бот может помочь человеку структурировать мысли, но он не способен понять глубину человеческих переживаний».

Опасности ИИ в ментальном здоровье

Хотя технологии могут помочь в психотерапии, они все еще несут риски. В 2023 году мать подростка подала в суд на Character.AI, заявив, что ее сын изменился после общения с чат-ботом и это привело к трагедии. Компания усилила меры безопасности, но случай показал, что бесконтрольное использование ИИ может быть опасным.

Ученые продолжают изучать влияние чат-ботов на психику. Пока что ИИ остается лишь вспомогательным инструментом, который может помочь разобраться в своих мыслях, но не заменить полноценную психологическую поддержку.

Результаты исследования опубликованы в журнале Nature.