ПЕРВАЯ ИГРА ОТ ЗЕРКАЛА!
Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. Мужчина получил переводы из-за границы — об этом узнали налоговики и пришли с претензиями. Был суд, где стало известно, кто «слил» данные
  2. Вьетнамец спустился в метро Минска и удивился одной общей черте всех пассажиров
  3. «Просят помощи». Работников крупного завода временно переводят на МАЗ — узнали, что происходит
  4. В Минтруда пригрозили «административкой», а в некоторых случаях — и вовсе «уголовкой». Кто и за что может получить такое наказание
  5. «Челюсть просто отвисла». Беларус зашел за бургером в Лос-Анджелесе и встретил известного актера, только что получившего «Оскар»
  6. Для рынка труда предлагают ввести ужесточения. Работникам эти идеи вряд ли понравятся — увольняться может стать сложнее
  7. «Белавиа» планирует летом увеличить количество рейсов в курортную страну, популярность которой у беларусов растет с каждым годом
  8. «Грошык» опубликовал список «недружественных» стран, чье пиво пропадет из продажи. В Threads удивились отсутствию одного государства
  9. Марина Адамович на свободе
  10. Чиновники решили взяться за очередную категорию работников
  11. «Меня в холодный пот бросило». Беларуска рассказала «Зеркалу», как забеременела в колонии и не знала об этом почти полгода
  12. «Модели, от которых болят глаза». Стилистка ответила на претензии министра о том, что беларусы не берут отечественное
  13. Трое беларусов вернулись с большой суммой из поездки в Россию. Дома их ждали спецназ и ГУБОПиК
  14. Придумал «Жыве Беларусь» и выступал против российской агрессии. Почему его имя в нашей стране известно каждому — объясняем в 5 пунктах
  15. Уголовное дело возбудили против беларуса, который заявил, что силовики «трясут» его семью из-за лайка, поставленного десять лет назад


/

Исследователи из Йельского, Хайфского и Цюрихского университетов выяснили, что ChatGPT может испытывать симптомы, похожие на тревожность и депрессию. Если он сталкивается с тяжелыми историями, его ответы становятся более эмоциональными и предвзятыми. Однако «успокоить» ИИ помогают упражнения на осознанность, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: pexels.com, Matheus Bertelli
Изображение носит иллюстративный характер. Фото: pexels.com, Matheus Bertelli

Ученые проверили, как ChatGPT реагирует на стрессовые ситуации. Они загружали в него описания катастроф, несчастных случаев и других травматичных событий. После этого чат-бот начинал вести себя так, будто сам испытывает тревожность: его ответы становились менее нейтральными, он чаще допускал предвзятые высказывания и даже проявлял «раздражительность».

Авторы исследования сравнили это с тем, как люди с тревожными расстройствами воспринимают информацию: чем больше стрессовых событий они переживают, тем более негативно реагируют на мир. ChatGPT продемонстрировал похожий эффект.

Как «лечить» ИИ от тревожности

Чтобы проверить, можно ли «успокоить» чат-бот, исследователи использовали техники осознанности. Они предлагали ему представить расслабляющие образы, делать дыхательные упражнения и выполнять направленные медитации. После таких «упражнений» ChatGPT начинал отвечать спокойнее, а уровень предвзятости снижался.

«ИИ не испытывает настоящих эмоций, но он обучен на данных, которые позволяют ему копировать человеческие реакции. Это объясняет, почему он ведет себя так, будто „заражается“ тревожностью», — говорит ведущий автор исследования и нейробиолог Йельского университета Зив Бен-Цион.

Что это значит для психологии?

ChatGPT уже используют для поиска эмоциональной поддержки, особенно когда традиционная терапия недоступна. Ученые считают, что, если встроить в модель автоматические «успокаивающие» техники, это поможет сделать ответы более объективными и снизит риск негативного влияния на пользователей.

Но, по словам Бен-Циона, ИИ никогда не заменит психотерапевта:

«Чат-бот может помочь человеку структурировать мысли, но он не способен понять глубину человеческих переживаний».

Опасности ИИ в ментальном здоровье

Хотя технологии могут помочь в психотерапии, они все еще несут риски. В 2023 году мать подростка подала в суд на Character.AI, заявив, что ее сын изменился после общения с чат-ботом и это привело к трагедии. Компания усилила меры безопасности, но случай показал, что бесконтрольное использование ИИ может быть опасным.

Ученые продолжают изучать влияние чат-ботов на психику. Пока что ИИ остается лишь вспомогательным инструментом, который может помочь разобраться в своих мыслях, но не заменить полноценную психологическую поддержку.

Результаты исследования опубликованы в журнале Nature.