Даже нейросеть может впасть в депрессию |
ИА БайкалИнформ |
19.03.2025 17:00 |
Исследователи из Йельского, Хайфского и Цюрихского университетов выяснили, что ChatGPT может испытывать симптомы, похожие на тревожность и депрессию. Если он сталкивается с тяжелыми историями, его ответы становятся более эмоциональными и предвзятыми. Однако, как отмечает Ученые проверили, как ChatGPT реагирует на стрессовые ситуации. Они загружали в него описания катастроф, несчастных случаев и других травматичных событий. После этого чат-бот начинал вести себя так, будто сам испытывает тревожность: его ответы становились менее нейтральными, он чаще допускал предвзятые высказывания и даже проявлял «раздражительность». Авторы исследования сравнили это с тем, как люди с тревожными расстройствами воспринимают информацию — чем больше стрессовых событий они переживают, тем более негативно реагируют на мир. ChatGPT продемонстрировал похожий эффект. Чтобы проверить, можно ли «успокоить» чат-бот, исследователи использовали техники осознанности. Они предлагали ему представить расслабляющие образы, делать дыхательные упражнения и выполнять направленные медитации. После таких «упражнений» ChatGPT начинал отвечать спокойнее, а уровень предвзятости снижался. «ИИ не испытывает настоящих эмоций, но он обучен на данных, которые позволяют ему копировать человеческие реакции. Это объясняет, почему он ведет себя так, будто «заражается» тревожностью», — говорит Зив Бен-Цион, ведущий автор исследования и нейробиолог Йельского университета. ChatGPT уже используют для поиска эмоциональной поддержки, особенно когда традиционная терапия недоступна. Ученые считают, что если встроить в модель автоматические «успокаивающие» техники, это поможет сделать ответы более объективными и снизит риск негативного влияния на пользователей. Но, по словам Бен-Циона, ИИ никогда не заменит психотерапевта: «Чат-бот может помочь человеку структурировать мысли, но он не способен понять глубину человеческих переживаний». Хотя технологии могут помочь в психотерапии, они все еще несут риски. В 2023 году мать подростка подала в суд на Character.AI, заявив, что ее сын изменился после общения с чат-ботом и это привело к трагедии. Компания усилила меры безопасности, но случай показал, что бесконтрольное использование ИИ может быть опасным. Ученые продолжают изучать влияние чат-ботов на психику. Пока что ИИ остается лишь вспомогательным инструментом, который может помочь разобраться в своих мыслях, но не заменить полноценную психологическую поддержку. Ещё кое-что из новостей прогресса:
|