Според официјалниот блог пост, пораките со „експлицитни индикатори за потенцијално суицидално планирање или намера“ се проценува дека сочинуваат значителен дел од вкупните интеракции на корисниците.
Најдиректното признание на компанијата
Тоа е едно од најдиректните признанија на компанијата за потенцијалното влијание на вештачката интелигенција врз менталното здравје.
Компанијата, исто така, соопшти дека околу 0,07 проценти од неделните активни корисници – што е приближно 560.000 луѓе од околу 800 милиони корисници – покажуваат можни знаци на психотични епизоди или манично однесување.
Во соопштението се наведува дека ваквите проценки се прелиминарни и тешко се квантифицираат прецизно.
Анализирани се повеќе од 8.000 одговори
За да се подобри точноста и етичките стандарди во комуникацијата, OpenAI регрутираше 170 клиничари и експерти за ментално здравје од својата Глобална мрежа на лекари.
Тие анализираа повеќе од 1.800 одговори на модели во ситуации кои вклучуваат сериозни кризи на менталното здравје и помогнаа во адаптирањето на содржината поврзана со емоционална поддршка.
Експертите за ментално здравје претходно предупредија дека четботовите можат ненамерно да поттикнат опасни мисли со потврдување на заблудите или негативните чувства на корисникот.
Безбедносни механизми
Извршниот директор на OpenAI, Сем Алтман, изјави претходно овој месец дека компанијата „постигнала напредок во намалувањето на ризикот од сериозни проблеми со менталното здравје“ и најави олеснување на одредени ограничувања за работењето на ChatGPT.
OpenAI изјави дека ќе продолжи да развива механизми за побезбедна употреба на своите модели и да соработува со независни експерти и регулатори за да ги направи алатките за вештачка интелигенција поддршка, а не закана, за корисниците во криза.
© Vecer.mk, правата за текстот се на редакцијата