Традиционният начин за наблюдение, грижа и подкрепа за децата крие дефекти. Той често пропуска да забележи тези, които са изложени на риск от самонараняване и самоубийство. Възможностите на изкуствения интелект (AI) обаче могат да помогнат на медицинските лица и на детските психолози да правят по-адекватна оценка на тези опасности и предразположености при подрастващите.
Скорошен случай в Белгия шокира в обратната посока… Момче решава да сложи край на живота си, след като съобщенията в чатбот го насърчават да извърши самоубийство.
Рецензирано проучване от изследователи от центъра UCLA Health в Лос Анджелис установява, че AI може да помогне за откриване на мисли или поведение на самонараняване при деца много по-добре от действителната система за данни, използвана в момента от доставчиците на здравни услуги в повечето страни.
Смята се, че девет милиона деца на възраст между 10 и 19 години живеят с психични разстройства, като тревожността и депресията представляват повече от половината от всички случаи. В САЩ пък около 20 милиона млади хора в момента могат да бъдат диагностицирани с психично разстройство, според Министерството на здравеопазването и социалните услуги в страната.
Изследователите на UCLA Health преглеждат клинични бележки за 600 посещения в спешни отделения, направени от деца на възраст между 10 и 17 години. Така те проверяват колко успешно настоящите системи за оценка на психичното здраве могат да идентифицират признаци на самонараняване и да оценят риска от самоубийство.
Вижте още: Разводът може да „счупи“ детето ви, а вие можете да предотвратите това
Резултатите са незадоволителни. Системите пропускат 29% от децата, които са посетили специалист със самонараняващи се мисли или поведение. Оценката на риска, направена без конкретни оплаквания от пациента, е още по-неубедителна. Тя пренебрегва повече от половината деца в риск – цели 54%. Децата често не съобщават за суицидни мисли и поведение по време на първото си посещение при лекар или психолог. Да се ограничаваме до това, което те ще изберат да ни кажат обаче, далеч не е достатъчно.
В резултат на тези си наблюдения изследователите създават три AI модела, които разглеждат различен набор от данни. Те включват предходни медицински грижи, лекарства, къде е живял пациентът и резултати от лабораторни тестове. Имайки предвид и това, те оценяват мислите, свързани със самоубийство или със самонараняващо поведение.
„Способността ни да предвиждаме кои деца може да имат суицидни мисли или поведение в бъдеще не е голяма. Ключова причина е, че полето ни е насочено към предсказания. Вместо към това да проверим дали към момента откриваме всички рискови фактори, вече налични при децата“. Тобва разкрива Джулиет Еджкомб, водещият автор на изследването. „Фокусирахме се да подобрим именно това.“
Въпреки че беше установено, че трите модела на машинно обучение увеличават шанса за фалшиви положителни резултати, Еджкомб е убедена, че това е по-добър вариант в сравнени с пропускането на застрашени деца.
Вижте още: