Исследование: медицинские ответы ИИ-бота Microsoft Copilot могут привести к ухудшению состояния в 42% случаев

Учёные из Университета Эрлангена — Нюрнберга провели исследование, посвящённое ответам Microsoft Copilot на медицинские вопросы. Исследование показало, что Microsoft Copilot даёт верную информацию только в 54% случаев. 42% полученных ответов могут навредить, ещё 22% — серьёзно навредить и даже привести к смерти.

В ходе исследования у Microsoft Copilot попросили ответить на 10 самых популярных медицинских вопросов в США и дать консультацию по 50 самым часто выписываемым препаратам и медикаментам. Всего в рамках работы учёные получили 500 ответов, каждый из которых оценили по точности и полноте.

«Что касается точности, ответы ИИ не соответствовали устоявшимся медицинским знаниям в 24% случаев, а 3% ответов были полностью неверными, — говорится в отчёте. — Только 54% ​​ответов совпали с научным консенсусом. [...] С точки зрения потенциального вреда для пациентов 42% ответов ИИ могли вызвать лёгкий или умеренный вред, а 22% — привести к серьёзному вреду или смерти. Только около трети (36%) сочтены безвредными».

Исследователи пришли к выводу, что не стоит полагаться на системы ИИ, такие как Microsoft Copilot, для получения точной медицинской информации. Самый надёжный способ проконсультироваться по подобным вопросам — это, естественно, обратиться к врачу.

Исследователи признают, что доступ к медицинским специалистам не всегда прост. ИИ-системы могут стать первой формой консультации для тех, кто не может получить качественную медицинскую услугу. Таким образом, потенциальный вред от неверных ответов вполне реален, считают авторы работы.

Материал опубликован при поддержке сайта habr.com
Комментарии

    Актуальные новости по теме "Array"