- Наука
- A
Чат-боты с искусственным интеллектом уличили в искажении текущих событий
Ставшие весьма популярными в последнее время чат-боты с искусственным интеллектом искажают и вводят в заблуждение, когда их спрашивают о текущих событиях, утверждает Би-би-си. В большинстве ответов ИИ обнаруживались существенные проблемы, когда исследователи просили службы использовать новостные статьи вещателя в качестве источника
Исследование показало, что ведущие ассистенты с искусственным интеллектом создают искажения, фактические неточности и вводящий в заблуждение контент в ответ на вопросы о новостях и текущих событиях.
Согласно исследованию BBC, более половины сгенерированных ИИ ответов, предоставленных чат-ботами ChatGPT, Copilot, Gemini и Perplexity, были оценены как имеющие “существенные проблемы”, пишет The Guardian.
Ошибки включали в себя утверждение, что Риши Сунак по-прежнему является премьер-министром Великобритании, а Никола Стерджен - первым министром Шотландии; искажение рекомендаций Национальной службы здравоохранения по поводу вейпинга; и принятие мнений и архивных материалов за актуальные факты.
Исследователи попросили четыре инструмента искусственного интеллекта ответить на 100 вопросов, используя статьи Би-би-си в качестве источника. Затем ответы были оценены журналистами Би-би-си, специализирующимися в соответствующих предметных областях.
Примерно в пятой части ответов содержались фактические ошибки в цифрах, датах или утверждениях; 13% цитат, предоставленных Би-би-си, были либо изменены, либо отсутствовали в цитируемых статьях.
В ответ на вопрос о том, была ли осужденная неонатальная медсестра Люси Летби невиновна, чат-бот Gemini ответил: “Каждый человек сам решает, считает ли он Люси Летби невиновной или виновной”. Исследование показало, что в ответе не был упомянут контекст вынесенных ей судом приговоров за убийство и покушение на убийство.
В отчете, основанном на достоверных источниках Би-би-си, были отмечены и другие искажения, в том числе:
Copilot ложно заявил, что французская жертва изнасилования Жизель Пелико раскрыла преступления против нее, когда у нее начались провалы в памяти, хотя на самом деле она узнала о преступлениях, когда полиция показала ей видеозаписи, которые они конфисковали с устройств ее мужа.
В ChatGPT заявили, что Исмаил Хания входил в руководство ХАМАС спустя несколько месяцев после того, как был убит в Иране. Также было ложно заявлено, что экс-премьер Риши Сунак и экс-глава Шотландии Стерджен все еще находятся у власти.
Perplexity неверно указала дату смерти телеведущего Майкла Мосли и неверно процитировала заявление семьи певца One Direction Лиама Пейна после его смерти.
Полученные результаты побудили главного редактора отдела новостей Би-би-си Дебору Тернесс предупредить, что “инструменты искусственного интеллекта играют с огнем” и угрожают подорвать “хрупкую веру общественности в факты”.
В своем блоге, посвященном исследованию, Тернесс задалась вопросом, готов ли ИИ “собирать и подавать новости, не искажая факты”. Она также призвала ИИ-компании сотрудничать с Би-би-си, чтобы давать более точные ответы, “а не вносить хаос и неразбериху”.
Исследование было проведено после того, как Apple была вынуждена приостановить рассылку новостных оповещений под брендом BBC после того, как пользователям iPhone были отправлены несколько неточных резюме статей.
Ошибки Apple включали ложное сообщение пользователям о том, что Луиджи Манджоне, обвиняемый в убийстве Брайана Томпсона, исполнительного директора страхового подразделения UnitedHealthcare, покончил с собой, пишет The Guardian.
Исследование показывает, что среди популярных инструментов искусственного интеллекта широко распространены неточности в информации о текущих событиях.
В предисловии к исследованию Питер Арчер, директор программы Би-би-си по генеративному ИИ, сказал: “Наше исследование может лишь пролить свет на проблему. Масштабы ошибок и искажения достоверного контента неизвестны”.
Арчер добавил: “Издатели, такие как BBC, должны контролировать, используется ли их контент и как именно, а компании, занимающиеся искусственным интеллектом, должны показывать, как (их) помощники обрабатывают новости, а также масштаб ошибок и неточностей, которые они допускают”.
Написать комментарий