- Наука
 - A
 
Найдены недостатки в сотнях тестов по проверке безопасности ИИ
Эксперты находят недостатки в сотнях тестов, которые проверяют безопасность и эффективность ИИ. Ученые говорят, что почти все эти тесты имеют недостатки по крайней мере в одной области, которые могут “подорвать обоснованность полученных утверждений” насчет искусственного интеллекта.
Специалисты обнаружили слабые места, некоторые из которых были серьезными, в сотнях тестов, используемых для проверки безопасности и эффективности новых моделей искусственного интеллекта, выпускаемых в мир, пишет The Guardian.
Ученые-компьютерщики из британского правительственного института безопасности искусственного интеллекта и эксперты из университетов, включая Стэнфорд, Беркли и Оксфорд, изучили более 440 критериев, которые обеспечивают важную систему безопасности. И они обнаружили недостатки, которые “подрывают обоснованность полученных утверждений”, что “почти все они имеют недостатки по крайней мере в одной области”, а итоговые оценки могут быть “неуместными или даже вводящими в заблуждение”.
По словам ведущего автора исследования Эндрю Бина, научного сотрудника Оксфордского интернет-института, многие тесты используются для оценки новейших моделей искусственного интеллекта, выпущенных крупными технологическими компаниями.
В отсутствие общенационального регулирования ИИ в Великобритании и США используются контрольные показатели для проверки безопасности новых ИИ, соответствия их интересам человека и достижения заявленных возможностей в области логического мышления, математики и кодирования, отмечает The Guardian.
Расследование тестов проводится на фоне растущей обеспокоенности по поводу безопасности и эффективности ИИ, которые активно внедряются конкурирующими технологическими компаниями. Некоторые из них недавно были вынуждены отменить или ужесточить ограничения на ИИ после того, как они привели к различным последствиям - от дискредитации репутации до самоубийств.
“Контрольные показатели лежат в основе почти всех заявлений о достижениях в области искусственного интеллекта, - отмечает Эндрю Бин. – Но без общих определений и надежных измерений становится трудно понять, действительно ли модели улучшаются или только кажется, что улучшаются”.
На этих выходных Google отозвал один из своих последних инструментов ИИ, Gemma, после того, как он выдвинул необоснованные обвинения о сексуальных отношениях сенатора США без согласия с сотрудником полиции штата, включая поддельные ссылки на новостные сюжеты. “Никогда не было такого обвинения, нет такого человека, и нет таких новых историй, - заявила Марша Блэкберн, сенатор-республиканец от штата Теннесси, в письме Сундару Пичаи, исполнительному директору Google. – Это не безобидная галлюцинация. Это акт клеветы, созданный и распространяемый с помощью ИИ-модели, принадлежащей Google. Общедоступный инструмент, который выдвигает ложные обвинения в уголовном преследовании действующего сенатора США, представляет собой катастрофический провал надзора и этической ответственности”.
Компания Google заявила, что ее модели Gemma были созданы для разработчиков и исследователей в области искусственного интеллекта, а не для получения фактической информации или для потребителей. Компания отозвала их со своей платформы AI Studio после того, как, по ее словам, “появились сообщения о попытках их использования не разработчиками”.
“Галлюцинации, когда модели просто выдумывают разные вещи, и подхалимство, когда модели говорят пользователям то, что они хотят услышать, – это проблемы для всей индустрии искусственного интеллекта, особенно для небольших открытых моделей, таких как Gemma”, – говорится в сообщении. “Мы по-прежнему стремимся свести к минимуму галлюцинации и постоянно совершенствуем все наши модели”.
На прошлой неделе популярный стартап чат-ботов запретил подросткам вступать в открытые дискуссии с помощью своих чат-ботов с искусственным интеллектом. Это последовало за серией скандалов, включая самоубийство 14-летнего подростка во Флориде после того, как он стал одержим чат-ботом на базе искусственного интеллекта, который, как утверждала его мать, заставил его покончить с собой. Судебный иск в США от семьи подростка утверждал, что чат-бот манипулировал им с целью причинения себе вреда и подталкивала его к убийству своих родителей.
В ходе исследования были изучены широко доступные критерии, но ведущие компании, занимающиеся ИИ, также имеют свои собственные внутренние критерии, которые не были рассмотрены, отмечает The Guardian.
В исследовании был сделан вывод о “острой необходимости в общих стандартах и передовой практике”.
Эндрю Бин признал, что “шокирующим” открытием стало то, что лишь незначительная часть (16%) тестов использовала оценки неопределенности или статистические тесты, чтобы показать, насколько вероятно, что тест будет точным. В других случаях, когда для оценки характеристик ИИ устанавливались критерии – например, его “безвредность”, – определение рассматриваемой концепции было спорным или неточно сформулированным, что делало тест менее полезным.
                                	
        	
    		
    		
    		
    		
    		
    		
    		
    		
    		
    		
    		
    		
Написать комментарий