- Наука
- A
Будущее человечества под угрозой: темпы развития искусственного интеллекта названы «ужасающими»
Бывший исследователь безопасности компании OpenAI называет темпы развития искусственного интеллекта ужасающими. Стивен Адлер выражает обеспокоенность тем, что индустрия ИИ идет на очень рискованную авантюру и ставит под сомнение будущее всего человечества.
Экс-исследователь по безопасности в OpenAI говорит, что он “в ужасе” от темпов развития искусственного интеллекта, и предупреждает, что эта индустрия делает “очень рискованную ставку” на эту технологию.
Стивен Адлер выразил обеспокоенность по поводу компаний, стремящихся быстро развить общий искусственный интеллект (AGI) - теоретический термин, обозначающий системы, которые не уступают или превосходят людей в решении любых интеллектуальных задач.
Адлер, покинувший OpenAI в ноябре, написал в серии постов на X, что ему “очень понравилось” в американской компании, и он будет скучать по “многим ее аспектам”. Однако он сказал, что технология развивается так быстро, что это вызывает сомнения в будущем человечества, пишет The Guardian.
“Я в ужасе от темпов развития искусственного интеллекта в наши дни, - сказал он. - Когда я думаю о том, где я буду растить семью в будущем или сколько откладывать на пенсию, я не могу не задаться вопросом: доживет ли человечество до этого момента?”
Некоторые эксперты, такие как лауреат Нобелевской премии Джеффри Хинтон, опасаются, что мощные системы ИИ могут выйти из-под контроля человека с потенциально катастрофическими последствиями. Другие, такие как Ян Лекун, главный специалист Meta по искусственному интеллекту, преуменьшают угрозу существованию, заявляя, что ИИ “в действительности может спасти человечество от вымирания”.
Согласно профилю Адлера в соцсетях, за свою четырехлетнюю карьеру в OpenAI он руководил исследованиями, связанными с безопасностью, для “первых запусков продуктов” и “более перспективных систем искусственного интеллекта”, отмечает The Guardian.
Говоря о развитии “сильного искусственного интеллекта” (AGI), основной цели компании OpenAI, Адлер добавил: “Гонка AGI - это очень рискованная авантюра с огромными недостатками”. Адлер сказал, что ни у одной исследовательской лаборатории нет решения для настройки ИИ – процесса, обеспечивающего соответствие систем набору человеческих ценностей, – и что индустрия, возможно, развивается слишком быстро, чтобы найти такое решение: “Чем быстрее мы работаем, тем меньше вероятность, что кто-то найдет его вовремя”.
Публикации Адлера появились после того, как китайская компания DeepSeek, которая также стремится развивать AGI, потрясла технологическую индустрию США, представив модель, которая конкурирует с технологией OpenAI, несмотря на то, что для ее разработки было затрачено явно меньше ресурсов.
Предупреждая о том, что отрасль, по-видимому, “застряла в очень плохом равновесии”, Адлер сказал, что необходимы “реальные правила безопасности”: “Даже если лаборатория действительно хочет ответственно подходить к разработке AGI, другие все равно могут сократить время, чтобы наверстать упущенное, что может привести к катастрофическим последствиям”.
Написать комментарий