Эксперты: разработчики ИИ-моделей «абсолютно не готовы» к угрозам сверхинтеллекта
- Все крупные компании получили оценки D и ниже за планирование экзистенциальной безопасности.
- OpenAI и DeepMind показали худшие результаты по методам управления рисками.
- Эксперты сравнили ситуацию с запуском АЭС без плана предотвращения катастрофы.
Крупнейшие разработчики ИИ не имеют четких стратегий по обеспечению безопасности систем с интеллектом на уровне человека. К такому выводу пришел Институт будущего жизни (FLI), опубликовавший доклад о текущем уровне готовности индустрии к появлению искусственного сверхразума (AGI).
Организация отметила, что протестировала семь крупнейших разработчиков больших языковых моделей (LLM). По итогу ни один из участников теста не получил оценку выше D за планирование экзистенциальной безопасности.
Индекс безопасности ИИ. Данные: FLI .Среди рассматриваемых компаний значатся OpenAI, Google DeepMind, Anthropic, Meta, xAI, а также китайские Zhipu AI и DeepSeek. Индекс охватывает шесть направлений, включая текущие угрозы и готовность к потенциальным катастрофическим последствиям выхода ИИ из-под контроля.
Наивысший общий балл — C+ — получил стартап Anthropic. За ним следуют OpenAI с C и Google DeepMind с оценкой C-. Остальные компании показали еще более слабые результаты. Один из рецензентов заявил, что ни у одной из организаций нет «ничего похожего на последовательный, реализуемый план» по контролю над ИИ.
По словам соучредителя FLI и профессора MIT Макса Тегмарка, передовые компании строят системы, сравнимые по опасности с ядерными объектами. При этом они не публикуют даже базовых планов по предотвращению катастроф. Ученый подчеркнул, что темпы развития ИИ опережают прежние ожидания. Если раньше речь шла о десятилетиях, то теперь сами компании говорят о горизонте в несколько лет.
В докладе также упоминается, что с момента февральского саммита по ИИ прогресс ускорился. Модели Grok 4, Gemini 2.5 и видеогенератор Veo3 уже демонстрируют значительный рост возможностей.
Параллельно с отчетом FLI параллельный отчет выпустила организация SaferAI . Она пришла к схожим выводам о «неприемлемо слабом» управлении рисками в индустрии. Эксперты уверены, что представители индустрии обязаны в срочном порядке пересмотреть свой подход к разработке AGI.
Представитель Google DeepMind заявил, что в отчете FLI не отражены все их меры безопасности. Остальные компании на момент публикации не комментировали ситуацию.
Напомним, мы писали, что корпорация Meta переманила к себе ученых OpenAI для работы над суперинтеллектом.
Дисклеймер: содержание этой статьи отражает исключительно мнение автора и не представляет платформу в каком-либо качестве. Данная статья не должна являться ориентиром при принятии инвестиционных решений.
Вам также может понравиться
Bitget отвязывает процентные ставки по займам от ставок финансирования для фьючерсов некоторых монет при спотовой маржинальной торговле
Bitget запускает Ончейн Earn PLUME с 4.5% годовых
[Первичный листинг] Листинг Naoris Protocol (NAORIS) в зоне Инноваций на Bitget.
Bitget Trading Club Championship (2-й этап) – получите долю от 50,000 BGB, до 500 BGB на пользователя!
Популярное
ДалееЦены на крипто
Далее








