Британские законодатели предупреждают: обещания по обеспечению безопасности ИИ превращаются в пустую формальность
- 60 британских законодателей обвинили Google DeepMind в нарушении обязательств по обеспечению безопасности ИИ из-за задержки публикации подробных отчетов о безопасности для Gemini 2.5 Pro. - Компания выпустила упрощенную модельную карточку через три недели после запуска, в которой отсутствует прозрачность по поводу стороннего тестирования и участия государственных агентств. - Google утверждает, что выполнила свои обязательства, опубликовав технический отчет спустя несколько месяцев, однако критики считают, что это подрывает доверие к протоколам безопасности. - Аналогичные проблемы в Meta и OpenAI подчеркивают отраслевые опасения по поводу прозрачности.
Группа из 60 британских парламентариев подписала открытое письмо, обвиняя Google DeepMind в несоблюдении своих обязательств по обеспечению безопасности искусственного интеллекта, в частности, в задержке публикации подробной информации о безопасности модели Gemini 2.5 Pro [1]. Письмо, опубликованное политической активистской группой PauseAI, критикует компанию за то, что она не предоставила исчерпывающую модельную карту на момент выпуска модели, а это ключевой документ, в котором описывается, как модель была протестирована и создана [1]. По их мнению, этот провал является нарушением обязательств по безопасности Frontier AI, взятых на международном саммите в феврале 2024 года, где подписанты, включая Google, пообещали публично отчитываться о возможностях моделей, оценках рисков и участии сторонних тестировщиков [1].
Google выпустила Gemini 2.5 Pro в марте 2025 года, но не опубликовала полную модельную карту в то время, несмотря на заявления о том, что модель превосходит конкурентов по ключевым показателям [1]. Вместо этого через три недели была опубликована упрощённая модельная карта на шести страницах, которую некоторые эксперты по управлению ИИ сочли недостаточной и вызывающей обеспокоенность [1]. В письме отмечается, что в документе отсутствовали существенные детали о внешних оценках и не было подтверждения участия государственных агентств, таких как U.K. AI Security Institute, в тестировании [1]. Эти упущения вызывают вопросы о прозрачности практик компании в области безопасности.
В ответ на критику представитель Google DeepMind ранее заявил Fortune, что любые предположения о нарушении компанией своих обязательств являются "неточными" [1]. Компания также заявила в мае, что более подробный технический отчёт будет опубликован, когда финальная версия семейства моделей Gemini 2.5 Pro станет доступна. Более полный отчёт был в итоге опубликован в конце июня, спустя несколько месяцев после выхода полной версии [1]. Представитель вновь подчеркнул, что компания выполняет свои публичные обязательства, включая Seoul Frontier AI Safety Commitments, и что Gemini 2.5 Pro прошла строгие проверки безопасности, включая оценки сторонних тестировщиков [1].
В письме также отмечается, что отсутствие модельной карты для Gemini 2.5 Pro противоречит другим обещаниям Google, таким как White House Commitments 2023 года и добровольный Кодекс поведения по искусственному интеллекту, подписанный в октябре 2023 года [1]. Такая ситуация не уникальна для Google. Meta столкнулась с аналогичной критикой за минимальную и ограниченную модельную карту для модели Llama 4, а OpenAI решила не публиковать отчёт о безопасности для своей модели GPT-4.1, сославшись на её статус не-frontier [1]. Эти события указывают на более широкую тенденцию в отрасли, когда раскрытие информации о безопасности становится менее прозрачным или вовсе опускается.
В письме Google призывают подтвердить свои обязательства по безопасности ИИ, чётко определив момент развертывания как момент, когда модель становится общедоступной, обязуясь публиковать отчёты об оценке безопасности в установленный срок для всех будущих выпусков моделей, а также обеспечивать полную прозрачность каждого выпуска, указывая государственные агентства и независимые третьи стороны, участвовавшие в тестировании, вместе с точными сроками тестирования [1]. Лорд Браун из Лейдтона, подписант письма и член Палаты лордов, предупредил, что если ведущие компании в области ИИ будут рассматривать обязательства по безопасности как необязательные, это может привести к опасной гонке по внедрению всё более мощных систем ИИ без надлежащих мер защиты [1].
Источник:

Дисклеймер: содержание этой статьи отражает исключительно мнение автора и не представляет платформу в каком-либо качестве. Данная статья не должна являться ориентиром при принятии инвестиционных решений.
Вам также может понравиться

Algorand (ALGO) может пробить отметку $0.26 или откатиться к $0.22 на фоне изменения импульса

Цена TRON отскакивает к $0,35 после снижения комиссий в сети на 60%

Популярное
ДалееЦены на крипто
Далее








