Brytyjscy ustawodawcy ostrzegają: zobowiązania dotyczące bezpieczeństwa AI stają się tylko pozorem
- 60 brytyjskich parlamentarzystów oskarża Google DeepMind o naruszenie zobowiązań dotyczących bezpieczeństwa AI poprzez opóźnienie szczegółowych raportów bezpieczeństwa dla Gemini 2.5 Pro. - Firma udostępniła uproszczoną kartę modelu trzy tygodnie po premierze, która nie zawierała informacji o testach przeprowadzonych przez strony trzecie ani o udziale agencji rządowych. - Google twierdzi, że wypełniło zobowiązania, publikując raport techniczny kilka miesięcy później, jednak krytycy uważają, że podważa to zaufanie do protokołów bezpieczeństwa. - Podobne problemy w Meta i OpenAI podkreślają branżowe obawy dotyczące przejrzystości.
Grupa 60 brytyjskich parlamentarzystów podpisała otwarty list, oskarżając Google DeepMind o niewywiązywanie się ze zobowiązań dotyczących bezpieczeństwa AI, w szczególności w związku z opóźnionym ujawnieniem szczegółowych informacji dotyczących bezpieczeństwa modelu Gemini 2.5 Pro [1]. List, opublikowany przez grupę aktywistów politycznych PauseAI, krytykuje firmę za brak dostarczenia kompleksowej karty modelu w momencie jego premiery, która jest kluczowym dokumentem opisującym sposób testowania i budowy modelu [1]. Według autorów listu, to zaniedbanie stanowi naruszenie Frontier AI Safety Commitments podjętych podczas międzynarodowego szczytu w lutym 2024 roku, gdzie sygnatariusze – w tym Google – zobowiązali się do publicznego raportowania możliwości modeli, ocen ryzyka oraz udziału niezależnych testerów [1].
Google wypuściło Gemini 2.5 Pro w marcu 2025 roku, jednak nie opublikowało wówczas pełnej karty modelu, mimo że twierdziło, iż model przewyższa konkurencję w kluczowych benchmarkach [1]. Zamiast tego, uproszczona, sześciostronicowa karta modelu została opublikowana trzy tygodnie później, co niektórzy eksperci ds. zarządzania AI określili jako niewystarczające i budzące niepokój [1]. List podkreśla, że dokumentowi brakowało istotnych szczegółów dotyczących zewnętrznych ewaluacji i nie potwierdzono, czy w testach brały udział agencje rządowe, takie jak U.K. AI Security Institute [1]. Te braki budzą obawy o przejrzystość praktyk bezpieczeństwa firmy.
W odpowiedzi na krytykę rzecznik Google DeepMind powiedział wcześniej dla Fortune, że wszelkie sugestie, iż firma nie dotrzymuje zobowiązań, są "nieprawdziwe" [1]. Firma poinformowała również w maju, że bardziej szczegółowy raport techniczny zostanie opublikowany, gdy finalna wersja rodziny modeli Gemini 2.5 Pro będzie dostępna. Bardziej kompleksowy raport został ostatecznie opublikowany pod koniec czerwca, kilka miesięcy po udostępnieniu pełnej wersji [1]. Rzecznik podkreślił, że firma realizuje swoje publiczne zobowiązania, w tym Seoul Frontier AI Safety Commitments, a Gemini 2.5 Pro przeszedł rygorystyczne kontrole bezpieczeństwa, w tym ewaluacje przeprowadzone przez niezależnych testerów [1].
List zauważa również, że brakująca karta modelu dla Gemini 2.5 Pro wydaje się być sprzeczna z innymi zobowiązaniami Google, takimi jak 2023 White House Commitments oraz dobrowolny Code of Conduct on Artificial Intelligence podpisany w październiku 2023 roku [1]. Sytuacja ta nie jest wyjątkowa dla Google. Meta spotkała się z podobną krytyką za minimalną i ograniczoną kartę modelu dla Llama 4, podczas gdy OpenAI zdecydowało się nie publikować raportu bezpieczeństwa dla swojego modelu GPT-4.1, powołując się na jego nie-frontierowy status [1]. Rozwój tych wydarzeń sugeruje szerszy trend w branży, gdzie ujawnienia dotyczące bezpieczeństwa stają się mniej przejrzyste lub są całkowicie pomijane.
List wzywa Google do ponownego potwierdzenia swoich zobowiązań dotyczących bezpieczeństwa AI poprzez jasne zdefiniowanie wdrożenia jako momentu, w którym model staje się publicznie dostępny, zobowiązanie się do publikowania raportów z ocen bezpieczeństwa według ustalonego harmonogramu dla wszystkich przyszłych premier modeli oraz zapewnienie pełnej przejrzystości każdej premiery poprzez wskazanie agencji rządowych i niezależnych stron trzecich zaangażowanych w testy wraz z dokładnymi terminami testów [1]. Lord Browne of Ladyton, sygnatariusz listu i członek Izby Lordów, ostrzegł, że jeśli wiodące firmy AI będą traktować zobowiązania dotyczące bezpieczeństwa jako opcjonalne, może to doprowadzić do niebezpiecznego wyścigu w kierunku wdrażania coraz potężniejszych systemów AI bez odpowiednich zabezpieczeń [1].
Source:
Zastrzeżenie: Treść tego artykułu odzwierciedla wyłącznie opinię autora i nie reprezentuje platformy w żadnym charakterze. Niniejszy artykuł nie ma służyć jako punkt odniesienia przy podejmowaniu decyzji inwestycyjnych.
Może Ci się również spodobać
Franklin Templeton uruchamia Solana ETF na NYSE z tickerem SOEZ
ETF Solana od Franklin Templeton debiutuje na NYSE Arca pod symbolem „SOEZ”, dołączając do rosnącej liczby instytucjonalnych produktów inwestycyjnych opartych na SOL, których łączna wartość aktywów przekracza 933 miliony dolarów.

Bitcoin wraca powyżej 93 000 USD, gdy likwidacje krótkich pozycji i nowe zainteresowanie instytucjonalne napędzają odbicie przed posiedzeniem Fed
Bitcoin gwałtownie wzrósł, przekraczając poziom 93 000 dolarów, napędzany likwidacjami krótkich pozycji oraz stałym napływem środków do ETF, co spowodowało gwałtowne odbicie. Jednak analitycy ostrzegają, że stres górników, mieszane zachowania wielorybów oraz niepewność makroekonomiczna sprawiają, że ostatnie wzrosty są podatne na spadki, jeśli napływy do ETF lub płynność osłabną.

The Daily: Wielka Brytania przyjmuje ustawę o własności kryptowalut, Firelight uruchamia protokół stakingu XRP na Flare, American Bitcoin braci Trump gwałtownie spada, i więcej
Szybka informacja: Wielka Brytania oficjalnie uznaje teraz aktywa cyfrowe jako trzecią kategorię własności po wejściu w życie ustawy Property (Digital Assets etc) Act 2025, która otrzymała królewską zgodę od króla Karola III. Firelight Finance uruchomiło protokół stakingu XRP na Flare, który emituje stXRP — płynny token w stylu restaking, zaprojektowany do zasilania modelu ubezpieczeń DeFi, gdy tylko nagrody zostaną aktywowane w kolejnej fazie wdrożenia.

