Brytyjscy ustawodawcy ostrzegają: zobowiązania dotyczące bezpieczeństwa AI stają się tylko pozorem
- 60 brytyjskich parlamentarzystów oskarża Google DeepMind o naruszenie zobowiązań dotyczących bezpieczeństwa AI poprzez opóźnienie szczegółowych raportów bezpieczeństwa dla Gemini 2.5 Pro. - Firma udostępniła uproszczoną kartę modelu trzy tygodnie po premierze, która nie zawierała informacji o testach przeprowadzonych przez strony trzecie ani o udziale agencji rządowych. - Google twierdzi, że wypełniło zobowiązania, publikując raport techniczny kilka miesięcy później, jednak krytycy uważają, że podważa to zaufanie do protokołów bezpieczeństwa. - Podobne problemy w Meta i OpenAI podkreślają branżowe obawy dotyczące przejrzystości.
Grupa 60 brytyjskich parlamentarzystów podpisała otwarty list, oskarżając Google DeepMind o niewywiązywanie się ze zobowiązań dotyczących bezpieczeństwa AI, w szczególności w związku z opóźnionym ujawnieniem szczegółowych informacji dotyczących bezpieczeństwa modelu Gemini 2.5 Pro [1]. List, opublikowany przez grupę aktywistów politycznych PauseAI, krytykuje firmę za brak dostarczenia kompleksowej karty modelu w momencie jego premiery, która jest kluczowym dokumentem opisującym sposób testowania i budowy modelu [1]. Według autorów listu, to zaniedbanie stanowi naruszenie Frontier AI Safety Commitments podjętych podczas międzynarodowego szczytu w lutym 2024 roku, gdzie sygnatariusze – w tym Google – zobowiązali się do publicznego raportowania możliwości modeli, ocen ryzyka oraz udziału niezależnych testerów [1].
Google wypuściło Gemini 2.5 Pro w marcu 2025 roku, jednak nie opublikowało wówczas pełnej karty modelu, mimo że twierdziło, iż model przewyższa konkurencję w kluczowych benchmarkach [1]. Zamiast tego, uproszczona, sześciostronicowa karta modelu została opublikowana trzy tygodnie później, co niektórzy eksperci ds. zarządzania AI określili jako niewystarczające i budzące niepokój [1]. List podkreśla, że dokumentowi brakowało istotnych szczegółów dotyczących zewnętrznych ewaluacji i nie potwierdzono, czy w testach brały udział agencje rządowe, takie jak U.K. AI Security Institute [1]. Te braki budzą obawy o przejrzystość praktyk bezpieczeństwa firmy.
W odpowiedzi na krytykę rzecznik Google DeepMind powiedział wcześniej dla Fortune, że wszelkie sugestie, iż firma nie dotrzymuje zobowiązań, są "nieprawdziwe" [1]. Firma poinformowała również w maju, że bardziej szczegółowy raport techniczny zostanie opublikowany, gdy finalna wersja rodziny modeli Gemini 2.5 Pro będzie dostępna. Bardziej kompleksowy raport został ostatecznie opublikowany pod koniec czerwca, kilka miesięcy po udostępnieniu pełnej wersji [1]. Rzecznik podkreślił, że firma realizuje swoje publiczne zobowiązania, w tym Seoul Frontier AI Safety Commitments, a Gemini 2.5 Pro przeszedł rygorystyczne kontrole bezpieczeństwa, w tym ewaluacje przeprowadzone przez niezależnych testerów [1].
List zauważa również, że brakująca karta modelu dla Gemini 2.5 Pro wydaje się być sprzeczna z innymi zobowiązaniami Google, takimi jak 2023 White House Commitments oraz dobrowolny Code of Conduct on Artificial Intelligence podpisany w październiku 2023 roku [1]. Sytuacja ta nie jest wyjątkowa dla Google. Meta spotkała się z podobną krytyką za minimalną i ograniczoną kartę modelu dla Llama 4, podczas gdy OpenAI zdecydowało się nie publikować raportu bezpieczeństwa dla swojego modelu GPT-4.1, powołując się na jego nie-frontierowy status [1]. Rozwój tych wydarzeń sugeruje szerszy trend w branży, gdzie ujawnienia dotyczące bezpieczeństwa stają się mniej przejrzyste lub są całkowicie pomijane.
List wzywa Google do ponownego potwierdzenia swoich zobowiązań dotyczących bezpieczeństwa AI poprzez jasne zdefiniowanie wdrożenia jako momentu, w którym model staje się publicznie dostępny, zobowiązanie się do publikowania raportów z ocen bezpieczeństwa według ustalonego harmonogramu dla wszystkich przyszłych premier modeli oraz zapewnienie pełnej przejrzystości każdej premiery poprzez wskazanie agencji rządowych i niezależnych stron trzecich zaangażowanych w testy wraz z dokładnymi terminami testów [1]. Lord Browne of Ladyton, sygnatariusz listu i członek Izby Lordów, ostrzegł, że jeśli wiodące firmy AI będą traktować zobowiązania dotyczące bezpieczeństwa jako opcjonalne, może to doprowadzić do niebezpiecznego wyścigu w kierunku wdrażania coraz potężniejszych systemów AI bez odpowiednich zabezpieczeń [1].
Source:

Zastrzeżenie: Treść tego artykułu odzwierciedla wyłącznie opinię autora i nie reprezentuje platformy w żadnym charakterze. Niniejszy artykuł nie ma służyć jako punkt odniesienia przy podejmowaniu decyzji inwestycyjnych.
Może Ci się również spodobać
Pierwszy skarbiec SOL w Korei Południowej: nadchodzi Solana Blastoff?
DeFi Development Corp i Fragmetric Labs ogłosiły powstanie pierwszego korporacyjnego skarbu Solana w Korei Południowej.

Wywiad z założycielem 0G Labs, Michaelem: Jak rozpocząć zdecentralizowaną przyszłość AI?
Naszym ostatecznym celem jest przyciągnięcie twórców AI z Web2 do Web3.
Co oznacza obniżka stóp procentowych przez Fed dla pożyczek on-chain?
Zwiększenie płynności nie oznacza byczego nastawienia na rynku kryptowalut.

Kaia i LINE NEXT wprowadzają Stablecoin Web3 Super App w Azji
Popularne
WięcejCeny krypto
Więcej








