I legislatori del Regno Unito avvertono: le promesse sulla sicurezza dell'IA stanno diventando solo facciata
- 60 parlamentari britannici accusano Google DeepMind di aver violato gli impegni sulla sicurezza dell’IA ritardando la pubblicazione di report dettagliati sulla sicurezza per Gemini 2.5 Pro. - L’azienda ha rilasciato una scheda modello semplificata tre settimane dopo il lancio, senza trasparenza riguardo ai test di terze parti e al coinvolgimento delle agenzie governative. - Google sostiene di aver rispettato gli impegni pubblicando un report tecnico alcuni mesi dopo, ma i critici affermano che ciò mina la fiducia nei protocolli di sicurezza. - Problemi simili presso Meta e OpenAI evidenziano preoccupazioni diffuse a livello industriale sull’opacità.
Un gruppo di 60 parlamentari del Regno Unito ha firmato una lettera aperta accusando Google DeepMind di non aver rispettato i suoi impegni sulla sicurezza dell’IA, in particolare riguardo al ritardo nella pubblicazione di informazioni dettagliate sulla sicurezza per il suo modello Gemini 2.5 Pro [1]. La lettera, pubblicata dal gruppo attivista politico PauseAI, critica l’azienda per non aver fornito una model card completa al momento del rilascio del modello, un documento chiave che descrive come il modello è stato testato e costruito [1]. Secondo loro, questa mancanza costituisce una violazione degli impegni sulla sicurezza della Frontier AI presi durante un vertice internazionale nel febbraio 2024, dove i firmatari — tra cui Google — si erano impegnati a rendere pubbliche le capacità dei modelli, le valutazioni dei rischi e il coinvolgimento di test di terze parti [1].
Google ha rilasciato Gemini 2.5 Pro nel marzo 2025 ma non ha pubblicato una model card completa in quel momento, nonostante avesse dichiarato che il modello superava i concorrenti nei principali benchmark [1]. Invece, una model card semplificata di sei pagine è stata pubblicata tre settimane dopo, che alcuni esperti di governance dell’IA hanno definito insufficiente e preoccupante [1]. La lettera sottolinea che il documento mancava di dettagli sostanziali sulle valutazioni esterne e non confermava se agenzie governative, come il U.K. AI Security Institute, fossero state coinvolte nei test [1]. Queste omissioni sollevano dubbi sulla trasparenza delle pratiche di sicurezza dell’azienda.
In risposta alle critiche, un portavoce di Google DeepMind aveva precedentemente dichiarato a Fortune che qualsiasi suggerimento secondo cui l’azienda stesse venendo meno ai suoi impegni era "inesatto" [1]. L’azienda ha inoltre dichiarato a maggio che un rapporto tecnico più dettagliato sarebbe stato pubblicato quando la versione finale della famiglia di modelli Gemini 2.5 Pro fosse stata disponibile. Un rapporto più completo è stato infine pubblicato a fine giugno, mesi dopo che la versione completa era stata resa disponibile [1]. Il portavoce ha ribadito che l’azienda sta rispettando i suoi impegni pubblici, inclusi i Seoul Frontier AI Safety Commitments, e che Gemini 2.5 Pro è stato sottoposto a rigorosi controlli di sicurezza, comprese valutazioni da parte di tester indipendenti [1].
La lettera osserva inoltre che la mancanza della model card per Gemini 2.5 Pro sembrava contraddire altri impegni presi da Google, come i White House Commitments del 2023 e un Codice di Condotta volontario sull’Intelligenza Artificiale firmato nell’ottobre 2023 [1]. La situazione non è unica per Google. Anche Meta ha affrontato critiche simili per la sua model card minima e limitata per il modello Llama 4, mentre OpenAI ha scelto di non pubblicare un rapporto sulla sicurezza per il suo modello GPT-4.1, citando il suo status non-frontier [1]. Questi sviluppi suggeriscono una tendenza più ampia nel settore in cui le divulgazioni sulla sicurezza stanno diventando meno trasparenti o vengono omesse del tutto.
La lettera invita Google a riaffermare i suoi impegni sulla sicurezza dell’IA definendo chiaramente il deployment come il momento in cui un modello diventa accessibile al pubblico, impegnandosi a pubblicare rapporti di valutazione della sicurezza secondo una tempistica prestabilita per tutti i futuri rilasci di modelli, e fornendo piena trasparenza per ogni rilascio nominando le agenzie governative e le terze parti indipendenti coinvolte nei test, insieme alle tempistiche esatte dei test [1]. Lord Browne di Ladyton, firmatario della lettera e membro della Camera dei Lord, ha avvertito che se le principali aziende di IA considerano gli impegni sulla sicurezza come opzionali, ciò potrebbe portare a una pericolosa corsa al rilascio di sistemi di IA sempre più potenti senza adeguate misure di sicurezza [1].
Fonte:

Esclusione di responsabilità: il contenuto di questo articolo riflette esclusivamente l’opinione dell’autore e non rappresenta in alcun modo la piattaforma. Questo articolo non deve essere utilizzato come riferimento per prendere decisioni di investimento.
Ti potrebbe interessare anche
Guida introduttiva a DeFi (Parte 1): Guarda come i grandi investitori di AAVE ottengono un APR del 100% arbitrando lo spread dei tassi d’interesse con 10 milioni di dollari
Introduzione rapida alla DeFi: analisi dei rendimenti e dei rischi di diverse strategie combinata con i dati reali delle balene DeFi.

Interpretazione e prospettive di mercato dietro la forte volatilità di Ethereum
AiCoin Quotidiano (05 settembre)
In tendenza
AltroGuida introduttiva a DeFi (Parte 1): Guarda come i grandi investitori di AAVE ottengono un APR del 100% arbitrando lo spread dei tassi d’interesse con 10 milioni di dollari
Selezione quotidiana delle notizie di Bitpush: Trump Media completa l'acquisizione di 684 milioni di token CRO, per un valore di circa 178 milioni di dollari; Ethena Foundation lancia un nuovo piano di riacquisto da 310 milioni di dollari; Vitalik Buterin: le transazioni a basso costo delle stablecoin rimangono uno dei valori fondamentali delle criptovalute; l'oro spot sale a 3.600 dollari, raggiungendo un nuovo massimo storico.
Prezzi delle criptovalute
Altro








