Bitget App
Trade smarter
Acquista CryptoMercatiTradingFuturesEarnWeb3PlazaAltro
Trading
Spot
Acquista e vendi crypto
Margine
Amplifica il tuo capitale e l'efficienza dei fondi
Onchain
Going Onchain, without going Onchain!
Convert
Zero commissioni di transazione e nessuno slippage
Esplora
Launchhub
Ottieni il vantaggio in anticipo e inizia a vincere
Copy Trading
Copia un trader d'élite con un solo clic
Bot
Trading bot IA semplice, veloce e affidabile
Trading
Futures USDT-M
Futures regolati in USDT
Futures USDC-M
Futures regolati in USDC
Futures Coin-M
Futures regolati in criptovalute
Esplora
Guida ai futures
Un percorso da nuovo utente ad avanzato nel trading sui futures
Promozioni sui Futures
Ti aspettano generosi bonus
Bitget Earn
Una varietà di prodotti per far crescere i tuoi asset
Earn Semplice
Deposita e preleva in qualsiasi momento per ottenere rendimenti flessibili a rischio zero
On-chain Earn
Guadagna profitti ogni giorno senza mettere a rischio il tuo capitale iniziale
Earn Strutturato
Un'innovazione finanziaria solida per gestire le oscillazioni del mercato
VIP e Gestione Patrimoniale
Servizi premium per una gestione patrimoniale smart
Prestiti
Prestiti flessibili con elevata sicurezza dei fondi
Una nuova frontiera per la sicurezza dell’AI: test incrociati tra laboratori per unire l’industria

Una nuova frontiera per la sicurezza dell’AI: test incrociati tra laboratori per unire l’industria

ainvest2025/08/27 19:56
Mostra l'originale
Per:Coin World

- Ilya Sutskever di OpenAI sostiene i test incrociati tra laboratori per rafforzare la sicurezza dell'IA in un contesto di rapidi progressi tecnologici e rischi diffusi nel settore. - Il progetto pilota di Claude di Anthropic, basato su browser, mette in evidenza sfide di sicurezza come gli attacchi di prompt injection, spingendo verso strategie di mitigazione rafforzate. - Uno studio rivela una scarsa conformità agli impegni volontari di sicurezza da parte delle principali aziende di IA, tra cui Apple, mettendo in discussione l’efficacia dell’autoregolamentazione. - L’AI Safety Initiative della Cloud Security Alliance offre framework e RiskRub.

Ilya Sutskever, co-fondatore e membro del consiglio di OpenAI, ha richiesto l'implementazione di test incrociati tra laboratori come misura fondamentale per garantire la sicurezza dei sistemi di intelligenza artificiale (AI). La sua dichiarazione arriva in un momento di crescenti preoccupazioni riguardo ai rischi associati ai progressi dell'AI, con i leader del settore che sottolineano la necessità di protocolli di sicurezza collaborativi e standardizzati. L'appello di Sutskever ai test incrociati tra laboratori si allinea con gli sforzi più ampi per rafforzare la sicurezza dell'AI e mitigare i potenziali danni mentre la tecnologia continua a evolversi rapidamente [1].

La necessità di approcci collaborativi di questo tipo è sottolineata dagli sviluppi recenti nel dispiegamento e nella regolamentazione dell'AI. Ad esempio, Anthropic, un attore importante nel settore dell'AI, ha introdotto un programma pilota per il suo assistente AI, Claude, progettato per operare direttamente nei browser degli utenti. Questa iniziativa, che mira a migliorare l'utilità dell'AI integrandola nei flussi di lavoro digitali principali, ha anche evidenziato le significative sfide di sicurezza associate agli agenti AI basati su browser. Gli attacchi di prompt injection—dove attori malintenzionati manipolano il comportamento dell'AI incorporando istruzioni nascoste—sono emersi come un rischio chiave, spingendo Anthropic a implementare robuste strategie di mitigazione come permessi a livello di sito, conferme delle azioni e classificatori avanzati per rilevare schemi sospetti [2].

Tali rischi non sono limitati alle singole aziende. Un recente studio di ricercatori di Brown, Harvard e Stanford ha rilevato che molte aziende di AI non hanno rispettato pienamente i loro impegni volontari sulla sicurezza, in particolare dopo le promesse sulla sicurezza dell'AI dell'amministrazione Biden nel 2023. Apple, ad esempio, ha ottenuto risultati scarsi nella valutazione, con prove di conformità per solo uno su otto impegni. Lo studio evidenzia i limiti dell'autoregolamentazione in un settore in rapida evoluzione e solleva interrogativi sull'efficacia delle misure volontarie nel garantire responsabilità e sicurezza [5].

In risposta a queste sfide, la Cloud Security Alliance (CSA) ha lanciato la sua AI Safety Initiative alla fine del 2023, riunendo leader del settore, agenzie governative e istituzioni accademiche per sviluppare strumenti pratici e framework per la gestione dei rischi dell'AI. L'iniziativa fornisce alle organizzazioni checklist di preparazione all'AI, framework di governance e linee guida di sicurezza, con l'obiettivo di allineare il progresso tecnologico alle aspettative normative. In particolare, la CSA ha anche introdotto RiskRubric.ai, un sistema di punteggio che valuta la sicurezza, la trasparenza e l'affidabilità dei large language model (LLM), offrendo alle imprese un approccio basato sui dati per l'adozione dell'AI [4].

Gli sforzi collaborativi per migliorare la sicurezza dell'AI sono inoltre supportati da un ecosistema in crescita di finanziatori e programmi di sovvenzione. Organizzazioni come il Long-Term Future Fund, il Survival and Flourishing Fund e l'AI Safety Fund stanno fornendo supporto finanziario a ricercatori, imprenditori e istituzioni che lavorano sulla mitigazione dei rischi dell'AI. Queste iniziative mirano ad affrontare i rischi esistenziali a lungo termine promuovendo al contempo l'innovazione responsabile. Inoltre, società di venture capital come Juniper Ventures e Mythos Ventures stanno investendo in startup che sviluppano strumenti per migliorare la sicurezza, la conformità e la governance dell'AI [6].

L'appello ai test incrociati tra laboratori, come sostenuto da Sutskever, rappresenta un passo fondamentale per affrontare queste sfide sistemiche. Consentendo standard condivisi e valutazioni trasparenti tra i laboratori di sviluppo AI, il settore può favorire una maggiore fiducia e responsabilità. Questo approccio è particolarmente importante man mano che i sistemi AI diventano più complessi e capaci, rendendo necessaria una posizione unificata per valutare i potenziali rischi prima della distribuzione. OpenAI, Anthropic e altri attori chiave hanno l'opportunità—e la responsabilità—di guidare questa transizione adottando protocolli di sicurezza collaborativi e stabilendo un precedente per l'innovazione responsabile dell'AI [1].

Una nuova frontiera per la sicurezza dell’AI: test incrociati tra laboratori per unire l’industria image 0
0

Esclusione di responsabilità: il contenuto di questo articolo riflette esclusivamente l’opinione dell’autore e non rappresenta in alcun modo la piattaforma. Questo articolo non deve essere utilizzato come riferimento per prendere decisioni di investimento.

PoolX: Blocca per guadagnare
Almeno il 12% di APR. Sempre disponibile, ottieni sempre un airdrop.
Blocca ora!

Ti potrebbe interessare anche

Il primo fondo di dividendi BNB conforme di Hash Global riceve il supporto strategico di YZi Labs, con un obiettivo iniziale di 100 milioni di dollari.

Il fondo combina custodia di livello istituzionale, elevato rapporto qualità-prezzo e operazioni trasparenti, offrendo ai private wealth management platform e agli high net worth individuals un modo comodo e sicuro per accedere a BNB, la quarta criptovaluta per capitalizzazione di mercato globale.

BlockBeats2025/09/02 12:01
Il primo fondo di dividendi BNB conforme di Hash Global riceve il supporto strategico di YZi Labs, con un obiettivo iniziale di 100 milioni di dollari.

Il progetto di AI decentralizzata GAEA completa un finanziamento strategico da 10 milioni di dollari per costruire un nuovo tipo di relazione tra esseri umani e AI

GAEA è la prima rete di addestramento AI decentralizzata che integra dati sulle emozioni umane, con l'obiettivo di rendere i dati reali sull'umanità più facilmente accessibili e comprensibili per i progetti AI open source, garantendo al contempo la sicurezza e la privacy, e creando una piattaforma di rete che promuove l'evoluzione dell'AI.

BlockBeats2025/09/02 12:01
Il progetto di AI decentralizzata GAEA completa un finanziamento strategico da 10 milioni di dollari per costruire un nuovo tipo di relazione tra esseri umani e AI

Quanto bisogna guadagnare nel mondo delle criptovalute per poter dire di aver "cambiato il proprio destino"?

Il vero rischio non sta nella "perdita", ma nel "non sapere mai di aver già vinto".

ForesightNews 速递2025/09/02 10:33
Quanto bisogna guadagnare nel mondo delle criptovalute per poter dire di aver "cambiato il proprio destino"?