Anthropic 推出 AI 透明度框架,專注於公共安全和負責任的 AI 開發
簡單來說 Anthropic 發布了針對最大前沿人工智慧開發人員的靈活透明框架,提出了揭露標準和安全協議,以支援在技術快速進步的背景下負責任、安全和可靠的人工智慧開發。
專注於安全和協調的人工智慧研究組織, 人類的 發布了旨在應用於聯邦、州或國際層面的有針對性的透明度框架。該框架專為最先進的人工智慧系統及其開發者而設計,引入了 defi與安全協定相關的必要揭露期望。
該組織強調,提高前沿人工智慧開發的透明度對於保障公共安全並確保高效能人工智慧技術開發者承擔責任至關重要。鑑於人工智慧發展的快速步伐,Anthropic 指出,儘管政府、學術界和產業界建立更廣泛的安全標準和評估機制可能需要時間,但仍需要採取臨時措施來支持強大人工智慧系統的安全且負責任的開發。
該框架刻意不具規定性,體現了對人工智慧研究快速發展的理解。該組織認為,任何監管策略都應保持彈性,不應阻礙醫學研究、公共服務效率或國家安全等領域的進展。 Anthropic 還警告稱,過於僵化的監管可能會阻礙創新,尤其是考慮到當前的評估技術往往會因技術的持續變革而在短時間內過時。
建立人工智慧透明度標準:關注最大的模型開發者和安全的開發框架
人類的 提出了一系列旨在指導人工智慧透明度政策制定的基礎原則。這些提議標準專門針對最大的前沿人工智慧模型開發者——defi透過運算資源、評估性能、研發投入和年收入等標準進行評估,而不是籠統地針對整個人工智慧領域。這種方法旨在確保規模較小的開發商和新創公司(其模型不太可能構成國家安全或災難性風險)不會承受同等程度的監管負擔。建議的門檻範例包括年收入約100億美元或研發和資本支出接近1億美元,但這些數字可能會有所調整,並應隨著該領域的發展定期進行審查。
建議框架的另一個關鍵要素是要求相關開發者維護安全開發框架。此內部結構將概述識別和緩解與高級人工智慧模型相關的風險的程序,包括與化學、生物、放射和核濫用相關的威脅,以及自主模型失調的風險。鑑於這些框架仍處於開發階段,鼓勵在實施過程中保持靈活性。
Anthropic 進一步建議,應透過公司管理的公共網站公開每位開發者的安全開發框架,並對敏感內容進行適當的刪減。這種透明度將使外部利害關係人(包括研究人員、政府和民間社會)能夠追蹤人工智慧模型的部署。公司應自行證明其遵守了該公開框架。
此外,開發人員應發布系統卡或同等文檔,概述測試程序、評估結果以及任何已應用的緩解措施。這些資訊(如有可能會危及公眾或模型安全,則需進行修訂)應在模型部署時共享,並在模型發生任何變更後進行更新。
為了支持執法,Anthropic 提議制定一項法律條款,規定開發商故意歪曲其遵守框架的行為屬違法行為。該措施旨在啟動現有的舉報人保護機制,並確保法律資源能夠有效打擊故意違規行為。
總體而言,該組織認為,任何人工智慧透明度政策都應從一套最低限度的、可適應的標準開始。鑑於人工智慧安全研究的快速發展,該框架的設計應能夠響應產業、政府和學術界利益相關者提出的新見解和新興最佳實踐而不斷發展。
此透明模型旨在強調行業內與安全相關的最佳實踐,並為如何負責任地訓練高級人工智慧模型奠定基礎。它旨在確保開發者遵守最低問責標準,同時允許公眾和政策制定者區分負責任的開發方法和疏忽的開發方法。安全開發框架的概念與 Anthropic、Google DeepMind 等組織已經在使用的政策類似, OpenAI以及微軟,它們在部署前沿模型時都採用了類似的策略。
將安全發展框架資訊揭露要求納入法律,將有助於規範這些行業實踐,而不會使其過於僵化。這也能確保這些目前自願採取的透明度措施能夠長期有效,尤其是在人工智慧能力不斷提升的情況下。
免責聲明:文章中的所有內容僅代表作者的觀點,與本平台無關。用戶不應以本文作為投資決策的參考。
您也可能喜歡
關於 Bitget 上架 MSTR, COIN, HOOD, DFDV RWA 指數永續合約的公告
關於 Bitget 統一帳戶支援部分幣種借貸和保證金功能的公告
【首發上架】Camp Network (CAMP) 將在 Bitget 創新區和 Public Chain 區上架
關於 Bitget 上架 AAPL, GOOGL, AMZN, META, MCD RWA 指數永續合約的公告
加密貨幣價格
更多








