Anggota Parlemen Inggris Peringatkan: Janji Keamanan AI Semakin Menjadi Hiasan Saja
- 60 anggota parlemen Inggris menuduh Google DeepMind melanggar komitmen keselamatan AI dengan menunda laporan keselamatan terperinci untuk Gemini 2.5 Pro. - Perusahaan tersebut merilis model card yang disederhanakan tiga minggu setelah peluncuran, yang kurang transparansi tentang pengujian pihak ketiga dan keterlibatan lembaga pemerintah. - Google mengklaim telah memenuhi komitmennya dengan menerbitkan laporan teknis beberapa bulan kemudian, tetapi para kritikus berpendapat bahwa hal ini merusak kepercayaan terhadap protokol keselamatan. - Masalah serupa di Meta dan OpenAI menyoroti kekhawatiran industri secara luas tentang transparansi.
Sekelompok 60 anggota parlemen Inggris telah menandatangani surat terbuka yang menuduh Google DeepMind gagal memenuhi komitmen keselamatan AI-nya, khususnya terkait penundaan rilis informasi keselamatan terperinci untuk model Gemini 2.5 Pro [1]. Surat tersebut, yang diterbitkan oleh kelompok aktivis politik PauseAI, mengkritik perusahaan karena tidak menyediakan model card yang komprehensif pada saat peluncuran model, yang merupakan dokumen kunci yang menguraikan bagaimana model diuji dan dibangun [1]. Mereka berpendapat bahwa kegagalan ini merupakan pelanggaran terhadap Frontier AI Safety Commitments yang dibuat pada sebuah konferensi internasional pada Februari 2024, di mana para penandatangan—termasuk Google—berjanji untuk secara terbuka melaporkan kemampuan model, penilaian risiko, dan keterlibatan pengujian pihak ketiga [1].
Google merilis Gemini 2.5 Pro pada Maret 2025 namun tidak menerbitkan model card penuh pada saat itu, meskipun mengklaim bahwa model tersebut mengungguli pesaing pada tolok ukur utama [1]. Sebagai gantinya, model card sederhana setebal enam halaman dirilis tiga minggu kemudian, yang oleh beberapa ahli tata kelola AI dianggap tidak memadai dan mengkhawatirkan [1]. Surat tersebut menyoroti bahwa dokumen tersebut kurang detail substantif tentang evaluasi eksternal dan tidak mengonfirmasi apakah lembaga pemerintah, seperti U.K. AI Security Institute, terlibat dalam pengujian [1]. Kelalaian ini menimbulkan kekhawatiran tentang transparansi praktik keselamatan perusahaan.
Menanggapi kritik tersebut, juru bicara Google DeepMind sebelumnya mengatakan kepada Fortune bahwa anggapan perusahaan mengingkari komitmennya adalah "tidak akurat" [1]. Perusahaan juga menyatakan pada Mei bahwa laporan teknis yang lebih rinci akan diterbitkan saat versi final dari keluarga model Gemini 2.5 Pro tersedia. Laporan yang lebih komprehensif akhirnya dirilis pada akhir Juni, beberapa bulan setelah versi penuh tersedia [1]. Juru bicara tersebut menegaskan kembali bahwa perusahaan memenuhi komitmen publiknya, termasuk Seoul Frontier AI Safety Commitments, dan bahwa Gemini 2.5 Pro telah menjalani pemeriksaan keselamatan yang ketat, termasuk evaluasi oleh penguji pihak ketiga [1].
Surat tersebut juga mencatat bahwa tidak adanya model card untuk Gemini 2.5 Pro tampaknya bertentangan dengan janji lain yang dibuat oleh Google, seperti White House Commitments 2023 dan Kode Etik sukarela tentang Artificial Intelligence yang ditandatangani pada Oktober 2023 [1]. Situasi ini bukan hanya terjadi pada Google. Meta menghadapi kritik serupa atas model card yang minimal dan terbatas untuk model Llama 4, sementara OpenAI memilih untuk tidak menerbitkan laporan keselamatan untuk model GPT-4.1, dengan alasan statusnya yang bukan frontier [1]. Perkembangan ini menunjukkan tren yang lebih luas di industri di mana pengungkapan keselamatan menjadi kurang transparan atau bahkan dihilangkan sama sekali.
Surat tersebut meminta Google untuk menegaskan kembali komitmen keselamatan AI-nya dengan secara jelas mendefinisikan deployment sebagai titik ketika model menjadi dapat diakses publik, berkomitmen untuk menerbitkan laporan evaluasi keselamatan pada jadwal yang ditetapkan untuk semua rilis model di masa depan, dan memberikan transparansi penuh untuk setiap rilis dengan menyebutkan lembaga pemerintah dan pihak ketiga independen yang terlibat dalam pengujian, beserta jadwal pengujian yang tepat [1]. Lord Browne of Ladyton, salah satu penandatangan surat dan anggota House of Lords, memperingatkan bahwa jika perusahaan AI terkemuka memperlakukan komitmen keselamatan sebagai opsional, hal ini dapat menyebabkan perlombaan berbahaya untuk menerapkan sistem AI yang semakin kuat tanpa perlindungan yang memadai [1].
Sumber:

Disclaimer: Konten pada artikel ini hanya merefleksikan opini penulis dan tidak mewakili platform ini dengan kapasitas apa pun. Artikel ini tidak dimaksudkan sebagai referensi untuk membuat keputusan investasi.
Kamu mungkin juga menyukai
Analisis Harga Crypto 10-2: BITCOIN: BTC, ETHEREUM: ETH, SOLANA: SOL, ARBITRUM: ARB, INTERNET COMPUTER: ICP

Mengapa India Memimpin dalam Adopsi Crypto di Kawasan Asia-Pasifik
Adopsi kripto di kawasan APAC berkembang pesat, dengan India memimpin berdasarkan volume transaksi dan Jepang mencatat pertumbuhan tercepat.

Bitcoin Mendekati $120.000 di Tengah Pemangkasan Suku Bunga Fed yang Hampir Pasti dan Dukungan Likuiditas | US Crypto News
Bitcoin semakin mendekati tonggak $120,000 karena para trader memperhitungkan pemangkasan suku bunga The Fed pada Oktober yang hampir pasti terjadi. Data tenaga kerja yang lemah, laporan pemerintah yang ditangguhkan, serta arus masuk ke aset safe haven yang didorong oleh likuiditas semakin memperkuat permintaan BTC. Meskipun arus masuk ETF mendukung momentum, risiko penutupan pemerintahan AS yang berkepanjangan dapat menguji ketahanan Bitcoin di tengah ketidakpastian makro.

RWAiFi Summit Seoul Berhasil Diselenggarakan
RWAiFi Summit yang diselenggarakan oleh GAIB telah sukses diselenggarakan pada 25 September di Seoul, menarik lebih dari 400 peserta dan mempertemukan 20 ekosistem serta proyek teratas, termasuk Plume, OpenMind, Kite AI, Pharos Network, Arbitrum, BNB Chain, Story Protocol, CARV, Pendle, PrismaX, Camp Network, Incentiv, Injective, Lagrange, Mawari, Aethir, Particle Network, ICN Protocol, dan lainnya.

Berita trending
LainnyaHarga kripto
Lainnya








