Bitget App
Cмартторгівля для кожного
Купити криптуРинкиТоргуватиФ'ючерсиEarnWeb3ЦентрДокладніше
Торгувати
Cпот
Купуйте та продавайте крипту
Маржа
Збільшуйте капітал й ефективність коштів
Onchain
Going Onchain, without going Onchain!
Конвертація
Без комісій за транзакції та прослизання
Огляд
Launchhub
Скористайтеся перевагою на старті і почніть заробляти
Копітрейдинг
Копіюйте угоди елітних трейдерів в один клац
Боти
Простий, швидкий і надійний торговий бот на базі ШІ
Торгувати
Фʼючерси USDT-M
Фʼючерси, розрахунок за якими відбувається в USDT
Фʼючерси USDC-M
Фʼючерси, розрахунок за якими відбувається в USDC
Фʼючерси Coin-M
Фʼючерси, розрахунок за якими відбувається в різни
Огляд
Посібник з фʼючерсів
Шлях фʼючерсної торгівлі від початківця до просунутого трейдера
Фʼючерсні промоакції
На вас чекають щедрі винагороди
Bitget Earn
Різноманітні продукти для примноження ваших активів
Simple Earn
Здійснюйте депозити та зняття в будь-який час, щоб отримувати гнучкий прибуток без ризику
Ончейн Earn
Отримуйте прибуток щодня, не ризикуючи основним капіталом
Структуровані продукти Earn
Надійні фінансові інновації для подолання ринкових коливань
VIP та Управління капіталом
Преміальні послуги для розумного управління капіталом
Позики
Безстрокове кредитування з високим рівнем захисту коштів
Новий рубіж безпеки штучного інтелекту: міжлабораторне тестування для об'єднання індустрії

Новий рубіж безпеки штучного інтелекту: міжлабораторне тестування для об'єднання індустрії

ainvest2025/08/27 19:56
Переглянути оригінал
-:Coin World

- Ilya Sutskever з OpenAI виступає за міжлабораторне тестування для посилення безпеки штучного інтелекту на тлі стрімкого технологічного прогресу та ризиків для всієї галузі. - Пілотний браузерний проєкт Claude від Anthropic підкреслює проблеми безпеки, зокрема атаки через інʼєкцію підказок, що призводить до впровадження посилених стратегій помʼякшення ризиків. - Дослідження показує низький рівень дотримання добровільних зобовʼязань щодо безпеки з боку основних компаній у сфері штучного інтелекту, включаючи Apple, що ставить під сумнів ефективність саморегулювання. - Ініціатива AI Safety від Cloud Security Alliance пропонує фреймворки та RiskRub.

Співзасновник OpenAI та член ради директорів Ілля Суцкевер закликав до впровадження міжлабораторного тестування як критично важливого заходу для забезпечення безпеки систем штучного інтелекту (AI). Його заява пролунала на тлі зростаючого занепокоєння щодо ризиків, пов’язаних із розвитком AI, коли лідери галузі наголошують на необхідності спільних, стандартизованих протоколів безпеки. Заклик Суцкевера до міжлабораторного тестування узгоджується з ширшими зусиллями щодо посилення безпеки AI та зменшення потенційної шкоди у міру стрімкого розвитку цієї технології [1].

Необхідність таких спільних підходів підкреслюється останніми подіями у впровадженні та регулюванні AI. Наприклад, Anthropic, один із ключових гравців у сфері AI, запустив пілотну програму для свого AI-асистента Claude, розробленого для роботи безпосередньо у браузерах користувачів. Ця ініціатива, яка має на меті підвищити корисність AI шляхом інтеграції у основні цифрові робочі процеси, також висвітлила значні виклики безпеки, пов’язані з браузерними AI-агентами. Атаки шляхом ін’єкції підказок—коли зловмисники маніпулюють поведінкою AI, вбудовуючи приховані інструкції—стали ключовим ризиком, що спонукало Anthropic впровадити надійні стратегії пом’якшення, такі як дозволи на рівні сайтів, підтвердження дій та вдосконалені класифікатори для виявлення підозрілих шаблонів [2].

Такі ризики не обмежуються окремими компаніями. Недавнє дослідження вчених з Brown, Harvard та Stanford показало, що багато AI-компаній не повністю дотримуються своїх добровільних зобов’язань щодо безпеки, особливо після обіцянок адміністрації Байдена щодо безпеки AI у 2023 році. Наприклад, Apple показала низькі результати в оцінці, з доказами виконання лише одного з восьми зобов’язань. Дослідження підкреслює обмеження саморегулювання у стрімко мінливій галузі та ставить під сумнів ефективність добровільних заходів для забезпечення відповідальності та безпеки [5].

У відповідь на ці виклики Cloud Security Alliance (CSA) наприкінці 2023 року запустив ініціативу AI Safety Initiative, об’єднавши лідерів галузі, державні агентства та академічні установи для розробки практичних інструментів і рамок управління ризиками AI. Ініціатива надає організаціям чек-листи готовності до AI, рамки управління та рекомендації з безпеки з метою узгодження технологічного прогресу з регуляторними очікуваннями. Зокрема, CSA також представила RiskRubric.ai—систему оцінювання, яка аналізує безпеку, прозорість і надійність великих мовних моделей (LLMs), пропонуючи підприємствам підхід до впровадження AI, заснований на даних [4].

Спільні зусилля щодо підвищення безпеки AI також підтримуються зростаючою екосистемою фондів та грантових програм. Організації, такі як Long-Term Future Fund, Survival and Flourishing Fund та AI Safety Fund, надають фінансову підтримку дослідникам, підприємцям і установам, які працюють над зменшенням ризиків AI. Ці ініціативи спрямовані на вирішення довгострокових екзистенційних ризиків, а також на сприяння відповідальним інноваціям. Крім того, венчурні фонди, такі як Juniper Ventures та Mythos Ventures, інвестують у стартапи, що розробляють інструменти для підвищення безпеки, відповідності та управління AI [6].

Заклик до міжлабораторного тестування, якого дотримується Суцкевер, є ключовим кроком до вирішення цих системних викликів. Завдяки впровадженню спільних стандартів і прозорої оцінки між лабораторіями розробки AI галузь може сприяти більшій довірі та відповідальності. Такий підхід особливо важливий у міру ускладнення та зростання можливостей AI-систем, що вимагає єдиного фронту для оцінки потенційних ризиків до впровадження. OpenAI, Anthropic та інші ключові учасники мають можливість—і відповідальність—очолити цей перехід, впроваджуючи спільні протоколи безпеки та встановлюючи прецедент для відповідальних інновацій у сфері AI [1].

Новий рубіж безпеки штучного інтелекту: міжлабораторне тестування для об'єднання індустрії image 0
0

Відмова від відповідальності: зміст цієї статті відображає виключно думку автора і не представляє платформу в будь-якій якості. Ця стаття не повинна бути орієнтиром під час прийняття інвестиційних рішень.

PoolX: Заробляйте за стейкінг
До понад 10% APR. Що більше монет у стейкінгу, то більший ваш заробіток.
Надіслати токени у стейкінг!