Новий рубіж безпеки штучного інтелекту: міжлабораторне тестування для об'єднання індустрії
- Ilya Sutskever з OpenAI виступає за міжлабораторне тестування для посилення безпеки штучного інтелекту на тлі стрімкого технологічного прогресу та ризиків для всієї галузі. - Пілотний браузерний проєкт Claude від Anthropic підкреслює проблеми безпеки, зокрема атаки через інʼєкцію підказок, що призводить до впровадження посилених стратегій помʼякшення ризиків. - Дослідження показує низький рівень дотримання добровільних зобовʼязань щодо безпеки з боку основних компаній у сфері штучного інтелекту, включаючи Apple, що ставить під сумнів ефективність саморегулювання. - Ініціатива AI Safety від Cloud Security Alliance пропонує фреймворки та RiskRub.
Співзасновник OpenAI та член ради директорів Ілля Суцкевер закликав до впровадження міжлабораторного тестування як критично важливого заходу для забезпечення безпеки систем штучного інтелекту (AI). Його заява пролунала на тлі зростаючого занепокоєння щодо ризиків, пов’язаних із розвитком AI, коли лідери галузі наголошують на необхідності спільних, стандартизованих протоколів безпеки. Заклик Суцкевера до міжлабораторного тестування узгоджується з ширшими зусиллями щодо посилення безпеки AI та зменшення потенційної шкоди у міру стрімкого розвитку цієї технології [1].
Необхідність таких спільних підходів підкреслюється останніми подіями у впровадженні та регулюванні AI. Наприклад, Anthropic, один із ключових гравців у сфері AI, запустив пілотну програму для свого AI-асистента Claude, розробленого для роботи безпосередньо у браузерах користувачів. Ця ініціатива, яка має на меті підвищити корисність AI шляхом інтеграції у основні цифрові робочі процеси, також висвітлила значні виклики безпеки, пов’язані з браузерними AI-агентами. Атаки шляхом ін’єкції підказок—коли зловмисники маніпулюють поведінкою AI, вбудовуючи приховані інструкції—стали ключовим ризиком, що спонукало Anthropic впровадити надійні стратегії пом’якшення, такі як дозволи на рівні сайтів, підтвердження дій та вдосконалені класифікатори для виявлення підозрілих шаблонів [2].
Такі ризики не обмежуються окремими компаніями. Недавнє дослідження вчених з Brown, Harvard та Stanford показало, що багато AI-компаній не повністю дотримуються своїх добровільних зобов’язань щодо безпеки, особливо після обіцянок адміністрації Байдена щодо безпеки AI у 2023 році. Наприклад, Apple показала низькі результати в оцінці, з доказами виконання лише одного з восьми зобов’язань. Дослідження підкреслює обмеження саморегулювання у стрімко мінливій галузі та ставить під сумнів ефективність добровільних заходів для забезпечення відповідальності та безпеки [5].
У відповідь на ці виклики Cloud Security Alliance (CSA) наприкінці 2023 року запустив ініціативу AI Safety Initiative, об’єднавши лідерів галузі, державні агентства та академічні установи для розробки практичних інструментів і рамок управління ризиками AI. Ініціатива надає організаціям чек-листи готовності до AI, рамки управління та рекомендації з безпеки з метою узгодження технологічного прогресу з регуляторними очікуваннями. Зокрема, CSA також представила RiskRubric.ai—систему оцінювання, яка аналізує безпеку, прозорість і надійність великих мовних моделей (LLMs), пропонуючи підприємствам підхід до впровадження AI, заснований на даних [4].
Спільні зусилля щодо підвищення безпеки AI також підтримуються зростаючою екосистемою фондів та грантових програм. Організації, такі як Long-Term Future Fund, Survival and Flourishing Fund та AI Safety Fund, надають фінансову підтримку дослідникам, підприємцям і установам, які працюють над зменшенням ризиків AI. Ці ініціативи спрямовані на вирішення довгострокових екзистенційних ризиків, а також на сприяння відповідальним інноваціям. Крім того, венчурні фонди, такі як Juniper Ventures та Mythos Ventures, інвестують у стартапи, що розробляють інструменти для підвищення безпеки, відповідності та управління AI [6].
Заклик до міжлабораторного тестування, якого дотримується Суцкевер, є ключовим кроком до вирішення цих системних викликів. Завдяки впровадженню спільних стандартів і прозорої оцінки між лабораторіями розробки AI галузь може сприяти більшій довірі та відповідальності. Такий підхід особливо важливий у міру ускладнення та зростання можливостей AI-систем, що вимагає єдиного фронту для оцінки потенційних ризиків до впровадження. OpenAI, Anthropic та інші ключові учасники мають можливість—і відповідальність—очолити цей перехід, впроваджуючи спільні протоколи безпеки та встановлюючи прецедент для відповідальних інновацій у сфері AI [1].

Відмова від відповідальності: зміст цієї статті відображає виключно думку автора і не представляє платформу в будь-якій якості. Ця стаття не повинна бути орієнтиром під час прийняття інвестиційних рішень.
Вас також може зацікавити
Ядерна енергетична галузь може стати наступною ціллю для інвестування уряду Трампа
Японія планує реформувати податкову ставку на криптовалюти до 20% — чи зможе це спричинити нову хвилю купівель?
Податкова реформа, ймовірно, буде визначена не раніше початку 2026 року.

У тренді
БільшеАмериканські ЗМІ: внутрішній конфлікт загострюється, директор національної розвідки США публічно розкрив ім’я агента під прикриттям, чим застиг директора CIA зненацька
Національне бюро статистики: у серпні індекс закупівельних менеджерів у виробничій сфері дещо зріс, а індекс ділової активності у невиробничій сфері прискорив розширення.
Ціни на криптовалюти
Більше








