Генералі прокурори попереджають у листі: "Сексуалізовані" AI-чат-боти становлять загрозу для дітей
Національна асоціація генеральних прокурорів (NAAG) звернулася до 13 компаній у сфері штучного інтелекту, включаючи OpenAI, Anthropic, Apple та Meta, з вимогою посилити заходи безпеки для захисту дітей від неприйнятного та шкідливого контенту.
Було попереджено, що діти піддаються впливу сексуально навіяного матеріалу через "фліртуючі" чат-боти зі штучним інтелектом.
"Піддавати дітей сексуалізованому контенту — це неприпустимо," написали генеральні прокурори. "І поведінка, яка була б незаконною — або навіть кримінальною — якщо її здійснює людина, не може бути виправдана лише тому, що її здійснює машина."
У листі також проводяться паралелі з підйомом соціальних мереж, зазначаючи, що державні органи не зробили достатньо для того, щоб висвітлити негативний вплив соціальних мереж на дітей.
"Соціальні медіа завдали значної шкоди дітям, частково тому, що державні наглядові органи не виконали свою роботу достатньо швидко. Ми засвоїли цей урок. Потенційна шкода від штучного інтелекту, як і потенційна користь, значно перевищує вплив соціальних мереж," зазначила група.
Використання штучного інтелекту серед дітей є дуже поширеним. У США, згідно з опитуванням некомерційної організації Common Sense Media, семеро з десяти підлітків вже випробували генеративний штучний інтелект станом на 2024 рік. У липні 2025 року було встановлено, що понад три чверті користуються AI-компаньйонами, а половина респондентів заявила, що регулярно на них покладається.
В інших країнах спостерігаються подібні тенденції. У Великій Британії, згідно з опитуванням регулятора Ofcom минулого року, половина дітей віком 8-15 років, які користуються інтернетом, використовували генеративний інструмент штучного інтелекту протягом попереднього року.
Зростання використання цих інструментів викликає дедалі більшу стурбованість з боку батьків, шкіл та організацій із захисту прав дітей, які вказують на ризики, що варіюються від сексуально навіяних "фліртуючих" чат-ботів, створення AI-контенту із сексуальним насильством над дітьми, булінгу, грумінгу, шантажу, дезінформації, порушення приватності та недостатньо вивченого впливу на психічне здоров'я.
Meta нещодавно опинилася під особливою критикою після того, як витік внутрішніх документів показав, що її AI Assistants дозволяли "фліртувати та брати участь у романтичних рольових іграх з дітьми", включаючи дітей віком від восьми років. Файли також показали політики, які дозволяли чат-ботам говорити дітям, що їхня "юна форма — це витвір мистецтва" та описувати їх як "скарб". Згодом Meta заявила, що ці інструкції були видалені.
NAAG заявила, що ці викриття залишили генеральних прокурорів "обуреними очевидною байдужістю до емоційного благополуччя дітей" і попередила, що ризики не обмежуються лише Meta.
Група навела позови проти Google та Character.ai, в яких стверджується, що сексуалізовані чат-боти сприяли самогубству підлітка та підбурювали іншого вбити своїх батьків.
Серед 44 підписантів був генеральний прокурор Теннессі Джонатан Скреметті, який заявив, що компанії не можуть захищати політику, яка нормалізує сексуалізовані взаємодії з неповнолітніми.
"Одне діло, коли алгоритм дає збій — це можна виправити, але зовсім інше, коли керівництво компанії приймає інструкції, які свідомо дозволяють грумінг," сказав він. "Якщо ми не можемо спрямувати інновації так, щоб вони не шкодили дітям, це не прогрес — це чума."
Decrypt звернувся до всіх згаданих у листі AI-компаній, але на момент публікації відповіді не отримав.
Відмова від відповідальності: зміст цієї статті відображає виключно думку автора і не представляє платформу в будь-якій якості. Ця стаття не повинна бути орієнтиром під час прийняття інвестиційних рішень.
Вас також може зацікавити
Після того, як bitcoin знову досягнув 90 тисяч доларів, попереду Різдво чи різдвяна катастрофа?
У День подяки цього року дякуємо за повернення bitcoin до 90 тисяч доларів.

Безпека bitcoin досягла історичного максимуму, але доходи майнерів впали до історичного мінімуму — де нові точки зростання прибутків для майнінгових компаній?
Парадокс поточної мережі bitcoin особливо яскравий: на рівні протоколу безпека завдяки високій обчислювальній потужності ніколи не була такою сильною, однак базова майнінгова галузь стикається з тиском капітальної ліквідації та консолідації.

Що таке приватні месенджери Session та SimpleX, яким зробив донат Віталік?
Чому Віталік втрутився? Від шифрування контенту до приватності метаданих.

Таємна війна загострюється: Hyperliquid зазнав «самогубної» атаки, але справжня війна, можливо, лише починається
Атакувальник завдав собі збитків у 3 мільйони доларів під час «самогубної» атаки, але ймовірно вже досягнув беззбитковості завдяки зовнішньому хеджуванню. Це радше виглядає як низьковитратний «стрес-тест» захисних можливостей протоколу.

