
Кількість дітей, які постраждали від чат-ботів на базі штучного інтелекту, важко сказати, але це не нуль. Проте, вже майже три роки ChatGPT є безкоштовним для всіх вікових груп без жодних обмежень. Ситуація дещо змінилася в понеділок, коли OpenAI представила набір батьківського контролю, деякі з яких розроблені для запобігання самогубствам підлітків — як-от самогубство Адама Рейна, 16-річного каліфорнійця, який покінчив життя самогубством після детальної розмови з ChatGPT про те, як це зробити. Потім, у вівторок, OpenAI запустила соціальну мережу з новим додатком під назвою Sora, який дуже схожий на TikTok, за винятком того, що він працює на «гіперреальних» відео, згенерованих штучним інтелектом.
Безперечно, OpenAI не випадково оголосила про цей батьківський контроль разом із амбітним кроком конкурувати з Instagram та YouTube. У певному сенсі компанія випускала новий додаток, розроблений для того, щоб ще більше зацікавити людей контентом, створеним штучним інтелектом, але пом’якшуючи удар, надавши батькам трохи більше контролю. Нові налаштування стосуються переважно ChatGPT, хоча батьки мають можливість обмежувати те, що бачать їхні діти в Sora.
Зручний для користувача
Щотижнева розсилка, щоб переконатися, що технології працюють на вас, а не перевантажують вас. Від старшого кореспондента з питань технологій Адама Кларка Естеса.
Електронна пошта (обов’язково) Зареєструватися Надсилаючи свою електронну адресу, ви погоджуєтеся з нашими Умовами та Повідомленням про конфіденційність. Цей сайт захищено reCAPTCHA, і до нього застосовуються Політика конфіденційності та Умови надання послуг Google.
А нові елементи керування ChatGPT не зовсім прості. Серед іншого, батьки тепер можуть підключати облікові записи своїх дітей до своїх облікових записів та додавати захист від конфіденційного контенту. Якщо в будь-який момент інструменти OpenAI виявлять серйозну загрозу безпеці, модератор-людина перегляне її та за потреби надішле сповіщення батькам. Однак батьки не можуть читати стенограми розмов своєї дитини з ChatGPT, і підліток може будь-коли відключити свій обліковий запис від батьків (OpenAI каже, що батьки отримають сповіщення).
Ми ще не знаємо, як усе це буде працювати на практиці, і щось обов'язково краще, ніж нічого. Але чи робить OpenAI усе можливе для безпеки дітей?
Навіть дорослі мають проблеми з самоконтролем, коли чат-боти зі штучним інтелектом пропонують веселого, підлабузливого друга, з яким можна поспілкуватися щогодини.
Кілька експертів, з якими я спілкувався, сказали «ні». Насправді, OpenAI ігнорує найбільшу проблему з усіх: чат-ботів, запрограмованих діяти як компаньйони, надаючи емоційну підтримку та поради дітям. Ймовірно, нові функції безпеки ChatGPT можуть втрутитися у майбутні потенційні трагедії, але неясно, як OpenAI зможе визначити, коли компаньйони ШІ роблять поганий поворот у стосунках з юними користувачами, як це зазвичай буває.
«Ми бачили в багатьох випадках як у підлітків, так і у дорослих, що залежність від штучного інтелекту може бути випадковою», – сказав мені Роббі Торні, старший директор програм зі штучного інтелекту Common Sense Media. «Багато людей, які стали залежними від штучного інтелекту, не мали на меті стати залежними від нього. Вони почали використовувати штучний інтелект для допомоги з домашніми завданнями або для роботи, а потім поступово перейшли до його використання для інших цілей».
Пов'язані
- ChatGPT більше не призначений лише для шахрайства
Знову ж таки, навіть дорослі мають проблеми з саморегуляцією, коли чат-боти зі штучним інтелектом пропонують веселого, підлабузливого друга, з яким можна поспілкуватися щогодини. Ви, можливо, читали нещодавні звіти про дорослих, які розвивали дедалі інтенсивніші стосунки зі чат-ботами зі штучним інтелектом, перш ніж пережити психотичні зриви. Такий вид синтетичних стосунків являє собою новий рубіж як для технологій, так і для людського мозку.
Страшно уявити, що може статися з дітьми, чиї префронтальні кори ще не повністю розвинулися, що робить їх особливо вразливими. Понад 70 відсотків підлітків використовують чат-ботів зі штучним інтелектом для спілкування, що становить для них «реальні, серйозні та добре задокументовані» небезпеки, згідно з нещодавнім опитуванням Common Sense Media. Ось чому додатки-компаньйони зі штучним інтелектом, такі як Character.ai, вже мають деякі обмеження за замовчуванням для маленьких користувачів.
Існує також ширша проблема: батьківський контроль покладає відповідальність за захист дітей на батьків, а не на самі технологічні компанії. Зазвичай батьки повинні заглиблюватися в налаштування та перемикати перемикачі. І тоді батьки все ще повинні відстежувати, як їхні діти використовують ці продукти, а у випадку ChatGPT – наскільки вони стають залежними від чат-бота. Ситуація або достатньо заплутана, або достатньо складна, що більшість батьків просто не використовують батьківський контроль.
Справжня мета батьківського контролю
Варто зазначити, що OpenAI запровадив ці засоби контролю, а новий додаток, як важливий законопроект про безпеку штучного інтелекту, лежав на столі губернатора Каліфорнії Гевіна Ньюсома в очікуванні його підпису. Ньюсом підписав законопроект того ж дня, що й оголошення про батьківський контроль. Новина про OpenAI також з'явилася одразу після слухань у Сенаті щодо негативного впливу чат-ботів зі штучним інтелектом, під час яких батьки закликали законодавців запровадити суворіші правила для таких компаній, як OpenAI.
«Справжня мета цих батьківських інструментів, чи то ChatGPT, чи Instagram, насправді не полягає в тому, щоб забезпечити безпеку дітей», – сказав Джош Голін, виконавчий директор Fairplay, некомерційної групи захисту прав дітей. Це означає, що саморегулювання – це нормально, будь ласка. Знаєте, «Не регулюйте нас, не приймайте жодних законів»». Голін продовжив, назвавши нездатність OpenAI щось зробити з тенденцією розвитку емоційних стосунків дітей з ChatGPT «тривожною». (Я звернувся до OpenAI за коментарем, але не отримав відповіді.)
Один зі способів уникнути доручення батькам керування всіма цими налаштуваннями — це ввімкнути для OpenAI захисні захисні елементи за замовчуванням. І компанія каже, що працює над чимось, що робить цю версію. У майбутньому, за її словами, після певного обсягу введення даних ChatGPT зможе визначати вік користувача та додавати функції безпеки. Наразі діти можуть отримати доступ до ChatGPT, ввівши свою дату народження — або вигадавши її — щоразу, коли створюють обліковий запис.
Пов'язані
- Можливо, ваш лікар використовує ChatGPT для отримання другої думки. Чи варто вам це робити?
Ви можете спробувати інтерпретувати стратегію OpenAI тут. Незалежно від того, чи намагається він протистояти регулюванню, чи ні, батьківський контроль створює певні труднощі для підлітків, які використовують ChatGPT. Це форма модерації контенту, яка також впливає на конфіденційність підлітків-користувачів. Компанія також, ймовірно, хотіла б, щоб ці підлітки продовжували використовувати ChatGPT та Sora, коли стануть дорослими, тому вони не хочуть надто погіршувати досвід. Дозволити підліткам робити більше в цих додатках, а не менше, певною мірою корисно для бізнесу.
«Не існує батьківського контролю, який би зробив щось повністю безпечним».
Все це ставить батьків у складне становище. Для початку їм потрібно знати, що їхня дитина використовує ChatGPT, а потім з'ясувати, яких налаштувань буде достатньо для безпеки їхніх дітей, але не надто суворих, щоб дитина просто створила обліковий запис burner, вдаючи з себе дорослого. Здається, немає способу запобігти розвитку емоційної прив'язаності дітей до цих чат-ботів, тому батькам залишається лише поговорити зі своїми дітьми та сподіватися на краще. А ще є те, що чекає на них із застосунком Sora, який, схоже, розроблений для того, щоб створювати високоякісну штучну інтелект-помийку та змушувати дітей залежними від чергової нескінченної стрічки.
«Не існує батьківського контролю, який би зробив щось повністю безпечним», – Леслі Тайлер, директор із безпеки батьків у Pinwheel, компанії, яка розробляє програмне забезпечення для батьківського контролю. – «Батьки не можуть передати це на аутсорсинг. Батьки все одно повинні бути залучені».
У певному сенсі, цей момент є другим шансом для технологічної індустрії та для політиків. Два десятиліття нерегульованих додатків соціальних мереж зіпсували всі наші мізки, і з'являється все більше доказів того, що це сприяло кризі психічного здоров'я серед молоді. Такі компанії, як Meta та TikTok, знали, що їхні продукти шкодять дітям, і довгий час нічого з цим не робили. Meta тепер має облікові записи підлітків для Instagram, але останні дослідження показують, що функції безпеки просто не працюють.
Занадто мало чи занадто пізно, але OpenAI починає забезпечувати безпеку дітей. Знову ж таки, щось робити краще, ніж нічого.
Версія цієї історії також була опублікована в розсилці User Friendly. Підпишіться тут, щоб не пропустити наступну!
Source: vox.com



