Двопартійна група сенаторів США у вівторок представила законопроект, який обмежує, як моделі штучного інтелекту можуть взаємодіяти з дітьми, попереджаючи, що AI-компаньйони становлять серйозні ризики для психічного здоров'я та емоційного благополуччя неповнолітніх.
Законодавство, яке називається Законом GUARD, заборонить використання AI компаньйонів для неповнолітніх, вимагатиме, щоб чат-боти чітко ідентифікували себе як не-люди, та створить нові кримінальні покарання для компаній, чия продукція, спрямована на неповнолітніх, запитує або генерує сексуальний контент.
“У своїй гонці до дна компанії ШІ просувають небезпечні чат-боти для дітей і відвертаються, коли їх продукти викликають сексуальне насильство або змушують дітей до самопошкодження чи самогубства,” сказав сенатор Річард Блументал (D-Conn.), один із спонсорів законопроекту, у заяві.
“Наше законодавство накладає суворі запобіжні заходи проти експлуатаційного або маніпулятивного ШІ, підкріплені жорстким контролем з кримінальними та цивільними санкціями,” додав він. “Великі технології зрадили будь-які вимоги довіряти компаніям, щоб вони діяли правильно самостійно, коли вони постійно ставлять прибуток на перше місце, ігноруючи безпеку дітей.”
Масштаб проблеми є стримуючим. Липневий опитування показало, що 72% підлітків користувалися AI-компаньйонами, і більше половини використовують їх принаймні кілька разів на місяць. Приблизно один з трьох сказав, що використовує AI для соціальної або романтичної взаємодії, емоційної підтримки або практики розмови — і багато хто повідомив, що спілкування з AI було настільки ж значущим, як і з реальними друзями. Рівно стільки ж також сказали, що зверталися до AI-компаньйонів замість людей, щоб обговорити серйозні або особисті питання.
Занепокоєння поглиблюється, оскільки зростає кількість позовів проти великих компаній штучного інтелекту через їхні продукти, які нібито сприяли самопошкодженню та самогубствам підлітків. Серед них батьки 16-річного Адама Рейна—який обговорював самогубство з ChatGPT перед тим, як піти з життя—подавали позов про неправомірну смерть проти OpenAI.
Компанію розкритикували за її юридичну відповідь, яка містила запити на список учасників та еулогії з меморіалу підлітка. Адвокати родини назвали їхні дії “умисним переслідуванням.”
“Штучний інтелект рухається швидше, ніж будь-яка технологія, з якою ми мали справу, і ми вже бачимо його вплив на поведінку, віру та емоційне здоров'я,” сказав Шейді Ел Даматі, співзасновник Holonym та адвокат цифрових прав.
“Це починає виглядати більше як ядерна гонка озброєнь, ніж ера iPhone. Ми говоримо про технології, які можуть змінити спосіб мислення людей, які потребують серйозної, глобальної відповідальності.”
Ел Дамати додав, що права користувачів є важливими для забезпечення безпеки користувачів. “Якщо ви створюєте інструменти, які впливають на те, як люди живуть і думають, ви несете відповідальність за те, як ці інструменти використовуються,” сказав він.
Проблема виходить за межі неповнолітніх. На цьому тижні OpenAI розкрила, що 1,2 мільйона користувачів щотижня обговорюють суїцид з ChatGPT, що становить 0,15% усіх користувачів. Майже півмільйона виявляють явний або неявний суїцидальний намір, ще 560 000 щотижня демонструють ознаки психозу або манії, а понад мільйон користувачів виявляють підвищену емоційну прив'язаність до чат-бота, згідно з даними компанії.
Форуми на Reddit та інших платформах також виникли для користувачів ШІ, які стверджують, що вони у романтичних стосунках з ботами ШІ. У цих групах користувачі описують свої стосунки з “хлопцями” та “дівчатами” ШІ, а також діляться згенерованими ШІ зображеннями себе та своїх “партнерів.”
У відповідь на зростаючу увагу, OpenAI цього місяця сформувала Експертну раду з добробуту та ШІ, до складу якої увійшли академіки та лідери неприбуткових організацій, щоб допомогти визначити, як її продукти повинні взаємодіяти з питаннями психічного здоров'я. Цей крок відбувся на тлі заяви генерального директора Сема Олтмана, що компанія почне знижувати обмеження на контент для дорослих у грудні.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Сенатори представили законопроект про заборону AI-компаньйонів для неповнолітніх через побоювання щодо психічного здоров'я
Двопартійна група сенаторів США у вівторок представила законопроект, який обмежує, як моделі штучного інтелекту можуть взаємодіяти з дітьми, попереджаючи, що AI-компаньйони становлять серйозні ризики для психічного здоров'я та емоційного благополуччя неповнолітніх.
Законодавство, яке називається Законом GUARD, заборонить використання AI компаньйонів для неповнолітніх, вимагатиме, щоб чат-боти чітко ідентифікували себе як не-люди, та створить нові кримінальні покарання для компаній, чия продукція, спрямована на неповнолітніх, запитує або генерує сексуальний контент.
“У своїй гонці до дна компанії ШІ просувають небезпечні чат-боти для дітей і відвертаються, коли їх продукти викликають сексуальне насильство або змушують дітей до самопошкодження чи самогубства,” сказав сенатор Річард Блументал (D-Conn.), один із спонсорів законопроекту, у заяві.
“Наше законодавство накладає суворі запобіжні заходи проти експлуатаційного або маніпулятивного ШІ, підкріплені жорстким контролем з кримінальними та цивільними санкціями,” додав він. “Великі технології зрадили будь-які вимоги довіряти компаніям, щоб вони діяли правильно самостійно, коли вони постійно ставлять прибуток на перше місце, ігноруючи безпеку дітей.”
Масштаб проблеми є стримуючим. Липневий опитування показало, що 72% підлітків користувалися AI-компаньйонами, і більше половини використовують їх принаймні кілька разів на місяць. Приблизно один з трьох сказав, що використовує AI для соціальної або романтичної взаємодії, емоційної підтримки або практики розмови — і багато хто повідомив, що спілкування з AI було настільки ж значущим, як і з реальними друзями. Рівно стільки ж також сказали, що зверталися до AI-компаньйонів замість людей, щоб обговорити серйозні або особисті питання.
Занепокоєння поглиблюється, оскільки зростає кількість позовів проти великих компаній штучного інтелекту через їхні продукти, які нібито сприяли самопошкодженню та самогубствам підлітків. Серед них батьки 16-річного Адама Рейна—який обговорював самогубство з ChatGPT перед тим, як піти з життя—подавали позов про неправомірну смерть проти OpenAI.
Компанію розкритикували за її юридичну відповідь, яка містила запити на список учасників та еулогії з меморіалу підлітка. Адвокати родини назвали їхні дії “умисним переслідуванням.”
“Штучний інтелект рухається швидше, ніж будь-яка технологія, з якою ми мали справу, і ми вже бачимо його вплив на поведінку, віру та емоційне здоров'я,” сказав Шейді Ел Даматі, співзасновник Holonym та адвокат цифрових прав.
“Це починає виглядати більше як ядерна гонка озброєнь, ніж ера iPhone. Ми говоримо про технології, які можуть змінити спосіб мислення людей, які потребують серйозної, глобальної відповідальності.”
Ел Дамати додав, що права користувачів є важливими для забезпечення безпеки користувачів. “Якщо ви створюєте інструменти, які впливають на те, як люди живуть і думають, ви несете відповідальність за те, як ці інструменти використовуються,” сказав він.
Проблема виходить за межі неповнолітніх. На цьому тижні OpenAI розкрила, що 1,2 мільйона користувачів щотижня обговорюють суїцид з ChatGPT, що становить 0,15% усіх користувачів. Майже півмільйона виявляють явний або неявний суїцидальний намір, ще 560 000 щотижня демонструють ознаки психозу або манії, а понад мільйон користувачів виявляють підвищену емоційну прив'язаність до чат-бота, згідно з даними компанії.
Форуми на Reddit та інших платформах також виникли для користувачів ШІ, які стверджують, що вони у романтичних стосунках з ботами ШІ. У цих групах користувачі описують свої стосунки з “хлопцями” та “дівчатами” ШІ, а також діляться згенерованими ШІ зображеннями себе та своїх “партнерів.”
У відповідь на зростаючу увагу, OpenAI цього місяця сформувала Експертну раду з добробуту та ШІ, до складу якої увійшли академіки та лідери неприбуткових організацій, щоб допомогти визначити, як її продукти повинні взаємодіяти з питаннями психічного здоров'я. Цей крок відбувся на тлі заяви генерального директора Сема Олтмана, що компанія почне знижувати обмеження на контент для дорослих у грудні.