top of page
Фото автораЄлизавета Гогілашвілі

У США створили законопроєкт, який регулює ШІ. Що про це думають в індустрії



Минулого року сенатор від штату Каліфорнія Скотт Вінер відвідав серію зустрічей, де молоді дослідники, підприємці, активісти обговорювали майбутнє штучного інтелекту. Після цього він створив SB 1047 за участю лобістської групи Центру безпеки ШІ — аналітичного центру, який турбується про запобігання екзистенційним загрозам з боку ШІ. 


15 серпня 2024 року законодавці у штаті Каліфорнія схвалили змінену версію законопроекту SB 1047, який може запровадити обмеження використання штучного інтелекту. 

До кінця серпня 2024 року законопроєкт має бути прийнятий законодавчим органом штату Каліфорнія, після чого він потрапить на підпис до губернатора Гевіна Ньюсома. Його позиція щодо SB 1047 невідома. Якщо Ньюсом підпише законопроєкт, той вступить у силу і стане першим, що регулює сферу ШІ. 


Ділимось головним зі статей NYT про законопроєкт і реакцію індустрії на нього. 



Що передбачає законопроєкт із регуляції ШІ


  • Компанії будуть нести відповідальність за порушення закону лише в тому випадку, якщо їхні технології завдадуть реальної шкоди або створять безпосередню загрозу громадській безпеці. Раніше законопроєкт передбачав покарання компаній за недотримання норм безпеки, навіть якщо шкода ще не була завдана.


  • Законопроєкт більше не передбачає створення нового агентства для безпеки штучного інтелекту; замість цього регулятором стане вже існуюче Каліфорнійське агентство з управління державними справами.


  • SB 1047 вимагає проведення тестів на безпеку для систем, вартість розробки яких перевищує $100 млн, і які тренуються з використанням певної кількості обчислювальних потужностей. Ден Хендрікс, засновник Центру безпеки ШІ, заявив, що законопроєкт змусить найбільші технологічні компанії розпізнавати та усувати шкідливу поведінку своїх найдорожчих технологій. «Нові поправки є відображенням місяців діалогу з індустрією, стартапами та науковцями», — додав він. 


  • Багато провідних ШІ-компаній, зокрема Google, Meta, Anthropic та OpenAI, були б зобов'язані дотримуватися запропонованого закону. Він також створить прецедент для інших штатів та національних урядів. 



Чому законопроєкт підтримують, а чому — ні


Аргументи «за»: SB 1047 допоможе запобігти різного роду катастрофам, які може спричинити неконтрольовне застосування ШІ, а також встановить обмежувальні механізми для компаній, що надто зосереджені на отриманні прибутку.



Сенатор від Каліфорнії Скотт Вінер. Джерело: NYT

Аргументи «проти»: SB 1047 загальмує розвиток технологій, що мають підвищити продуктивність працівників, покращити охорону здоровʼя та запобігти кліматичним змінам; він може змусити ШІ-розробку переміститися з Кремнієвої долини в інші штати. Нагадаймо, зараз у Сан-Франциській затоці базується багато ШІ-стартапів та найбільших компаній tech індустрії. 



Як на законопроєкт реагують лідери ринку і експерти з ШІ


Деякі відомі дослідники ШІ підтримали законопроєкт, зокрема, Джефф Хінтон, колишній дослідник Google, та Йошуа Бенджіо, професор Монреальського університету. Обидва останні півтора роки попереджали про небезпеки технології. Є й піонери ШІ, що виступили проти законопроєкту, включаючи головного наукового співробітника Meta в галузі ШІ Яна Лекуна та колишніх керівників Google і професорів Стенфорду Ендрю Ина та Фей-Фей Лі.

Коментуючи попередню версію законопроєкту, представниця OpenAI заявила NYT, що він може уповільнити інновації, створюючи «сіру» правову зону для побудови ШІ. Компанія висловила свої занепокоєння під час зустрічей з офісом Скотта Вінера. 


Як стверджують дослідження OpenAI за минулий рік, сучасні ШІ-розробки не є значно небезпечнішими за пошукові системи. Проте деякі експерти вважають, що серйозні загрози на горизонті. Даріо Амодей, CEO стартапу Anthropic, минулого року заявив Конгресу, що ШІ може незабаром допомогти некваліфікованим людям створювати масштабні біологічні атаки. Вінер заявив, що він намагається запобігти таким страшним сценаріям. «Я вважаю, що нам слід спробувати, в дуже м'який спосіб, передбачити ризики та попередити їх», — каже сенатор.


Даріо Амодей, СЕО Anthropic. Джерело: NYT
Даріо Амодей, СЕО Anthropic. Джерело: NYT

В OpenAI вважають, що ризики у сфері ШІ є питаннями національної безпеки, які повинні регулюватися федеральним урядом, а не штатами. З компанією згодна інвесторка і дослідниця Лорен Вагнер, що працювала і у Google, і у Meta. При цьому Вагнер визнає, що нова версія SB 1047 краще за попередню. OpenAI відмовились коментувати оновлену версію. Google з Meta також не коментують її, а Anthropic ще розглядає зміни. 



Як законопроєкт SB 1047 може обмежити opensource


Критики законопроєкту побоюються, що через правила безпеки компанії будуть змушені обіцяти, що вжили розумних заходів для забезпечення безпеки своїх моделей перед випуском. Вони також стверджують, що загроза судових позовів з боку генерального прокурора штату відлякуватиме технологічних гігантів від впровадження політики відкритого коду (opensource), тобто обміну програмним кодом своїх технологій з іншими бізнесами та розробниками ПЗ. Критики SB 1047 стверджують, що законопроєкт може серйозно обмежити можливості стартапів, які не мають ресурсів технологічних гігантів. Це гальмуватиме інновації. 


Обмін кодом дозволяє усім розробникам індустрії швидко знаходити й виправляти проблеми та покращувати технології. Джеремі Говард, підприємець і дослідник ШІ, заявив, що у разі ухвалення законопроєкту найпотужніші ШІ-технології належатимуть виключно найбільшим технологічним компаніям. Якщо ШІ-системи зрештою перевищать потужність людського мозку, як вважають деякі дослідники, законопроєкт консолідує владу в руках кількох корпорацій. Говард вважає, що це шлях до катастрофи.


Джеремі Говард. Джерело: NYT
Джеремі Говард. Джерело: NYT

Інші експерти дотримуються думки, що розвиток opensource-рішень не буде процвітати в Сполучених Штатах, він перетече в інші країни, включаючи Китай. Рішенням, на їхню думку, є регулювання використання ШІ, а не його створення. 


«ШІ подібний до кухонного ножа. Ним можна робити хороші речі на кшталт різки цибулі, але можна й вбити людину. Ми не повинні намагатися зламати кухонний ніж. Ми маємо запобігти його неправильному використанню», — каже Себастьян Трун, дослідник ШІ, що заснував проєкт самокерованих автомобілів у Google. 

Comments


© 2035 by Business Name. Made with Wix Studio™

bottom of page