Генеративный ИИ генерирует оригинальные ответы на запросы. Часто юристы-исследователи излишне упрощают и отказывают ИИ в возможности волеизъявления в связи с тем, что, мол, пользователь сам направляет запрос, а ИИ просто с помощью неких алгоритмов этот запрос обрабатывает – и получается некий ответ, который подразумевается продолжением воли человека.
Но алгоритм нейросети построен не по тем же принципам, как калькулятор, где ответ предсказуем (за исключением случаев ошибки). Нейронка основана на ранних моделях работы нейронов, т.е. ответ непредсказуем и генерируемый текст не может считаться продолжением волеизъявления человека.
Однако, регуляторы всё же пытаются нащупать верные ниточки контроля над ИИ. Теперь и Китай принял «Временные меры по управлению услугами генеративного искусственного интеллекта». Правила:
• Регулируют использование ИИ в услугах, предоставляемых неограниченному кругу лиц на территории КНР;
• Предусматривают правила оценки безопасности и регистрацию алгоритмов в случае оказания услуг, которые имеют потенциал мобилизации общества, что может нарушить социалистические ценности. Речь идёт о предотвращении опасности нарушения идеологической монополии КПК.
• Предусматривают перечень признаков, по которым не допустима дискриминация (национальность, вероисповедание, государственная принадлежность, территория, по, возраст, конфессия, состояние здоровья и т.д. Забавно, что из проекта была удалена раса).
• Обязывают поставщиков предпринимать эффективные меры для повышения прозрачности услуг, повышения точности и надёжности контента.
Таким образом, появилось три подхода к регуляции ИИ:
1. На стимулирование саморегуляции отрасли (США). Федвласти не принимают жёстких регуляционных мер, и фокусируются на создании благоприятного климата для развития технологий. Хотя это не означает, что регулирование не принимается на уровне штатов (в особенности Калифорнии, Нью-Йорка и т.д.).
2. Проактивный (ЕС - AI Act) на принятие размытых требований к ИИ-системах, основанный на типологизации опасности систем по критериям опасности для человека (дискриминация, права, конфиденциальность, прозрачность алгоритмов и этика), вплоть до запретов на деятельность отдельных видов.
3. Проактивный (КНР) на принятии размытых требований к ИИ-системах, основанный на запрете таких систем, которые, в первую очередь угрожают национальному благосостоянию и правам частных лиц.
Несмотря на влияние AI Act, китайский закон предъявляет меньше требований, но при этом акцентирует регулирование механизмов, связанных с передачей информации широким слоям населения и опасных для "общественной безопасности", с учётом декларации социалистической идеологии.
Я сам сторонник в первую очередь доктринального анализа сущности ИИ-систем, ведь без опоры на достаточно разработанную теоретическую базу, все эти меры являются лишь очередным утилитаристским торгом с производителями. Как известно, в шторм выживает самый крепкий корабль, а в шторме регуляции – тот, у кого больше денег и влияния на регуляторов.
Но алгоритм нейросети построен не по тем же принципам, как калькулятор, где ответ предсказуем (за исключением случаев ошибки). Нейронка основана на ранних моделях работы нейронов, т.е. ответ непредсказуем и генерируемый текст не может считаться продолжением волеизъявления человека.
Однако, регуляторы всё же пытаются нащупать верные ниточки контроля над ИИ. Теперь и Китай принял «Временные меры по управлению услугами генеративного искусственного интеллекта». Правила:
• Регулируют использование ИИ в услугах, предоставляемых неограниченному кругу лиц на территории КНР;
• Предусматривают правила оценки безопасности и регистрацию алгоритмов в случае оказания услуг, которые имеют потенциал мобилизации общества, что может нарушить социалистические ценности. Речь идёт о предотвращении опасности нарушения идеологической монополии КПК.
• Предусматривают перечень признаков, по которым не допустима дискриминация (национальность, вероисповедание, государственная принадлежность, территория, по, возраст, конфессия, состояние здоровья и т.д. Забавно, что из проекта была удалена раса).
• Обязывают поставщиков предпринимать эффективные меры для повышения прозрачности услуг, повышения точности и надёжности контента.
Таким образом, появилось три подхода к регуляции ИИ:
1. На стимулирование саморегуляции отрасли (США). Федвласти не принимают жёстких регуляционных мер, и фокусируются на создании благоприятного климата для развития технологий. Хотя это не означает, что регулирование не принимается на уровне штатов (в особенности Калифорнии, Нью-Йорка и т.д.).
2. Проактивный (ЕС - AI Act) на принятие размытых требований к ИИ-системах, основанный на типологизации опасности систем по критериям опасности для человека (дискриминация, права, конфиденциальность, прозрачность алгоритмов и этика), вплоть до запретов на деятельность отдельных видов.
3. Проактивный (КНР) на принятии размытых требований к ИИ-системах, основанный на запрете таких систем, которые, в первую очередь угрожают национальному благосостоянию и правам частных лиц.
Несмотря на влияние AI Act, китайский закон предъявляет меньше требований, но при этом акцентирует регулирование механизмов, связанных с передачей информации широким слоям населения и опасных для "общественной безопасности", с учётом декларации социалистической идеологии.
Я сам сторонник в первую очередь доктринального анализа сущности ИИ-систем, ведь без опоры на достаточно разработанную теоретическую базу, все эти меры являются лишь очередным утилитаристским торгом с производителями. Как известно, в шторм выживает самый крепкий корабль, а в шторме регуляции – тот, у кого больше денег и влияния на регуляторов.