К разработке и ратификации договора о безопасности ИИ мировое сообщество призвали ведущие эксперты

Ведущие мировые эксперты в области ИИ заявили о необходимости создания
международного договора о безопасности искусственного интеллекта. В
преддверии первого Международного саммита по безопасности ИИ, который
прошел в Великобритании 1 и 2 ноября 2023 года, они подписали открытое
письмо. В нем эксперты призывают разработать и ратифицировать договор о
безопасности ИИ, для чего предлагают создать соответствующую рабочую
группу на Саммите по безопасности ИИ.

Среди подписавших документ экспертов были член правления ведущей
лаборатории ИИ Anthropic Люк Мюльхаузер, известный когнитивист Гари
Маркус, обладатель премии Тьюринга и пионер ИИ Йошуа Бенджио, старший
научный сотрудник Google DeepMind и соучредитель Института будущего
жизни (FLI) Виктория Краковна, ведущий эксперт в области безопасности
и управления ИИ в Китае Йи Цзэн и другие.

По мнению специалистов, в договоре должно быть обязательно указано об
ограничениях во всем мире на объем вычислений для обучения какой-либо
модели ИИ, создании организации по безопасности ИИ («ЦЕРН») для масштабного
объединения опыта, знаний и ресурсов в деле безопасности ИИ, а также комиссии,
отвечающей за мониторинг соблюдения договора, аналогичная МАГАТЭ.

Йи Цзэн отметил: «Мы не можем знать, каким образом и как ИИ может принести
нам катастрофические риски, просто потому что без очень серьезного и
тщательного проектирования модели и архитектуры могут развиваться
непредсказуемым образом. И именно поэтому нам как человеческому
сообществу необходимо сотрудничать и выяснять потенциальные пути
и различные угрозы и по возможности готовиться. Для договора по
искусственному интеллекту нам нужен глобальный консенсус и глобальное
содействие, начиная с крупнейших держав в области искусственного
интеллекта, ведущих исследователей искусственного интеллекта и
компаний, чтобы показать и привести мир к лучшему будущему, делясь
тем, как разрабатывать и внедрять системы ИИ, ставящие безопасность
во главу угла, не оставляя никого позади».

Будущий договор позволит не только обеспечить доступ к благам ИИ
для всех людей, но и снизить путем предотвращения бесконтрольного
масштабирования возможностей ИИ катастрофических рисков, которые
системы ИИ представляют для человечества.

Опубликовано: 03.11.2023 в 21:24
Радио FM