Ученые планируют ограничить исследования в области Искусственного Интеллекта

Стивен Хокинг и Илон Маск поддержали новый кодекс ИИ. Ученый и предприниматель выступили в поддержку нового кодекса ИИ, представленного на Асиломарской конференции в Калифорнии. В документе описаны правила ведения исследований в области искусственного интеллекта, а также варианты решения этических вопросов и проблем, которые возникнут в будущем.

Новый свод законов для искусственного интеллекта получил название «Асиломарские принципы ИИ», так как был сформулирован на конференции в Асиломаре. Авторами документа выступили эксперты из Института будущего жизни (Future of Life Institute). Кодекс описывает основные правила изучения и внедрения ИИ, в частности автономного вооружения и самовоспроизводящихся интеллектуальных систем, сообщает Business Insider.

Кодекс делится на три части: исследования, этические вопросы и долгосрочная перспектива. В каждой из частей описаны принципы развития ИИ с пользой для общества. Авторы документа подчеркивают, что при разработке ИИ-систем ученые должны взаимодействовать с регулирующими органами и открыто делиться своими разработками с другими учеными, чтобы избежать «гонки искусственных интеллектов» и тайных разработок. Особенно это касается гонки ИИ-вооружений.

При поломке ИИ-системы должно быть понятно, почему это произошло, а сам факт поломки должен быть заметным. Вынесенные искусственным интеллектом суждения следует подвергать независимой оценке с участием человека. Кроме того, разработчики обязаны внушать ИИ человеческие представления о ценностях, правах, свободе, достоинстве и культурном разнообразии.

Кодекс также упоминает прибыль, которую способен принести ИИ. Как гласит 14-й принцип, «создаваемое ИИ экономическое процветание должно быть равномерно распределено так, чтобы нести пользу всему человечеству».

Самосовершенствующиеся системы необходимо контролировать особенно строго. В целом авторы кодекса советуют максимально внимательно отнестись к новым технологиям, которые могут «кардинально изменить ход жизни на Земле».

Свод законов сформулировали по итогам серии дискуссий, в которых приняли участие глава DeepMind Демис Хассабис, эксперт по ИИ из Facebook Ян Лекун и предприниматель Илон Маск. Все они подписались под новыми принципами для развития ИИ. Всего проект поддержало 877 разработчиков в сфере искусственного интеллекта и робототехники и 1392 экспертов вне этой области, среди которых предприниматель Сэм Альтман, актер Джозеф Гордон-Левитт и ученый Стивен Хокинг.

Стивен Хокинг неоднократно выражал свое беспокойство в отношении стремительного прогресса технологий искусственного интеллекта. По мнениюученого, ИИ может стать самым худшим или самым лучшим явлением в истории человечества.

Глава Tesla и SpaceX Илон Маск также отмечал риски, связанные с неконтролируемым искусственным разумом. Он входит в число основателей проекта OpenAI, цель которого — создание условий для максимально безопасного развития ИИ. В частности эксперты OpenAI предлагают создать полицию искусственного интеллекта. Британские ученые поддерживают эту идею и предлагают ввести должность следователя по делам ИИ. Разработкой кодекса искусственного интеллекта также занимаются в Японии, Россиии в Европе.

https://hightech.fm/2017/02/02/23_principles

Другие новости и советы по теме: