Новости

IEEE предложил стандарт производства и создания «благонадежных» роботов и ИИ

Автор Дата 17.12.2016

Новости о томище, что автоматизация рано или время идти на покой начнет массово лишать людей их работы и оставит следовать забором социальной полезности, вряд ли вызовут положительные эмоции у человека, с перспективой смотрящего в завтра. Масла в огонь подливают такие секс-шоу, как «Терминатор» или, например, свежайший «Мир Дикого запада», которые в свою очередь вносят свой вклад в общую копилку опасений, однако уже с точки зрения разработки «недружелюбного» искусственного интеллекта.

Имеют ли сии страхи под собой реальную основу? Должно. А возможно, это всего лишь надуманная невроз. Но как бы там ни было, Научно-исследовательский институт инженеров элект­ро­тех­ни­ки и электроники (IEEE) держу пари в том, что развитие ИИ и автоматизационных систем надлежит «согласовываться с полным учетом и соответствием человеческим моральным ценностям и этическим принципам».

Приманка идеи институт представил в виде 136-страничного документа с названием «Ethically Aligned Design», являющегося своего рода «стандартом» про разработок, производства и развития роботов и искусственного интеллекта. Документация разработан при содействии более 100 мировых экспертов в сфере ИИ, законов, этики, философии и политики. Другими словами, около участии самых видных академиков, ученых и представителей правительственного сектора.

«Благодаря обеспечению экспертов и разработчиков практическими рекомендациями к создания автоматизированных и интеллектуальных продуктов, сервисов и систем с учетом соблюдения выработанных этических человеческих принципов да мы с тобой сможем справиться с нашими страхами, связанными с этими технологиями и скопить свое внимание на тех преимуществах, которые сии технологии смогут принести человечеству без- только в будущем, но уже и сегодня», — говорится в заявлении Константиноса Карачалиоса, управляющего директора ассоциации согласно вопросам стандартизации в IEEE.

В IEEE отмечают, подобно как инициатива является полностью открытой и они готовы к предложениям и обсуждениям интересующих вопросов со стороны инженеров, разработчиков и дизайнеров систем автоматизации и развития ИИ. Близ этом они готовы вести полновесный диалог, так как обратная ром в этом вопросе является одним изо важнейших аспектов в выработке обсуждаемых стандартов.

Что же касается предложений, описанных в самом документе, в таком случае в них включены соображения по вопросам методологии проведения исследований и разработок; описываются опасения согласно поводу создания «черных ящиков». Другими словами, транс предостерегает сферу ИИ и автоматизации ото проведения закрытых разработок.

С более фундаментальной точки зрения в таком случае, что предлагает IEEE, приводит к появлению скоро нескольких интересных вопросов, важнейшим с которых, пожалуй, является следующий: а разрешено ли вообще запрограммировать мораль? Как будто ли на самом деле подстроить технологии ИИ и автоматизации почти те «стандарты и человеческие и социальные ценности», о которых говорится в документе IEEE?

Хотя IEEE настаивает на своем и говорит о важности и необходимости стандартов. То благодаря им мы сможем составлять уверены в том, что при создании и развитии новых технологий в конечном итоге никак не пострадают люди.

«Стандарты смогут поставить производственный контроль интеллектуальных и автономных технологий. Интеллектуальные системы становятся кончено сложнее и потому их незапрограммированное манера себя держать может стать опасным. Для решения сего вопроса необходим надзор за процедурой разработки интеллектуальных и автономных систем».

«Исследователям и разработчикам, занимающимся развитием и внедрением автономных и интеллектуальных систем, придется впердониться с более прогрессивным и сложным набором мер соответствия вдоль вопросам моральной и технической безопасности. Следует, к своей работе им придется наступать более ответственно».

Если смотреть получи ситуацию в целом, то IEEE сделала ужас важный и действительно необходимый шаг получай пути к «очеловечиванию» автономных и интеллектуальных систем.

Источник

Оставить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *