Насколько серьезно можно воспринимать предупреждение об искусственном интеллекте? » The Asia Times - события в Азии и в мире: темы дня, фото, видео, инфографика.

Насколько серьезно можно воспринимать предупреждение об искусственном интеллекте?

В итоговом отчете, озаглавленном «План действий по повышению безопасности и защищенности передового искусственного интеллекта», рекомендуется беспрецедентный набор политических мер и даже предлагается ограничить обучение моделей искусственного интеллекта определенным уровнем вычислительной мощности, а Конгрессу — запретить использование более этого уровня. сделать это незаконным
Как был подготовлен этот отчет?
В ноябре 2022 года Госдепартамент США поручил компании Goldstone AI в виде контракта на 250 000 долларов подготовить отчет об опасностях искусственного интеллекта и мерах, существующих в этой области.
Эта компания из четырех человек, двое из основателей которой — братья, в основном организует учебные курсы для государственных служащих по обучению и объяснению работы искусственного интеллекта.
Спустя 13 месяцев эта компания опубликовала 247-страничный отчет, полная версия которого доступна только по прямому запросу компании и не была опубликована публично, однако его краткое изложение было обнародовано.
Этот отчет, который утверждает, что основан на интервью с более чем 200 деятелями безопасности, политиками, военными экспертами и рядом экспертов по искусственному интеллекту - прямо или косвенно - является одним из самых тревожных когда-либо опубликованных документов об искусственном интеллекте и его возможных опасностях. Он разработал план действий по контролю рисков, упомянутых в этом отчете.
Предупреждения, поднятые в отчете
В докладе предупреждается о том, что он называет опасностями, подобными оружию массового уничтожения искусственного интеллекта, событиям, ведущим к исчезновению человечества и подъему искусственного интеллекта и взятию контроля над мировыми делами, а также подчеркивает опасность этой технологии для национальной безопасности и глобальная безопасность.
С одной стороны, этот доклад, указывая на быстрый рост технологии искусственного интеллекта и возможность злоупотребления ею, предостерегает от опасности вымирания человечества, вызванной развитием технологии общего искусственного интеллекта.
В целом, картина будущего видения рисков искусственного интеллекта, которую рисует этот отчет, является, пожалуй, одним из самых мрачных видений будущего этой технологии.
Общий искусственный интеллект — это на данный момент вымышленная и нереалистичная концепция и технология, предполагающая, что машина обладает способностью достигать интеллекта, подобного человеческому, и определенной формы самосознания. В этом случае вы можете посмотреть серию « Какой искусственный интеллект?» Какой риск? » Слушай подкаст Чисты.Авторы этого отчета рекомендуют, чтобы в целях сдерживания и борьбы с этими рисками правительство США ввело и реализовало ограничения на развитие этой технологии, а также использовало эту возможность для введения технологических ограничений в национальный законодательный процесс и использовало свое влияние для обеспечения соблюдения законов. эти ограничительные законы.Входят в глобальные законы.
Дорожная карта также рекомендует, чтобы на основе законов, предназначенных для сдерживания и мониторинга искусственного интеллекта, была создана глобальная организация для наблюдения за глобальными тенденциями в этой технологии, а агентства безопасности и разведки разработали планы по сдерживанию и реагированию на потенциальные сценарии катастроф.
В отчете также рекомендуется инвестировать значительные средства в обучение государственных служащих США тенденциям и разработкам в области искусственного интеллекта; Рекомендация, которая, учитывая, что основной деятельностью этой компании является проведение обучающих курсов для государственных учреждений, может быть предметом конфликта интересов.
Критика отчета
Проблема искусственного интеллекта и его будущего, а также опасения по поводу злоупотреблений им являются реальной и важной проблемой в современном мире. От Канады и США до Европейского Союза и Китая были предложены и даже одобрены планы и законы для мониторинга искусственного интеллекта и его развития, а также, в частности, для защиты прав граждан от возможных злоупотреблений.
В США действует указ президента о соблюдении стандартов в области развития искусственного интеллекта, а в Евросоюзе – недавно принятый парламентом этой страны закон о создании стандартов развития искусственного интеллекта. являются примерами таких случаев.Однако в совокупности рекомендаций этой «дорожной карты» есть и некоторые вещи, принятые на основе коллективного разума; Например, быть готовым к возможным сценариям ошибок при разработке искусственного интеллекта.
Но важным моментом в этой дорожной карте или отчете является усиление, основанное на страхе перед будущим, обреченным на технологическое разрушение.
В этом докладе не проводится особого различия между нынешним искусственным интеллектом и общим искусственным интеллектом, в то время как эти два типа технологий рассматриваются многими экспертами как две разные технологические платформы, и развитие одной не приводит к появлению другой.
С другой стороны, этот доклад серьезно опирался на повествование и слова силовиков и военных и пытался каким-то образом показать худший вариант как наиболее вероятный. Отсутствие ученых и экспертов в области искусственного интеллекта среди основных источников подготовки отчетов, низкий уровень технологических данных и научных основ этой технологии привели к составлению сценариев, основанных на неполном восприятии технологии.
Еще один момент, который бросает вызов этому отчету, — это набор предлагаемых в нем решений для борьбы с потенциальными рисками.
Короче говоря, эти решения заключаются в ограничении технологий, создании концессий и возможности правительства отслеживать и контролировать эту технологию, мониторинге ее роста в других странах американскими или международными институтами (которые создают Соединенные Штаты) и создании судебная система и криминализация развития технологий находятся вне контроля правительства.
Этот процесс, который можно кратко охарактеризовать как секьюритизацию технологий, уже неоднократно предпринимался и терпел неудачу в отношении других технологий, разработку которых было труднее.Возможно, перед нами другой путь; Вместо того, чтобы обеспечивать и пытаться ограничить, закрыть, подвергнуть цензуре и скрыть развитие технологий, упор следует сделать на раскрытие источников этих технологий.
Вместо того, чтобы оставлять свободу действий правительствам, мы можем обратить внимание на роль гражданских институтов, состоящих из экспертов в этой области и смежных областях, чтобы коллективная мудрость экспертов могла направлять развитие.
В то же время, выведя эту сферу из-под монополии компаний и открыв ее, можно позволить гражданским силам этой сферы использовать инструменты сдерживания и нейтрализации злоупотреблений, не останавливая прогресс вместе с ростом. технологий и опасения возможных злоупотреблений.Создать искусственный интеллект с использованием той же технологии.


КОММЕНТАРИИ