Выделенное

Новая гонка вооружений: кто первым сделает искусственный интеллект оружием

Исследования искусственного интеллекта все чаще применяются военными во всем мире как для наступательных и так защитных целей. Недавно группа исследователей ИИ начала борьбу против двух отдельных программ, расположенных на разных концах мира, порождая сложные вопросы о том, насколько инженеры могут повлиять на будущее, используя эти технологии.

Газета New York Times опубликовала внутренний меморандум протеста из «Силиконовой долины», написанный несколькими тысячами сотрудников Google, которые решительно выступили против совместного проекта Google и Министерства обороны США - Project Maven, целью которого является использование алгоритмов компьютерного наблюдения для анализа огромного объема изображений и видеоданных.

Пресс-служба департамента Министерства обороны США по разведке процитировала генерала морской пехоты Дрю Кукор, который возглавляет это направление в ведомстве:

«Вы не покупаете ИИ, как боеприпасы», - сказал он.  - «Существует целенаправленный рабочий процесс. И то, что департамент дал нам свою власть в изучении этого вопроса, - это возможность в течение примерно 36 месяцев понять, что может сделать правительство, и как наилучшим образом привлечь эту индустрию».

Сотрудники Google требуют, чтобы компания отступила от такого партнерства, написав в своей записке:

«На фоне растущих опасений по поводу предвзятого и военизированного ИИ, Google все сложнее сохранить доверие общественности. Присоединившись к этому контракту, Google присоединится к таким компаниям, как Palantir, Raytheon и General Dynamics. Аргумент, что другие компании, такие как Microsoft и Amazon, также участвуют в этом, не делает его менее рискованным для Google. Уникальная история Google и его девиз «Не будь злом» напрямую связаны с миллиардами жизней пользователей».

Между тем, в Южной Корее растет возмущение по поводу программы разработки роботов для наступательных операций, созданных совместно с ведущим инженерным университетом страны KAIST (Корейским передовым институтом науки и техники) и корейским конгломератом Hanhwa, который среди прочего является одним из крупнейших производителей боеприпасов для страны. Десятки ученых искуственного интеллекта по всему миру инициировали протест этому сотрудничеству, написав:

«В то время, когда Организация Объединенных Наций обсуждает, как сдерживать угрозу международной безопасности со стороны автономного оружия, вызывает сожаление тот факт, что престижный институт, такой как KAIST, стремится ускорить гонку вооружений для разработки такого оружия. Поэтому мы публично заявляем, что мы будем бойкотировать все сотрудничества с KAIST до тех пор, пока его президент не предоставит доказательства, что институт не будет заниматься развитием автономного оружия, не имеющего достаточного человеческого контроля».

Вот что: эти так называемые «роботы-убийцы» относятся к нашим серьезным проблемам. Эта технология явно для наступательных операций, и исследователи могут решить, хотят ли они участвовать или не участвовать в таких начинаниях.

Более широкая задача в этой области заключается в том, что все исследования в области искусственного интеллекта в равной степени связаны с наступательными технологиям, а именно с улучшением условий для человека. Вся исследовательская программа вокруг ИИ - это создание новых возможностей для компьютеров, чтобы воспринимать, прогнозировать, принимать решения и действия без вмешательства человека. Для исследователей лучшие алгоритмы являются идеализированными и обобщаемыми, что означает, что они должны применяться к любому новому предмету с некоторыми настройками и, возможно, данными режима обучения.

Практически невозможно предотвратить проникновение этих новообретенных способностей в наступательные военные техологии. Даже если лучшие исследователи в мире отказались бы работать над этими технологиями наступательного вооружения, другие могли бы легко взять эти проверенные модели «с полки» и применить их к новым приложениям. Это не значит, что у приложений для поля битвы нет собственных проблем, которые необходимо выяснить, но разработка основных возможностей ИИ является критическим элементом при их запуске.

Для ИИ особенно неприятна проблема двойного использования, так как есть возможность технологии использоваться как в положительных приложениях, так и в негативных. Хорошим примером является ядерная теория, которая может быть использована для массового улучшения здоровья человека с помощью компьютерной томографии и давать электроэнергию нашему обществу из ядерных энергетических реакторов или может использоваться в бомбе, чтобы убить сотни тысяч.

ИИ является сложным, потому что, в отличие от, скажем, ядерного оружия, которое требует уникального оборудования, которое указывает о его развитии другими державами, у ИИ нет таких требований. Несмотря на разговоры о модулях Tensor Processing, ключевые инновации в ИИ имеют математическое и программное происхождение, до оптимизации качества работы оборудования. Сегодня мы могли бы построить автономный смертельный дрон с роботизированным пусковым механизмом и алгоритмами компьютерного видения, загруженными с GitHub. Это может быть не идеально, но это «сработает». Таким образом, ИИ похож на биооружие, которое также может быть создано со стандартным лабораторным оборудованием.

Кроме того, даже если полностью прекратить развитие возможностей искусственного интеллекта, эта технология будет разработана. А это означает, что абсолютно возможно сделать ее оружием.

Другими словами, исследователи ИИ собираются убивать людей, нравится им это или нет.

Учитывая этот контекст, правильно будет не мешать Google работать с Пентагоном. Это может побудить Google, который является одним из наиболее эффективных лоббистских сил в Вашингтоне, продвигать на международном уровне переговоры о запрете подобных видов наступательного оружия. Бывший председатель Alphabet Эрик Шмидт возглавляет Инновационный совет Министерства обороны США. Такие переговоры были эффективными в ограничении биооружия, химической войны и оружия в космосе, даже в разгар холодной войны. Нет оснований полагать, что успех недостижим.

Тем не менее, одной из задач этого видения является конкуренция со стороны Китая. Китай сделал автономную войну приоритетом, инвестируя миллиарды в эту индустрию в поисках новых инструментов для борьбы с американской военной гегемонией. Даже если США и мир хотели бы избежать этого оружия, у нас может не быть выбора. Лучше, чтобы крупнейшая диктатура мира не приобретала это оружие без какой-либо контрмеры из демократического мира.

Важно отметить, однако, что такие опасения по поводу войны и технологий вряд ли новы. Вычислительная мощность была в центре «точных» бомбардировочных кампаний во Вьетнаме в течение 1960-х годов. И значительные протесты кампуса были сосредоточены на прекращении деятельности недавно созданных вычислительных центров. Во многих случаях классифицированные исследования были запрещены из кампуса, и программы ROTC были аналогичным образом удалены, и их можно было восстановить только в последние годы. Пагуошские конференции были задуманы в 1950-х годах как форум для ученых, обеспокоенных глобальными последствиями безопасности новых технологий, а именно ядерной энергии.

Эти дебаты будут продолжены, но мы должны знать, что все разработки ИИ, вероятно, приведут к улучшению возможностей наступательного оружия. Лучше принять эту реальность сегодня и работать над защитой этических норм войны, чем пытаться ее избежать, только чтобы обнаружить, что другие противники взяли на себя инициативу ИИ - и международную власть с ней.

По материалам: techcrunch

Читайте также: 

Как искусственный интеллект «поимеет» нас в ближайшие 5 лет

Читайте также:

 

Комментарии

Нет созданных комментариев. Будь первым кто оставит комментарий.
Уже зарегистрированны? Войти на сайт
19.03.2024

Изображение капчи

Подписаться на новые блоги на платформе Инвестгазета:

 

Курсы валют

Официальные курсы основных валют (НБУ) на сегодня
Доллар США
ЕВРО
Фунт стерлингов

 

^