Може ли лесно да се заблуди Военният изкуствен интелект



Миналата година китайски изследователи обявиха гениална и потенциално опустошителна атака срещу един от най-ценните американски технологични активи – електромобил Tesla.

Екипът от лабораторията за сигурност на китайския технологичен гигант Tencent демонстрира няколко начина да заблуди AI алгоритмите на колата на Tesla. Чрез тънкото изменение на данните, подадени към сензорите на колата, изследователите успяха да озадачат и объркат изкуствения интелект, който управлява превозното средство.

В единия случай телевизионният екран съдържаше скрит модел, който подлъгваше чистачките на предното стъкло да се активират. В другия маркировките на лентата по пътя бяха все така леко променени, за да объркат автономната система за шофиране, така че да се движи над тях и в лентата за насрещно движение.

Алгоритмите на Tesla обикновено са блестящи при забелязване на капки дъжд на предно стъкло или следване на линиите по пътя, но те работят по начин, коренно различен от човешкото възприятие. Това прави такива алгоритми за „дълбоко учене“, които бързо обхващат различни индустрии за приложения като разпознаване на лица и диагностика на рак, изненадващо, колко лесно може да заблудите изкуствения интелект ако намерите техните слаби страни.

Може ли лесно да се заблуди Военният изкуствен интелект
Може ли лесно да се заблуди Военният изкуствен интелект

Тази заблуда и манипулация на изкуствения интелект на Tesla може да не изглежда като стратегическа заплаха за Съединените щати. Но какво ще стане, ако подобни техники се използват за заблуждаване на дронове или военен софтуер, който анализира сателитни снимки, за да видите неща, които ги няма – или да не видите неща, които ги има?

Събиране на изкуствен интелект

В целия свят AI вече се разглежда като следващото голямо военно предимство, което армиите в бъдеще ще могат да използват.

В началото на тази година САЩ обявиха голяма стратегия за използване на изкуствения интелект в много области на военните, включително анализ на разузнаването, вземане на решения, автономия на превозни средства, логистика и въоръжение. Предложеният от Министерството на отбраната бюджет от 718 милиарда долара за 2020 г. отпуска 927 милиона долара за AI и машинно обучение. Съществуващите проекти включват доста светски (тестване дали AI може да предвиди кога танковете и камионите се нуждаят от поддръжка), както и неща на водещия ръб на оръжейната технология (рояци от дронове).

AI натискът на Пентагона отчасти се ръководи от страха от начина, по който съперниците могат да използват технологията. Миналата година Джим Матис, тогава министър на отбраната, изпрати докладна записка до президента Доналд Тръмп с предупреждение, че САЩ вече изостават, когато става въпрос за изкуствен интелект. Тревогата му е разбираема.

През юли 2017 г. Китай формулира своята стратегия за AI, заявявайки, че „големите развити страни в света приемат развитието на ИИ като основна стратегия за повишаване на националната конкурентоспособност и защита на националната сигурност“. А няколко месеца по-късно Владимир Путин от Русия зловещо заяви: „Който стане лидер в сферата на ИИ, той ще стане владетел на света.

Амбицията да се изгради най-умното и смъртоносно оръжие е разбираемо, но както показва хакът на Tesla враг, който знае как работи алгоритъмът на AI, може да го направи безполезен или дори да го превърне срещу собствениците му. Тайната за спечелването на войните с ИИ може да се крие не в създаването на най-впечатляващите оръжия, а в овладяването на тревожното предателство на софтуера.

Може ли лесно да се заблуди Военният изкуствен интелект
Може ли лесно да се заблуди Военният изкуствен интелект

Бойни ботове

През един светъл и слънчев ден миналото лято във Вашингтон, окръг Колумбия, Майкъл Канаан седеше в кафенето на Пентагона, ядеше сандвич и се чудеше над мощен нов набор от алгоритми за машинно обучение.

Няколко седмици по-рано Канаан беше гледал видео игра, в която пет AI алгоритми работеха заедно, за да надминат и надхитрят петима души в състезание, което включваше контролиране на сили, лагери и ресурси в сложно разпростиращо се бойно поле. Челото под подстриганата руса коса на Канаан беше набраздено, докато той описваше действието. Това беше една от най-впечатляващите демонстрации на стратегията на AI, която някога е виждал, неочаквано развитие, подобно на напредъка на AI в шахмата, Атари и други игри.

Военната игра е Dota 2, популярна научнофантастична видео игра, която е изключително предизвикателна за компютрите. Екипите трябва да защитават своята територия, докато атакуват лагерите на опонентите си в среда, която е по-сложна и измамна от всяка настолна игра. Играчите могат да видят само малка част от цялата картина и може да отнеме около половин час, за да се определи дали дадена стратегия е печеливша.

Бойците на AI са разработени не от военните, а от OpenAI, компания, създадена в Силиконовата долина, включително Елон Мъск и Сам Алтман, за да направят фундаментални изследванията на AI. Алгоритмичните воини на компанията, известни като OpenAI Five, разработиха свои собствени стратегии за печелене чрез неумолима практика и като отговориха с ходове, които се оказаха най-изгодни.

Именно типът софтуер заинтригува Канаан един от хората, които имат задачата да използват изкуствен интелект за модернизиране на американската армия. За него това показва, какво може да спечели за армията, като се включи в помощта на най-добрите световни изследователи на ИИ. Но дали те имат желание, все повече се поставя под въпрос.

Канаан беше ръководителят на ВВС на Project Maven, военна инициатива, насочена към използване на AI за автоматизиране на идентифицирането на обекти във въздушните изображения. Google беше изпълнител на Maven и когато други служители на Google откриха това, през 2018 г. компанията реши да се откаже от проекта. Впоследствие той разработи кодекс за поведение на AI, в който казваше, че Google няма да използва своя ИИ за разработване на „оръжия или други технологии, чиято основна цел или изпълнение е да причинят или пряко улесняват нараняването на хората“.

Работници в някои други големи технологични компании, последвани от изискването на работодателите беше да се откажат от военните договори. Много изтъкнати изследователи на ИИ подкрепиха усилията за започване на глобална забрана за разработване на напълно автономни оръжия.

За Канаан обаче би било голям проблем, ако военните не могат да работят с изследователи като тези, които са разработили OpenAI Five. Още по-обезпокоителна е перспективата противник да получи достъп до такава авангардна технология. „Кодът е просто там, за да може всеки да го използва“, каза той. Той добави: “войната е много по-сложна от някои видеоигри.

Може ли лесно да се заблуди Военният изкуствен интелект
Може ли лесно да се заблуди Военният изкуствен интелект

Скокът на Изкуствения интелект

По принцип Канаан знае отношението и пробива на AI отчасти, колко полезно ще бъде неговото внедряване във войските. Преди шест години като офицер от военновъздушните сили в Афганистан той отговаряше за разполагането на нов вид инструмент за събиране на разузнаване – хиперспектрален образ. Инструментът може да забележи обекти, които обикновено са скрити от гледката, като резервоари, облечени в камуфлаж, или емисии от импровизирана фабрика за производство на бомби. Канаан казва, че системата е помогнала на американските войски да извадят много хиляди килограма експлозиви от бойното поле. Въпреки това, анализаторите често бяха непрактични да обработват огромното количество данни, събрани от изображението. „Прекарахме прекалено много време, разглеждайки данните и нямахме достатъчно време за вземане на решения“, казва той. „Понякога това отнема толкова време, че се зачудих дали можеш да спасиш повече животи с използването на този вид разузнаване.

Решението може да се крие в пробив в компютърното зрение от екип, ръководен от Джефри Хинтън от Университета в Торонто. Той показва, че алгоритъм вдъхновен от многопластова невронна мрежа може да разпознава обекти в изображения с безпрецедентно умение, когато им се предоставят достатъчно данни и компютърна мощност.

Обучението на невронната мрежа включва подаване на данни, като пикселите в изображението и непрекъснато променяне на връзките в мрежата, като се използват математически техники, така че изходът да се доближи до определен резултат, като идентифициране на обекта в изображението. С течение на времето тези дълбоко обучаващи се мрежи се научават да разпознават моделите на пикселите, които изграждат къщи или хора. Напредъкът в задълбоченото обучение предизвикат настоящия бум на AI технологиите, които са в основата на автономните системи на Tesla и алгоритмите на OpenAI.

Канаан веднага разпозна потенциала на дълбокото обучение за обработка на различни видове изображения и сензорни данни, които са от съществено значение за военните операции. Той и други от ВВС скоро започнаха да лобират пред началниците си да инвестират в технологията. Усилията им допринесоха за големия AI натиск пред Пентагона.

Може ли лесно да се заблуди Военният изкуствен интелект
Може ли лесно да се заблуди Военният изкуствен интелект

Точно, както е възможно да се изчисли, как да настроите параметрите на мрежата, така че тя да класифицира правилно обекта, така е възможно да се изчисли, как минималните промени във входното изображение могат да причинят мрежата да го класифицира погрешно. В такива „състезателни примери“ само няколко пиксела в изображението се променят, оставяйки той да изглежда точно същия на човек, но много различен на AI алгоритъма. Проблемът може да възникне навсякъде, където може да се използва задълбоченото обучение – например при насочване на автономни превозни средства, планиране на мисии или откриване на мрежови прониквания.

На фона на натрупването на военни приложения на изкуствените интелекти тези мистериозни уязвимости получават все по-малко внимание.

Подвижни цели

Един забележителен предмет служи за илюстриране на силата на състезателното машинно обучение. Това е моделната костенурка.

На вас или на мен изглежда нормално, но на дрон или робот, управляващ определен алгоритъм за виждане на дълбоко обучение, изглежда, че е … пушка. В отделен проект изследователите са използвали 2D изображения, така че система за виждане на AI, предоставена чрез облака на Google, да го сбърка за почти всичко. (Оттогава Google актуализира алгоритъма, така че да не се заблуждава.)

Най-ранните състезателни примери бяха крехки и податливи на неуспех, но разработчиците вярваха, че могат да създадат достатъчно здрава версия, за да работят върху 3D-отпечатан обект. Това включваше моделиране на 3D изобразяване на обекти и разработване на алгоритъм за създаване на костенурката, състезателен пример, който би работил под различни ъгли и разстояния. Казано по-просто, те разработиха алгоритъм за създаване на нещо, което надеждно да заблуди модела на военния изкуствен интелект.

Военните приложения са очевидни. Използването на състезателен алгоритмичен камуфлаж, танкове или самолети може да се скрие от оборудвани с AI спътници и дронове. Ракетите ръководени от AI, биха могли да бъдат заслепени от противоречиви данни и може би дори насочени обратно към приятелски цели. Информацията, подадена в алгоритмите за разузнаване, може да бъде отровена, за да прикрие терористична заплаха или да постави капан за войските в реалния свят.

Може ли лесно да се заблуди Военният изкуствен интелект
Може ли лесно да се заблуди Военният изкуствен интелект

За щастие Пентагонът започва да забелязва тези минуси. Агенцията за напреднали научни проекти в областта на отбраната (DARPA) обяви няколко големи изследователски проекта за ИИ. Сред тях е GARD, програма, фокусирана върху състезателното машинно обучение. Хава Зигелман, професор в Университета на Масачузетс, Амхерст и ръководител на програмата GARD казва, че тези атаки могат да бъдат пагубни във военни ситуации, защото хората не могат да ги идентифицират. „Все едно сме слепи“, казва тя. “Това е, което го прави наистина много опасен изкуственият интелект и неговото използване в отбраната.

Предизвикателствата, представени от обучението на изкуствения интелект също обясняват защо Пентагонът толкова желае да работи с компании като Google и Amazon, както и с академични институции като MIT. Технологията се развива бързо и най-новите постижения се завладяват в лаборатории, управлявани от компании в Силиконовата долина и топ университети, а не от конвенционални отбранителни изпълнители.

Най-важното е, че те се случват извън САЩ, особено в Китай. „Мисля, че идва различен свят“, казва Канаан, експертът по ВВС на САЩ. “И ние трябва да се борим в близко бъдеще с изкуствен интелект.” казва Канаан.

Обратната реакция срещу военната употреба на ИИ е разбираема, но може да пропусне по-голямата картина. Дори хората да се притесняват от интелигентни роботи-убийци, вероятно по-големият краткосрочен риск е алгоритмична мъгла на война такава, която дори и най-умните машини не могат да надникнат.

Просвещението ©

Внимание! Всяко пълно или частично копиране на материали на Просвещението без писмено разрешение и директен линк към оригиналната публикация на Просвещението, включително от други електронни ресурси, ще се смята за грубо нарушение на Закона за защита на интелектуалната собственост на Република България. Просвещението си запазва правото да реагира на подобни нарушения включително по съдебен ред.

Leave a Reply

Your email address will not be published.

Next Post

Българската следа в законите на роботиката

Много малко неща са наистина кратки и пълни, но Азимов приковава вниманието ни като създава така наречените закони на роботите като ни дава пълни обяснения. Ето ги и тях: 1. Робот не може да нарани човек или чрез бездействие да позволи на човек да навреди. 2. Робот трябва да се […]
Българската следа в законите на роботиката
error: Съдържанието е защитено!!!