Доступність посилання

ТОП новини

Пентагон занепокоєний використанням Росією штучного інтелекту у військовій сфері. Ось чому


Міністр оборони США Марк Еспер під час симпозіуму днями заявив, що росіяни застосували витончену та добре скоординовану комбінацію безпілотних літальних апаратів, кібератак та артилерійських загонів для нанесення серйозних збитків українським силам. Архівне фото

Автономний робот-винищувач, здатний тактично мислити, навряд чи вийде на поле бою уже завтра, кажуть фахівці. Проте гонка за лідерство у сфері штучного інтелекту, як вважають, вже почалася. І деякі її учасники, такі, як Росія та Китай, викликають особливе занепокоєння.

«Той, хто стане лідером у сфері [штучного інтелекту], стане володарем світу», – заявив у вересні 2017 року російський президент Володимир Путін на одному з форумів. Пізніше він неодноразово повторював ці слова, а світові ЗМІ неодноразово їх цитували.

Російський лідер, схоже, серйозно сприймає штучний інтелект (ШІ), про що свідчать збільшені інвестиції у цю сферу та затвердження «Національної стратегії розвитку штучного інтелекту на період до 2030 року», метою якої є не допустити безумовного лідерства інших гравців і відставання Росії.

У поєднанні з тим, як Росія веде себе у зонах бойових дій, в тому числі в Україні, її замах на технології штучного інтелекту викликає чимало занепокоєнь на Заході, зокрема у США.

Багато хто розробляє ШІ. Що не так з Росією?

«Намір [Путіна] полягає у використанні будь-якої можливої переваги для розширення російського впливу та скорочення суверенітету інших», – заявив днями міністр оборони США Марк Еспер під час симпозіуму.

Росіяни, за його словами, застосували витончену та добре скоординовану комбінацію безпілотних літальних апаратів, кібератак та артилерійських загонів для нанесення серйозних збитків українським силам під час вторгнення в Україну.

«З того часу Москва оголосила про розробку автономних систем на основі штучного інтелекту для наземних транспортних засобів, літаків, атомних підводних човнів, – сказав Еспер. – Ми очікуємо, що вони розгорнуть ці можливості в майбутніх зонах бойових дій».

На думку Еспера, штучний інтелект може змінити поле битви, і країна, яка першою виведе його на поле, матиме величезні переваги перед конкурентами.

Багато хто звертає увагу на те, що за стрімким розвитком автономної зброї стоїть приватний сектор – великі корпорації, зацікавлені в прибутках, і вони активно діятимуть для пришвидшення розвитку цих технологій
Багато хто звертає увагу на те, що за стрімким розвитком автономної зброї стоїть приватний сектор – великі корпорації, зацікавлені в прибутках, і вони активно діятимуть для пришвидшення розвитку цих технологій

В самій Росії полюбляють похизуватися своїми технологіями.

«Як представники Міністерства оборони РФ, так і керівництво Росії неодноразово наголошували, що в арсеналі Збройних сил РФ є ціла низка озброєння, заснованого на розробках в сфері штучного інтелекту. Це стосується, наприклад, безпілотників, винищувачів, підводних роботів», – йдеться в матеріалі московського Центру Карнеґі, який підсумовує: військовий напрямок є одним з найбільш сильних, з точки зору розвитку технологій штучного інтелекту в Росії.

Росія, звісно, не єдина займається розробкою штучного інтелекту. Та, попри те, що повний потенціал її новітніх військових технологій складно оцінити через їхню секретність, а Росію загалом навряд чи можна віднести до світових лідерів у сфері штучного інтелекту через цілу низку причин, замах саме на потенційне військове використання технології стає приводом для занепокоєння.

Штучний інтелект – явище відносно нове і недостатньо врегульоване, і бути впевненим у тому, що такі держави, як Росія, відомі порушенням міжнародного права, дотримуватимуться всіх правил і етичних стандартів, не можна, вважають західні експерти. І мова йде не лише про Росію.

«Лідери Пентагону давно занепокоєні тим, що, незважаючи на чинні етичні правила США, що вимагають, щоб людина була «за кермом» рішень щодо застосування летальної сили, такі країни, як Росія та Китай, не будуть діяти в рамках подібних етичних правил», – пише військовий експерт Кріс Осборн в колонці The National Interest.

Китай щорічно інвестує десятки мільярдів у розвиток ШІ, і правляча Комуністична партія має на меті стати світовим лідером ШІ через 10 років, заявили у Пентагоні.

«Наразі китайські виробники зброї продають автономні безпілотники, які, на їхню думку, можуть наносити смертельні цілеспрямовані удари, – сказав Еспер. – Тим часом уряд Китаю просуває розробку безпілотних літальних апаратів наступного покоління, які вони готують до міжнародного експорту», – додав він.

Штучний інтелект – явище відносно нове і недостатньо врегульоване, і бути впевненим у тому, що такі держави, як Росія, відомі порушенням міжнародного права, дотримуватимуться всіх правил і етичних стандартів, не можна, вважають експерти
Штучний інтелект – явище відносно нове і недостатньо врегульоване, і бути впевненим у тому, що такі держави, як Росія, відомі порушенням міжнародного права, дотримуватимуться всіх правил і етичних стандартів, не можна, вважають експерти

Зрозуміти роботів-вбивць

Існує багато систем автономного озброєння або такого, що діє на основі штучного інтелекту, і наразі є чимало дискусій з приводу термінології у цій сфері. Проте якщо узагальнити, мова йде про роботів, які здатні самостійно виконувати військові операції.

«Сьогодні є зброя, яка активно використовує штучний інтелект, у тому числі така, що може самостійно шукати, обирати та вражати цілі. Ці атрибути часто пов’язані з визначенням того, що становить летальну автономну систему зброї (або робота-вбивцю)», – пояснюють оглядачі американського видання The New York Times, яке випустило документальну стрічку про використання автономної зброї на полі бою.

Мабуть, одним з прикладів такої зброї є ізраїльський озброєний безпілотник Harpy, який може висіти високо в небі, моніторити великі ділянки, аж поки не виявить «ворожий радіолокаційний сигнал». Тоді він вріжеться у джерело радара і вибухне разом із ціллю, розповідають у матеріалі.

«Для запуску зброї не потрібна конкретна ціль, і людина не потрібна для ухвалення летального рішення. Такий апарат був проданий Чилі, Китаю, Індії, Південній Кореї та Туреччині», а китайці, як повідомляється, переробили свій власний варіант.

І тим не менш, роботам поки бракує комплексних необхідних навичок для ухвалення більшості важливих рішень на полі бою. Більшість експертів погоджується, що у разі використання летальної зброї залучення людини є просто необхідним. Але є побоювання, що це зміниться.

Відомий винахідник Ілон Маск, вчений Стівен Ґокінґ та «батько» Microsoft Білл Ґейтс колись погодилися із тим, що в разі неправильного поводження зі штучним інтелектом він може перетворитися на загрозу існуванню людства. Маск разом зі 115 іншими лідерами в сфері штучного інтелекту навіть кілька років тому підписали відкритий лист в ООН, що закликав покласти край гонці озброєння в сфері автономної зброї ще до того, як її використання набуде поширення.

«Ми не маємо багато часу. Щойно ця скринька Пандори відкриється, її вже буде складно зачинити», – йшлося в листі.

Низка неурядових організацій вже не один рік активно працюють, щоб зупинити подальший прогрес у використанні автономної летальної зброї.

Причин для занепокоєння наводять чимало. Наприклад, що, як і будь-яку комп’ютерну систему, «роботів-убивць» можна буде «зламати» за допомогою кібератак, що такі роботи можуть просто вийти з ладу й призвести до масштабної катастрофи.

У разі порушення гуманітарного права питання полягатиме в тому, хто саме нестиме за це відповідальність, якщо робот діятиме самостійно. Ба більше, така зброя може потрапити до рук недержавних суб’єктів, враховуючи терористичні угруповання. Але й використання недемократичними суб’єктами, які не дотримуватимуться загальноприйнятих норм використання такої системи – також особливий привід для хвилювань.

Багато хто звертає увагу на те, що за стрімким розвитком автономної зброї стоїть приватний сектор – великі корпорації, зацікавлені в прибутках, і вони активно діятимуть для пришвидшення розвитку цих технологій.

«Це дилема контролю над озброєннями. Чим кориснішою буде потенційна зброя для військових, тим важче буде її регулювати або ж заборонити», – пояснював колись німецькому мовникові Deutsche Welle професор політичних наук в Університеті Пенсильванії Майкл Горовіц.

  • Зображення 16x9

    ​Тетяна Савчук

    Приєдналася до Української редакції Радіо Свобода у 2017 році. Здобула ступінь магістра з міжнародних відносин та дипломатії в Англо-американському університеті у Празі. Продюсерка соціальних мереж. 

FACEBOOK КОМЕНТАРІ

ІНШЕ З МЕРЕЖІ



Загрузка...
XS
SM
MD
LG