Автономна зброя приймає рішення і діє незалежно, без втручання людини, за допомогою штучного інтелекту. Хоча вона знаходиться в процесі розвитку, але вже тримає світове співтовариство у напрузі. Про що конкретно йде мова і у чому проблема? Автономна зброя, також зветься роботами-вбивцями, вважається «третьою революцією у проведенні війни». Так само, як свого часу винахід пороху і ядерної зброї, так і автономні системи зброї радикально змінюють характер бойових дій. Автономна зброя - це самостійно діючі автономні системи. Вони запрограмовані так, що за допомогою штучного інтелекту і без контролю людини можуть ідентифікувати ціль і атакувати її. Це можуть бути безпілотні літальні апарати, а також кораблі, танки, ракетні установки, роботи та інша зброя. Повністю автономні системи озброєння із штучним інтелектом офіційно поки не є частиною армій світу. З 2014 року в Женеві за участю 75 країн ведуться переговори Організації Об'єднаних Націй про заборону смертоносних автономних систем зброї. Угода малоймовірна, тому що деякі держави переслідують власні інтереси. За даними мирних активістів 26 держав виступають за заборону такої зброї. Серед них Австрія і усі країни, що розвиваються. Китай теж висловився за заборону її застосування. Повідомляється, що США повністю проти обмежень на розвиток автономної зброї. У Німеччині також є компанії, які беруть участь у цьому розвитку і тим самим продовжують підживлювати міжнародну гонку озброєнь. Але чому автономна зброя користується таким великим попитом, наприклад, з боку американських військових? Якщо звернути увагу на швидко зростаючий рівень самогубств і руйнівний психічний стан серед солдатів США, можна знайти відповідь на це питання. Згідно з офіційною статистикою армії США, більше солдатів США у даний час гине в результаті самогубств, ніж від ворожих дій. Вони навряд чи можуть ідентифікувати себе як учасники так званих «гуманітарних» війн, які насправді представляють собою не що інше, як стратегічні агресивні війни. Солдати США довічно страждають від нечистої совісті через жорстокості під час війни по відношенню до цивільного населення. Ветерани війни масово повертають свої ордена [Bitte einblenden: www.kla.tv/5182], так як їм соромно за свою участь у бойових діях і вони відчувають глибоке розтрощення. Навіть пілоти дронів, які вбивають практично з письмового столу, як у комп'ютерній грі, і через віддаленість від місця бойових операцій, як правило, менш співчутливі, через кілька років «зношені». Десятиліття психологічних досліджень також показали, що солдати в бою частіше зовсім не стріляють у ворожих солдатів, а навмисно промахуються. Це дає зрозуміти, що людина не є «військовою машиною». Рух за мир і протести проти війни у всьому світі підкреслюють цей факт [Bitte einblenden: www.kla.tv/10677]. Тому для одержимих прагненням до влади розпалювачів війни і ляльководів-глобалістів, якi cтоять за ними,,необхідно створення автономних систем зброї, тобто роботів-вбивць, які працюють бездоганно і безкомпромісно, без сумніву, без жалю і без совісті. Не в останню чергу і для захисту від розлюченого натовпу. Так як все більше людей помічають глобальний контекст і більше не хочуть піддаватися експлуатації. Те, що контроль всієї грошової системи, всіх урядів, країн і їх ресурсів знаходиться в руках декількох сімей [Bitte einblenden: www.kla.tv/ (Rothschild-Doku)], людство не буде зносити нескінченно. Активісти за мир з усіх народів б'ють на сполох. Розвиток автономних систем зброї повинен бути всесвітньо заборонений. Більше 2500 дослідників і 176 організацій з області штучного інтелекту вже підписали добровільне зобов'язання не розробляти автономні системи смертоносної зброї. Своїми підписами учасники зобов'язуються «не підтримувати, не сприяти розвитку, виробництва, торгівлі або використання автономної смертоносної зброї». Але багатьох відомих імен там немає. Серед тих, що не підписали зобов'язання, такі як Google (гугл), Google-Holding Alphabet (гугл холдінг Алфабет), Boston Dynamics (бостон дайнемікс) – вiдомий виробник роботів. Також там немає і провідних виробників зброї. Мета активістів - вплинути далеко за межі кола учасників, привертаючи увагу широкої громадськості до небезпеки автономного зброї. Як руйнівно діє автономна зброя вже зараз, показує короткий кліп під назвою "Slaughterbots" (слотерботс), що означає "робот-м'ясник". Інститут майбутнього США (FLI) (Еф Їв Ай), метою якого є мінімілізація ризиків для людства, випустив цей відеоролик 12 листопада 2017 року. Через кілька тижнів на нього відреагували мільйони разів. Це відео показує жахливу перспективу того, як критики системи або небажані етнічні групи можуть бути ліквідовані в найкоротші терміни. Висновок: зупиніть цю техніку! Тут невелика вирізка з фільму: - Пілоти, з числа наших клієнтів, в минулому році зробили майже 3000 високоточних ударів, і ми дуже пишаємося ними. Це дозволяє відокремити поганих хлопців від хороших. Це дуже важливо. Але у нас є щось набагато більше. У ваших дітей, ймовірно, є те ж саме, чи не так? - Не зовсім так. Чортів пілот? Ні. Це здатність штучного інтелекту. Він літає сам по собі. Його процесор може реагувати в сотні разів швидше, ніж людина. Його переміщення ситуативно змінюється ‒ це функція захисту від снайпера. Як і будь-який інший мобільний пристрій сьогодні, він забезпечений камерами і датчиками. І точно так само, як у ваших мобільних телефонах і додатках для соціальних мереж, в ньому працює розпізнавання осіб. Тут є три грами спеціальних вибухових речовин. І ось як це працює. Ви це бачили? Цього маленького пострілу досить, щоб пробити черепну кришку і зруйнувати все, що за нею знаходиться. Завжди кажуть, що не зброя, а люди вбивають людей. Але якраз цього вони не роблять. Вони стають емоційними, не підкоряються наказам, навмисно промахуються. Отже, давайте подивимося, як зброя приймає рішення тут. Тепер повір мені – це все були злі хлопці. Це була повітряна атака хірургічної точності. Це один зразок з цілої лінійки продукції. Запрограмовані як рій, вони можуть проникати в будівлі, автомобілі і поїзди, ухилятися від людей і куль і блокувати майже всі контрзаходи. Їх неможливо зупинити. І я говорив, що це грандіозна справа. Чому? Тому що ми грандіозно мислимо. Подивіться: замовлення на 25 мільйонів доларів, і він вже куплений. Достатньо, щоб убити півміста. Злу половину. Атом – це вчорашній сніг. Вимкни свого ворога повністю - і практично без ризику. Просто задай його дані, відпусти рій і відпочивай. Все це ти можеш отримати вже сьогодні. Дурна зброя вражає те, на що ти її направиш. Інтелектуальна зброя переробляє дані. Якщо ви можете знайти свого ворога через дані, навіть по хештегу, то ви можете атакувати ворожу ідеологію прямо там, де вона починається. Цей короткий фільм ‒ не просто спекуляція. Він показує результати інтеграції та мініатюризації технологій, які ми вже маємо. Я ‒ Стюарт Рассел, професор комп'ютерних наук в Берклі. Я працюю над штучним інтелектом (ШІ) вже більше 35 років. Його потенціал на благо людства величезний, навіть в обороні. Але це стає руйнівним для нашої безпеки і свободи, коли машинам дозволяється вирішувати вбивати людей. Тисячі моїх колег згодні з тим, що у нас все ще є можливість запобігти такому майбутньому, яке ви тільки що бачили, але вікно можливостей швидко закривається.
від
Автономна зброя приймає рішення і діє незалежно, без втручання людини, за допомогою штучного інтелекту. Хоча вона знаходиться в процесі розвитку, але вже тримає світове співтовариство у напрузі. Про що конкретно йде мова і у чому проблема? [weiterlesen]