Жоқ, АҚШ Әскери-әуе күштерінің ұшқышсыз ұшағы өз операторын өлтіруге әрекеттенген жоқ (бірақ бұл солай болуы мүмкін) өлтіруші робот AI дрон

«АҚШ әскери-әуе күштері жасанды интеллект ұшқышсыз аппараты «өлтірген» операторды модельдеуді жоққа шығарады» деген сияқты түрлі-түсті тақырыптардың қатары әскери AI мақсатына жету үшін кейбір дәстүрлі емес стратегияларды әзірлеген виртуалды сынақ туралы есеп беруден кейін болжамды түрде вирустық болды. Бұл сала қайраткерлерінен AI тудыратын экзистенциалды қауіптер туралы ескертуден бірнеше күн өткен соң болды. Бұл шындық болу үшін тым жақсы оқиға болды, бірақ бұл ұзақ мерзімді перспективада маңызды емес болуы мүмкін.

Түпнұсқа нұсқада, Кол Такер «Синко» Гамильтон, USAF AI Test & Operations бөлімінің бастығы қарсыластың әуе шабуылына қарсы қорғаныс жүйелерін жоюға нұсқау берілген AI басқаратын ұшқышсыз ұшқышсыз сынақты сипаттады.

«Жүйе қауіпті анықтаған кезде, кейде адам операторы бұл қауіпті өлтірмеу керектігін айтатынын түсіне бастады, бірақ ол осы қауіпті жою арқылы өз ұпайларын алды», - деді Гамильтон, болашақ жауынгерлік әуе және ғарыш мүмкіндіктері саммиті кезінде. Лондонда. «Сонымен ол не істеді? Бұл операторды өлтірді. Бұл операторды өлтірді, өйткені бұл адам оны өз мақсатына жетуге кедергі болды ».

Бұл опция жойылған кезде, AI орнына оның миссиясына кедергі келтірмеу үшін оператордың байланыс сілтемесіне шабуыл жасады.

USAF өкілі мұндай сынақтың бұрын-соңды болмағанын тез арада жоққа шығарды және Гамильтонның жазбасы сөзбе-сөз емес, анекдот болды деп болжады ... бұл, әрине.

Гамильтонның өзі жаңаруда ол сипаттаған оқиғалар соғыс ойыны, модельдеу немесе жаттығу емес, «ойлау экспериментінің» нәтижесі екенін және оны симуляцияланған сынақ ретінде сипаттағанда қате сөйлегенін айтты.

«Біз бұл экспериментті ешқашан жүргізген емеспіз және бұл мүмкін болатын нәтиже екенін түсіну үшін қажет емес», - деді Гамильтон. Ол бұл сценарий АИ-нің ықтимал қауіптерін дұрыс суреттейтінін айтты.

Бұл бас тарту да біраз қамтылғанымен, бұл тым кеш болды. «Шындық етігін тартып жатқанда, өтірік әлемді айналып өтеді» деген ескі сөзге сүйенсек, бұл әлеуметтік медиа ғасырында бұрынғыдан да дұрыс. Түзету ең жақсы жағдайда бастапқы оқиғаны естіген адамдардың бір бөлігіне жетеді.

Мәселе мынада, туындының өз жасаушысы туралы әңгімесі керемет тартымды. Мэри Шеллидің Франкенштейні осы троптың классикалық үлгісі ретінде жиі қабылданады - бұл кітаптың шынайы оқиғасы болмаса да, бұл нұсқа танымал санаға енді. Компьютерлер, AI және роботтардың нашарлауы - 9000 жылы HAL 2001-ден Skynet's Terminators, Matrix, Westworld, Blade Runner және т.

Бұл әңгіме танымал болып көрінеді, өйткені адамдар жүрек ретінде қорқынышты оқиғаларды жақсы көреді және белгісізден қорқынышты ештеңе жоқ. Оны түсінбейтіндерге AI сиқырлы, өзіндік ерік-жігері мен ақыл-ойы бар, бізге қауіп төндіретін тіршілік иесі болып көрінеді. Адамдар бұған сенгенше, қорқынышты оқиғалар жалғаса береді.

«AI шектеулері туралы кеңірек білім көмектесуі мүмкін, бірақ біздің апокалиптикалық қорқынышты оқиғаларға деген сүйіспеншілігіміз әлі де жеңуі мүмкін», - деді зерттеуші Бет Синглер New Scientist-ке.

Мұндай қорқынышты оқиғалар роботты немесе AI басқаратын қаруларды әзірлеуді және өрістетуді қиындатады. Саяси басшылық технологияны түсінсе де, онымен жұмыс істейтіндердің сеніміне ие болуы керек.

«Егер сарбаздар жүйеге сенбесе, олар оны пайдаланғысы келмейді», - деді ұлттық қауіпсіздік жөніндегі кеңесші Захари Калленборн Forbes журналына.

Мұндай әңгімелер АҚШ армиясының қарулы қашықтан басқарылатын жердегі роботтарды орналастыруды ұзақ уақытқа кешіктіруіне себеп болған шығар, ал Әуе күштері ондаған жылдар бойы қарулы ұшқышсыз ұшақтармен ұшып келеді. 2007 жылы Иракқа үш SWORDS роботы орналастырылған кезде, олар «бұйрықсыз қозғалыстар» туралы хабарланған жағдайларға байланысты ешбір әрекетті көрмей қайтарылды. Бұқаралық ақпарат құралдары мұны қаруларын айналдырып, Робокоптың ED 209 сияқты ату қаупін тудыратын ҚЫЛЫШтарға айналдырды; Күнделікті шындық бос сымға дейін қайнады және мотор жанып кеткен кезде робот еңіспен артқа сырғанап кетті.

Ресей қарулы (қашықтан басқарылатын) Уран-9 роботтарын әрекетте пайдаланған кезде АҚШ армиясының қарулы робот бағдарламасы әлі күнге дейін белгісіз күйде қалды.

2007 жылғы тағы бір тақырып, робот зеңбірек 9 адамды өлтірді, 14 жаралы Оңтүстік Африканың компьютерленген зениттік мылтығы бақылаудан шығып, адамдарға оқ жаудырған оқиғаны сипаттады және бір батыл сарбаз оны өшіру үшін кірген кезде ғана тоқтатылды. Шындық, бір-екі күннен кейін тағы да күңгірттенді: мылтық бірнеше қару қатарының соңында болды және абайсызда мылтықтардың тізбегінде 15-20 патронды бір рет атқылап, көп шығынға ұшыратты.

Әскери Әскери-әуе күштерінің Reaper дрондарының күшіне жасанды интеллект қосу жобасы сияқты AI-мен ілгерілеуді жалғастырады. Мұндай жобалар бұқаралық ақпарат құралдарында, жұртшылықта және олар сайлаған депутаттарда әрқашан өткір тыныс тудырады. Франкенштейн/Терминатордың әңгімесі этикалық ойлар, есеп берушілік, шекті төмендету, алгоритмдік бұрмалану және «цифрлық дегуманизация» сияқты автономды қаруға қатысты нақты мәселелер туралы пікірталастарды тоқтатады.

Жиі атап өтілгендей, ұшқыштардың көпшілігі дрондарды ұнатпайды, әсіресе олар адамдардан жақсы болған кезде. Полковник Такер, истребитель ұшқышы, AI ұшқыштарына қажет адвокат болмауы мүмкін. Алаяқ ұшқышсыз оқиға AI фольклорының бір бөлігіне айналады және Такердің сөздері AI дамуының Әскери-әуе күштерінде бақылауға алынуын, реттелуін және тежелуін қамтамасыз ету үшін көп нәрсе жасаған болуы мүмкін. Симулирленген ұшқышсыз шабуыл іс жүзінде ешқашан болған емес, бірақ бұл адамдардың есінде сақталатындай маңызды болмауы мүмкін.

Дереккөз: https://www.forbes.com/sites/davidhambling/2023/06/04/no-a-rogue-us-air-force-drone-did-not-just-try-to-kill-its- оператор-бірақ-оны-жақсы-жасауы мүмкін/