AI этикасы AI негізіндегі автономды қару жүйелерінің бір-екі соққысымен және шайтандықпен қаруланған AI басқаратын автономды жүйелерді пайдаланумен күресу

Төрт аяқты роботтар билейтін керемет.

Сіз итке ұқсайтын сүйкімді тәсілдермен билейтін және билейтін төрт аяқты робот жүйелерінің вирустық бейнелерін көргеніңізге сенімдімін. Біз AI басқаратын роботтарды кедергілерден өтіп, қораптардың үстіне қонған кезде немесе шкафтардың төбелеріне қауіп төніп тұрғаннан кейін нәзік тірекке ие болып жатқанда көргенді ұнататын сияқтымыз. Олардың адам өңдеушілері кейде төрт аяқты роботтарды итеріп немесе итеріп жібереді, бұл өте әділетсіз болып көрінеді және сол шебер гуманоидтардың дөрекі қарым-қатынасына ашуыңызды тез көтеруі мүмкін.

Сіз мүлдем басқа калибрдегі вирустық емес бейнелерді көрдіңіз бе деп ойлаймын.

Өзіңізді дайындаңыз.

Бір немесе басқа түрдегі айқын қару-жарақпен жабдықталған төрт аяқты роботтардың бірдей түрін көрсететін бейнелер кеңінен жарияланған.

Мысалы, пулемет немесе ұқсас атыс қаруы басқаша таныс роботтың үстіне орнатылған. Төрт аяқты робот пен қарудың ату механизмі арасында электронды байланыс бар. Қазір қаруланған компьютерлік серуендеу құралы бұқа нысанасы қойылған жерге қарай адымдап бара жатқанын көрсетеді және пулемет нысанаға қатты оқ атылады. Кейіннен жартылай жойылған нысананы шегелегеннен кейін төрт аяқты робот билейді және жақын маңдағы кедергілерді айналып өтіп, басқа жаңа нысандарда бірдей әрекетті қайта-қайта қайталау үшін сапқа тұрады.

Сіз күткендей емес. Бұл, әрине, төрт аяқты роботтардың өз істерін істеп жатқанын көрудің жеңілдігі мен салыстырмалы қуанышын тудырады. Сырттай көрінетін қатал шындыққа қош келдіңіз жазықсыз автономды жүйелер күрт қаруланғанға айналдырылады немесе түрленеді. Көп күш жұмсай отырып, сіз бір түнде толық қару-жарақты қамтитын «қарусыз» автономды жүйені қайта жабдықтай аласыз.

Бұл кейбір жағдайларда оңай дерлік.

Мен осы қызу даулы тақырыпты талқылап, туындайтын AI этикасының күрделі мәселелерін қарастырамын. Біз автономды жүйелерге, АИ-ге, автономды көліктерге, қару-жараққа және оған байланысты этикалық AI-ға қатысты көптеген мәселелерге саяхат жасаймыз. Жасанды интеллект этикасы мен этикалық AI туралы тұрақты және кең ақпарат алу үшін қараңыз сілтеме осында және сілтеме осында, бірнеше ғана атауға болады.

Кейбір негізгі тірек тастардан бастайық.

Талқылау үшін қару-жарақпен қаруланған автономды жүйелерді жіктеудің екі негізгі жолы бар екенін қабылдаңыз:

1) Автономды қару жүйелері (дизайн бойынша)

2) Қаруланған автономды жүйелер (артынан кейін)

Екі санаттың арасында маңызды айырмашылық бар.

Бірінші жағдайда біз анықтаймыз автономды қару жүйесі басынан бастап мақсатты түрде қару болуға арналған компьютерлік құрудың негізін қалады. Әзірлеушілер қаруды ойлап тапқысы келетінін есте ұстаған. Олардың нақты ізденісі - қару жасау. Олар қаруды автономды жүйелердегі ең соңғы технологиялармен біріктіре алатынын білді. Бұл автономды қозғалыс пен автономды әрекеттерге қол жеткізетін жоғары технология толқынына мінетін қару (мен жақын арада толығырақ түсіндіремін).

Керісінше, екінші жағдайда біз қару-жараққа мүлдем бейім емес автономды жүйелер мәселесін қарастырамыз. Бұл басқа мақсаттар үшін әзірленетін автономды жүйелер. Барлығына ұтқырлықты қамтамасыз ету және адам басқаратын және адам басқаратын автомобильдердің салдарынан болатын мыңдаған жыл сайынғы өлімді азайтуға көмектесу үшін пайдаланылатын өздігінен басқарылатын автомобиль сияқты автономды көлікті елестетіңіз (менің тереңірек қамтуды қараңыз). сағ сілтеме осында). Адамдарды рөлден шығарып, оның орнына АИ-ді жүргізуші орындығына отырғызу үшін қоғамды көтермелейтін күш-жігерді күшейтетін қару жоқ сияқты.

Бірақ егер адамдар мұны қаласа, бұл зиянсыз автономды жүйелер қарулануы мүмкін.

Мен бұл екінші санатты содан кейін деп атаймын қаруланған автономды жүйелер. Автономды жүйе бастапқыда қарусыз мақсатта жасалған. Осыған қарамастан, армандаған альтруистік үмітті біреу бір жерде бұл айла-шарғы қарулануы мүмкін деген ойға қалдырады. Кенеттен, ерке болып көрінген автономды жүйе қару мүмкіндіктерінің кейбір түрлерін белгілеу арқылы өлімге әкелетін қаруға айналды (мысалы, жоғарыда айтылған, пулемет немесе ұқсас атыс қаруы бар төрт аяқты ит тәрізді роботтар) .

Өкінішке орай, екі санат бір жерде аяқталады, атап айтқанда қару-жарақ үшін автономды жүйелерді өлімге әкелуі мүмкін негізде пайдалану мүмкіндігін береді.

Бұл соңғы нүктеге жету процесі басқаша болуы мүмкін.

Қару ретінде бекітілген тікелей қаруланған автономды жүйелер үшін қару-жарақ аспектілері әдетте алдыңғы және орталық болып табылады. Автономды жүйенің қырлары қарастырылатын қарудың ірге тасына оралған деп айтуыңыз мүмкін. Әзірлеушілердің ойлау процесі қарудың автономды жүйелердің пайда болуын қалай пайдалана алатынына байланысты.

Басқа көзқарас, әдетте, бұл ойға мүлдем сәйкес келмейді. Әзірлеушілер, мүмкін, адамзатты жақсарту үшін заманауи автономды жүйені алғылары келеді. Бұл әзірлеушілер автономды жүйені жасауға өздерінің шын жүректері мен жанын салды. Бұл олардың өнертабыс негізі. Олар керемет пайдалы құрылғыны ешкім басып алады немесе бұзып тастайды деп елестете алмауы мүмкін. Олар автономды жүйенің қалыптасып, өндірілуіне байланысты қоғамдық игіліктерге риза.

Бір кездері үшінші тараптар автономды жүйені қаруландыру үшін қайта құруға болатынын түсінді делік. Мүмкін, олар әзірлеушілерді жоғары мақсаттар үшін автономды жүйеге ие болуға мүмкіндік беру үшін алдауы мүмкін. Жабық есіктердің артында бұл зұлымдар автономды жүйеге қаруландыру мүмкіндігін жасырын түрде қосуды таңдайды. Войла, кінәсіздік ашық қаруға айналды.

Істер осылай жүрудің қажеті жоқ.

Мүмкін, әзірлеушілерге олар бейкүнә автономды жүйені дамытып жатқанын айтқан шығар, бірақ күш-жігерді қаржыландыру немесе басқаратындар басқа мақсаттарды көздеді. Автономды жүйенің әрекеті шынымен де жазықсыз басталған шығар, бірақ содан кейін шоттарды төлеу керек болғанда, басшылық жағымсыз себептермен автономды жүйелерді алғысы келетін қаржыландыру көзімен келісім жасады. Тағы бір мүмкіндік, әзірлеушілер кейінірек қолдану қаруландыру үшін болуы мүмкін екенін білген, бірақ олар бұл көпір пайда болған кезде немесе пайда болған кезде өтеміз деп ойлаған. т.б.

Мұның бәрі қалай орындалатыны туралы көптеген және көптеген әртүрлі жолдар бар.

Сізді алдыңғы бағандарда сипаттаған қызығушылық тудыруы мүмкін, бұл AI этикасы туралы хабардарлықтың жоғарылауы бар. қосарлы қолдану қазіргі заманғы AI элементтері, қараңыз сілтеме осында. Сізге қысқаша жылдамдықты жеткізуге рұқсат етіңіз.

Жақсылық үшін ойластырылған AI жүйесі кейде өте қарапайым өзгерістер арқылы жамандықтың шегінде болуы мүмкін және сәйкесінше қосарлы пайдалану сипатында болып саналады. Жақында жаңалықтарда өлтіруші болуы мүмкін химиялық заттарды табу үшін жасалған AI жүйесі болды, ол үшін әзірлеушілер біз осындай нашар ойластырылған химиялық заттардан аулақ болатынымызға немесе олардан сақ бола алатынымызға көз жеткізгісі келді. Бұл өлтіруші химикаттарды ашу үшін AI-ны оңай өзгертуге болады және осылайша зұлым адамдарға өздерінің зұлым жоспарлары үшін қандай химиялық заттарды дайындауға болатынын білуге ​​мүмкіндік береді.

Автономды жүйелер осы қос мақсаттағы конвертке сәйкес келуі мүмкін.

Белгілі бір дәрежеде, сондықтан AI этикасы және этикалық AI өте маңызды тақырып болып табылады. AI этикасының ережелері бізді сергек болуға мәжбүр етеді. AI технологтары кейде технологиямен, әсіресе жоғары технологияларды оңтайландырумен айналысуы мүмкін. Олар міндетті түрде үлкен әлеуметтік салдарларды қарастырмайды. Жасанды интеллект этикасы туралы ой-пікірдің болуы және оны AI әзірлеу және өрістету үшін интегралды түрде жасау сәйкес AI жасау үшін өте маңызды, соның ішінде (таңқаларлық немесе ирониялық) AI этикасын фирмалар қалай қабылдайтынын бағалау.

Жалпы AI этикасының ережелерін қолданудан басқа, бізде AI-ны әртүрлі пайдалануды реттейтін заңдар болуы керек пе деген сәйкес сұрақ бар. Федералды, штаттық және жергілікті деңгейлерде AI қалай жасалуы керектігі мен сипатына қатысты жаңа заңдар әзірленуде. Мұндай заңдарды әзірлеу және қабылдау әрекеті кезең-кезеңімен жүргізілуде. AI этикасы, ең болмағанда, қарастырылатын үзіліс ретінде қызмет етеді және белгілі бір дәрежеде бұл жаңа заңдарға тікелей қосылады.

Кейбіреулер бізге AI қамтитын жаңа заңдар қажет емес және біздің қолданыстағы заңдарымыз жеткілікті деп батыл дау жасайтынын ескеріңіз. Шын мәнінде, олар егер біз осы AI заңдарының кейбірін шығарсақ, үлкен әлеуметтік артықшылықтар беретін AI-дағы жетістіктерді қысқарту арқылы алтын қазды төмендететінімізді алдын ала ескертеді.

Автономия және қару екі өсиет ретінде

Кейбіреулер ұжымдық түрде ойлап табылған барлық түрдегі қаруланған автономды жүйелер туралы алдын ала ескерту үшін қолданатын ұтқыр фраза бар. сою роботтары.

Бұл біз ойлануға тиіс қосымша аспектіні тудырады.

Автономды қару жүйесі және/немесе қаруланған автономды жүйе өлімге әкелетін немесе өлтіретін роботтардың басым болуы керек пе?

Кейбіреулер біз шешкен болар едік деп дауласады өлімге әкелмейтін қаруланған автономды жүйелер де. Осылайша, бұл тұрғыдан алғанда, сою роботтары немесе өлтіруші роботтар сияқты сөз тіркестерін пайдалану өте орынсыз болып көрінеді. Өлімге әкелмейтін нұсқа өлімге әкелмейтін зиянды бағындыра алады немесе қолдана алады. Мұндай жүйелер өлтірмейді, олар азырақ жарақат тудырады. Қабілеттерді асыра көрсетпеңіз, бізді өлтіру машинасының тропымен айналысудың қажеті жоқ деп санайтындар айтыңыз.

Осылайша, бізде бұл болуы мүмкін:

  • Өлімге әкелетін автономды қару жүйелері
  • Қаруланған өлімге әкелетін автономды жүйелер
  • Өлтірмейтін автономды қару жүйелері
  • Қаруланған, өлімге әкелмейтін автономды жүйелер

Әрине, қарсы дәлел - қаруланған кез келген автономды жүйе, тіпті өлімге жатпайтын негізде пайдалану үшін болжанса да, өлім саласына сырғып кету мүмкіндігіне ие болып көрінеді. Автономды жүйеде қолыңызда қару болғаннан кейін өлімге әкелмейтіннен өлімге дейінгі екі қадамдық қадам тез орындалады. Сіз өлімге әкелмейтін адамның өлімге әкелетін аренаға түспейтініне сенімді кепілдік беру қиынға соғады (бірақ кейбіреулер мұны істеуге тырысады, математикалық көріністе).

Автономды жүйелер мен қаруландырудың осы жалпы тақырыбына тереңірек кіріспес бұрын, анық көрінетін болса да, ойдың басында көрінбейтін тағы бір нәрсені атап өту ыңғайлы болуы мүмкін.

Мінеки:

  • Автономды жүйенің құрамдас бөлігі болып табылатын AI аспектісі бар
  • Бұл теңдеудің қарулы жағы болып табылатын қару-жарақ аспектісі бар
  • AI қару-жарақпен де байланысты болуы мүмкін

Оны орауыштан шығарайық.

Бүгінгі автономды жүйелер AI-ны автономды қырларды шығарудың негізгі компьютерленген құралы ретінде қажет етеді деп болжаймыз. Мен бұл туралы айтып отырмын, өйткені сіз автономды жүйелерді жасау үшін AI-ға қатысы жоқ технологиялар мен әдістерді қолдануымыз мүмкін деп айтуға тырысуыңыз мүмкін, бұл шындық болса да, азырақ және азырақ болып көрінеді. Негізінде, AI автономияның жоғары деңгейіне мүмкіндік береді және олардың көпшілігі сәйкесінше AI жоғары технологияларын пайдаланады.

Жарайды, сондықтан бізде автономды жүйеге қандай да бір түрде енгізілген және автономды жүйені басқаратын және басқаратын AI негізіндегі мүмкіндік бар.

Ереже ретінде мұны саусақ ұшында ұстаңыз.

Бізде қарудың қандай да бір түрі болуы керек екені анық сияқты, әйтпесе біз бұл жерде автономды жүйелер тақырыбын неге талқылап отырмыз және қару-жарақ. Демек, иә, қарудың бір түрі бар екені анық.

Мен қолдануға болатын қару түрін зерттемеймін. Сіз ойыңызға келген кез келген қаруды жай ғана ауыстыра аласыз. Нақты қару болуы мүмкін. Жаппай бағытталған жойқын қару болуы мүмкін. Бұл оқтар немесе снарядтар бар нәрсе болуы мүмкін. Бұл химиялық заттар немесе атомдық ұшпа компоненттері бар нәрсе болуы мүмкін. Тізім шексіз.

Қосымша қарастырылатын мәселе - AI қару-жарақпен өзара байланысты ма, жоқ па. Жасанды интеллект қаруды тек серуендеуге апаруы мүмкін. Мылтық атқан төрт аяқты робот жағдайында, қаруды іске қосу үшін қашықтан басқару пульті бар адам атуы мүмкін. Итке ұқсас робот көріністі шарлайды, содан кейін триггерді тарту қашықтағы адамға байланысты.

Екінші жағынан, AI триггер тартқышы болуы мүмкін. AI тек шарлау және маневр жасау үшін ғана емес, сонымен қатар қаруды белсендіру үшін де жасалған болуы мүмкін. Бұл мағынада AI А-дан Я-ға дейін бәрін жасайды. Заттың қару-жарақ жағын орындау үшін қашықтағы адамға тәуелділік жоқ. Оның орнына AI мұны істеуге бағдарламаланған.

Қаруланған автономды жүйелерді пайдаланудың осы нақты жағдайында нақтылау үшін бізде мұндай мүмкіндіктер бар:

  • Автономды жүйе: AI автономды жүйені толығымен өздігінен басқарады
  • Автономды жүйе: AI автономды жүйені басқарады, бірақ циклдегі адам да араласа алады
  • Қару-жарақ: Қаруды қашықтан адам басқарады (AI басқарады)
  • Қару-жарақ: AI қаруды басқарады, бірақ циклдегі адам да араласа алады
  • Қару-жарақ: AI қаруды толығымен өздігінен басқарады

Мен бұған дейін автономды жүйелер мен автономды көліктерге қатысты адамның қол жетімділігінің нұсқаларын қарастырдым, қараңыз. сілтеме осында.

Төрт аяқты роботтардың билейтін және ойнайтын көңілді бейнелерін көргенде, олар әдетте тек қана АИ басқаратын роботтар болуы керек (бұл әдет-ғұрып немесе тереңдетілген адамдар арасында дұрыс этикет болып саналады. осы мәселелерге). Бұл сіз де дұрыс деп есептей аласыз. Әрине, сіз мұны анық білмейсіз. Роботтарды қашықтан басқарушы адам операторы болуы мүмкін. Сондай-ақ, AI басшылықтың бір бөлігін орындауы мүмкін, ал қашықтағы адам операторы да мұны жасайды, мүмкін, егер робот қиын жағдайға түсіп, өзін еркін айналдырудың өміршең құралын есептей алмаса, AI-ға көмектеседі.

Мұндағы негізгі мәселе AI мен автономды жүйелер мен қару-жарақтарды қалай араластыруға болатыны туралы көптеген дәмдер бар. Кейбіреулерінде автономды жүйені басқаратын, бірақ қару-жарақпен жұмыс істемейтін AI бар. Адам қаруды қашықтан басқаратын шығар. Тағы бір қыры, қару-жарақ алдын ала іске қосылуы мүмкін, ал автономды жүйе іске қосылған қаруды жеткізеді, осылайша AI қаруды іске қосуға тікелей қатыспады және оның орнына жеткізу құралы ретінде әрекет етті. Сондай-ақ, AI - бұл барлық сауда-саттықтың мақалы болып табылады және қаруды қолданудың автономды жүйе аспектілерінің барлық гаммасын жасайды.

Таңдауыңызды алыңыз.

Сонымен қатар, бұл тақырып бойынша пікірталасқа келгенде, адамның ілгегі үлкен фактор екенін біліңіз.

Кейбіреулерге бөлу сызығы, егер AI нысанаға алу мен атуды (немесе қарудың мәніне қарамастан) орындаса, онда бүкіл жиынтық пен кабина бос жерге өтті. Бұл алдын ала мақсатты адам таңдауы бар кәдімгі атыс және ұмытатын қарулардан ерекшеленеді, мысалы, нысанаға атуға дайын зымыраны бар патрульдік ұшқышсыз ұшқышсыз. қазірдің өзінде адам таңдаған.

Кейбіреулер неліктен қаруланған автономды жүйелер белсенді түрде жұмыс істеп тұрған автономды жүйенің бүкіл процесінде адамды үнемі қамтымайтынына таң қалады. Мұндай қаруланған автономды жүйелердің барлығына автономды жүйенің жұмыс істеуі үшін немесе қару-жарақпен (немесе екеуі үшін) жұмыс істейтін адам болуы керек деген қатаң талап қойылса, біз жақсырақ болар едік. . Бұл AI қоспасында сенімді және тұрақты адамның қолын ұстау мүлдем ақылды болып көрінуі мүмкін.

Бұл міндетті түрде орындалмайтын себептердің ұзақ тізіміне дайын болыңыз.

Мына қиындықтарды қарастырыңыз:

  • «Қызметтегі адам» дер кезінде жауап беру үшін жеткілікті жылдам болмауы мүмкін
  • Тікелей жауап беруге қажетті ақпарат жеткіліксіз болуы мүмкін
  • Циклдегі адам қажет уақытта қолжетімді болмауы мүмкін
  • Циклдегі адам шешімсіз болуы мүмкін және қажет болғанда әрекет етпеуі мүмкін
  • Циклдегі адам «дұрыс емес» шешім қабылдауы мүмкін (салыстырмалы түрде)
  • Жүйедегі адам қажетті уақытта қолжетімді болмауы мүмкін
  • Ілмектегі адам абдырап, шатасып кетуі мүмкін
  • Және т.б.

Сіз, сөзсіз, адамның әлсіздігі мен шектеулерінің тізімін қарап, содан кейін циклдегі адамды акциздеп, оның орнына әрқашан АИ-ді пайдаланудың мағынасы бар деген салтанатты қорытындыға келесіз. Бұл циклдегі адамды қоспағанда болуы мүмкін немесе AI жүйедегі адамның құрылымын жоққа шығара алатын болуы мүмкін. Жасанды интеллект пен циклдегі адам арасындағы келіспеушіліктердің келеңсіз жағдайларға қалай әкелетіні туралы менің талдауымды қараңыз. сілтеме осында.

Көбінесе, нақты уақыттағы адамға бағытталған осындай кемшіліктердің тізімі өз еркімен қалады және AI қандай да бір жолмен секіру керек деген ұзақ әсер қалдырады және циклдегі адамға қарағанда әлдеқайда дана таңдауды шектейді. . Бұл опасыз тұзаққа түспеңіз. Бұл жерде ақылға қонымды келіссөздер бар.

AI-ның осы салдарын қарастырыңыз:

  • AI оның адасуына әкелетін қатеге тап болуы мүмкін
  • AI шамадан тыс болуы және жауап бермеуі мүмкін
  • AI қате әрекетті тудыратын әзірлеуші ​​қателерін қамтуы мүмкін
  • AI имплантацияланған зұлымдық вирусымен зақымдалуы мүмкін
  • Жасанды интеллектті киберхаккерлер нақты уақытта басып алуы мүмкін
  • Күрделілікке байланысты AI болжау мүмкін емес деп саналуы мүмкін
  • AI есептеу арқылы «дұрыс емес» шешім қабылдауы мүмкін (салыстырмалы түрде)
  • Және т.б.

Сіз тек AI-ге тәуелді болу мен циклдегі адамды пайдаланудың арасында айырмашылықтар бар екенін көре аласыз деп сенемін. Егер сіз дайын шешім екеуін де пайдалану болып табылады деп ұсынғыңыз келсе, мен екі дүниенің де жақсысын ала алатыныңызды атап өткім келеді, бірақ сіз екі дүниенің де ең нашарсын ала аласыз. Ол әрқашан және сенімді түрде екі әлемнің ең жақсысы болады деп ойламаңыз.

Сіз AI туралы жоғарыда аталған кемшіліктердің біріне таң қалуыңыз мүмкін, атап айтқанда AI болуы мүмкін күтпеген. Біз AI қатаң логикалық және математикалық тұрғыдан дәл болуы керек деп сенуге үйреніп қалдық. Осылайша, сіз AI толық болжауға болатынын күтуіңіз мүмкін. Біз AI не істейтінін білуіміз керек. Әңгіменің мезгілі, соңы.

Бұл шарды жарып жібергенім үшін кешіріңіз, бірақ болжау туралы бұл миф қате атау. Қазіргі заманғы АИ-нің көлемі мен күрделілігі жиі болжауға кедергі келтіретін батпақ болып табылады. Бұл қазіргі кездегі кейбір Machine Learning (ML) және Deep Learning (DL) қолданулары туралы этикалық AI шуларынан көрінеді. Мен біраз уақыттан кейін түсіндіремін.

Сондай-ақ, сіз AI қауіпсіздігінің соңғы нұсқасы арқылы тексерілетін және математикалық дәлелденген AI жүйелерін қамтамасыз етуге бағытталған алдағы тенденциялар туралы соңғы талдауымды қарастырғыңыз келуі мүмкін. сілтеме осында.

Жолда жүру ережелері туралы ой толғау

Мен мақсаттар мен мақсаттылық түсінігін атап өттім, бұл өте көп жүктелген терминология бөлігі, ол назар аударуды қажет етеді.

Біз бұл туралы ойлана аламыз:

  • Адамдар болып табылатын мақсаттар
  • Адамдар емес, тірі тіршілік иелері болып табылатын нысандар
  • Меншік ретінде қарастырылатын мақсаттар

Бізде қаруланған автономды жүйе бар делік. AI автономды жүйені басқару үшін пайдаланылады және қару-жарақ үшін қолданылады. Жасанды интеллект А-дан Я-ға дейін бәрін жасайды. Циклдегі адам үшін ешқандай ереже жоқ. Мақсат қою тұрғысынан AI мақсатты таңдайды. Адамдар белгілеген алдын ала мақсат қою жоқ. Оның орнына, АИ мақсатты адамдардың бар-жоғын анықтау үшін бағдарламаланған (мүмкін дұшпандық әрекеттерді, белгілі бір киім түрлерін және т.б. сканерлеу).

Осы уақытқа дейін менімен бірге ме?

Бұл сценарий қаруланған автономды жүйелер туралы ең көп наразылықты тудыратын сценарий.

Белгіленген алаңдаушылық - АИ (кем дегенде) үш нәрсені жасайды, оған рұқсат етілмеуі керек:

  • Адамдарды нысанаға алу
  • Циклдегі адамды қолданбай нысанаға алу
  • Болжау мүмкін емес әрекетly

AI болжау мүмкін емес екендігі туралы алаңдаушылық туралы нақты айтылғанына назар аударыңыз. Мүмкін, AI белгілі бір адамдарға бағытталған бағдарламаланған болса да, AI бағдарламалау біз ойлағандай емес және AI «дұшпандық» деп түсінуге болатын нәрселерден басқа, «достық кездесулерге» бағытталған болуы мүмкін. ” (немесе, мүмкін, орнына). Бұған қоса, егер біз циклдегі адам туралы ережені қосуды таңдасақ та, АИ-нің болжауға болмайтындығы АИ циклдегі адаммен сөйлесуі керек болғанда, ол орындай алмайтынын білдіруі мүмкін. сондықтан адамның араласуынсыз әрекет етеді.

Сізді Халықаралық Қызыл Крест Комитетінің (ХҚКК) автономды қару-жарақ жүйелері туралы үш тармақтан тұратын жалпы позицияны ұсынғаны қызықтыруы мүмкін, бұл алаңдаушылықтардың осы түрлеріне (ХҚКК веб-сайтына сәйкес):

1. «Болжап болмайтын автономды қару жүйелерін нақты басқару керек сыртында, атап айтқанда, олардың таңдаусыз әсерлеріне байланысты. Бұған олардың салдарын жеткілікті түрде түсіну, болжау және түсіндіру мүмкін болмайтындай етіп жасалған немесе пайдаланылатын автономды қару жүйелеріне тыйым салу арқылы қол жеткізуге болады».

2. «Адамзатты қорғау және бейбіт тұрғындарды және соғысып жатқан жауынгерлерді қорғауға арналған халықаралық гуманитарлық құқық ережелерін қолдау үшін этикалық көзқарастарды ескере отырып, адамдарды нысанаға алу үшін автономды қару жүйелерін пайдалануды жоққа шығару керек. Бұған адамдарға күш қолдану үшін әзірленген немесе қолданылатын автономды қару жүйелеріне тыйым салу арқылы қол жеткізуге болады».

3. «Азаматтық тұрғындарды және азаматтық объектілерді қорғау, халықаралық гуманитарлық құқық нормаларын қолдау және адамзатты қорғау үшін тыйым салынбайтын автономды қару жүйелерін жобалау мен пайдалану, оның ішінде мыналарды біріктіру арқылы реттелуі керек: нысана түрлеріне шектеулер, мысалы, оларды табиғаты бойынша әскери мақсат болып табылатын объектілермен шектеу; пайдалану ұзақтығына, географиялық ауқымына және масштабына шектеулер, соның ішінде белгілі бір шабуылға қатысты адамның пайымдауын және бақылауын қамтамасыз ету; пайдалану жағдайларындағы шектеулер, мысалы, оларды азаматтық немесе азаматтық объектілер жоқ жағдайларға шектеу; rадам мен машинаның әрекеттесуіне арналған жабдықтар, әсіресе тиімді адам қадағалауын және уақтылы араласуды және өшіруді қамтамасыз ету.

Осыған байланысты Біріккен Ұлттар Ұйымы (БҰҰ) Женевадағы Кейбір кәдімгі қарулар туралы конвенция (CCW) арқылы желіде жарияланған ресми баяндамаға сәйкес (тиісті халықаралық гуманитарлық көмекке сілтемелерді қамтитын) өлімге әкелетін автономды қаруларға қатысты он бір басшылыққа алатын қағидаттарды белгіледі. Заң немесе IHL ережелері):

а) халықаралық гуманитарлық құқық барлық қару-жарақ жүйелеріне, соның ішінде өлімге әкелетін автономды қару-жарақ жүйелерін әлеуетті дамыту мен пайдалануды толықтай қолдануды жалғастыруда;

(b) Қару жүйелерін қолдану туралы шешімдерге адамның жауапкершілігі сақталуы керек, өйткені жауапкершілікті машиналарға беру мүмкін емес. Бұл қару жүйесінің бүкіл өмірлік циклі бойынша қарастырылуы керек;

(c) қарудың өмірлік циклінің әртүрлі кезеңдерінде жүзеге асырылуы мүмкін және әртүрлі нысандарда болуы мүмкін адам мен машинаның өзара әрекеті өлімге әкелетін автономды қару жүйелері саласында жаңа технологияларға негізделген қару жүйелерін әлеуетті пайдалануды қамтамасыз етуі керек. қолданыстағы халықаралық құқыққа, атап айтқанда, IHL нормаларына сәйкестік. Адам мен машинаның өзара әрекеттесуінің сапасы мен дәрежесін анықтау кезінде операциялық контекстті және тұтастай қару жүйесінің сипаттамалары мен мүмкіндіктерін қоса алғанда, бірқатар факторларды ескеру қажет;

(d) КҚК шеңберінде кез келген жаңадан пайда болған қару жүйесін әзірлеу, орналастыру және пайдалану үшін жауапкершілік қолданыстағы халықаралық құқыққа сәйкес, оның ішінде адамның басқару мен басқарудың жауапты тізбегі шеңберінде осындай жүйелерді пайдалану арқылы қамтамасыз етілуге ​​тиіс;

e) халықаралық құқық бойынша мемлекеттердiң мiндеттемелерiне сәйкес жаңа қаруды, соғыс құралын немесе әдiсiн зерделеу, әзiрлеу, сатып алу немесе қабылдау кезiнде оны пайдалану кейбiр немесе барлық жағдайларда қолданыла ма, жоқ па, соны анықтау қажет. халықаралық құқықпен тыйым салынған;

(f) өлімге әкелетін автономды қару жүйелері, физикалық қауіпсіздік, тиісті физикалық емес кепілдіктер (оның ішінде хакерлік шабуылға немесе деректерді бұрмалауға қарсы киберқауіпсіздік) саласындағы жаңа технологияларға негізделген жаңа қару жүйелерін әзірлеу немесе сатып алу кезінде террористік топтардың сатып алу қаупі және таралу қаупін ескеру керек;

(g) Тәуекелдерді бағалау және азайту шаралары кез келген қару-жарақ жүйесінде пайда болған технологияларды жобалау, әзірлеу, сынау және енгізу циклінің бөлігі болуы керек;

h) IHL және басқа да қолданылатын халықаралық құқықтық мiндеттемелердi сақтау үшiн өлімге әкелетін автономды қару жүйелері саласындағы жаңа технологияларды пайдалануды қарастыру қажет;

(i) әлеуетті саясат шараларын әзірлеу кезінде өлімге әкелетін автономды қару жүйелері саласындағы жаңа технологиялар антропоморфизацияланбауы керек;

(j) CCW контекстінде қабылданған талқылаулар және кез келген ықтимал саяси шаралар интеллектуалды автономды технологияларды бейбіт мақсатта пайдаланудағы прогреске немесе оларға қол жеткізуге кедергі жасамауы керек;

(k) CCW әскери қажеттілік пен гуманитарлық ойлар арасындағы тепе-теңдікті сақтауды көздейтін Конвенцияның мақсаттары мен мақсаттары аясында өлімге әкелетін автономды қару жүйелері саласындағы жаңа технологиялар мәселесін шешу үшін тиісті негізді ұсынады.

Біз өзімізді тапқан қиыншылық

Бұл әртүрлі соғыс заңдары, қарулы қақтығыстар туралы заңдар немесе IHL (Халықаралық гуманитарлық заңдар) қаруланған автономды жүйелердің пайда болуы туралы не істеуге тырысуымыз мүмкін екенін қарастыру үшін маңызды және перспективалы нұсқаулық ретінде қызмет етеді. кейінгі әдістермен.

Біз өлімге әкелетін қаруланған автономды жүйелерге тыйым салу қатаң және мойынсұнушылықпен орындалса деп шын жүректен тілейміз. Мәселе мынада, ең шынайы тыйымдардың кез келгенінде қулықпен табуға болатын көп орын бар. Олар айтқандай, ережелерді бұзуға арналған. Сіз әлгі нәрселер жайбарақат болса, риффрафф олқылықтарды шығарып, ережелерді айналып өтуге тырысады деп бәс тігуге болады.

Міне, қарастыруға лайық кейбір әлеуетті олқылықтар:

  • Өлімге әкелмейтін талаптар. Жасаңыз өлімге әкелмейтін автономды қару-жарақ жүйелері (бұл тыйым салынған шекарадан тыс болғандықтан жақсы сияқты), оны кейіннен өлімге әкелетінге айналдыруға болады (сіз тек соңғы минутта тыйымнан тыс боласыз).
  • Тек автономды жүйенің талаптары. Өлімге бағытталған автономды жүйелерді жасамау арқылы тыйымды қолдаңыз, сонымен бірге (әлі) қаруланбаған, бірақ қарулану үшін аздап жөндеуге болатын күнделікті автономды жүйелерді жасауда көп прогреске қол жеткізіңіз.
  • Бірдей біріктірілмеген талаптар. Мүлдем қаруланбаған автономды жүйелерді жасаңыз және уақыты келгенде, олардың екі бөлек элемент екенін батыл түрде дәлелдеуге тырысуға тырысыңыз, сондықтан олардың барлығы бір жерде емес деген тақырыпта дауласуға болады. автономды қару жүйесі немесе оның туысы.
  • Бұл автономды емес деп мәлімдейді. Автономды сипатқа ие емес қару жүйесін жасаңыз. Жасанды интеллектке негізделген автономиядан бас тарту үшін бұл автономды емес жүйеде орын қалдырыңыз. Қажет болған кезде автономияны қосыңыз және сіз айналдыруға дайынсыз (осы уақытқа дейін сіз тыйымды бұзбаған сияқтысыз).
  • басқа

Өлімге әкелетін автономды қару жүйелеріне тікелей тыйым салуға тырысқанда басқа да көптеген қиындықтар бар. Мен олардың тағы бірнешеуін қарастырамын.

Кейбір сарапшылар тыйым салу әсіресе пайдалы емес және оның орнына реттеуші ережелер болуы керек деп санайды. Бұл қайшылықтарға рұқсат етіледі, бірақ қатаң тәртіпте болады деген идея. Заңды мақсатты қолдану жолдарымен, мүмкіндіктердің заңды түрлерімен, заңды пропорционалдылықпен және т.б.

Олардың ойынша, тікелей тыйым салу - басыңды құмға тығып, бөлмедегі піл жоқ деп көрсетумен бірдей. Бұл пікірталас тыйым салу арқылы сіз осындай жүйелерге ұмтылудың азғырылуын күрт төмендете аласыз деген дәлелге қарсы шыққандардың қанын қайнатады. Әрине, кейбіреулер тыйымды мақтайды, бірақ кем дегенде көпшілігі жоқ деп үміттенеміз. Содан кейін сіз назарыңызды күлдіргіштерге аудара аласыз және назарыңызды барлығына бөлудің қажеті жоқ.

Бұл пікірталастар айналады.

Көбінесе алаңдататын тағы бір мәселе - жақсылар тыйымды ұстанса да, жамандар болмайды. Бұл жақсылықты нашар күйге түсіреді. Жамандарда мұндай қаруланған автономды жүйелер болады, ал жақсыларда болмайды. Жаманның бар екені белгілі болғаннан кейін, жақсылардың қуып жетуі тым кеш болады. Бір сөзбен айтқанда, бір ғана ақылды нәрсе – отпен отпен күресуге дайындалу.

Сондай-ақ классикалық тежеу ​​тартысы бар. Егер жақсылар қаруланған автономды жүйелерді жасауды таңдаса, мұны жамандарды ұрыс-керіске түсуге тырысудан тоқтату үшін пайдалануға болады. Не жақсылар жақсырақ қаруланып, осылайша жамандарды итермелейді, немесе жамандар осы жүйелерді жасырын түрде ойлап тапқанын ашқан кезде жақсылар дайын болады.

Бұл есептегіштерге қарсы қаруланған автономды жүйелерді жасау арқылы сіз қарулану жарысын жүргізесіз. Екінші жағы да солай болуға ұмтылады. Технологиялық тұрғыдан мұндай жүйелерді жаңадан жасауға қабілетсіз болса да, олар енді «жақсылардың» жоспарларын ұрлай алады, жоғары технологиялық ішектерді кері инженериялай алады немесе сыналған және шынайы деп санайтын нәрселерді қайталай алады. жұмысты орындау жолы.

Аха, кейбір қарсылық, мұның бәрі өзара ұқсастық арқылы қақтығыстардың азаюына әкелуі мүмкін. Егер А жағы В жағында өлімге әкелетін автономды жүйелердің қаруы бар екенін білсе, ал В жағы А жағында олардың бар екенін білсе, олар қатты отыруы және соққыға келмеуі мүмкін. Бұл өзара сенімді жойылу (MAD) дірілдерінің ерекше аурасына ие.

Және тағы басқа.

Автономиядағы AI

Бүгінгі AI табиғаты туралы бір бетте екенімізге көз жеткізейік.

Бүгінгі күні сезімтал AI жоқ. Бізде бұл жоқ. Біз сезімтал AI мүмкін болатынын білмейміз. Ешкім біз сезімтал AI-ға қол жеткіземіз бе, әлде сезімтал АИ қандай да бір түрде ғажайып түрде есептеу когнитивтік супернованың (әдетте сингулярлық деп аталады) пайда болуын болжай алмайды. сілтеме осында).

Мен назар аударатын АИ түрі бүгінгі күні бізде бар саналы емес АИ-ден тұрады. Біз жабайы болжам жасағымыз келсе сезімтал AI, бұл талқылау түбегейлі басқа бағытта жүруі мүмкін. Сезімтал AI адами сапада болуы мүмкін. Сезімтал АИ адамның когнитивтік баламасы екенін ескеру қажет. Сонымен қатар, кейбіреулер бізде өте интеллектуалды AI болуы мүмкін деп болжайтындықтан, мұндай AI адамдардан да ақылды болуы мүмкін деп болжауға болады (мүмкіндік ретінде супер интеллектуалды AI туралы зерттеуім үшін қараңыз. қамту осында).

Нәрселерді жерге түсіріп, бүгінгі санаулы емес АИ-ді қарастырайық.

Бүгінгі AI адам ойлауымен бірдей «ойлауға» қабілетсіз екенін түсініңіз. Alexa немесе Siri-мен өзара әрекеттескенде, сөйлесу мүмкіндіктері адамның мүмкіндіктеріне ұқсас болып көрінуі мүмкін, бірақ шындық - бұл есептеу және адам танымы жоқ. Жасанды интеллекттің соңғы дәуірі есептеу үлгісін сәйкестендіруге мүмкіндік беретін Machine Learning (ML) және Deep Learning (DL) мүмкіндіктерін кеңінен пайдаланды. Бұл адамға ұқсайтын бейімділікке ие AI жүйелеріне әкелді. Сонымен қатар, бүгінгі күні парасаттылыққа ұқсайтын және адамның күшті ойлауының когнитивтік ғажайыптары жоқ бірде-бір AI жоқ.

Бүгінгі AI-ны антропоморфизациялаудан өте сақ болыңыз.

ML/DL – есептеу үлгісін сәйкестендірудің бір түрі. Әдеттегі тәсіл - шешім қабылдау тапсырмасы туралы деректерді жинау. Сіз деректерді ML/DL компьютер үлгілеріне бересіз. Бұл модельдер математикалық заңдылықтарды табуға тырысады. Осындай үлгілерді тапқаннан кейін, егер табылса, AI жүйесі жаңа деректерге тап болған кезде сол үлгілерді пайдаланады. Жаңа деректер ұсынылғаннан кейін ағымдағы шешімді қабылдау үшін «ескі» немесе тарихи деректерге негізделген үлгілер қолданылады.

Менің ойымша, сіз бұл қайда бара жатқанын болжай аласыз. Шешімдердің үлгісін қабылдаған адамдар теріс көзқарастарды біріктірсе, деректер мұны нәзік, бірақ маңызды жолдармен көрсетеді. Machine Learning немесе Deep Learning есептеу үлгісін сәйкестендіру деректерді сәйкесінше математикалық имитациялауға тырысады. Жасанды интеллект модельдеудің жалпы мағынасы немесе басқа сезімтал аспектілері жоқ.

Сонымен қатар, AI әзірлеушілері не болып жатқанын түсінбеуі мүмкін. ML/DL-дегі жасырын математика қазір жасырын көзқарастарды анықтауды қиындатуы мүмкін. Сіз AI әзірлеушілері ықтимал жерленген бейімділіктерді тексереді деп үміттенесіз және күтесіз, бірақ бұл көрінгеннен де қиынырақ. Салыстырмалы түрде ауқымды тестілеу кезінде де ML/DL үлгілерін сәйкестендіру үлгілерінде әлі де ендірілген қиғаштықтардың болатынына сенімді мүмкіндік бар.

Сіз белгілі немесе әйгілі «қоқыс ішіндегі қоқыс шығару» деген нақыл сөзді пайдалана аласыз. Мәселе мынада, бұл АИ-ге батып кеткен бейтараптар ретінде жасырын түрде енгізілетін бейімділікке көбірек ұқсайды. AI алгоритмі шешім қабылдау (ADM) аксиоматикалық түрде теңсіздіктерге толы болады.

Жақсы емес.

Осы қосымша негізді негізге сүйене отырып, біз автономды жүйелер мен қаруландыру тақырыбына тағы да жүгінеміз. Бұрын біз AI автономды жүйе құрамдас бөлігіне енетінін және қарулану компонентіне де кіре алатынын көрдік. Қазіргі AI сезімтал емес. Бұл қайталауға тұрарлық және мен осы мәселелерге қосымша түсінік алу үшін осыны атап өтемін.

Мұның қаншалықты маңызды екенін көру үшін кейбір сценарийлерді қарастырайық. Мен осы тақырыптағы соғыс уақытындағы бағдардан бір сәтте шығып, оның көптеген басқа әлеуметтік орталарға қалай енетінін көрсетемін. Сәйкесінше өзіңізді ұстаныңыз.

AI негізіндегі автономды жүйе, мысалы, автономды көлік, біз қаруға еш қатысы жоқ деп айтамыз. Автономды көлікті пайдалану үшін адам келеді. Адам алдын ала болжайтын қарумен қаруланған. Осы нақты сценарийде талқылау үшін адамның ойында жағымсыз нәрсе бар деп есептеңіз. Адам автономды көлікке отырады (қаруын алып, жасырын немесе жасырын емес, кез келген жағдайда).

Автономды көлік шабандоз сұраған кез келген бағытқа барады. Бұл жағдайда, АИ бұл жолаушыны күн сайын ондаған немесе жүздеген сапарлар үшін жасағандай, бір алып кету орнынан белгіленген орынға бағдарламалы түрде жеткізеді.

Егер бұл адам жүргізуші және адам басқаратын көлік болса, адам жүргізуші жолаушының қарулы екенін және жағымсыз ниеті бар сияқты екенін түсінуі мүмкін. Адам жүргізуші көлікті басқарудан бас тартуы мүмкін. Немесе адам жүргізуші полиция бөлімшесіне баруы мүмкін. Немесе адам жүргізуші қарулы жолаушыны бағындыруға тырысуы мүмкін (хабарланған жағдайлар бар) немесе жолаушыны қаруды қолданудан бас тартуы мүмкін. Бұл өте күрделі және кез келген нұсқалар болуы мүмкін. Осындай қиын жағдайды шешуге бір ғана дұрыс жауап бар деп айту қиынға соғады. Өкінішке орай, жағдай өте ауыр және қауіпті.

Бұл жағдайда AI мұндай мүмкіндіктердің кез келгеніне бағдарламалануы екіталай. Бір сөзбен айтқанда, қарулы жолаушы көлік жүргізу кезінде өз қаруын автономды көліктің ішінен пайдалана алады. AI жүргізу жүйесі жол жүруді жалғастырады және автономды көлік жолаушының белгіленген белгісіне қарай жүре береді (егер межелі орын шекарадан тыс деп есептелмеген болса).

Қазіргі заманғы AI жүргізу жүйелерінің көпшілігі шабандоздың күш-жігеріне емес, тек жолға ғана назар аударады.

Жағдай бұдан да нашар болуы мүмкін.

Біреу мұқтаж жандарға қосымша азық-түлік алатын орынға азық-түлік бумасын жеткізгісі келеді делік. Адам автономды көлік сұрайды және азық-түлік сөмкелерін көліктің артқы орындығына қояды. Олар сапарға шықпайды және олар үшін азық-түлік пакеттерін жеткізу үшін автономды көлікті ғана пайдаланады.

Өте жақсы сияқты.

Азық-түлік сөмкелерінің бейбіт түсінігінен гөрі, ақымақ адам автономды көлікке қару-жарақтың қандай да бір түрін орналастыруды таңдайды деп елестетіңіз. Менің ойымша, сіз не болуы мүмкін екенін болжай аласыз. Бұл мен өзімнің бағандарымда қайта-қайта үгіттеп, тезірек жеңу керек екенін алдын ала ескерткен алаңдаушылық.

Сценарийлердің осы түрлеріне ұсынылатын жауаптардың бірі, мүмкін, барлық автономды көліктерді әлеуетті жолаушының қарулы және жаман ниеті бар-жоғын анықтау үшін камералары мен басқа сенсорларын пайдалану үшін бағдарламалауға болады. Мүмкін AI мұны істеу үшін бағдарламаланған болар. Немесе AI электронды және дыбыссыз қашықтағы адам операторын ескертеді, содан кейін ол камералар арқылы визуалды және басқа жолмен тексеріп, жолаушымен өзара әрекеттесуі мүмкін. Мұның бәрі күрделі және әлеуетті шешілмейтін құрттардың бір бөлігі болып табылады, сондықтан ол құпиялылыққа қатысты күрделі мәселелерді және басқа да көптеген этикалық AI мәселелерін тудырады. Менің хабарымды мына жерден қараңыз сілтеме осында.

Тағы бір ұқсас балама - АИ-де әдетте адам шешім қабылдайтын адамдар үшін сақталған этикалық немесе моральдық пайымдаулар жасауға мүмкіндік беретін АИ-ге енгізілген этикалық бағдарламалаудың қандай да бір түрі бар. Мен AI енгізілген есептеу этикасын болжаушылардың осы қайнату түрлерін зерттедім, қараңыз. сілтеме осында және сілтеме осында.

Ұрыс даласының сценарийіне оралсақ, өлімге әкелетін автономды қару жүйесі ұрыс аймағының үстінде жүреді деп елестетіңіз. AI автономды жүйені басқарады. AI борттағы қаруды басқарады. Біз бұрын АИ-нің дұшпандық сияқты көрінетін қозғалыстарды немесе жарамды жауынгерлер деп саналатын адам нысаналарының басқа көрсеткіштерін сканерлеуге бағдарламалануы мүмкін екенін ойладық.

Дәл осы АИ-де циклдегі адам не істей алатынын есептеу арқылы қарастыруға тырысатын этикалық-бағдарланған компонент болуы керек пе?

Кейбіреулер иә, осыны жалғастырайық дейді. Кейбіреулер қорқыныштан кері шегініп, бұл мүмкін емес немесе адамдық қасиетті бұзады деп айтады.

Тағы бір банка құрт.

қорытынды

Бұл тақырыпқа қызығушылық танытатындар үшін талқыланатын көп нәрсе бар.

Мен сізге бір ренжітетін жұмбақтың дәмін келтіремін.

Біз әдетте адам соғыс уақытында болған кез келген нәрсе үшін жауап береді деп күтеміз. Егер AI автономды қару жүйесін басқарса немесе қаруланған автономды жүйені басқарса және бұл жүйе ұрыс даласында санасыз деп есептелетін нәрсені жасаса, бұған кім немесе не кінәлі?

Сіз AI жауапкершілікке тартылуы керек деп дауласуыңыз мүмкін. Бірақ егер солай болса, бұл нені білдіреді? Біз бүгінгі АИ заңды тұлғаның көрінісі деп әлі санамаймыз, менің түсіндірмені мына жерден қараңыз. сілтеме осында. АИ жағдайында есекке құйрықты қағуға болмайды. Мүмкін, егер AI бір күні сезімтал болса, сіз мұны істеуге тырыса аласыз. Осы уақытқа дейін бұл аздап қол жетімді (сонымен қатар, АИ қандай жазалар немесе салдарларға ұшырайды, менің талдауымды қараңыз. сілтеме осында және сілтеме осында, Мысалға).

Егер АИ жауап беретін күдікті болмаса, біз, әрине, AI ойлап тапқан адам немесе адамдар жауап беруі керек деп айта аламыз. Егер AI тек автономды жүйені басқарса және оны қаруландырумен байланыстыратын кейбір адамдар пайда болса, мұны істей аласыз ба? Сіз AI әзірлеушілерінің артынан барасыз ба? Немесе AI-ны қолданғандар ма? Әлде тек қаруланушы актер ме?

Менің қызу пікірталасымда айсбергтің ұшына ғана қол тигіздім деген ойды түсінесіз деп сенемін.

Әзірге осы әңгімені жалғастырып, қорытындылайық. Джон Лайлидің кіргені естеріңізде шығар Эфю: тапқырлық анатомиясы 1578 жылы махаббат пен соғыста бәрі әділетті деп есте қалды.

Ол автономды қару-жарақ жүйелерінің пайда болуын және сол сияқты қаруланған автономды жүйелердің пайда болуын ойлаған ба?

Әрине, мұны бірден ойымызға қоюымыз керек.

Дереккөз: https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-struggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous- қару-жарақ-жүйелер-және-шайтандық-қаруланған-автономды-жүйелерді-пайдалану/