AI этикасы мен AI заңы би робот жасаушылардың AI қарулануын болдырмайтынын айтып, жаңа кепілге қатысты қиын сұрақтар қояды.

Сіз өткен аптада жаңалықтардан көрген боларсыз немесе әлеуметтік желілерде кейбір робот жасаушылардың жалпы мақсаттағы роботтарды AI қарулануын болдырмайтыны туралы жариялаған уәдесін байқаған боларсыз. Мен сізге біраз уақыттан кейін егжей-тегжейлі айтып беремін, сондықтан бұл мәселеге назар аудармасаңыз, уайымдамаңыз.

Бұл мәлімдемеге реакция жылдам болды және, бәлкім, біздің поляризацияланған қоғамымызда әдеттегідей, мақтауға да, кейде мысқылдай сынға немесе мүлдем күмәндануға да қатысты.

Бұл екі дүниенің хикаясы.

Бір әлемде кейбіреулер дәл осы бізге қажет деп айтады жауапты AI робот әзірлеушілері мәлімдейді.

Бірте-бірте көзге көрініп, алаңдататын мәселенің оң жағында болғаныңызға шүкір. Бұл сүйкімді билейтін роботтар мазалайды, өйткені оларды қару алып жүруге және ең нашар тәсілдермен қолдануға оңай (сіз мұны әлеуметтік желіге кіріп, өзіңіз тексере аласыз және пулеметтер мен автоматтармен қаруланған би роботтарын көрсететін көптеген бейнелер бар). басқа қару-жарақ).

Бұл монетаның екінші жағында кепіл деп аталатын нәрсе маркетинг немесе қоғаммен байланыс айласынан басқа ештеңе емес екенін айтады (жазба ретінде, кепіл мен қайырымдылықтың айырмашылығын білетін адам бар ма?). Қалай болғанда да, күмәнданушылар бұл роботтардың биі контекстіндегі ізгілік белгісі деп санайды. Қарап отырсаңыз, жалпы мақсаттағы роботтардың қарулануы мүмкін екеніне налығаныңыз, әрине, лайықты және мұқият ойластырылған нәрсе, бірақ өндіруші мұны жасамайды деп айту бос уәде болуы мүмкін, деп сендіреді кейбіреулер.

Тұтастай алғанда, бұл мәселе AI этикасы мен AI заңы туралы ойлардың өте көп жиынтығын тудырады. Біз тақырыпты мұқият ашамыз және бұл этикалық және заңды AI азғыруының екі есе ауыр екенін көреміз. Жасанды интеллект этикасы және AI заңы туралы тұрақты және кең ақпарат алу үшін қараңыз сілтеме осында және сілтеме осында, бірнеше ғана атауға болады.

Мен сондай-ақ осы талқылау барысында AI қарулану қаупі туралы алдын ала талдауларыма, мысалы, менің терең бағалауыма сілтеме жасаймын. сілтеме осында. Сахна артындағы қосымша мәліметтерді алу үшін осы дискурсты қарастырғыңыз келуі мүмкін.

Құмыраны ашатын ашық хат

Осы талдауды жақында алты салыстырмалы түрде танымал озық робот жасаушылар, атап айтқанда Boston Dynamics, Clearpath Robotics, ANYbotics, Agility Robotics, Open Robotics және Unitree шығарған Ашық хатты мұқият зерделеуден бастаймыз. Жалпы алғанда, сіз негізінен Boston Dynamics роботтарын көрдіңіз деп ойлаймын, мысалы, төрт аяқпен айналатын роботтар. Олар итке ұқсайды және біз олардың жан-жаққа жүгіргенін көргенде қуанамыз.

Мен бұрын және бірнеше рет ескерткенімдей, мұндай «би» роботтарды жалпы жұртшылықты бұл роботтардың сүйкімді және сүйкімді екеніне сендіру құралы ретінде пайдалану, өкінішке орай, жаңылыстырады және оларды антропоморфизациялаудың көптеген тұзақтарына түседі. Біз бұл қатайтылған металл және пластмасса бөліктерін олар ерке адал иттің баламасы деп ойлай бастаймыз. Біздің бұл роботтарды қабылдауға дайындығымыз жалған қауіпсіздік пен сенімділік сезіміне негізделген. Әрине, сіз ақша табуыңыз керек және мұны істеу мүмкіндігі билейтін роботтардың айналасында шеру арқылы жақсарады, бірақ бұл өкінішке орай, бұл роботтардың роботтар екендігі және роботтарды басқаратын AI дұрыс емес ойлап шығарылуы мүмкін деген нақты фактіні жоққа шығарады немесе жасырады. немесе бұрысыңыз.

AI-ның осы салдарын қарастырайық (AI қаруландыру туралы менің мақаламнан үзінді сілтеме осында):

  • AI оның адасуына әкелетін қатеге тап болуы мүмкін
  • AI шамадан тыс болуы және жауап бермеуі мүмкін
  • AI қате әрекетті тудыратын әзірлеуші ​​қателерін қамтуы мүмкін
  • AI имплантацияланған зұлымдық вирусымен зақымдалуы мүмкін
  • Жасанды интеллектті киберхаккерлер нақты уақытта басып алуы мүмкін
  • Күрделілікке байланысты AI болжау мүмкін емес деп саналуы мүмкін
  • AI есептеу арқылы «дұрыс емес» шешім қабылдауы мүмкін (салыстырмалы түрде)
  • Және т.б.

Бұл дұрыс нәрсені істеу үшін бастапқыда шынымен ойлап табылған AI-ға қатысты нүктелер.

Осы ойларға қоса, жаман нәрселерді жасау үшін басынан бастап жасалған AI жүйелерін қосу керек. Сізде пайдалы мақсаттар үшін жасалған, жиі деп аталатын AI болуы мүмкін Жақсылыққа арналған AI. Сондай-ақ, сізде жаман мақсаттар үшін әдейі жасалған AI болуы мүмкін AI for Bad. Сонымен қатар, сізде болуы мүмкін Жақсылыққа арналған AI бүлінген немесе қайта айналатын AI for Bad.

Айтпақшы, бұлардың ешқайсысының AI-ның сезімтал болуына ешқандай қатысы жоқ, мен мұны айтып отырмын, өйткені кейбіреулер бүгінгі АИ не сезімтал, не сезімтал болу алдында деп айтып жатыр. Олай емес. Мен бұл мифтерді өз талдауымда бөліп аламын сілтеме осында.

Олай болса, бүгінгі АИ-нің табиғаты туралы бір бетте екенімізге көз жеткізейік.

Бүгінгі күні сезімтал AI жоқ. Бізде бұл жоқ. Біз сезімтал AI мүмкін болатынын білмейміз. Ешкім біз сезімтал AI-ға қол жеткіземіз бе, әлде сезімтал АИ қандай да бір түрде ғажайып түрде есептеу когнитивтік супернованың (әдетте сингулярлық деп аталады) пайда болуын болжай алмайды. сілтеме осында).

Мен назар аударатын АИ түрі бүгінгі күні бізде бар саналы емес АИ-ден тұрады. Егер біз ақылға қонымды AI туралы ойдан шығарғымыз келсе, бұл талқылау түбегейлі басқа бағытта жүруі мүмкін. Сезімтал AI адами сапада болуы мүмкін. Сезімтал АИ адамның когнитивтік баламасы екенін ескеру қажет. Сонымен қатар, кейбіреулер бізде өте интеллектуалды AI болуы мүмкін деп болжайтындықтан, мұндай AI адамдардан да ақылды болуы мүмкін деп болжауға болады (мүмкіндік ретінде супер интеллектуалды AI туралы зерттеуім үшін қараңыз. қамту осында).

Мен заттарды жер бетінде ұстап тұруды және бүгінгі күннің санаулы емес АИ-ін қарастыруды ұсынамын.

Бүгінгі AI адам ойлауымен бірдей «ойлауға» қабілетсіз екенін түсініңіз. Alexa немесе Siri-мен өзара әрекеттескенде, сөйлесу мүмкіндіктері адамның мүмкіндіктеріне ұқсас болып көрінуі мүмкін, бірақ шындық - бұл есептеу және адам танымы жоқ. Жасанды интеллекттің соңғы дәуірі есептеу үлгісін сәйкестендіруге мүмкіндік беретін Machine Learning (ML) және Deep Learning (DL) мүмкіндіктерін кеңінен пайдаланды. Бұл адамға ұқсайтын бейімділікке ие AI жүйелеріне әкелді. Сонымен қатар, бүгінгі күні парасаттылыққа ұқсайтын және адамның күшті ойлауының когнитивтік ғажайыптары жоқ бірде-бір AI жоқ.

Бүгінгі AI-ны антропоморфизациялаудан өте сақ болыңыз.

ML/DL – есептеу үлгісін сәйкестендірудің бір түрі. Әдеттегі тәсіл - шешім қабылдау тапсырмасы туралы деректерді жинау. Сіз деректерді ML/DL компьютер үлгілеріне бересіз. Бұл модельдер математикалық заңдылықтарды табуға тырысады. Осындай үлгілерді тапқаннан кейін, егер табылса, AI жүйесі жаңа деректерге тап болған кезде сол үлгілерді пайдаланады. Жаңа деректер ұсынылғаннан кейін ағымдағы шешімді қабылдау үшін «ескі» немесе тарихи деректерге негізделген үлгілер қолданылады.

Менің ойымша, сіз бұл қайда бара жатқанын болжай аласыз. Шешімдердің үлгісін қабылдаған адамдар теріс көзқарастарды біріктірсе, деректер мұны нәзік, бірақ маңызды жолдармен көрсетеді. Machine Learning немесе Deep Learning есептеу үлгісін сәйкестендіру деректерді сәйкесінше математикалық имитациялауға тырысады. Жасанды интеллект модельдеудің жалпы мағынасы немесе басқа сезімтал аспектілері жоқ.

Сонымен қатар, AI әзірлеушілері не болып жатқанын түсінбеуі мүмкін. ML/DL-дегі жасырын математика қазір жасырын көзқарастарды анықтауды қиындатуы мүмкін. Сіз AI әзірлеушілері ықтимал жерленген бейімділіктерді тексереді деп үміттенесіз және күтесіз, бірақ бұл көрінгеннен де қиынырақ. Салыстырмалы түрде ауқымды тестілеудің өзінде ML/DL үлгісіне сәйкес модельдер ішінде әлі де енгізілген қиғаштықтардың болатынына сенімді мүмкіндік бар.

Сіз белгілі немесе әйгілі «қоқыс ішіндегі қоқыс шығару» деген нақыл сөзді пайдалана аласыз. Мәселе мынада, бұл АИ-ге батып кеткен бейтараптар ретінде жасырын түрде енгізілетін бейімділікке көбірек ұқсайды. AI алгоритмі шешім қабылдау (ADM) аксиоматикалық түрде теңсіздіктерге толы болады.

Жақсы емес.

Мұның бәрі AI этикасының айтарлықтай маңызды салдары бар және AI-ны заңдастыруға тырысқанда алынған сабақтарға (барлық сабақтар болмай тұрып) ыңғайлы терезені ұсынады.

Жалпы AI этикасының ережелерін қолданудан басқа, бізде AI-ны әртүрлі пайдалануды реттейтін заңдар болуы керек пе деген сәйкес сұрақ бар. Федералды, штаттық және жергілікті деңгейлерде AI қалай жасалуы керектігі мен сипатына қатысты жаңа заңдар әзірленуде. Мұндай заңдарды әзірлеу және қабылдау әрекеті кезең-кезеңімен жүргізілуде. AI этикасы, ең болмағанда, қарастырылатын үзіліс ретінде қызмет етеді және белгілі бір дәрежеде бұл жаңа заңдарға тікелей қосылады.

Кейбіреулер бізге AI қамтитын жаңа заңдар қажет емес және біздің қолданыстағы заңдарымыз жеткілікті деп батыл дау жасайтынын ескеріңіз. Олар егер біз осы AI заңдарының кейбірін қабылдасақ, орасан зор әлеуметтік артықшылықтар беретін AI-дағы жетістіктерді қысқарту арқылы алтын қазды өлтіретінімізді ескертеді.

Алдыңғы бағандарда мен AI реттейтін заңдарды жасау және қабылдау бойынша әртүрлі ұлттық және халықаралық әрекеттерді қарастырдым, қараңыз. сілтеме осында, Мысалға. Мен сондай-ақ әртүрлі елдер анықтаған және қабылдаған AI этикасының әртүрлі принциптері мен нұсқауларын, соның ішінде БҰҰ-ның күш-жігерін, мысалы, ЮНЕСКО-ның 200-ге жуық ел қабылдаған AI этикасының жиынтығын, қараңыз. сілтеме осында.

Міне, мен бұрын мұқият зерттеген AI жүйелеріне қатысты этикалық AI критерийлерінің немесе сипаттамаларының пайдалы негізгі тізімі:

  • Ашықтық
  • Әділдік және әділдік
  • Зиянсыздық
  • жауапкершілік
  • Құпиялық
  • Қайырымдылық
  • Бостандық және автономия
  • сенім
  • тұрақтылық
  • Ар-ұждан
  • Ынтымақтастық

Бұл AI этикасының принциптерін AI әзірлеушілері, сондай-ақ AI әзірлеу күш-жігерін басқаратындармен, тіпті ақырында AI жүйелерін өңдейтін және жүргізетіндер де пайдалануы керек.

Жасанды интеллектіні әзірлеу мен пайдаланудың бүкіл өмірлік циклі бойынша барлық мүдделі тараптар этикалық АИ-нің қалыптасқан нормаларын сақтау аясында қарастырылады. Бұл маңызды жайт, өйткені әдеттегі болжам «тек кодерлер» немесе AI-ны бағдарламалайтындар AI этикасы ұғымдарын ұстануға жатады. Бұл жерде алдын ала атап өтілгендей, AI-ны ойлап табу және өрістету үшін ауыл қажет және ол үшін бүкіл ауыл AI этикасының ережелерін білуі және ұстануы керек.

Енді мен Ашық хатқа кіру үшін пайдалы негіз қалағандықтан, біз сүңгуге дайынбыз.

Ашық хаттың ресми тақырыбы мынау:

  • «Робототехника саласына және біздің қауымдастықтарға ашық хат, жалпы мақсаттағы роботтар қаруланбауы керек» (желіде жарияланғандай).

Әзірше бәрі жақсы.

Атауы балмұздақ пен алма бәлішіне ұқсайды. Бұл AI роботын қаруландырудан аулақ болу үшін бұрынғы шақыру ретінде қалай дауласуға болады?

Көру үшін оқыңыз.

Біріншіден, қарастырылатын жем ретінде, міне, Ашық хаттың ресми ашылу параграфы:

  • «Біз қоғамға озық мобильді робототехниканың жаңа буындарын енгізуге бағытталған әлемнің жетекші компанияларымыз. Роботтардың бұл жаңа буындары алдыңғы буындарға қарағанда қол жетімді, жұмыс істеуге оңай, автономды, қолжетімді және бейімделгіш және автоматтандырылған немесе қашықтан басқарылатын технологиялар үшін бұрын қол жетімсіз орындарға шарлауға қабілетті. Жетілдірілген мобильді роботтар өнеркәсіптегі әріптестер және үйлеріміздегі серіктес ретінде қоғамға үлкен пайда әкеледі деп сенеміз »(Интернетте жарияланғандай).

Роботтардың осы түрлерінің пайда болуының жарқын жағы - біз пайда болатын көптеген үлкен артықшылықтарды болжай аламыз. Оған күмән жоқ. Сіздің үйіңізде үйді тазалау, ыдыс-аяқ жуу және үй шаруашылығындағы басқа да жұмыстар сияқты Джетсонға ұқсас әрекеттерді орындай алатын робот болуы мүмкін. Бізде зауыттар мен өндіріс орындарында қолданылатын озық роботтар болады. Роботтар ғимараттың құлауы және адам өмірін сақтап қалу қаупі төнген кездегі сияқты тар кеңістіктерге шығуы немесе маневр жасауы мүмкін. Және тағы басқа.

Сонымен қатар, сіз Илон Маск жаяу жүретін роботтарды Тесла мен қоғамның болашағы ретінде бейнелеген Tesla AI күні туралы жақында жасалған сыни мақаламға қызығушылық танытуыңыз мүмкін. сілтеме осында.

Қарастырылып отырған мәселеге қайта келу. Би роботтары немесе жаяу роботтар туралы байыпты талқылағанда, біз AI-ны пайдаланудың жалпы рентабельділігін немесе жалпы ROI-ді (инвестициялардың қайтарымы) ескеруіміз керек. Шығындар да ескерілетін кезде артықшылықтарға тым әуестенуге жол бермеуіміз керек.

Жылтыр жаңа ойыншықтың жиектері өте өткір болуы мүмкін.

Мұның бәрі маңызды, бірақ біршама үнсіз мәселеге түрткі болады, қазір AI қарулану мәселесінің туындау себебінің бір бөлігі AI-ның автономды әрекетке жетуіне байланысты. Біз әдетте қаруды әдетте адам басқарады деп күттік. Қаруды ату немесе ату туралы шешімді адам қабылдайды. Біз бұл адамды өз әрекеттері үшін жауапқа тарта аламыз.

Автономды түрде жұмыс істеу үшін жасалған немесе алданып қалуы мүмкін AI адамды циклден алып тастайтын сияқты. Содан кейін AI алгоритмдік түрде адамдарды өлтіруі немесе зиян келтіруі мүмкін есептеу шешімдерін қабылдайды. Жасанды интеллектке бақылаудың жоқтығына қатысты айқын алаңдаушылықтардан басқа, сізде AI әрекеттеріне қатысты жауапкершілікті қиын уақыт күтіп тұруы мүмкін деп алаңдайсыз. Бізде айқын ұйытқы болатын адам жоқ.

Мен кейбіреулер АИ-ді оның әрекеттері үшін жай және тікелей жауап беруіміз керек деп санайтынын түсінемін, өйткені AI ақыл-ойға жеткен немесе басқа жолмен заңды тұлға ретінде берілген (заңды тұлға ретіндегі AI туралы пікірталастар туралы менің мақаламды қараңыз. сілтеме осында). Бұл әзірге жұмыс істемейді. Біз AI-ны оны ойлап тапқан немесе оны жасаған адамдарға іздеуіміз керек. Олар, сөзсіз, АИ олар ойлағаннан асып кетті деп айту арқылы жауапкершіліктен заңды түрде құтылуға тырысады. Бұл біз шешуіміз керек өсіп келе жатқан дау (қандай даулы мәселелер туралы түсінік алу үшін менің AI заңы туралы жазбаларымды қараңыз).

Біріккен Ұлттар Ұйымы (БҰҰ) Женевадағы Кейбір кәдімгі қарулар туралы конвенция (CCW) арқылы желіде жарияланған ресми баяндамаға сәйкес (тиісті халықаралық гуманитарлық құқыққа немесе IHL ережелеріне сілтемелерді қамтитын) өлімге әкелетін автономды қаруларға қатысты он бір басшылыққа алынатын қағидаттарды белгіледі. , оның ішінде:

а) халықаралық гуманитарлық құқық барлық қару-жарақ жүйелеріне, соның ішінде өлімге әкелетін автономды қару-жарақ жүйелерін әлеуетті дамыту мен пайдалануды толықтай қолдануды жалғастыруда;

(b) Қару жүйелерін қолдану туралы шешімдерге адамның жауапкершілігі сақталуы керек, өйткені жауапкершілікті машиналарға беру мүмкін емес. Бұл қару жүйесінің бүкіл өмірлік циклі бойынша қарастырылуы керек;

(c) қарудың өмірлік циклінің әртүрлі кезеңдерінде жүзеге асырылуы мүмкін және әртүрлі нысандарда болуы мүмкін адам мен машинаның өзара әрекеті өлімге әкелетін автономды қару жүйелері саласында жаңа технологияларға негізделген қару жүйелерін әлеуетті пайдалануды қамтамасыз етуі керек. қолданыстағы халықаралық құқыққа, атап айтқанда, IHL нормаларына сәйкестік. Адам мен машинаның өзара әрекеттесуінің сапасы мен дәрежесін анықтау кезінде операциялық контекстті және тұтастай қару жүйесінің сипаттамалары мен мүмкіндіктерін қоса алғанда, бірқатар факторларды ескеру қажет;

(d) КҚК шеңберінде кез келген жаңадан пайда болған қару жүйесін әзірлеу, орналастыру және пайдалану үшін жауапкершілік қолданыстағы халықаралық құқыққа сәйкес, оның ішінде адамның басқару мен басқарудың жауапты тізбегі шеңберінде осындай жүйелерді пайдалану арқылы қамтамасыз етілуге ​​тиіс;

e) халықаралық құқық бойынша мемлекеттердiң мiндеттемелерiне сәйкес жаңа қаруды, соғыс құралын немесе әдiсiн зерделеу, әзiрлеу, сатып алу немесе қабылдау кезiнде оны пайдалану кейбiр немесе барлық жағдайларда қолданыла ма, жоқ па, соны анықтау қажет. халықаралық құқықпен тыйым салынған;

(f) өлімге әкелетін автономды қару жүйелері, физикалық қауіпсіздік, тиісті физикалық емес кепілдіктер (оның ішінде хакерлік шабуылға немесе деректерді бұрмалауға қарсы киберқауіпсіздік) саласындағы жаңа технологияларға негізделген жаңа қару жүйелерін әзірлеу немесе сатып алу кезінде террористік топтардың сатып алу қаупі және таралу қаупін ескеру керек;

(g) Тәуекелдерді бағалау және азайту шаралары кез келген қару-жарақ жүйесінде пайда болған технологияларды жобалау, әзірлеу, сынау және енгізу циклінің бөлігі болуы керек;

h) IHL және басқа да қолданылатын халықаралық құқықтық мiндеттемелердi сақтау үшiн өлімге әкелетін автономды қару жүйелері саласындағы жаңа технологияларды пайдалануды қарастыру қажет;

(i) әлеуетті саясат шараларын әзірлеу кезінде өлімге әкелетін автономды қару жүйелері саласындағы жаңа технологиялар антропоморфизацияланбауы керек;

(j) CCW контекстінде қабылданған талқылаулар және кез келген ықтимал саяси шаралар интеллектуалды автономды технологияларды бейбіт мақсатта пайдаланудағы прогреске немесе оларға қол жеткізуге кедергі жасамауы керек;

(k) CCW әскери қажеттілік пен гуманитарлық ойлар арасындағы тепе-теңдікті сақтауды көздейтін Конвенцияның мақсаттары мен мақсаттары аясында өлімге әкелетін автономды қару жүйелері саласындағы жаңа технологиялар мәселесін шешу үшін тиісті негізді ұсынады.

Осы және басқа да әртүрлі соғыс заңдары мен қарулы қақтығыс заңдары немесе IHL (Халықаралық гуманитарлық заңдар) қаруланған автономды жүйелердің пайда болуы туралы не істеуге тырысуымыз мүмкін екенін қарастыру үшін маңызды және тұрақты нұсқау ретінде қызмет етеді. жобалау немесе кейінгі әдістермен.

Кейбіреулер қарулануға болатын AI автономды жүйелеріне тікелей тыйым салуымыз керек дейді. Бұл дұрыс, әлем аяғын төмен түсіріп, AI автономды жүйелерінің ешқашан қаруланбауын қатаң талап етуі керек. Толық тыйым салу керек. Әңгіменің соңы. Көп нүкте, нүкте.

Біз өлімге әкелетін қаруланған автономды жүйелерге тыйым салу қатаң және мойынсұнушылықпен орындалса деп шын жүректен тілейміз. Мәселе мынада, көптеген қимыл-қозғалыс орындары ең шынайы тыйымдардың кез келгенінен табылуы мүмкін. Олар айтқандай, ережелерді бұзуға арналған. Сіз әлгі нәрселер жайбарақат болса, риффрафф олқылықтарды шығарып, ережелерді айналып өтуге тырысады деп бәс тігуге болады.

Міне, қарастыруға лайық кейбір әлеуетті олқылықтар:

  • Өлімге әкелмейтін талаптар. Өлімге әкелмейтін автономды қару жүйелерін жасаңыз (бұл тыйым салынған шекарадан тыс болғандықтан жақсы көрінеді), содан кейін сіз өлімге әкелуі мүмкін (соңғы минутта тыйымнан тыс боласыз).
  • Тек автономды жүйенің талаптары. Өлімге бағытталған автономды жүйелерді жасамау арқылы тыйымды қолдаңыз, сонымен бірге (әлі) қаруланбаған, бірақ қарулану үшін аздап жөндеуге болатын күнделікті автономды жүйелерді жасауда көп прогреске қол жеткізіңіз.
  • Бірдей біріктірілмеген талаптар. Мүлдем қаруланбаған автономды жүйелерді жасаңыз және уақыты келгенде, олардың екі бөлек элемент екенін батыл түрде дәлелдеуге әрекеттенуге тырысыңыз, сондықтан олардың барлығы бір-біріне жатпайды деп есептей аласыз. автономды қару жүйесі немесе оның туысы.
  • Бұл автономды емес деп мәлімдейді. Автономды сипатқа ие емес қару жүйесін жасаңыз. Жасанды интеллектке негізделген автономиядан бас тарту үшін бұл автономды емес жүйеде орын қалдырыңыз. Қажет болған кезде автономияны қосыңыз және сіз айналдыруға дайынсыз (осы уақытқа дейін сіз тыйымды бұзбаған сияқтысыз).
  • басқа

Өлімге әкелетін автономды қару жүйелеріне тікелей тыйым салуға тырысқанда басқа да көптеген қиындықтар бар. Мен олардың тағы бірнешеуін қарастырамын.

Кейбір сарапшылар тыйым салу әсіресе пайдалы емес және оның орнына реттеуші ережелер болуы керек деп санайды. Бұл қайшылықтарға рұқсат етіледі, бірақ қатаң тәртіпте болады деген идея. Заңды мақсатты қолдану жолдарымен, мүмкіндіктердің заңды түрлерімен, заңды пропорционалдылықпен және т.б.

Олардың ойынша, тікелей тыйым салу - басыңды құмға тығып, бөлмедегі піл жоқ деп көрсетумен бірдей. Бұл пікірталас тыйым салу арқылы сіз осындай жүйелерге ұмтылудың азғырылуын күрт төмендете аласыз деген дәлелге қарсы шыққандардың қанын қайнатады. Әрине, кейбіреулер тыйымды мақтайды, бірақ кем дегенде көпшілігі жоқ деп үміттенеміз. Содан кейін сіз назарыңызды күлдіргіштерге аудара аласыз және назарыңызды барлығына бөлудің қажеті жоқ.

Бұл пікірталастар айналады.

Көбінесе алаңдататын тағы бір мәселе - жақсылар тыйымды ұстанса да, жамандар болмайды. Бұл жақсылықты нашар күйге түсіреді. Жамандарда мұндай қаруланған автономды жүйелер болады, ал жақсыларда болмайды. Жаманның бар екені белгілі болғаннан кейін, жақсылардың қуып жетуі тым кеш болады. Бір сөзбен айтқанда, бір ғана ақылды нәрсе – отпен отпен күресуге дайындалу.

Сондай-ақ классикалық тежеу ​​тартысы бар. Егер жақсылар қаруланған автономды жүйелерді жасауды таңдаса, мұны жамандарды ұрыс-керіске түсуге тырысудан тоқтату үшін пайдалануға болады. Не жақсылар жақсырақ қаруланып, осылайша жамандарды итермелейді, немесе жамандар осы жүйелерді жасырын түрде ойлап тапқанын ашқанда, жақсылар дайын болады.

Бұл есептегіштерге қарсы қаруланған автономды жүйелерді жасау арқылы сіз қарулану жарысын жүргізесіз. Екінші жағы да солай болуға ұмтылады. Технологиялық тұрғыдан мұндай жүйелерді жаңадан жасауға қабілетсіз болса да, олар енді «жақсылардың» жоспарларын ұрлай алады, жоғары технологиялық ішектерді кері инженериялай алады немесе сыналған және шынайы деп санайтын нәрселерді қайталай алады. жұмысты орындау жолы.

Аха, кейбір қарсылық, мұның бәрі өзара ұқсастық арқылы қақтығыстардың азаюына әкелуі мүмкін. Егер А жағы В жағында өлімге әкелетін автономды жүйелердің қаруы бар екенін білсе, ал В жағы А жағында олардың бар екенін білсе, олар қатты отыруы және соққыға келмеуі мүмкін. Бұл өзара сенімді жойылу (MAD) дірілдерінің ерекше аурасына ие.

Және тағы басқа.

Екінші абзацқа мұқият қарау

Біз мұнда көп нәрсені қарастырдық және осы уақытқа дейін Ашық хаттың бірінші немесе бірінші абзацын қарастырдық (барлығы төрт параграф бар).

Екінші абзацты қарастыратын уақыт келді, міне, келесідей:

  • «Жаңа мүмкіндіктерді ұсынатын кез келген жаңа технология сияқты, озық мобильді роботтардың пайда болуы теріс пайдалану мүмкіндігін ұсынады. Сенімсіз адамдар оларды азаматтық құқықтарға қол сұғу немесе басқаларды қорқыту, зиян келтіру немесе қорқыту үшін пайдалана алады. Ерекше алаңдаушылық туғызатын саланың бірі – қаруландыру. Қашықтан немесе автономды түрде басқарылатын, жұртшылыққа кеңінен қолжетімді және адамдар тұратын және жұмыс істейтін бұрын қол жетпеген жерлерге баруға қабілетті роботтарға қару қосу жаңа зиян келтіру қаупін және күрделі этикалық мәселелерді тудырады деп есептейміз. Бұл жаңа қабілетті роботтардың қаруланған қосымшалары сонымен бірге қоғамға әкелетін орасан зор пайдаға зиянын тигізетін жолдармен қоғамның технологияға деген сеніміне нұқсан келтіреді. Осы себептерге байланысты біз озық мобильді жалпы мақсаттағы роботтарымызды қаруландыруды қолдамаймыз. Өткен айларда осы мәселе бойынша сөйлеген және алғаш рет айналысатындар үшін, соңғы айларда өздерінің уақытша әрекеттерін көрінетін түрде жариялаған аздаған адамдар тудырған қоғамдық алаңдаушылықтың артуына байланысты біз жаңа өзектілікті сезінеміз. коммерциялық қол жетімді роботтарды қаруландыруға күш салу» (желіде жарияланғандай).

Осы екінші абзацты оқығаннан кейін, AI қарулану туралы бұрынғы әңгімемнің қалай алға шыққанын көресіз деп үміттенемін.

Бірнеше қосымша тармақтарды қарастырайық.

Кейбіреулердің қатесін тудырған белгілі бір сөздік аспектіге қатысты біршама алаңдаушылықтың бірі - бұл әңгіме «сенімсіз адамдар» бұл AI роботтарын теріс пайдалануы мүмкін екенін баса көрсететін сияқты. Иә, шынында да, AI роботтарын «терс пайдаланатын» дөрекі әрекеттерді тудыратын жаман адамдар немесе зұлым адамдар болуы мүмкін.

Сонымен бірге, осы талқылаудың басында айтылғандай, АИ-нің өзі, мүмкін енгізілген қателер немесе қателер және басқа да осындай асқынуларға байланысты дұрыс емес болуы мүмкін екенін түсіндіруіміз керек. Мүмкіндігіне баса назар аударып, алаңдаушылық білдірді сенімсіз адамдар басқа қолайсыз мүмкіндіктерді елемейтін сияқты. Көптеген AI компаниялары мен жеткізушілері мұны мойындағысы келмесе де, автономды жүйелердің қауіпсіздігі мен сенімділігін төмендететін AI жүйелерінің көптеген мәселелері бар. Жасанды интеллект қауіпсіздігі және қатаң және дәлелденген қауіпсіздік шараларының қажеттілігі туралы менің ақпаратым үшін қараңыз сілтеме осында, Мысалға.

Ашық хатты зерттегендердің арасында тағы бір назар аударарлық мәселе AI роботтарына байланысты қоғамдық сенімнің төмендеуіне әкелуі мүмкін деген тұжырымды қамтиды.

Бір жағынан бұл дұрыс тұжырым. Егер AI роботтары зұлым сауда жасау үшін пайдаланылса, сіз жұртшылықты қатты буландыратынына сенімді бола аласыз. Жұртшылық қызған кезде, заң шығарушылар шабуылға шығып, AI роботтары мен AI робот жасаушыларын шектейтін заңдар шығаруға ұмтылады деп бәс тігуге болады. Бұл, өз кезегінде, егер заңдар жан-жақты болса және AI робототехникасының артықшылықтарын қамтитын күш-жігерді тоқтатса, AI робототехника саласын бұзуы мүмкін. Былайша айтқанда, нәресте ванна суымен бірге лақтырылуы мүмкін (ескі өрнек, бәлкім, зейнетке шығуға лайық).

Сондай-ақ, AI роботтарына деген қоғамдық сенімнің төмендеуіне жол бермеу туралы бұл мәлімдеме өзімізге қызмет ететін кредо ма, әлде бәріміздің игілігіміз үшін ме (бұл екеуі де болуы мүмкін бе?) деген сұрақ туындайды.

Өзің шеш.

Енді біз Ашық хаттың ерекше маңызды бөлігіне келдік:

  • «Біз озық мобильді жалпы мақсаттағы роботтарымызды немесе озық робототехникаға мүмкіндік беретін әзірлеген бағдарламалық жасақтаманы қаруландырмаймыз және басқалардың мұны істеуіне қолдау көрсетпейміз деп уәде береміз. Мүмкіндігінше, ықтимал қарулануды болдырмас үшін тұтынушыларымыздың мақсатты қолданбаларын мұқият қарастырамыз. Біз сондай-ақ осы тәуекелдерді азайтатын немесе азайтатын технологиялық мүмкіндіктерді әзірлеуді зерттеуге уәде береміз. Түсінікті болу үшін, біз мемлекеттер мен олардың үкіметтік мекемелері өздерін қорғау және өз заңдарын сақтау үшін қолданатын қолданыстағы технологияларға күмән келтірмейміз» (желіде жарияланғандай).

Біз бұны қораптан шығара аламыз.

Отырыңыз және соған сәйкес дайындалыңыз.

Сіз отты поляризацияға дайынсыз ба?

Қолайлы жағынан, кейбіреулер бұл AI робот жасаушылары осындай уәде береді деп дауыстап айтады. Бұл робот жасаушылар өздерінің «озық ұтқырлығы бар» роботтарын қаруландырмауға тырысатын сияқты. Сонымен қатар, Ашық хатта олар басқаларға қолдау көрсетпейтінін айтады.

Сыншылар бұл жерде ақылды сөздер бар ма деп ойлайды.

Мысалы, «жоғары мобильділік» қайда басталып, қайда аяқталады? Егер робот жасаушы а қарапайым- Жетілдірілген роботтан гөрі мобильді AI роботы (бұл техникалық жаргонның анықталмаған бөлігі), бұл не болатынын қарастырудан шығарылады. емес қарулану керек пе? Осылайша, қарапайым мобильді AI роботтарын қаруландыру дұрыс сияқты, егер олар деп аталмаса. озат.

Бұл жалпы мақсаттағы роботтардың фразаларына қатысты. Егер AI роботы қаруландыру үшін арнайы жасалған болса, сондықтан біз а деп айта алмаймыз жалпы мақсат робот, бұл саладан өміршең алып тастауға айналады ма?

Сіз бұл сөздермен төбелесіп, бұл жай ғана Ашық хат және елу беттік заңдық құжат емес, әр түкпір-түкпірді айшықтайтындай деп қызу дауласуыңыз мүмкін.

Бұл бізді кейбіреулер білдіретін макродеңгейдегі күрделі жағдайға әкеледі. Негізінде, «кепіл» нені білдіреді?

Кейбіреулер сұрайды, сиыр еті қайда?

Осындай кепілдік берген компания мұны ойынға шынайы қатысусыз істеп жатқан сияқты. Егер осы кепілге қол қойған кез келген фирманың жетекшілері кепілді бұдан былай орындамауды шешсе, бұл фирмамен не болады? Басшылар қысқаша консервацияланады ма? Компания жабылып, кепілді бұзғаны үшін кешірім сұрай ма? Және тағы басқа.

Қорытындылай келе, кепілді бұзғаны үшін арнайы жаза немесе айыппұл қарастырылмаған.

Сіз беделге нұқсан келтіру мүмкіндігі бар деп дауласуыңыз мүмкін. Кепіл фирмасы бұдан былай сақтамайтын кепілдік бергені үшін нарықта ренжуі мүмкін. Әрине, бұл да адамдардың кепілге берілгенін есте сақтайтынын болжайды. Ол сондай-ақ кепілді бұзу қандай да бір жолмен анықталады деп болжайды (егер олай болса, фирманың барлығын айтуы екіталай). Кепіл бұзушыны шақыру керек еді, бірақ мұндай мәселе AI робототехника жасаушылары туралы жалғасып жатқан цунамиде шуға айналуы мүмкін.

Пайда болған басқа бұрышты қарастырыңыз.

Кепіл фирмасын ірірек фирма сатып алады. Ірі фирма кеңейтілген ұтқырлыққа арналған жалпы мақсаттағы роботтарды AI қаруланған нұсқаларына айналдыруды таңдайды.

Бұл кепілді бұзу ма?

Үлкен фирма бұл бұзушылық емес деп талап етуі мүмкін, өйткені олар (ірі фирма) ешқашан кепілдік бермеген. Сонымен қатар, кішігірім фирма біріктіріп, ойлап тапқан зиянсыз AI роботтары мұны ең альтруистік ниетпен жасай отырып, бір түннің ішінде қарулануға айналады.

Кішігірім фирма мұның бір күні болатынын білмеді деуге болады, бірақ бұл кепілдікті бұзады. Олар шын жүректен тілектерін білдірді. Үлкенірек сатып алушы фирманың не істеуді таңдағаны олардың бақылауында емес еді.

Кейбіреулер бұл жерде заңды жауапкершілік бар ма деп те сұрайды.

Кепіл фирмасы бірнеше айдан кейін кепілді орындамайтыны туралы шешім қабылдайды. Олардың жүректері өзгерді. Фирманы өзі берген кепілден бас тартқаны үшін сотқа беруге бола ма? Кім сотқа береді? Талап қоюға не негіз болар еді? Көптеген құқықтық мәселелер туындайды. Олар айтқандай, сіз кез келген адамды сотқа бере аласыз, бірақ сіз жеңесіз бе, бұл мүлдем басқа мәселе.

Мұны басқа жолмен ойлап көріңіз. Кепіл беруші фирма роботтарды алу үшін мұрын арқылы төлеуге дайын ауқымды компанияға озық ұтқырлыққа арналған жалпы мақсаттағы роботтарының тұтас пакетін сату үшін шынымен үлкен мәміле жасауға мүмкіндік алады. Бұл өмірде бір рет болатын миллиондаған долларлық сатып алу мәмілелерінің бірі.

AI робототехника компаниясы не істеуі керек?

Егер AI робототехника кепіл фирмасы ашық түрде сатылса, олар міндетті түрде сатуды мақсат етеді (бұл жеке фирма туралы да айтуға болады, бірақ олай емес). Кепіл беруші компания сатып алушы роботтарды қаруландыруға тырысуы мүмкін деп қорқады деп елестетіп көріңіз, бірақ үстелде мұндай талқылау жоқ делік. Сатып алушы мұны істеуі мүмкін деген қауесет бар.

Тиісінше, кепіл фирмасы роботтардың қаруланбауын лицензиялайды. Сатып алушы бұл тілден бас тартып, сатып алудан алыстайды.

Кепілді AI робототехника фирмасы қанша пайда әкелді?

Қолдан алынатын пайда лицензиялауды шектеу талабын қосудан асып түсетін нүкте бар ма (немесе, мүмкін, шектеуді заңды түрде өзгертуге мүмкіндік беретін және әлі де мәміле жасауға мүмкіндік беретін тұжырым)? Менің ойымша, сіз қандай да бір қиындықты көре аласыз. Мұндай көптеген сценарийлерді оңай ойлап табуға болады. Мәселе мынада, бұл кепілде тіс бар ма. Егер солай болса, қандай тістер?

Қысқасы, осы талқылаудың басында айтылғандай, кейбіреулер кепілдің бұл түрі жасалып жатыр деп қуаттаса, басқалары кепіл суды сақтайды ма деген күдікпен қарайды.

Біз жалғастырамыз.

Кепіл алу

Ашық хаттың төртінші және соңғы абзацында былай делінген:

  • «Біз бұл тәуекелдерді толығымен шешу үшін біздің міндеттеменің өзі жеткіліксіз екенін түсінеміз, сондықтан біз саясаткерлерді осы роботтарды қауіпсіз пайдалануды ынталандыру және олардың теріс пайдаланылуына тыйым салу үшін бізбен бірге жұмыс істеуге шақырамыз. Біз сондай-ақ робототехника қоғамдастығындағы әрбір ұйымды, әзірлеушіді, зерттеуші мен пайдаланушыны осындай роботтарды жасамауға, рұқсат бермеуге, қолдау көрсетпеуге немесе оларға қару-жарақ қосуға мүмкіндік бермеуге осындай уәде беруге шақырамыз. Біз бұл технологиялардың адамзат үшін пайдасы дұрыс емес пайдалану қаупінен айтарлықтай асып түсетініне сенімдіміз және біз адамдар мен роботтар әлемнің кейбір қиындықтарын шешу үшін қатарлас жұмыс істейтін жарқын болашаққа қуаныштымыз »(Интернетте жарияланған ақпарат бойынша).

Ашық хаттың бұл соңғы бөлігінде наразылық тудырған бірнеше қосымша элементтер бар.

Саясаткерлерді шақыру жақсы немесе дұрыс емес болуы мүмкін, дейді кейбіреулер. Сіз бұл мәселелерде білмейтін саясаткерлерді ала аласыз, содан кейін AI роботтарының прогресін бұзатын классикалық асығыс шешімдер мен заңдар мен ережелерді жасайды. Бұрын айтылған ойға сәйкес, AI роботтық жетістіктерін алға жылжытатын инновация бұзылып немесе аяқ асты болуы мүмкін.

Не сұрап жатқаныңызды білетініңізге сенімді болғаныңыз жөн, дейді сыншылар.

Әрине, қарсы аргумент - бұл әңгімеде саясаткерлер AI робототехника фирмаларымен осындай заңдар мен ережелерді қалай саналы түрде жасауға болатынын анықтау үшін жұмыс істеуі керек екендігі анық айтылған. Қарсы пікірге қарсылық мынада, егер саясаткерлер өздерінің қыңырлығына жауап берсе, AI робототехникасын жасаушыларға назар аударады деп қарастырылуы мүмкін. Қарсы аргументке қарсы қарсылық мынада, әрине, технология туралы білетіндермен жұмыс істеу қажет, әйтпесе нәтиже қиын болуы мүмкін. т.б.

Бәлкім, күбірлесу негізінде, кейбіреулер әркімге осындай уәде беруге шақыратын сызықтан қатты күйзелді. бекіту Жетілдірілген ұтқырлықтағы жалпы мақсаттағы роботтарға арналған қару-жарақ. Онда кілт сөз - сөз бекіту. Егер біреу қаруды біріктіретін немесе біркелкі енгізетін AI роботын жасаса, бұл сөзді айналып өтетін сияқты. бекіту бірдеңе. Сіз оны қазір көре аласыз, біреу қару бекітілмеген, бұл AI роботының толық бөлігі және бөлігі деп қатты даулайды. Одан өтіңіз, - деп айқайлайды олар, біз бұл кепілдікке кірмейміз, және олар басқаша айтқан болар еді.

Бұл кепілдің жабысқақтығы туралы тағы бір шағымды тудырады.

Фирма немесе кез келген осы кепілге беруді таңдаған кез келген уақытта олар мұны қалайтынын және кез келген себеппен өздерін кепілсіз деп жариялай алады ма?

Шамасы солай.

Кепіл беру туралы және олар қандай тартымдылық беретіні туралы көптеген пікірталастар бар.

қорытынды

Иә, сіз дұрыс нәрсені жасауға тырысатын бұл компаниялар дұрыс нәрсені жасауға тырысады деп айта аласыз.

Біздің әлемге не келді?

Кімде-кім мұндай уәде берген болса, оған күмәнданбау керек, сіз оны құмарта сақтай аласыз. Олар батыл және өмірлік үлес қосу үшін қоғамдық ортаға шығып жатыр. Егер біз оларды осылай істегені үшін ренжіте бастасақ, бұл жағдайды нашарлататыны сөзсіз. Ешкім мұндай уәдені алғысы келмейді. Фирмалар және басқалар тіпті тырыспайды. Олар жасырынып, қоғамға бұл сүйікті роботтардың қауіпті түрде айналуы мүмкін екендігі туралы ескертпейді.

Скептиктер қоғамды даналыққа жеткізудің жолы басқа да әрекеттерді білдіреді, мысалы, ермексаз билейтін AI роботтарын көрсету сияқты қиялды әрекеттен бас тартуды білдіреді. Немесе, кем дегенде, оны теңдестірілген әрекет етіңіз. Мысалы, сүйікті үй жануарларына адал иттерге еліктеудің орнына, билейтін роботтардың адамдарды еш ойланбастан ұсақ-түйекке бөле алатын жабайы ашылған ашулы қасқырларға қалай көбірек ұқсайтынын көрсетіңіз.

Бұл уәдеге қарағанда көбірек назар аударады, - деп жалбарды.

Кепіл сөзсіз өте жұмбақ болуы мүмкін.

Махатма Ганди: «Кепіл қаншалықты анық болса да, адамдар мәтінді өз мақсаттарына сәйкес айналдырады және бұрады».

Томас Джефферсон бұл сөзді жігерлендіретін жазбамен аяқтау үшін: «Біз бір-бірімізге өз өмірімізді, байлығымызды және қасиетті абыройымызды өзара уәде етеміз» деп уәделер туралы айтты.

AI роботтары, олардың автономиясы, қарулануы және т.б. туралы айтатын болсақ, біз бәріміз бірге боламыз. Біздің ортақ міндетіміз, ең болмағанда, біз осы мәселелерді алдыңғы қатарда ұстауымыз керек, біз осы жетістіктермен күресудің жолдарын табуға тырысамыз және әйтеуір өз ар-намысымызды, байлығымызды және өмірімізді қамтамасыз ету жолын табамыз.

Біз бұған уәде бере аламыз ба?

Мен солай болады деген сенімдемін.

Дереккөз: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- робот жасаушылар қарулануды болдырмайды/