AI этикасы өсіп келе жатқан ыстық картоп синдромы туралы күңгірттенуде AI жасаушылар өздерінің өмірін шешетін автономды жүйелері үшін жауапкершіліктен аулақ болуға тырысатын сияқты.

Сіз мақалды ыстық картоппен аяқталмағаныңызға көз жеткізуіңіз керек екенін бәріміз білеміз.

Ыстық картоп гамбиті өзінің тамырын кем дегенде 1800-ші жылдардың аяғында, шам жағылған салон ойыны допты айналдырған кезде іздейді. Адамдар әдетте бір-біріне салыстырмалы түрде жақын орналасқан бірнеше ағаш орындықтарда отырады және сол дәуірде мүлдем қызықты ойын ойнайды. Жанып тұрған шамды ойыншылар адамнан адамға береді және біз кейінірек оны тапсыру деп таңдаған нәрсені білдіреді. ыстық картоп.

Әр адам бірте-бірте жанып тұрған шамның жанынан өтпес бұрын танымал рифмді дауыстап айтуы керек еді. Шамасы, рифма былай өрбіген:

«Джек тірі және өмір сүруі мүмкін;

Егер ол сенің қолыңда өлсе, саған берер тұрақсыздық бар».

Бұл рифмалық рецитал шамның соңғы аяқталуына дейін жанып кетуіне біраз уақыт мүмкіндік береді. Табиғи сөнген кезде қолындағы шамға кім жабысып қалса, сол матчтан жеңілген адам болды (сөз ойыны!).

Үнтаспада көрсетілген сөздерге сәйкес, жеңілген адам «ұтылды» төлеуге мәжбүр болды, сондықтан әдетте ойынның кез келген басқа раундтарынан шығуға тура келді. Содан кейін бұл біз күнделікті музыкалық орындықтар деп санайтын нәрселермен біріктірілуі мүмкін, осылайша раундта жеңілген адам келесі раундтарға қатыспайды (музыка тоқтап, бос орынды ала алмаған сияқты). Ақырында, соңғы сөндіру кезінде соңғы жеңімпаз анықталғанша, жанып тұрған шамның жанынан өтіп, рифмді айтқан екі адам қалады.

Неліктен біз бұл ойынды бұдан былай жанып тұрған шаммен ойнамаймыз және неге біз оны «жанып тұрған шам» схемасы ретінде емес, әдетте оны ыстық картоп деп атаймыз деп сұрайтын шығарсыз. Зерттеушілер бұл бірте-бірте қалай болғаны туралы көптеген теориялар жасады. Тарих бұлыңғыр және бұл мәселеде оқиғалардың қалай дамығаны белгісіз болып көрінеді. Менің ойымша, біз жанып тұрған шамдар әдетте бұлай қолданылмайды деп ойлаймын, өйткені бір нәрсенің анық бұрмалану ықтималдығы өте алаңдатарлық болып көрінуі мүмкін (біреу шамды түсіріп, от жағады немесе біреу оны берген кезде шамға күйіп кетеді. басқа ойыншыдан және т.б.).

Жанып тұрған шамның әлеуетті алмастырғышы ретінде ыстық картопқа келетін болсақ, картоп жалпы алғанда біршама қауіпсіз болады деп айтуға болады. Ашық от жоқ. Балқу балауызы жоқ. Бұл контексте картопты пайдаланудың әлеуетті негізі - олар қыздырылғаннан кейін жылуды оңай сақтайтындығы белгілі. Сіз картопты айналдыра аласыз, ол біраз уақытқа дейін ыстық болады. Ыстық картоптың қай кезде ыстық емес екенін және оның орнына суық деп бағаланатынын шешу қызу пікірталас тудыратын ұсыныс болар еді деп болжайды.

Әрине, мақал-мәтелге айналған ыстық картоп ұғымы бүгінгі күні жеке көзқарас болып табылады. Ыстық картоп ретінде бағаланған немесе рейтингіге ие кез келген нәрсе, әдетте, шынымен жойылатын сапаға ие. Сіз ыстық картоп ұстағыңыз келмейді. Сіз оның басқа жерге кеткеніне көз жеткізгіңіз келеді. Белгілі бір дәрежеде оның қайда баратыны сізді алаңдатпауы мүмкін, жай ғана ол сіздің иелігінде емес.

Қымбатты досыңызға немесе сол сияқты танысыңызға ыстық картопты беру өте дөрекі болып көрінетін шығарсыз. Бұл мүлдем жат болып көрінетін. Мүмкін болса, сол ыстық картопты салатын басқа біреуді немесе басқа жерді табыңыз. Ыстық картопты мейірімді әріптеске мәжбүрлеу шарасыз қадам болуы мүмкін, бірақ бұл тек соңғы шара ретінде жасалады деп үміттенеміз.

Бұл монетаның екінші жағы - сіз өзіңізге ұнамайтын немесе кек алғысы келетін адамға ыстық картопты беруді ұнатасыз. Әрине, егер сіз сізге жаман қарым-қатынаста болған адамды өлтіргіңіз келсе, ыстық картоп өте пайдалы болуы мүмкін. Олар ыстық картоппен не істеу керектігін анықтасын. Картоптан құтылу, ал сіз оны белгілеген адамға сәттілік.

Бар болғаны екі адам қатысатын ыстық картоп сценарийінде жағымсыз және қажет емес затты қай адам ұстайтыны туралы жылдам дау-дамай болуы мүмкін. Мысалы, мен сізге ыстық картопты тапсырамын, ал сіз асығыс оны маған қайтарасыз. Әр тапсыру арасында балабақша рифмасын жариялаудың қажеті жоқ деп есептесек, біз картопты қолдарымыз мүмкіндік беретіндей жылдам өткізе аламыз.

Сіз неге құрметті және жиі айтылатын ыстық картопқа терең сүңгуді таңдағаным туралы білуіңіз мүмкін.

Міне, сондықтан.

Жасанды интеллект (AI) саласында ыстық картоп көбеюі барған сайын қолданыла бастағаны белгілі болды.

Көптеген адамдар бұл туралы ештеңе білмейді. Олар бұл туралы ешқашан естімеген. Олар оның не екенін мүлдем білмейді. Тіпті көптеген AI әзірлеушілері бұл мәселені білмейді. Дегенмен, ол шынымен күмәнді жағдайларда, әсіресе өмір немесе өлім жағдайларына қатысты жағдайларда бар және қолданылып жатқан сияқты.

Мен мұны деп атаймын AI Ыстық картоп синдромы.

Бұл синдромның астарында көптеген елеулі салдарлар бар және біз AI этикасы туралы ойлау қалпақшаларымызды киіп, не істеу керектігін қарастыруымыз керек. Күрделі этикалық ойлар бар. Сондай-ақ маңызды құқықтық салдарлар болуы мүмкін (олар әлі қоғамда көріне қойған жоқ, бірақ мен жақында болады деп болжаймын). Жасанды интеллект этикасы, этикалық AI және құқықтық AI мәселелерін тұрақты және кең түрде қамту үшін мына жерден қараңыз. сілтеме осында және сілтеме осында, бірнеше ғана атауға болады.

орауын ашайық AI ыстық картоп синдромы.

Адаммен бірге жұмыс істейтін AI жүйесін елестетіп көріңіз. Жасанды интеллект пен адам кейбір орындалып жатқан әрекеттерді бақылаудан өтеді, сондықтан кейде адам басқарады, ал басқа уақытта AI басқарады. Бұл алдымен әдепті немесе ақылға қонымды түрде жасалуы мүмкін. Әртүрлі себептерге байланысты, біз оларды біраз уақыттан кейін қарастырамыз, AI басқаруды тез арада адамға беру керек екенін есептеуі мүмкін.

Бұл ыстық картоп Бұл жай ғана балаға үйрететін ойын ретінде қызмет етуден гөрі шынайы әлемдегі өмірге қауіп төндіреді.

Басқаруды АИ-ден адамға асығыс беру мәселесі - бұл ақылға қонымды түрде жасалуы мүмкін немесе өте негізсіз жолмен орындалуы мүмкін. Егер адам беруді күтпесе, бұл мәселе болуы мүмкін. Егер адам әдетте бақылаудан өтуі жақсы болса, тапсырудың негізінде жатқан жағдайлар адамға жеткіліксіз уақыт берілгенде немесе басқарудың неліктен адамның қолына күштеп беріліп жатқаны туралы жеткіліксіз хабардар болған кезде қорқынышты болуы мүмкін.

Біз мұның адам үшін және жақын маңдағы басқа адамдар үшін өмір немесе өлім қаупін тудыруы мүмкін мысалдарды зерттейміз. Ол ауыр зат. Нүкте, нүкте.

Жабайы және жүнді ойлардың кейбір ет қырларына кіріспес бұрын AI ыстық картоп синдромы, терең маңызды тақырыптар бойынша кейбір қосымша негіздерді келтірейік. Біз AI этикасына және әсіресе Machine Learning (ML) және Deep Learning (DL) пайда болуына қысқаша шолу жасауымыз керек.

Сіз бұл күндері AI саласындағы және тіпті AI өрісінен тыс жерде ең қатты дауыстардың бірі этикалық AI-ның көбірек ұқсастығына байланысты айқайлаудан тұратынын білмеуіңіз мүмкін. AI этикасы және этикалық AI дегенге сілтеме жасау нені білдіретінін қарастырайық. Оның үстіне, біз Machine Learning және Deep Learning туралы айтқанда не айтқым келетінін зерттейміз.

Бұқаралық ақпарат құралдарының назарын аударған AI этикасының белгілі бір сегменті немесе бөлігі теріс көзқарастар мен теңсіздіктерді көрсететін АИ-ден тұрады. Жасанды интеллекттің соңғы дәуірі басталған кезде кейбіреулер қазір деп атайтын нәрсеге үлкен ынта-ықылас тудырғанын білетін шығарсыз. Жақсылыққа арналған AI. Өкініштісі, сол бір толқудың етегінде біз де куә бола бастадық AI for Bad. Мысалы, жасанды интеллект негізіндегі бет-әлпетті тану жүйелерінің құрамында нәсілдік көзқарастар мен гендерлік көзқарастар бар екені анықталды. сілтеме осында.

Қарсы күресу әрекеттері AI for Bad белсенді жүргізілуде. Дауыстаудан басқа заңды заңсыздықты тежеуге ұмтылу, сонымен қатар AI зұлымдықты түзету үшін AI этикасын қабылдауға айтарлықтай итермелеу бар. Түсінік мынада: біз AI-ны дамыту және өрістету үшін негізгі этикалық AI принциптерін қабылдауымыз және мақұлдауымыз керек. AI for Bad және бір мезгілде артықшылықты жариялау және насихаттау Жақсылыққа арналған AI.

Осыған байланысты мен AI-ны AI қиындықтарын шешудің бір бөлігі ретінде қолдануға тырысамын, осылайша ойлау әдісімен отпен отпен күресемін. Мысалы, біз этикалық AI құрамдастарын AI жүйесіне ендіруіміз мүмкін, ол AI-ның қалған бөліктерінің қалай жұмыс істеп жатқанын бақылайды және осылайша нақты уақытта кез келген кемсітушілік әрекеттерді ұстай алады, менің талқылауымды қараңыз. сілтеме осында. Сондай-ақ бізде AI этикасы мониторының түрі ретінде әрекет ететін жеке AI жүйесі болуы мүмкін. AI жүйесі басқа AI этикалық емес тұңғиыққа қашан бара жатқанын бақылау және анықтау үшін бақылаушы ретінде қызмет етеді (мұндай мүмкіндіктер туралы менің талдауымды мына жерден қараңыз: сілтеме осында).

Біраз уақыттан кейін мен сіздермен AI этикасының негізінде жатқан кейбір негізгі принциптермен бөлісемін. Онда және мұнда өзгермелі тізімдердің көптеген түрлері бар. Сіз әмбебап тартымдылық пен келісімнің бірегей тізімі әлі жоқ деп айта аласыз. Бұл өкінішті жаңалық. Жақсы жаңалық, кем дегенде, оңай қол жетімді AI этикасының тізімдері бар және олар өте ұқсас. Мұның бәрі дәлелді конвергенция нысаны арқылы біз AI этикасының жалпы ортақтығына қарай жол тауып жатқанымызды көрсетеді.

Алдымен, жасанды интеллектпен айналысатын, өрістейтін немесе пайдаланатын кез келген адам үшін маңызды нәрсе нені көрсету керектігін көрсету үшін жалпы этикалық AI ережелерінің кейбірін қысқаша қарастырайық.

Мысалы, Ватиканның мәлімдемесінде Рим AI этикасына шақырады және мен тереңірек қарастырғанымдай сілтеме осында, бұл олардың анықталған алты негізгі AI этика қағидасы:

  • Ашықтық: Негізінде, AI жүйелері түсінікті болуы керек
  • Қосу: Барлығына пайдасын тигізу үшін және барлық адамдарға өзін көрсету және дамыту үшін ең жақсы жағдайлар ұсынылуы үшін барлық адамдардың қажеттіліктері ескерілуі керек.
  • Жауапкершілік: Жасанды интеллектті қолдануды әзірлейтін және енгізетіндер жауапкершілік пен ашықтықты сақтауы керек
  • Бейтараптылық: Әділдік пен адамдық қадір-қасиетті сақтай отырып, біржақтылық жасамаңыз немесе әрекет етпеңіз
  • сенімділік: AI жүйелері сенімді жұмыс істей алуы керек
  • Қауіпсіздік және құпиялылық: AI жүйелері қауіпсіз жұмыс істеуі және пайдаланушылардың жеке өміріне құрметпен қарауы керек.

Бұл туралы АҚШ Қорғаныс министрлігі (DoD) хабарлады Жасанды интеллектті пайдаланудың этикалық принциптері және мен тереңірек қарастырғанымдай сілтеме осында, бұл олардың AI этикасының алты негізгі қағидасы:

  • Жауапты: DoD қызметкерлері AI мүмкіндіктерін дамытуға, орналастыруға және пайдалануға жауапты бола отырып, тиісті дәрежеде пайымдау мен қамқорлық жасайды.
  • Әділ: Департамент AI мүмкіндіктеріндегі күтпеген ауытқуларды азайту үшін қасақана қадамдар жасайды.
  • Бақыланатын: Департаменттің AI мүмкіндіктері тиісті персонал AI мүмкіндіктеріне қолданылатын технологияларды, әзірлеу процестерін және операциялық әдістерді, соның ішінде мөлдір және тексерілетін әдістемелерді, деректер көздерін, жобалау процедурасы мен құжаттамасын дұрыс түсінетіндей етіп әзірленетін және орналастырылатын болады.
  • сенімді: Департаменттің AI мүмкіндіктерінің нақты, нақты анықталған пайдаланулары болады және мұндай мүмкіндіктердің қауіпсіздігі, қауіпсіздігі және тиімділігі олардың бүкіл өмірлік циклі бойынша анықталған пайдаланулар шеңберінде сынақтан және сенімділіктен өтеді.
  • Басқарылатын: Бөлім күтпеген салдарды анықтау және болдырмау, сондай-ақ күтпеген әрекетті көрсететін орналастырылған жүйелерді ажырату немесе өшіру мүмкіндігіне ие бола отырып, олардың жоспарланған функцияларын орындау үшін AI мүмкіндіктерін жобалайды және құрастырады.

Мен сондай-ақ AI этикасының принциптерінің әртүрлі ұжымдық талдауларын талқыладым, соның ішінде «AI этикасы бойынша нұсқаулықтардың жаһандық ландшафты» (жарияланған) атты мақалада көптеген ұлттық және халықаралық AI этикасының қағидаларының мәнін зерттеген және қысқартқан зерттеушілер әзірлеген топтаманы қарастырдым. ішінде табиғат) және менің қамтуым мына жерде зерттеледі сілтеме осында, бұл негізгі тізімге әкелді:

  • Ашықтық
  • Әділдік және әділдік
  • Зиянсыздық
  • жауапкершілік
  • Құпиялық
  • Қайырымдылық
  • Бостандық және автономия
  • сенім
  • тұрақтылық
  • Ар-ұждан
  • Ынтымақтастық

Тікелей болжағаныңыздай, осы қағидалардың негізінде жатқан ерекшеліктерді анықтау өте қиын болуы мүмкін. Сонымен қатар, бұл кең принциптерді AI жүйелерін жасау кезінде қолдануға болатын толықтай нақты және егжей-тегжейлі нәрсеге айналдыруға күш салу да қиын жаңғақ болып табылады. Жасанды интеллект этикасының ережелері деген не және оларды қалай сақтау керектігі туралы жалпы қолмен серуендеу оңай, ал AI кодтауындағы бұл әлдеқайда күрделі жағдай жолға сәйкес келетін нағыз резеңке болуы керек.

Жасанды интеллект этикасының принциптерін AI әзірлеушілері, сонымен қатар AI әзірлеу күш-жігерін басқаратындар, тіпті ақырында AI жүйелерін өңдейтін және жүргізетіндер де қолдануы керек. Жасанды интеллектіні әзірлеу мен пайдаланудың бүкіл өмірлік циклі бойынша барлық мүдделі тараптар этикалық АИ-нің бекітілген нормаларын сақтау аясында қарастырылады. Бұл маңызды сәт, өйткені әдеттегі болжам «тек кодерлер» немесе AI-ны бағдарламалайтындар AI этикасының түсініктерін ұстануға жатады. Жоғарыда айтылғандай, AI әзірлеу және өрістету үшін ауыл қажет және ол үшін бүкіл ауыл AI этикасының ережелерін білуі және ұстануы керек.

Сондай-ақ бүгінгі AI табиғаты туралы бір бетте екенімізді тексерейік.

Бүгінгі күні сезімтал AI жоқ. Бізде бұл жоқ. Біз сезімтал AI мүмкін болатынын білмейміз. Ешкім біз сезімтал AI-ға қол жеткіземіз бе, әлде сезімтал АИ қандай да бір түрде ғажайып түрде есептеу когнитивтік супернованың (әдетте сингулярлық деп аталады) пайда болуын болжай алмайды. сілтеме осында).

Мен назар аударатын АИ түрі бүгінгі күні бізде бар саналы емес АИ-ден тұрады. Біз жабайы болжам жасағымыз келсе сезімтал AI, бұл талқылау түбегейлі басқа бағытта жүруі мүмкін. Сезімтал AI адами сапада болуы мүмкін. Сезімтал АИ адамның когнитивтік баламасы екенін ескеру қажет. Сонымен қатар, кейбіреулер бізде өте интеллектуалды AI болуы мүмкін деп болжайтындықтан, мұндай AI адамдардан да ақылды болуы мүмкін деп болжауға болады (мүмкіндік ретінде супер интеллектуалды AI туралы зерттеуім үшін қараңыз. қамту осында).

Нәрселерді жерге түсіріп, бүгінгі санаулы емес АИ-ді қарастырайық.

Бүгінгі AI адам ойлауымен бірдей «ойлауға» қабілетсіз екенін түсініңіз. Alexa немесе Siri-мен өзара әрекеттескенде, сөйлесу мүмкіндіктері адамның мүмкіндіктеріне ұқсас болып көрінуі мүмкін, бірақ шындық - бұл есептеу және адам танымы жоқ. Жасанды интеллекттің соңғы дәуірі есептеу үлгісін сәйкестендіруге мүмкіндік беретін Machine Learning (ML) және Deep Learning (DL) мүмкіндіктерін кеңінен пайдаланды. Бұл адамға ұқсайтын бейімділікке ие AI жүйелеріне әкелді. Сонымен қатар, бүгінгі күні парасаттылыққа ұқсайтын және адамның күшті ойлауының когнитивтік ғажайыптары жоқ бірде-бір AI жоқ.

ML/DL – есептеу үлгісін сәйкестендірудің бір түрі. Әдеттегі тәсіл - шешім қабылдау тапсырмасы туралы деректерді жинау. Сіз деректерді ML/DL компьютер үлгілеріне бересіз. Бұл модельдер математикалық заңдылықтарды табуға тырысады. Осындай үлгілерді тапқаннан кейін, егер табылса, AI жүйесі жаңа деректерге тап болған кезде сол үлгілерді пайдаланады. Жаңа деректер ұсынылғаннан кейін ағымдағы шешімді қабылдау үшін «ескі» немесе тарихи деректерге негізделген үлгілер қолданылады.

Менің ойымша, сіз бұл қайда бара жатқанын болжай аласыз. Шешімдердің үлгісін қабылдаған адамдар теріс көзқарастарды біріктірсе, деректер мұны нәзік, бірақ маңызды жолдармен көрсетеді. Machine Learning немесе Deep Learning есептеу үлгісін сәйкестендіру деректерді сәйкесінше математикалық имитациялауға тырысады. Жасанды интеллект модельдеудің жалпы мағынасы немесе басқа сезімтал аспектілері жоқ.

Сонымен қатар, AI әзірлеушілері не болып жатқанын түсінбеуі мүмкін. ML/DL-дегі жасырын математика қазір жасырын көзқарастарды анықтауды қиындатуы мүмкін. Сіз AI әзірлеушілері ықтимал жерленген бейімділіктерді тексереді деп үміттенесіз және күтесіз, бірақ бұл көрінгеннен де қиынырақ. Салыстырмалы түрде ауқымды тестілеу кезінде де ML/DL үлгілерін сәйкестендіру үлгілерінде әлі де ендірілген қиғаштықтардың болатынына сенімді мүмкіндік бар.

Сіз белгілі немесе әйгілі «қоқыс ішіндегі қоқыс шығару» деген нақыл сөзді пайдалана аласыз. Мәселе мынада, бұл АИ-ге батып кеткен бейтараптар ретінде жасырын түрде енгізілетін бейімділікке көбірек ұқсайды. AI алгоритмі шешім қабылдау (ADM) аксиоматикалық түрде теңсіздіктерге толы болады.

Жақсы емес.

Ыстық картопқа және оның AI-де ықтимал апатты қолданылуына назар аударайық. Сондай-ақ ыстық картоп айласының ішінде жасырын болуы мүмкін зұлымдық бар.

Ыстық картоп гамбитінің AI көрінісі туралы қысқаша қорытынды ретінде:

  • Жасанды интеллект пен циклдегі адам берілген тапсырма бойынша бірлесіп жұмыс істейді
  • AI біраз уақытты басқарады
  • Циклдегі адам біраз уақытты басқарады
  • Жасанды интеллект пен адам арасында тапсыру хаттамасының қандай да бір түрі бар
  • Өткізу өте айқын болуы мүмкін немесе ол нәзік және жасырын болуы мүмкін
  • Мұның бәрі әдетте нақты уақыт контекстінде болады (бірдеңе белсенді түрде жүріп жатыр)

Бұл жерде басты назар аударылу негізінен ыстық картоп болған кезде және AI кенеттен басқаруды адамға беруді таңдайды. Назар аударыңыз, мен бұл жерде кейінірек басқа аспектіні, атап айтқанда, адамның AI-ға ыстық картоп ретіндегі бақылауды тапсырамын.

Алдымен, AI циклдегі адамға ыстық картопты бергенде не болуы мүмкін екенін қарастырыңыз.

Мен адамды циклдегі адам деп атайын деп отырмын, өйткені мен адам қазірдің өзінде жұмыс істеп тұрған әрекеттің бір бөлігі және бөлігі екенін айтып отырмын. Бізде басқа сценарийлер болуы мүмкін, бұл әрекетке әсіресе қатыспаған адамға, мүмкін, бүкіл мәселеге бейтаныс адамға AI ыстық картопты береді, сондықтан бұл ортаның басқа да дәмі бар екенін есте сақтаңыз.

Егер мен сізге ыстық картоп ұсынсам және оны ақылға қонымды түрде жасағым келсе, мен сізге заттарды тапсыратынымды ескертемін. Сонымен қатар, егер мен сізде ыстық картопты иемденгеніңіз менде болғаннан жақсырақ деп сенсем, мен мұны істеуге тырысар едім. Сізде болуы керек пе, әлде мен оны жалғастыруым керек пе, мен ойша есептер едім.

Баскетбол ойынын елестетіңіз. Сен екеуміз бір командадамыз. Біз ойында жеңіске жету үшін бірге жұмыс істейміз деп үміттенеміз. Сағатты аяқтауға санаулы секундтар қалды, біз гол соғуымыз керек, әйтпесе ойыннан ұтылып қаламыз. Мен соңғы атуды алатын жағдайға келдім. Мен мұны істеуім керек пе, әлде допты сізге беріп, соңғы соққыны сіз жасай аласыз ба?

Егер мен жақсы баскетболшы болсам және соққыны түсіру мүмкіндігі жоғары болса, мен баскетболды ұстап, соққы жасауға тырысуым керек шығар. Егер сіз менен жақсы баскетболшы болсаңыз, мен сізге допты беріп, сізге соққы беруге рұқсат беруім керек шығар. Басқа ойлар бірінші орынға шығады, мысалы, допты түсіру үшін алаңда қайсысымыздың жағдайы жақсырақ, сонымен қатар ойын аяқталуға жақын болғандықтан біреуіміз шаршап қалды ма және тозған болуы мүмкін және тең дәрежеде емес. олардың атуы. т.б.

Қиын сәтте мен допты ұстауды немесе оны сізге беруді шешуім керек.

Бұл сценарийде сағат өте маңызды екенін жақсы түсініңіз. Сіз де, мен де өте уақтылы жауапқа тап болдық. Бүкіл ойын қазір желіде. Сағат таусылғанда, біз біреудің соққы жасағаны үшін жеңдік, немесе біз оны батырмағандықтан жеңіліп қалдық. Егер мен қоржынды батырсам, мен батыр болуым мүмкін. Немесе мен сізге допты беріп жіберсем, сіз оны батыра аласыз.

Мұның да ешкі жағы немесе кемшілігі бар. Егер мен допты ұстап тұрып, соққыны өткізіп алсам, бәрі мені ешкі болдым немесе бүкіл команданы жерге түсірдім деп айыптауы мүмкін. Екінші жағынан, мен сізге допты беріп жіберсем және сіз соққыны өткізіп алсаңыз, сіз ешкі боласыз. Бұл сізге мүлдем әділетсіздік болуы мүмкін, себебі мен сізді соңғы атқыш болуға және соңғы атуды жасауға мәжбүрледім.

Сізді сол бейтарап жағдайға қойғанымды міндетті түрде білетін боларсыз. Менің мұны істегенімді бәрі көріп тұрса да, олар тек допты иеленген соңғы адамға ғана шоғырлануы керек. Мен тегін коньки тебетін едім. Соңғы сәтте допты саған бергенім ешкімнің есінде қалмас еді. Олар тек сенің допқа ие болғаныңды және сен соққы жасамағаның үшін ойыннан ұтылғаныңды ғана есіне алады.

Жарайды, мен саған допты беремін.

Мен неге олай жасадым?

Мұны анықтаудың оңай жолы жоқ.

Менің шын ниетім, мен ешкі болып қалғым келмеді, сондықтан мен сізге барлық қысым көрсетуді жөн көрдім. Неліктен допты асырдым деп сұрағанда, мен сені менен жақсы атқыш деп ойлағандықтан солай жасадым деп айта аламын (бірақ, мен бұған мүлде сенбеймін делік). Немесе сенің жағдайым менен жақсырақ деп ойладым (мен де бұлай ойламадым деп айтайық). Менің ыстық картопқа жабысып қалмауға тырысқанымды ешкім ешқашан білмейді.

Сырттай қарағанда, менің сізге допты беруімнің шынайы негіздемесін ешкім оңай ажырата алмады. Бәлкім, мен сені жақсы ойыншы деп сенгендіктен жазықсыз солай жасадым. Бұл бір бұрыш. Мүмкін мен солай жасадым, өйткені мен барлығының мені соққы жіберіп алғаным үшін жеңілген деп атағанын қаламадым, осылайша мен сізге допты алдым және бұл мен үшін үлкен жеңілдік деп түсіндім. Мен сені шын көңілмен ойладым ба, бұл мүлдем басқа мәселе.

Енді біз AI-ға қатысты ыстық картопқа қосымша мәліметтерді қоса аламыз:

  • AI соңғы сәтте басқаруды циклдегі адамға беруді таңдайды
  • Соңғы сәт адамның өміршең әрекетінен әлдеқайда алыс болуы мүмкін
  • Циклдегі адам басқаруға ие, бірақ тапсыру уақытына байланысты бұл дұрыс емес

Осыны бір сәт ойланып көріңізші.

Жасанды интеллект жүйесі мен циклдегі адам зауытта ауқымды машинаны іске қосуды қамтитын нақты уақыттағы тапсырмада бірге жұмыс істеп жатыр делік. Жасанды интеллект техниканың бұзылып жатқанын анықтайды. Жасанды интеллект бақылауды сақтап қалудың орнына, AI кенеттен басқаруды адамға береді. Бұл зауыттағы техника таза күйзеліске қарай тез жүріп жатыр және адамның түзету әрекетін жасауына уақыт қалмайды.

Жасанды интеллект ыстық картопты ілмектегі адамға тапсырып, адамды шынайы ыстық картоппен толтырды, сондықтан бұл жағдайды адам көтере алмайды. Тег, сіз бұл, бала кезіңізде тег ойындарын ойнағанда ескі жолға түседі. Адамды біз беспорядокпен белгілейміз.

Дәл менің баскетбол ойыны туралы мысалым сияқты.

Неліктен AI тапсыруды жасады?

Адам кенеттен баскетбол добын беріп, содан кейін неліктен бұлай жасағаны туралы жабайы қол бұлғаған кездегіден айырмашылығы, біз әдетте AI бағдарламалауын тексеріп, AI-ның осындай ыстық картопты тапсыруына не себеп болғанын анықтай аламыз.

AI әзірлеушісі AI шынымен қиын жағдайға тап болған кезде, AI циклдегі адамға бақылауды жалғастыру керек деп алдын ала шешкен болуы мүмкін. Бұл өте орынды және ақылға қонымды болып көрінеді. Адам алаңда «жақсы ойыншы» болуы мүмкін. Адамдар өздерінің танымдық мүмкіндіктерін кез келген мәселені шешу үшін пайдалана алады. AI өзінің бағдарламалау шегіне жеткен болуы мүмкін және бұл жағдайда ол жасай алатын басқа конструктивті ештеңе жоқ.

Егер жасанды интеллект техниканың жұмыс істеуіне бір минут қалғанда тапсыруды орындаса, бәлкім, бір минуттық бас тарту - бұл циклдегі адам нәрселерді түзете алатындай ұзақ. Ал AI тапсыруды аяқталуға үш секунд қалды делік. Сіздің ойыңызша, адам осы уақыт аралығында әрекет ете алады ма? Екіталай. Қалай болғанда да, жағдайды бұдан да азайту үшін, циклдегі адамға ауысу аяқталуға бірнеше наносекундтар қалғанда болды делік (наносекунд секундтың миллиардтан бірі, салыстыру үшін бұл жылдам жыпылықтау). көз баяу 300 миллисекунд).

Егер жасанды интеллект ыстық картопты кез келген ашық әрекетті орындауға бірнеше секунд қалдырған болса, онда адам әрекет ете ала ма?

Жоқ

Өткізу басқаша көрінгеннен гөрі өтірік.

Шындығында, ауыр жағдайға келгенде, тапсыру жақсылыққа әкелмейді. AI адамды ешкіге айналдырды.

Кейбір AI әзірлеушілері AI жасаған кезде бұл туралы ойламайды. Олар (қате) уақыттың шешуші фактор екенін бақытты түрде ескермейді. Олардың барлығы қиын жағдай туындаған кезде тапсыруды бағдарламалауды таңдау болып табылады. AI конструктивті түрде жасайтын ештеңе қалмаған кезде, допты ойыншыға лақтырыңыз.

AI әзірлеушілері AI кодтау кезінде бұл туралы нақты ойланбауы мүмкін, содан кейін олар оны жарыққа шығаратын тестілеуді орындамай, жиі екі есе сәтсіздікке ұшырайды. Олардың тестілері көрсеткендей, AI шегіне жеткенде AI «міндетпен» тапсырды. Voila, AI жақсы және пайдалануға дайын деп есептеледі. Тестілеуге бұл мүмкін емес және мүмкін емес жағдайға қойылған нақты адам кірмеді. Соңғы сәтте көзді ашып-жұмғанша, немесе шын мәнінде соңғы сәттен өткенде, оларға жақсылық әкелген жоқ деп наразылық білдіруі мүмкін адамды тексерудің дұрыс процесі болмады.

Әрине, кейбір AI әзірлеушілері бұл қиын жағдайдың түрін ақылмен қарастырады.

Жұмбақтарды ойластырғаннан кейін, олар AI-ны осылай әрекет ету үшін бағдарламалауға кіріседі.

Неге?

Өйткені, олардың санасында тым болмаса басқа шаруа жоқ. Барлығы сәтсіз болғанда, адамға қолмен басқару. Мүмкін бір ғажайып орын алуы мүмкін. Негізі бұл AI әзірлеушісін алаңдатпайды және олар адамға қолдағы тәртіпсіздікпен күресуге соңғы мүмкіндік береді. AI әзірлеушісі одан кейін не болғанын қолдарын жуады.

Мен AI әзірлеушілері осы ыстық картоп дизайндарының жалғыз әзірлеушілері емес екенін түсіндіргім келеді. Бұл үшін үстелге келетін басқа да көптеген мүдделі тараптар бар. Мүмкін, спецификациялар мен талаптарды талдауды жасаған жүйелік талдаушы АИ осылай істеу керек деп айтқан болуы мүмкін. Қатысқан AI әзірлеушілері AI-ны сәйкесінше жасады. AI жобасының менеджері мұны ойлап тапқан болуы мүмкін. Жасанды интеллекттің дамуын қадағалайтын басшылар мен басшылық мұны ойлап тапқан болуы мүмкін.

Жасанды интеллектіні дамытудың бүкіл өмірлік циклі бойына барлығы ыстық картоптың дәл осындай дизайнын алға жылжытқан болуы мүмкін. Оны біреу байқады ма, нақты айта алмаймыз. Егер олар байқаса, олар қарсылық білдірушілер деп белгіленіп, шеттетілген болуы мүмкін. Басқалары бұл мәселені олардың назарына алуы мүмкін, бірақ олар оның салдарын түсінбеді. Олар бұл олардың ауқымына кірмейтін техникалық ұсақ-түйек деп санады.

Мен осы «себептердің» бейресми тізіміне әлдеқайда жағымсыз мүмкіндікті қосамын.

AI ыстық картоп синдромы кейде әдейі қолданылады, өйткені AI жасайтын адамдар өздерінің сенімсіз теріске шығаруға деген құштарлығын білдіргісі келді.

Ертегінің осы бөлігіне дайындалыңыз.

Зауыт техникасының тозығы жеткен жағдайда, болған оқиғаға кім жауапты екендігі туралы көптеген саусақпен нұсқау болуы мүмкін. Техниканы басқаруға келетін болсақ, бізде AI жүйесі бар және бізде онымен айналысатын адам болды. Бұл метафоралық түрде біздің екі баскетболшымыз.

Сағат тілі азайып, техника кабумға шығуға аз қалды. Айталық, сіз бен біз AI циклдегі адамға тапсырғанын білеміз, мұны адам апатты түзету немесе болдырмау үшін жеткілікті әрекетті орындау үшін жеткіліксіз уақыт қалды. Бұл оқиғаның болғанын басқа ешкім түсінбейді.

AI жасайтын фирма кез келген жағдайда олардың кінәсі жоқ екенін бірден мәлімдей алады, өйткені адам бақылауға алды. Олардың мінсіз жазбаларына сәйкес, кабум кезінде AI бақылауда болмаған. Адам болды. Демек, адам кінәлі екені анық.

AI компаниясы бұл ашық мәлімдемені жасаған кезде өтірік айта ма?

Жоқ, олар шындықты айтып тұрған сияқты.

Жасанды интеллект бақылауда болмағанына сенімді ме деген сұраққа компания AI мүлде бақылауда емес деп қатты және мақтанышпен жариялайды. Олар бұл бекітудің құжатталған дәлелін (AI оқиға журналын жүргізді деп есептей отырып). Шындығында, AI компаниясының басшылары кез келген адам осы мәселеде олардың адалдығына күмән келтіретініне жиіркенішпен қастарын көтеруі мүмкін. Олар AI болды деп қасиетті антына ант беруге дайын болар еді емес бақылауда. Циклдегі адамның бақылауы болды.

Мұның қаншалықты жаңылыстыруға болатынын көріп тұрсыз деп сенемін.

Иә, басқару адамға берілді. Теориялық тұрғыдан адам бақылауда болды. AI енді бақылауда болмады. Бірақ қол жетімді уақыт пен хабарландырудың болмауы бұл өте қуыс шағымға айналдырады.

AI жасаушысының көзқарасы бойынша, мұның сұлулығы ұсынып отырған талаптарға аз адамдар дауласа алады. AI жасаушысы оқиға журналдарын шығармауы мүмкін. Мұны істеу бұрмаланған жағдайдан бас тартуы мүмкін. Журналдар зияткерлік меншік (IP) немесе басқаша түрде меншікті және құпия сипатта болады деп айтылады. Фирма егер журналдар көрсетілсе, бұл олардың АИ-нің құпия соусын көрсетеді және олардың бағалы IP-ін жояды деп дау айтуы мүмкін.

Бейшара адамның жағдайын елестетіп көріңізші. Олар барлығының өздерін жағдайдың реттелмегені үшін кінәлап жатқанына таң қалды. AI «дұрыс әрекет жасады» және басқаруды адамға берді. Бұл техникалық сипаттамаларда айтылған нәрсе болуы мүмкін (қайтадан, уақыт пен техникалық-экономикалық факторларды ескермегенде, ерекшеліктер қате болды). Жарияланбаған, бірақ AI жасаушысы темірмен қапталған деп мәлімдеген журналдар адамға AI басқаруға берілгенін растайды.

Сіз мұны құлап қалатын адам үшін аянышты слем-данк деп жариялай аласыз.

Бұл сотқа жүгінсе ғана болған оқиғаның шындығы ашылады деген болжам бар. Егер ақылды заңды биглдер концерттің бұл түрін білсе, олар журналдарды заңды түрде алуға тырысады. Олар журналдарды шешу үшін сарапшы куәгерді (мен анда-санда жасаған нәрсе) алуы керек еді. Тек журналдар жеткіліксіз болуы мүмкін. Журналдарды өңдеуге немесе өзгертуге немесе мәліметтерді нақты көрсетпеу үшін әдейі ойлап табуға болады. Осылайша, AI кодын да зерттеу қажет болуы мүмкін.

Сонымен қатар, осы ауыр және ұзаққа созылған заңды ашу процесі барысында адам-ақпарат өте нашар көрінеді. Бұқаралық ақпарат құралдары бұл адамды жауапсыз, басын жоғалтқан, ұқыптылық таныта алмаған және толық жауапкершілікке тартылуы керек деп суреттейді. Мүмкін, айлар немесе жылдар бойы, бұл процесс барысында, бұл адам бәрібір айыптаушы саусағын көрсететін адам болады. Сасық иіс ешқашан жойылмауы мүмкін.

Осындай жағдайдың қайталануы оңай болатынын есте сақтаңыз. Және тағы да. AI жасаушы AI-ны өзгертпеді деп есептей отырып, соңғы минутта ұқсас жағдай туындаған кезде, AI бұл уақытты қалдырмайды. Мұндай жағдайлар жиі бола бермейді деп үміттенуге болады. Бұл сирек кездесетін жағдайларда, ілмектегі адам әлі де қолайлы күзгі жігіт болып табылады.

Бұл шайтанның айласы.

Сіз AI жасаушы ешбір қателік жасамағанын талап еткіңіз келуі мүмкін. Олар шындықты айтып жатыр. AI бақылаудан бас тартты. Содан кейін адам бақылауда қарастырылды. Бұл фактілер. Оған дау айтудың мағынасы жоқ.

Кез келген адам ақылға қонып, қиын сұрақтар қоя ма, сонымен қатар AI жасаушы бұл сұрақтарға тікелей жауап бере ме, бұл сирек болатын нәрсе.

Сұрақтар мыналарды қамтиды:

  • AI қашан айналымдағы адамға тапсырды?
  • AI қандай бағдарламаланған негізде тапсыруды жасады?
  • Адамға бақылауды өз қолына алу үшін жеткілікті уақыт берілді ме?
  • Бұл қиыншылықтар үшін AI қалай әзірленді және жасалды?
  • Және тағы басқа.

Белгілі бір дәрежеде, сондықтан AI этикасы және этикалық AI өте маңызды тақырып болып табылады. AI этикасының ережелері бізді сергек болуға мәжбүр етеді. AI технологтары кейде технологиямен, әсіресе жоғары технологияларды оңтайландырумен айналысуы мүмкін. Олар міндетті түрде үлкен әлеуметтік салдарларды қарастырмайды. Жасанды интеллект этикасы туралы ой-пікірдің болуы және оны AI әзірлеу және өрістету үшін интегралды түрде жасау сәйкес AI жасау үшін өте маңызды, соның ішінде (таңқаларлық немесе ирониялық) AI этикасын фирмалар қалай қабылдайтынын бағалау.

Жалпы AI этикасының ережелерін қолданудан басқа, бізде AI-ны әртүрлі пайдалануды реттейтін заңдар болуы керек пе деген сәйкес сұрақ бар. Федералды, штаттық және жергілікті деңгейлерде AI қалай жасалуы керектігі мен сипатына қатысты жаңа заңдар әзірленуде. Мұндай заңдарды әзірлеу және қабылдау әрекеті кезең-кезеңімен жүргізілуде. AI этикасы, ең болмағанда, қарастырылатын үзіліс ретінде қызмет етеді және белгілі бір дәрежеде бұл жаңа заңдарға тікелей қосылады.

Кейбіреулер бізге AI қамтитын жаңа заңдар қажет емес және біздің қолданыстағы заңдарымыз жеткілікті деп батыл дау жасайтынын ескеріңіз. Шындығында, олар егер біз осы AI заңдарының кейбірін шығарсақ, үлкен әлеуметтік артықшылықтар беретін AI-дағы жетістіктерді қысқарту арқылы алтын қазды өлтіретінімізді алдын ала ескертеді.

Осы маңызды пікірталастың дәл осы тұсында, мен сізге осы тақырыпты көрсетуі мүмкін қосымша көрнекі мысалдар қажет екеніне сенімдімін. Менің жүрегіме жақын болатын ерекше және танымал мысалдар жиынтығы бар. Көрдіңіз бе, мен AI бойынша сарапшы ретінде этикалық және құқықтық салдарларды қоса алғанда, тақырыптың біршама теориялық сипатын оңай түсіну үшін AI этикасының дилеммаларын көрсететін нақты мысалдарды анықтауды жиі сұрайды. Бұл этикалық AI екіұштылығын айқын көрсететін ең қызықты бағыттардың бірі - AI негізіндегі өзін-өзі басқаратын автомобильдердің пайда болуы. Бұл тақырып бойынша кең талқылау үшін ыңғайлы пайдалану жағдайы немесе үлгі ретінде қызмет етеді.

Олай болса, ойлануға тұрарлық маңызды сұрақ: AI негізіндегі нағыз өзін-өзі басқаратын көліктердің пайда болуы AI ыстық картоп синдромы туралы ештеңені жарықтандырады ма, егер солай болса, бұл нені көрсетеді?

Маған сұрақты ашуға бір сәт рұқсат етіңіз.

Біріншіден, нағыз өзін-өзі басқаратын көлікте адам жүргізуші жоқ екенін ескеріңіз. Нағыз өзін-өзі басқаратын көліктер AI жүргізу жүйесі арқылы басқарылатынын есте сақтаңыз. Рульде адам жүргізушінің де қажеті жоқ, көлікті адам басқаратын жағдай да жоқ. Автономды көліктер (АВ) және әсіресе өзін-өзі басқаратын көліктер туралы кең және үздіксіз ақпарат алу үшін қараңыз. сілтеме осында.

Мен нағыз өздігінен жүретін көліктерге сілтеме жасағанда нені білдіретінін қосымша түсіндіргім келеді.

Өздігінен басқарылатын автомобильдердің деңгейлерін түсіну

Түсініктеме ретінде, нағыз өзін-өзі басқаратын автомобильдер - бұл АИ көлікті толығымен өздігінен басқаратын және жүргізу кезінде ешқандай адам көмегінсіз жүретін көліктер.

Бұл жүргізушісіз көліктер 4-деңгей және 5-деңгей болып саналады (менің түсіндірмені қараңыз мына сілтеме), ал адам жүргізушінің жүргізу күш-жігерін бірге бөлісуін талап ететін көлік әдетте 2 немесе 3-деңгейде қарастырылады. Жүргізу міндетін бірге орындайтын көліктер жартылай автономды болып сипатталады және әдетте әр түрлі ADAS (Driver-Assistance Advanced Systems) деп аталатын автоматтандырылған қондырмалар.

5-деңгейде нағыз өзін-өзі басқаратын көлік әлі жоқ, және біз бұған жету мүмкін бе, жоқ па, оған жету үшін қанша уақыт кететінін әлі білмейміз.

Сонымен қатар, 4-деңгейдегі күш-жігер бірте-бірте өте тар және таңдамалы қоғамдық жол сынақтарынан өту арқылы біраз тартуға тырысады, дегенмен бұл сынаққа рұқсат беру керек пе деген пікірталас бар (біз бәріміз экспериментте өмір немесе өлім-жітім теңіз шошқаларымыз) Біздің магистральдарда және айналма жолдарда орын алуда, кейбіреулер даулайды, менің хабарымды мына жерден қараңыз мына сілтеме).

Жартылай автокөліктер адам жүргізушісін қажет ететіндіктен, бұл көлік түрлерін қабылдау әдеттегі көліктерді басқарудан айтарлықтай ерекшеленбейді, сондықтан бұл тақырыпта олар туралы көп жаңалық таба алмайсыз (дегенмен, сіз көресіз Бір сәтте келесі ойлар жалпыға бірдей қолданылады).

Жартылай автокөліктер үшін көпшіліктің соңғы уақытта пайда болатын алаңдатарлық аспект туралы алдын-ала ескертуі маңызды, атап айтқанда 2-деңгей немесе 3-деңгейлі автокөліктің дөңгелегінде ұйықтап жатқандығы туралы бейнежазбаларын жазып жүрген адамдарға қарамастан. , жартылай автономды автокөлік жүргізу кезінде жүргізуші олардың назарын басқару тапсырмасынан алуы мүмкін деп сендіруден аулақ болуымыз керек.

Автоматизацияның 2 немесе 3 деңгейге өтуіне қарамастан, сіз көлік құралын басқаруға жауаптысыз.

Өздігінен жүретін көліктер және AI ыстық картоп синдромы

4 және 5-деңгейдегі өздігінен жүретін көліктер үшін жүргізуші рөлінде адам жүргізушісі болмайды.

Барлық жолаушылар жолаушылар болады.

AI жүргізуді жүргізуде.

Тез арада талқылаудың бір аспектісі бүгінгі жасанды интеллект жүргізуші жүйелеріне қатысатын жасанды интеллекттің сезімтал болмауына алып келеді. Басқаша айтқанда, жасанды интеллект - бұл компьютерлік бағдарламалау мен алгоритмдердің жиынтығы, сондықтан адамдар ойлап тапқан тәртіппен ой қорыта алмайды.

Неліктен бұл интеллектке қосымша назар аударылмайды?

Мен жасанды интеллектті қозғау жүйесінің рөлін талқылағанда мен жасанды интеллектке адами қасиеттерді жатқызбайтынымды атап өткім келеді. Бүгінгі күні жасанды интеллект антропоморфизациясының тұрақты және қауіпті тенденциясы бар екенін ескеріңіз. Шын мәнінде, адамдар мұндай жасанды интеллект әлі жоқ екендігі туралы даусыз және талассыз фактілерге қарамастан, бүгінгі жасанды интеллектке адам тәрізді сезімді тағайындайды.

Осы нақтылау арқылы сіз AI жүргізу жүйесі қандай да бір түрде жүргізудің қырлары туралы «білмейді» деп ойлауға болады. Жүргізу және оған қатысты барлық нәрселер өзін-өзі басқаратын машинаның аппараттық және бағдарламалық жасақтамасының бөлігі ретінде бағдарламалануы керек.

Осы тақырып бойынша ойнауға келетін көптеген аспектілерге сүңгейік.

Біріншіден, AI өздігінен жүретін көліктердің барлығы бірдей емес екенін түсіну маңызды. Әрбір автоөндіруші және өзін-өзі басқаратын технологиялық фирма өзін-өзі басқаратын көліктерді ойлап табуда. Осылайша, AI жүргізу жүйелері не істейтіні немесе жасамайтыны туралы нақты мәлімдеме жасау қиын.

Сонымен қатар, AI басқару жүйесі белгілі бір нәрсені жасамайтынын айтқан кезде, оны кейінірек компьютерді дәл осылай жасауға бағдарламалайтын әзірлеушілер басып озуы мүмкін. Бірте -бірте AI басқару жүйелері біртіндеп жетілдіріліп, кеңейтілуде. Бүгінде бар шектеулер болашақта жүйенің қайталануында немесе нұсқасында болмауы мүмкін.

Бұл мен айтатын нәрсенің негізін салу үшін жеткілікті ескертулер береді деп үміттенемін.

Толығымен автономды көліктер үшін AI мен адам арасында ауысу мүмкіндігі болмауы мүмкін, себебі циклде адам болмауы мүмкін. Өздігінен басқарылатын көлік жасаушылардың көпшілігінің ұмтылысы адам жүргізушіні жүргізу міндетінен толығымен алып тастау болып табылады. Көлікте тіпті адам қол жеткізе алатын басқару элементтері де болмайды. Бұл жағдайда адам жүргізуші, егер бар болса, жүргізу тапсырмасына қатыса алмайды, өйткені оларда кез келген басқару элементтеріне қол жетімділік жоқ.

Кейбір толық автономды көліктер үшін кейбір конструкциялар әлі күнге дейін адамның циклде болуына мүмкіндік береді, дегенмен адамның қол жетімді болуы немесе жүргізу процесіне қатысуы міндетті емес. Осылайша, егер адам қаласа, адам көлік жүргізуге қатыса алады. Ешбір жағдайда AI адамға жүргізу тапсырмаларының кез келгенін орындау үшін тәуелді емес.

Жартылай автономды көліктер жағдайында адам жүргізуші мен АИ арасында қоян-қолтық қатынас бар. Кейбір конструкциялар үшін адам драйвері жүргізуді басқаруды толығымен өз қолына алады және AI-ның жүргізуге қатысуын тоқтата алады. Егер адам драйвері АИ-ді жүргізу рөліне қалпына келтіргісі келсе, олар мұны істей алады, бірақ бұл кейде адамды басқару элементтерінен бас тартуға мәжбүр етеді.

Жартылай автономды жұмыстың тағы бір түрі адам драйвері мен АИ-нің командалық түрде бірге жұмыс істеуін талап етеді. AI басқарады, ал адам басқарады. Олар бірге көлік жүргізеді. AI адамға қатысты болуы мүмкін. Адам АИ-ге көнуі мүмкін.

Кейбір сәттерде AI жүргізу жүйесі өздігінен басқарылатын көліктің қолайсыз жағдайға түсіп жатқанын және автономды көлік апатқа ұшырайтынын есептеу арқылы анықтауы мүмкін.

Сонымен қатар, кейбір сарапшылар өзін-өзі басқаратын көліктер апатқа ұшырамайды деп мәлімдейді, бұл таза нонсенс және тым қисынсыз және қате пікір, менің хабарымды қараңыз сілтеме осында.

Соқтығысқа немесе көлік апатына қарай бара жатқан өздігінен жүретін көлік сценарийін жалғастыра отырып, AI жүргізу жүйесі басқаруды адам жүргізушісіне қысқаша тапсыру үшін бағдарламалануы мүмкін. Егер адам жүргізушінің жалтару әрекетін жасауы үшін жеткілікті уақыт болса, бұл AI үшін ақылға қонымды және дұрыс нәрсе болуы мүмкін.

Бірақ AI тапсыруды бірнеше секунд қалды делік. Адам жүргізушісінің реакция уақыты тиісті жауап беру үшін жеткілікті жылдам емес. Сонымен қатар, егер адам таңғажайып түрде жеткілікті жылдам болса, апатқа дейін қалған шектеулі уақытпен жүзеге асырылатын өміршең қашу әрекеттері жоқ. Бұл екі түрлі: (1) адам жүргізушінің әрекет ету уақыты жеткіліксіз; (2) адам жүргізуші әрекетті орындау мүмкін болса, берілген жеткіліксіз уақыт көлемінде әрекетті орындауға болатын уақыттың жеткіліксіздігі.

Тұтастай алғанда, бұл менің баскетбол шумзерінің жағдайы мен қорқынышты сценарийге айналған зауыттық техника туралы бұрынғы талқылауыма ұқсас.

Бұған зиянды ингредиентті қосайық.

Автокөлік өндірушісі немесе өзін-өзі басқаратын технологиялық фирма өз паркінде орын алған әртүрлі көлік апаттарымен белгіленгісі келмейді. AI жүргізу жүйесі адам жүргізушінің қиын жағдайда кез келген әрекетке жеткілікті уақыты бар-жоғына қарамастан, басқаруды әрқашан адам жүргізушісіне беру үшін бағдарламаланған. Мұндай көлік апаты орын алған сайын, автоөндіруші немесе өзін-өзі басқаратын технологиялық фирма адам жүргізуші басқаруда болғанын, ал АИ болмағанын дауыстап айта алады.

Олардың AI жүргізу жүйелері бойынша тәжірибесі керемет сияқты.

Бұл көлік апаттарына AI жүргізу жүйесі бірде-бір рет «кінәлі» емес. Әрқашан жолдан көз алмай жүрген әлгі қараңғы адам жүргізушілері. Біз бұл аққұбаны жұтып қоюға бейім болуымыз мүмкін және дәл AI ешқашан қателеспейді деп сенеміз. Біз (тәжірибе арқылы білетіндіктен) адам жүргізушілер немқұрайлы және көптеген көлік қателерін жібереді деп сенуіміз мүмкін. Логикалық қорытынды - адам драйверлері кінәлі болуы керек, ал AI жүргізу жүйесі толығымен кінәсіз.

Кейбір өзін-өзі басқаруды жақтаушылар бұл сипаттамаға ренжімес бұрын, адам жүргізушінің кінәсі болуы мүмкін екенін және олар АИ-ден жүргізуді басқаруды алу сияқты тезірек әрекет етуі керек екенін толығымен мойындайық. Сондай-ақ, AI басқаруды тапсырған кезде адам жүргізуші маңызды нәрсе жасауы мүмкін. т.б.

Мұнда басты назар АИ көлік құралының жүргізушісі болып есептелетін жағдайларға аударылды, содан кейін кенеттен және адам жүргізушінің не істей алатынына назар аудармай, ыстық картопты адам жүргізушісіне лақтырады. Сондықтан да көптеген адамдар жартылай автономды көліктердің қос жүргізуші рөліне алаңдайды. Сіз рульде жүргізуші тым көп деп айтуыңыз мүмкін. Мақсат, рульде адамға қажет емес және AI әрқашан көлікті басқаратын толық автономды көліктерге ие болу арқылы мәселені шешу болар еді.

Бұл AI басқарған кезде не немесе кім жауапты екендігі туралы одақтас сұрақты тудырады, мен бұл туралы өзімнің бағандарымда бірнеше рет айтқанмын. сілтеме осында және сілтеме осында.

қорытынды

Жартылай автономды көліктердің қатысуымен болған көлік апаттары туралы естігенде немесе оқығанда абай болу керек. Олардың AI жүргізу жүйесі мінсіз рекорды бар деп жариялап, бізді алдауға тырысатындардан сақ болыңыз. -ның айлалы айласы AI ыстық картоп синдромы араласуы мүмкін.

Осы мәселелерде айлакер болуға тырысатын компаниялар үшін біз Авраам Линкольннің әйгілі сөзін жүрегімізге жақын ұстай аламыз: «Сіз барлық адамдарды кейде және кейбір адамдарды әрқашан алдай аласыз, бірақ сіз алдай алмайсыз. барлық адамдар барлық уақытта ».

Мен мұнда экранның артында жасырылған және кейде капюшонның астына қойылған AI сиқырын ашуға тырыстым, мен оны көбірек адамдар үшін түсіндірдім. болмайды көбірек алданып қалу.

Дереккөз: https://www.forbes.com/sites/lanceeliot/2022/08/01/ai-ethics-fuming-about-the-rising-hot-potato-syndrome-being-employed-by-ai-makers- өз өмірі үшін-жауапкершіліктен-болдырмауға-тырысатын-шешуші-автономды-жүйелер/