Ұшқыш пен екінші ұшқыш ұшпас бұрын келіспеген және кенеттен таксимен терминалға қайтып, бөлек жолдармен жүруді таңдаған Аляска авиакомпаниясының жақында рейсінен алынған AI этикасы және автономды жүйелер сабақтары

Әуе компаниялары соңғы кездері жаңалықтарда болды.

Біз жазғы уақытта рейстердің қиындығындамыз. Шаршаған және көңілі қалған жолаушылар рейстің әр түрлі үзілістері мен авиакомпания кестесін бұзуға тап болады. Ұшулар күтпеген жерден тоқтатылады. Ұшулар кешіктіріліп жатыр. Жолаушылар түтін шығарады. Өкінішке орай, жолаушылар осы күйзелістердің туындауына мүмкіндік беретін көптеген жағдайлар болды, және біз бетпе-бет қақтығыстардың және кейде жұдырықтардың тым көп вирустық бейнелерін көрдік.

Ұшқыш пен екінші ұшқыштың кабинасында болған кезде туындауы мүмкін даулар туралы біз сирек білеміз.

Бұл өте таңқаларлық.

Шынында да, біз ұшқыш пен екінші ұшқыштың ұшудың кез келген кезеңінде елеулі келіспеушіліктің көрінісі болады деп ойлауға таңғаламыз. Егер келіспеушілік кофенің қай маркасы жақсы екеніне қатысты болса, біздің болжамымыз бойынша, бұл ұшақпен ұшуды талап ететін жұмыс күшіне кедергі келтірмейді. Екеуі ұшуға қатысы жоқ болып көрінетін тақырыпты бір-бірінен ажырата алмас еді. Олардың кәсіби мінез-құлқы мен ұзақ уақыт бойы ұшқыш дайындығы басталады және олар өздерінің назарын ұшу ерекшеліктеріне аударады.

Қарастырайық, қашан а кәсіби келіспеушілік араласады.

Мен сіздермен АҚШ-та ұшу кезінде болған оқиғаның кабинадағы мәлімделген кәсіби келіспеушілікке қатысты жақында болған оқиғасы туралы кеңінен жарияланған жаңалықтармен қысқаша бөлісемін.

Бұл негізінен жасанды интеллект (AI) пайда болуы үшін маңызды болып табылатын байланысты тақырыпты зерттеу үшін осы жерде келтірілген. Көрдіңіз бе, адам мен адамға келіспеушілікте тек адамдар арасындағы кәсіби келіспеушіліктердің бір түрі болуы мүмкін, бірақ бізде AI қабылдау кезінде ұқсас нәрсе болуы мүмкін және нәтижесінде адам мен AI-ға қарсы кәсіби келіспеушіліктер болуы мүмкін. . AI этикасының барлық түрлері туындайды. Жасанды интеллект этикасы мен этикалық AI мәселелерін кеңінен және үздіксіз қамту үшін қараңыз сілтеме осында және сілтеме осында, тек бірнеше атау үшін.

Өзіңізді қызықты ертегіге дайындаңыз.

Жақында жаңалықтарда хабарланғандай, Вашингтоннан Сан-Францискоға бара жатқан Alaska Airline рейсі кезінде «кәсіби келіспеушілік» оқиғасы пайда болды. Хабарламада айтылғандай, рейс қақпадан алыстап, асфальтта таксиге және ұшуға рұқсат күтіп тұрған. Дауыл соғып, рейс бір жарым сағаттан астам кешігуге әкелді. Ұшақ ақырында бұрылып, қақпаға қарай бет алғаны белгілі болды, бұл кейбір жолаушылар әдетте дауылға байланысты қауіпсіздік шарасы деп болжауы мүмкін.

Әр түрлі твиттерге қарағанда, ұшқыш пен екінші ұшқыштың кабинада болған уақытында көзге көрінбейтін жанжал болған сияқты және қандай да бір түрде ең сақтықпен рейсті тазарту және терминалға оралу деген қорытындыға келген сияқты. . Твиттерде капитан мен бірінші офицер бір-бірімен тіл табыса алмаған сияқты. Әуе компаниясы кейінірек жағдайдың өкінішті екендігі туралы мәлімдеме жасады (жағдай нақты айтылмаған немесе түсіндірілмеген), екі ұшқышты басшылық бағалады және ұшуға жарамды деп тапты, экипаждар ауыстырылды және рейс аяқталды. кейін Сан-Францискоға жетті.

Бір мағынада, егер шын мәнінде ұшқыш пен екінші ұшқыштың арасында ұшақтың ұшуға жарамдылығы немесе дауыл арқылы ұшу қаупі қолайлы қауіпсіздік диапазонында болуы сияқты кәсіби келіспеушіліктер болса, бұл жолаушылар жеңілдетілуі керек және ұшақтың қақпаға қайтарылғанына шүкіршілік етті. Кешіргеннен гөрі қауіпсіз болған дұрыс. Қосымша кідірістің болуы ауыр немесе қолайсыз ұшу сапарымен байланысты тәуекелдерді болжамды азайтуға тұрарлық.

Кейбір адамдар мұндай кәсіби келіспеушілік туындауы мүмкін екеніне таң қалуы мүмкін.

Бәлкім, бізде кабинада болып жатқан оқиғалардың барлығы дәл және жақсы жазылған деген жалған әсер бар. Адамның қалауының барлық түрі бұл процестен шығып кеткен сияқты. Нақты және мұқият есептелген кестелерге сүйене отырып, рейсті жалғастыруға болады немесе олай емес. Бүкіл жиынтық пен кабудь фактілер мен цифрлардың теріске шығарылмайтын есептеулеріне негізделген деп есептелсе, ешқандай келіспеушіліктер болуы мүмкін емес.

Бұл мәселенің толық шындығы емес. Әрине, көптеген хаттамалар мен тексерулер мен тепе-теңдіктердің барлық түрлері бар, бірақ бұл адам пікірінің барлық бөлігін сығымдамайды. Ұшқыштар мен екінші ұшқыштар әлі де адами пайымдауларды қолданады. Бақытымызға орай, бұл адамдық пайымдау жылдар бойы ұшу арқылы нақтыланған. Коммерциялық жолаушылар ұшағындағы ұшқыш пен екінші ұшқыштың бұрынғы ұшу тәжірибесі бар және ұшуды басқаруға байланысты көптеген жылдар бойы терең ойлар мен пайымдауларды оңай пайдалана алады.

Адамның пайымдауының маңызды рөлін ескере отырып, ұшқыш пен екінші ұшқыштың арасында кейде кәсіби келіспеушіліктер болады деп қисынды түрде болжауға болады. Көбінесе мұндай келіспеушілік өте аз болуы мүмкін. Күнделікті рейстерге арналған ұшқыш пен екінші ұшқыш уақыт басымдылығына сәйкес келетін болуы мүмкін. Ұшу сценарийі кәдімгі шектен шығуы мүмкін болғанда ғана біз шиеленісті үйкелістің пайда болуын күтеміз.

Егер екеуінің арасында қатты пікір қайшылығы болса, мен олардың оны жоюын қалаймыз деп айтуға батылы барар едім.

Ұшқыш әрекетті жалғастырғысы келетін, бірақ екінші ұшқыш тәуекелдердің тым жоғары екенін түсінетін жағдайды елестетіп көріңіз. Тек қана екінші ұшқыштың ұшқышқа қол жеткізуі жағымсыз болып көрінеді. Қосалқы ұшқыш - бұл ұшқыш не істеуді ойлайтынын тексеру және тепе-теңдік. Қосалқы ұшқыштың аузын жауып, ұшқыштың қандай жарлық шығарса да, ойланбастан әрекет етуін қалайтындар үшін бұл сенімділік емес. Қосалқы ұшқыш - бұл суретке ұшқыш толық қабілетсіз болған кезде ғана енетін қосалқы «ұшқыш» емес. Бұл ұшқыш пен екінші ұшқыштың кабинада болуының құндылығын қате түсіну.

Мұның басқа қыры бар.

Ұшуды жалғастыру керек деп есептемейтін ұшқыштың жағдайын қарастырайық, ал екінші ұшқыш ауаға көтерілуге ​​тырысады. Сонда ше? Күтілетін иерархия бойынша ұшқыш екінші ұшқыштан шартты түрде басым болуы керек. Негізгі басқарушы ретінде тағайындалған рөл ұшқышты басқа жағдайда біршама тең болатын нәрседен үлкен етеді. Әдетте, ұшқыштың екінші ұшқышқа қарағанда жалпы ұшу уақытының дәмі бар, сондықтан екінші ұшқыш иерархиялық түрде ұшқыштың тілектерін (себеп бойынша) кейінге қалдыруы керек.

Қалай болғанда да, менің ойымша, біз бәріміз ұшпауды таңдау ұшуға шешім қабылдаудан гөрі қауіпті емес таңдау болып табылады деп келісе аламыз. Ұшақ ауаға көтерілгеннен кейін, кез келген қарапайым тұрақты жерде болумен салыстырғанда қауіп деңгейі өте жоғары болады. Әуеге шықпай-ақ терминалға қайта оралатын әдеттегі коммерциялық рейс ұшуға бару туралы кез келген қызу қызу пікірталасқа өте қолайлы шешім болар еді.

Берілістерді ауыстырайық және бұл керемет жаңалықтарды мүлдем басқа, бірақ салыстырмалы мақсатта қолданайық.

Бізде бірте-бірте AI негізіндегі автономды жүйелер кең таралған. Кейде AI шоуды басқарады. Жасанды интеллект А-дан Я-ға дейін бәрін жасайды, және біз оны толығымен автономды немесе дерлік AI деп түсінуіміз мүмкін. Басқа жағдайларда, бізде әрекеттесетін AI болуы мүмкін және белгілі бір дәрежеде циклдегі адамның болуына тәуелді болу үшін бағдарламаланған.

Мен жасанды интеллект негізіндегі автономды немесе жартылай автономды жүйе мәселесіне назар аударғым келеді. AI мен адам әдейі біріктірілген және бір-бірімен тандемде жұмыс істеуі керек. Олар белгілі бір тапсырманы орындаудағы когорттар. Жалғыз AI тапсырма бойынша әрекет етпеуі керек. AI тағайындалған циклдегі адаммен өзара әрекеттесуі керек.

Мен бұл сипаттаманы циклдегі адам қосымша қыры болып саналатын жағдайлардан ажырату үшін келтіремін. Негізінде, AI-ға еркіндік беріледі. Егер AI адамды пайдалануды таңдаса, солай етіңіз. Жасанды интеллект тағайындалған адаммен негізге тиіп тұруы немесе онымен қоян-қолтық жұмыс істеуі керек деген талап жоқ. Мен айтатын талдаулар, әрине, осы түрге қатысты міндетті емес өзара әрекеттесу тәртібі, бірақ мен осы нақты талқылауда арнайы жүргізіп отырған нәрсе емес.

Жарайды, бізде адам мен AI бір-бірінен ажырамастай бірге жұмыс істейтін қандай да бір тапсырма бар. Абстрактілі мағынада бізде бір орындықта адам отыр, ал екінші ілеспе орындықта AI жүйесі бар. Мен бұл пікірді ренжітіп айтып отырмын, өйткені біз бұл талқылауды, мысалы, орындықта отырған роботпен шектемейміз. Мен AI бір жерде тапсырмаға қатысады деген ұғымды метафоралық түрде меңзеп отырмын және адам да. Физикалық тұрғыдан олардың қайда екендігі талқылау үшін аса маңызды емес.

Сіз мұндай жағдайдың қашан туындауы мүмкін екенін білмеуіңіз мүмкін.

Жеңіл-жеңіл.

Мен кейінірек автономды көліктер мен өздігінен жүретін көліктердің пайда болуын талқылайтын боламын. Белгілі бір автономия деңгейлерінде AI мен адам бірге жұмыс істеуі керек. Жасанды интеллект көлікті басқарып, адамнан басқаруды басқаруды сұрауы мүмкін. Адам көлікті басқарып, басқаруды өз қолына алу үшін АИ-ді іске қосуы мүмкін. Олар кезек-кезек басқару элементтерін басқарады.

Сонымен қатар, кейбір конструкцияларда AI барлық уақытта белсенді болады (немесе өшірілмесе), AI әрқашан дайын болады. Сонымен қатар, AI болып жатқан жағдайға байланысты адамның сұрауынсыз да тікелей араласуы мүмкін. Мысалы, адам рульде ұйықтап қалған сияқты делік. Адам АИ-ді белсендіре алмайтын сияқты (адам ұйықтап жатқандықтан), АИ адамнан басқаруды қабылдауға бағдарламаланған болуы мүмкін.

Кейбір конструкциялар AI мен адамдарды қосарлы жүргізу тәсіліне әкеледі. AI басқарады, ал адам басқарады. Немесе, қаласаңыз, адам көлік жүргізеді, ал AI да жүргізеді. Олардың әрқайсысы көлік жүргізеді. Мен мұны сіз жүргізушіні оқыту кезінде пайдаланған және көлікте жүргізуді басқарудың екі жиынтығы болған, біреуі студенттік жүргізушіге және екіншісі жүргізуші нұсқаушысына арналған арнайы жабдықталған машиналармен салыстырамын.

Бұл жасанды интеллект пен адамдар тапсырманы орындауда бірлесіп жұмыс істейтін жағдайдың бір мысалы ғана. Барлық мүмкіндіктер бар. Ұшақтар, ұшқышсыз ұшақтар, суасты кемелері, жер үсті кемелері, пойыздар және т.б. сияқты автономды көліктердің басқа түрлері де жасалуы мүмкін. Бізге тек көлік пен көлік параметрлерін қарастырудың қажеті жоқ. Медициналық саланы және дәрігер мен AI жүйесі бірлесіп жасайтын операцияларды елестетіңіз. Тізім шексіз.

Барға бірге кіретін адам мен интеллект туралы классикалық әзілге жүгінгім келеді. Бұл жасанды интеллектпен айналысатындар үшін күлкі.

Шынымен, берілген тапсырмада бірге жұмыс істейтін адам мен AI жүйесінің назарына оралайық. Біріншіден, мен AI-ны антропоморфизациялаудан аулақ болғым келеді, бұл мен бәріне баса назар аударатын нәрсе. AI сезімтал емес. Осыны есте сақтаңыз.

Мұнда ойланатын нәрсе бар: Белгіленген адам әрқашан бірлескен AI-мен толық келісімде бола ма?

Кез келген күрделі тапсырма үшін адам мен AI толығымен және әрқашан толығымен құлыпта және қадамда болуы екіталай болып көрінеді. Адам кейбір жағдайларда AI-мен келіспейтін болуы мүмкін. Біз бұл болжамды банкке дейін жеткізе аламыз.

Бұл таңқаларлық мүмкіндікті де қарастырғаныңызды қалаймын: AI әрқашан циклдегі тағайындалған адаммен толық келісімде бола ма?

Тағы да, кез келген күрделі тапсырма үшін AI кейбір жағдайларда адамдармен келіспейтіні әбден мүмкін болып көрінеді. Егер сіз AI әрқашан қате болуы керек, ал адамдар әрқашан дұрыс болуы керек деген идеяға бейім болсаңыз, бұл асығыс қорытындыны қайта ойластырғаныңыз жөн. Жартылай автономды көлікті бірге басқаратын адам мен AI бар көлікті елестетіп көріңіз. Адам кірпіш қабырғаға қарай бұрылады. Неліктен? Біз білмейміз, мүмкін адам мас болған немесе ұйықтап қалған шығар, бірақ біз кірпіш қабырғаға соғылуы жақсы идея емес екенін білеміз, бәрі бірдей. Жасанды интеллект алдағы апатты анықтап, келе жатқан тосқауылдан аулақ болуға тырысуы мүмкін.

Айтуынша, бізде AI мен адамның бір-бірімен келіспеуінің нақты мүмкіндігі болады. Бір нәрсені айтудың басқа жолы - адамдар мен AI бір-бірімен келіспейді. Есіңізде болсын, мен AI-және адамға қарсы адам мен АИ-дің реттілігі келіспеушіліктің бағыты немесе орындылығы туралы ештеңе ұсынбағанын қаламаймын.

Екі жұмысшы, бірі адам, екіншісі AI, бір-бірімен келіспейді.

Біз белгілі бір AI мен белгілі бір адам арасында келіспеушілік болған кезде, біз адам АИ-ден басым болатынын алдын ала мәлімдей аламыз. Сонымен, кірпіш қабырғаға соғылып бара жатқан көлік туралы менің көрнекі мысал адам әрқашан дұрыс болатындығына сендіретін сияқты.

Біз, керісінше, келіспеушілік туындаған кезде біз AI дұрыс, ал адамның бұрыс екенін алдын ала анықтайтынымызды алдын ала жариялауды таңдай аламыз. Бұл да ақылға қонымды жалпылама ереже емес. Жасанды интеллект бағдарламалық жасақтаманың қатесі немесе қатесі бар көлікті елестетіп көріңіз, ал AI көлікті жолдан және шұңқырға бұруға тырысады. Қалғанының бәрі бірдей деп есептесек, адам бұл AI жүргізу әрекетін жеңіп, көліктің сайға қонуына жол бермеуі керек.

Бұл туралы қысқаша қорытынды жасайық:

  • Циклдегі адам әрқашан AI-мен толық келісімде бола ма? Жауап: Жоқ
  • AI әрқашан циклдегі адаммен толық келісімде бола ма? Жауап: Жоқ.
  • Жасанды интеллектпен салыстырғанда адам әрқашан дұрыс бола ма? Жауап: Міндетті емес.
  • Циклдегі адаммен салыстырғанда АИ әрқашан дұрыс бола ма? Жауап: Міндетті емес.

Сіз, әрине, AI-ны әдепкі бойынша «дұрыс емес» немесе әлсіз тарап ретінде қарастыру үшін орнатуға болады, сондықтан келіспеушілік пайда болған кезде әрқашан адамға тапсыра аласыз. Сол сияқты, адам АИ-мен келіспейтін кез келген уақытта AI «дұрыс» деп есептелетіндей етіп AI орнатуға болады. Егер біз мұны қаласақ, мұны бағдарламалық түрде жасай алатынымызды түсіндіргім келеді. Мен жалпы алғанда, бұл әрдайым бола бермейді деп мәлімдеймін. Белгілі бір тапсырмаға қатысты келіспеушілік кезінде AI «дұрыс» немесе адамның «дұрыс» екенін алдын ала білмейтін параметрлер бар.

Мен сізді өте маңызды және өте күрделі сұраққа апардым.

Циклдегі адам мен АИ арасында кәсіби келіспеушілік туындағанда не істеуіміз керек (немесе, оны AI мен циклдегі адам арасында деп айтуға болады)?

Сұрақтан жалтаруға тырыспаңыз.

Кейбіреулер бұл ешқашан болмайды деп дауласуы мүмкін, бірақ мен машина туралы мысалда айтқанымдай, бұл сөзсіз болуы мүмкін. Кейбіреулер адамның артықшылығы бар және кез келген келіспеушіліктің жеңімпазы болуы керек деп дауласуы мүмкін. Менің мысалдағы көлік пен кірпіш қабырға оны құлатады. Жасанды интеллектіні жақтаушылар бар, олар адамның эмоцияларын жеңу және кездейсоқ ойлайтын адамдардың ойсыз ойлауына байланысты AI жеңімпаз болуы керек деп сендіреді. Менің тағы бір мысал, көліктің шұңқырға кетіп бара жатқанын білдіретін бұл тұжырымды жоққа шығарады.

Нақты әлемде AI мен адамдар, тіпті екеуі әдейі бірлескен тапсырманы орындау үшін командалық жағдайға келтірілсе де, келіспейді. Бұл болады. Біз басымызды құмға салып, ол болмайды деп айта алмаймыз.

Біз ұшақты басқарған адамдар арасында келіспеушілік туындағанын көрдік. Шүкір, олар келіспейтін болды, солай көрінеді. Олар ұшақты терминалға әкелді. Олар келіспеушілікпен күресудің амалын тапты. Олар кабинада жұдырықтасып немесе әуеге ұшып, бір-бірімен күресуді жалғастыра бергенмен салыстырғанда, олардың келіспеушілігін шешу жақсы нәтиже берді. Бұл мүмкін емес қайғылы сценарий және біз оның болмағанына шүкір ете аламыз.

Маған AI және адам арасындағы (немесе, циклдегі адам және AI) келіспеушіліктерді шешудің әртүрлі жолдарының тізімін ұсынуға рұқсат етіңіз:

  • Жасанды интеллект пен біріккен адам бәрін шешеді (татулықпен немесе жоқ)
  • Әдепкі бойынша, адам AI-дан басым болады
  • Әдепкі бойынша AI адамнан басым болады
  • Кейбір басқа алдын ала белгіленген бекітілген ажыратымдылық әдепкі бойынша басым болады
  • Үшінші тарап адамы ілгектелген және олардың көрсеткіші тараптардан басым болады
  • Үшінші тараптың AI жүйесі қосылған және оның көрсеткіші тараптардан басым болады
  • Үшінші тарап адам бар адамды ауыстырады, бәрі жаңаша жүреді
  • Үшінші тараптың AI бар AI-ны ауыстырады, бәрі жаңадан басталады
  • Үшінші тарап адамы бар AI-ны ауыстырады, бәрі жаңадан басталады (қазір адамнан адамға)
  • Үшінші тараптың AI бар адамды ауыстырады, бәрі жаңадан басталады (қазір AI-ден AI-ге)
  • басқа

Олар қаптаманы ашуға әбден лайық.

Жасанды интеллект пен адамдардың келіспеушіліктерімен қалай күресуге болатыны туралы жабайы және жүнді ойлар туралы көбірек ет пен картопқа кіріспес бұрын, өте маңызды тақырыптар бойынша кейбір қосымша негіздерді келтірейік. Біз AI этикасына және әсіресе Machine Learning (ML) және Deep Learning (DL) пайда болуына қысқаша шолу жасауымыз керек.

Сіз бұл күндері AI саласындағы және тіпті AI өрісінен тыс жерде ең қатты дауыстардың бірі этикалық AI-ның көбірек ұқсастығына байланысты айқайлаудан тұратынын білмеуіңіз мүмкін. AI этикасы және этикалық AI дегенге сілтеме жасау нені білдіретінін қарастырайық. Оның үстіне, біз Machine Learning және Deep Learning туралы айтқанда не айтқым келетінін зерттейміз.

Бұқаралық ақпарат құралдарының назарын аударған AI этикасының белгілі бір сегменті немесе бөлігі теріс көзқарастар мен теңсіздіктерді көрсететін АИ-ден тұрады. Жасанды интеллекттің соңғы дәуірі басталған кезде кейбіреулер қазір деп атайтын нәрсеге үлкен ынта-ықылас тудырғанын білетін шығарсыз. Жақсылыққа арналған AI. Өкініштісі, сол бір толқудың етегінде біз де куә бола бастадық AI for Bad. Мысалы, жасанды интеллект негізіндегі бет-әлпетті тану жүйелерінің құрамында нәсілдік көзқарастар мен гендерлік көзқарастар бар екені анықталды. сілтеме осында.

Қарсы күресу әрекеттері AI for Bad белсенді жүргізілуде. Дауыстаудан басқа заңды заңсыздықты тежеуге ұмтылу, сонымен қатар AI зұлымдықты түзету үшін AI этикасын қабылдауға айтарлықтай итермелеу бар. Түсінік мынада: біз AI-ны дамыту және өрістету үшін негізгі этикалық AI принциптерін қабылдауымыз және мақұлдауымыз керек. AI for Bad және бір мезгілде артықшылықты жариялау және насихаттау Жақсылыққа арналған AI.

Осыған байланысты мен AI-ны AI қиындықтарын шешудің бір бөлігі ретінде қолдануға тырысамын, осылайша ойлау әдісімен отпен отпен күресемін. Мысалы, біз этикалық AI құрамдастарын AI жүйесіне ендіруіміз мүмкін, ол AI-ның қалған бөліктерінің қалай жұмыс істеп жатқанын бақылайды және осылайша нақты уақытта кез келген кемсітушілік әрекеттерді ұстай алады, менің талқылауымды қараңыз. сілтеме осында. Сондай-ақ бізде AI этикасы мониторының түрі ретінде әрекет ететін жеке AI жүйесі болуы мүмкін. AI жүйесі басқа AI этикалық емес тұңғиыққа қашан бара жатқанын бақылау және анықтау үшін бақылаушы ретінде қызмет етеді (мұндай мүмкіндіктер туралы менің талдауымды мына жерден қараңыз: сілтеме осында).

Біраз уақыттан кейін мен сіздермен AI этикасының негізінде жатқан кейбір негізгі принциптермен бөлісемін. Онда және мұнда өзгермелі тізімдердің көптеген түрлері бар. Сіз әмбебап тартымдылық пен келісімнің бірегей тізімі әлі жоқ деп айта аласыз. Бұл өкінішті жаңалық. Жақсы жаңалық, кем дегенде, оңай қол жетімді AI этикасының тізімдері бар және олар өте ұқсас. Мұның бәрі дәлелді конвергенция нысаны арқылы біз AI этикасының жалпы ортақтығына қарай жол тауып жатқанымызды көрсетеді.

Алдымен, жасанды интеллектпен айналысатын, өрістейтін немесе пайдаланатын кез келген адам үшін маңызды нәрсе нені көрсету керектігін көрсету үшін жалпы этикалық AI ережелерінің кейбірін қысқаша қарастырайық.

Мысалы, Ватиканның мәлімдемесінде Рим AI этикасына шақырады және мен тереңірек қарастырғанымдай сілтеме осында, бұл олардың анықталған алты негізгі AI этика қағидасы:

  • Ашықтық: Негізінде, AI жүйелері түсінікті болуы керек
  • Қосу: Барлығына пайдасын тигізу үшін және барлық адамдарға өзін көрсету және дамыту үшін ең жақсы жағдайлар ұсынылуы үшін барлық адамдардың қажеттіліктері ескерілуі керек.
  • Жауапкершілік: Жасанды интеллектті қолдануды әзірлейтін және енгізетіндер жауапкершілік пен ашықтықты сақтауы керек
  • Бейтараптылық: Әділдік пен адамдық қадір-қасиетті сақтай отырып, біржақтылық жасамаңыз немесе әрекет етпеңіз
  • сенімділік: AI жүйелері сенімді жұмыс істей алуы керек
  • Қауіпсіздік және құпиялылық: AI жүйелері қауіпсіз жұмыс істеуі және пайдаланушылардың жеке өміріне құрметпен қарауы керек.

Бұл туралы АҚШ Қорғаныс министрлігі (DoD) хабарлады Жасанды интеллектті пайдаланудың этикалық принциптері және мен тереңірек қарастырғанымдай сілтеме осында, бұл олардың AI этикасының алты негізгі қағидасы:

  • Жауапты: DoD қызметкерлері AI мүмкіндіктерін дамытуға, орналастыруға және пайдалануға жауапты бола отырып, тиісті дәрежеде пайымдау мен қамқорлық жасайды.
  • Әділ: Департамент AI мүмкіндіктеріндегі күтпеген ауытқуларды азайту үшін қасақана қадамдар жасайды.
  • Бақыланатын: Департаменттің AI мүмкіндіктері тиісті персонал AI мүмкіндіктеріне қолданылатын технологияларды, әзірлеу процестерін және операциялық әдістерді, соның ішінде мөлдір және тексерілетін әдістемелерді, деректер көздерін, жобалау процедурасы мен құжаттамасын дұрыс түсінетіндей етіп әзірленетін және орналастырылатын болады.
  • сенімді: Департаменттің AI мүмкіндіктерінің нақты, нақты анықталған пайдаланулары болады және мұндай мүмкіндіктердің қауіпсіздігі, қауіпсіздігі және тиімділігі олардың бүкіл өмірлік циклі бойынша анықталған пайдаланулар шеңберінде сынақтан және сенімділіктен өтеді.
  • Басқарылатын: Бөлім күтпеген салдарды анықтау және болдырмау, сондай-ақ күтпеген әрекетті көрсететін орналастырылған жүйелерді ажырату немесе өшіру мүмкіндігіне ие бола отырып, олардың жоспарланған функцияларын орындау үшін AI мүмкіндіктерін жобалайды және құрастырады.

Мен сондай-ақ AI этикасының принциптерінің әртүрлі ұжымдық талдауларын талқыладым, соның ішінде «AI этикасы бойынша нұсқаулықтардың жаһандық ландшафты» (жарияланған) атты мақалада көптеген ұлттық және халықаралық AI этикасының қағидаларының мәнін зерттеген және қысқартқан зерттеушілер әзірлеген топтаманы қарастырдым. ішінде табиғат) және менің қамтуым мына жерде зерттеледі сілтеме осында, бұл негізгі тізімге әкелді:

  • Ашықтық
  • Әділдік және әділдік
  • Зиянсыздық
  • жауапкершілік
  • Құпиялық
  • Қайырымдылық
  • Бостандық және автономия
  • сенім
  • тұрақтылық
  • Ар-ұждан
  • Ынтымақтастық

Тікелей болжағаныңыздай, осы қағидалардың негізінде жатқан ерекшеліктерді анықтау өте қиын болуы мүмкін. Сонымен қатар, бұл кең принциптерді AI жүйелерін жасау кезінде қолдануға болатын толықтай нақты және егжей-тегжейлі нәрсеге айналдыруға күш салу да қиын жаңғақ болып табылады. Жасанды интеллект этикасының ережелері деген не және оларды қалай сақтау керектігі туралы жалпы қолмен серуендеу оңай, ал AI кодтауындағы бұл әлдеқайда күрделі жағдай жолға сәйкес келетін нағыз резеңке болуы керек.

Жасанды интеллект этикасының принциптерін AI әзірлеушілері, сонымен қатар AI әзірлеу күш-жігерін басқаратындар, тіпті ақырында AI жүйелерін өңдейтін және жүргізетіндер де қолдануы керек. Жасанды интеллектіні әзірлеу мен пайдаланудың бүкіл өмірлік циклі бойынша барлық мүдделі тараптар этикалық АИ-нің қалыптасқан нормаларын сақтау аясында қарастырылады. Бұл маңызды жайт, өйткені әдеттегі болжам «тек кодерлер» немесе AI-ны бағдарламалайтындар AI этикасының тұжырымдамаларын ұстануға жатады. Жоғарыда айтылғандай, AI әзірлеу және өрістету үшін ауыл қажет және ол үшін бүкіл ауыл AI этикасының ережелерін білуі және ұстануы керек.

Сондай-ақ бүгінгі AI табиғаты туралы бір бетте екенімізді тексерейік.

Бүгінгі күні сезімтал AI жоқ. Бізде бұл жоқ. Біз сезімтал AI мүмкін болатынын білмейміз. Ешкім біз сезімтал AI-ға қол жеткіземіз бе, әлде сезімтал АИ қандай да бір түрде ғажайып түрде есептеу когнитивтік супернованың (әдетте сингулярлық деп аталады) пайда болуын болжай алмайды. сілтеме осында).

Мен назар аударатын АИ түрі бүгінгі күні бізде бар саналы емес АИ-ден тұрады. Біз жабайы болжам жасағымыз келсе сезімтал AI, бұл талқылау түбегейлі басқа бағытта жүруі мүмкін. Сезімтал AI адами сапада болуы мүмкін. Сезімтал АИ адамның когнитивтік баламасы екенін ескеру қажет. Сонымен қатар, кейбіреулер бізде өте интеллектуалды AI болуы мүмкін деп болжайтындықтан, мұндай AI адамдардан да ақылды болуы мүмкін деп болжауға болады (мүмкіндік ретінде супер интеллектуалды AI туралы зерттеуім үшін қараңыз. қамту осында).

Нәрселерді жерге түсіріп, бүгінгі санаулы емес АИ-ді қарастырайық.

Бүгінгі AI адам ойлауымен бірдей «ойлауға» қабілетсіз екенін түсініңіз. Alexa немесе Siri-мен өзара әрекеттескенде, сөйлесу мүмкіндіктері адамның мүмкіндіктеріне ұқсас болып көрінуі мүмкін, бірақ шындық - бұл есептеу және адам танымы жоқ. Жасанды интеллекттің соңғы дәуірі есептеу үлгісін сәйкестендіруге мүмкіндік беретін Machine Learning (ML) және Deep Learning (DL) мүмкіндіктерін кеңінен пайдаланды. Бұл адамға ұқсайтын бейімділікке ие AI жүйелеріне әкелді. Сонымен қатар, бүгінгі күні парасаттылыққа ұқсайтын және адамның күшті ойлауының когнитивтік ғажайыптары жоқ бірде-бір AI жоқ.

ML/DL – есептеу үлгісін сәйкестендірудің бір түрі. Әдеттегі тәсіл - шешім қабылдау тапсырмасы туралы деректерді жинау. Сіз деректерді ML/DL компьютер үлгілеріне бересіз. Бұл модельдер математикалық заңдылықтарды табуға тырысады. Осындай үлгілерді тапқаннан кейін, егер табылса, AI жүйесі жаңа деректерге тап болған кезде сол үлгілерді пайдаланады. Жаңа деректер ұсынылғаннан кейін ағымдағы шешімді қабылдау үшін «ескі» немесе тарихи деректерге негізделген үлгілер қолданылады.

Менің ойымша, сіз бұл қайда бара жатқанын болжай аласыз. Шешімдердің үлгісін қабылдаған адамдар теріс көзқарастарды біріктірсе, деректер мұны нәзік, бірақ маңызды жолдармен көрсетеді. Machine Learning немесе Deep Learning есептеу үлгісін сәйкестендіру деректерді сәйкесінше математикалық имитациялауға тырысады. Жасанды интеллект модельдеудің жалпы мағынасы немесе басқа сезімтал аспектілері жоқ.

Сонымен қатар, AI әзірлеушілері не болып жатқанын түсінбеуі мүмкін. ML/DL-дегі жасырын математика қазір жасырын көзқарастарды анықтауды қиындатуы мүмкін. Сіз AI әзірлеушілері ықтимал жерленген бейімділіктерді тексереді деп үміттенесіз және күтесіз, бірақ бұл көрінгеннен де қиынырақ. Салыстырмалы түрде ауқымды тестілеу кезінде де ML/DL үлгілерін сәйкестендіру үлгілерінде әлі де ендірілген қиғаштықтардың болатынына сенімді мүмкіндік бар.

Сіз белгілі немесе әйгілі «қоқыс ішіндегі қоқыс шығару» деген нақыл сөзді пайдалана аласыз. Мәселе мынада, бұл АИ-ге батып кеткен бейтараптар ретінде жасырын түрде енгізілетін бейімділікке көбірек ұқсайды. AI алгоритмі шешім қабылдау (ADM) аксиоматикалық түрде теңсіздіктерге толы болады.

Жақсы емес.

AI мен адам арасындағы келіспеушіліктерге назар аударайық.

Мен бұған дейін келіспеушіліктерді шешу стратегияларының кейбірі екенін айтқанмын:

  • Жасанды интеллект пен біріккен адам бәрін шешеді (татулықпен немесе жоқ)
  • Әдепкі бойынша, адам AI-дан басым болады
  • Әдепкі бойынша AI адамнан басым болады
  • Кейбір басқа алдын ала белгіленген бекітілген ажыратымдылық әдепкі бойынша басым болады
  • Үшінші тарап адамы ілгектелген және олардың көрсеткіші тараптардан басым болады
  • Үшінші тараптың AI жүйесі қосылған және оның көрсеткіші тараптардан басым болады
  • Үшінші тарап адам бар адамды ауыстырады, бәрі жаңаша жүреді
  • Үшінші тараптың AI бар AI-ны ауыстырады, бәрі жаңадан басталады
  • Үшінші тарап адамы бар AI-ны ауыстырады, бәрі жаңадан басталады (қазір адамнан адамға)
  • Үшінші тараптың AI бар адамды ауыстырады, бәрі жаңадан басталады (қазір AI-ден AI-ге)
  • басқа

Бұларды қаптамадан шығару уақыты келді.

Алдымен, мұның бәрі туралы екенін ескеріңіз кәсіби келіспеушіліктер.

Кәсіби келіспеушілік жұмысқа байланысты міндетке байланысты келіспеушілік ретінде еркін анықталады.

Мысалы, ұшқыш пен екінші ұшқыштың арасында дауыл алдында тұрған ұшуды жалғастыру немесе жалғастыру туралы келіспеушілік кәсіби келіспеушілік ретінде белгіленуі мүмкін. Керісінше, ұшқыш кофенің қай маркасын жақтайтыны және екінші ұшқыш ұнататын бренд туралы қатты келіспеушілік осы нақты контексте кәсіби емес келіспеушілік ретінде жіктеледі.

Әрине, кәсіпқой емес келіспеушілік кәсіби келіспеушілікке ұласатын болса, біз ақыр соңында кәсіпқой емес келіспеушілік кәсіпқой үшін болжамды көз немесе ұшқын ретінде мүдделі болуы мүмкін. Ұшқыш пен екінші ұшқыш кофенің қай бренді ең жақсы екендігі туралы қатты дауласып жатқанын елестетіп көріңіз, ол өкінішке орай ұшуға қатысты алаңдаушылыққа (пн!), мысалы, ұшып кету немесе шықпау сияқты әсер етеді.

Екіншіден, біз кәсіби келіспеушіліктің ауқымын есте ұстауымыз керек.

Мүмкін ұшқыш пен екінші ұшқыш немесе ұшуды жалғастыру туралы жеңіл келіспеушілік болуы мүмкін. Олар төбелеспейді және тек қана ұшып кету керек пе дегеннің жақсы және жаман жақтарын ойлайды. Бұл біз әдетте қарастыратын кәсіби келіспеушіліктің калибрі немесе көлемі емес. Мәселе мынада, кәсіби келіспеушілік өтпелі болуы мүмкін және екі тарап та шын ниетпен немесе кем дегенде дер кезінде шешім қабылдайды. Жалпы, ауқымдағы кәсіби келіспеушіліктердің фокусы шешілмейтін болып көрінетін мәселелер болып табылады және екі тарап келіспеушілікте қалады.

Үшіншіден, әдетте осы нұсқауларды орындау үшін маңызды нәрсе болуы керек.

Ұшу немесе ұшпауды таңдау, егер ұшу дауыл салдарынан қауіп төніп тұрса немесе ұшақ мұндай сапарға толық дайын емес деп есептелсе, өмірлік немесе өліммен байланысты шешім болып табылады. Бұл ауыр бизнес. Нұсқауларды әлі де аз әсер ететін кәсіби келіспеушіліктерге қолдана аламыз, бірақ бұл қажет болғаннан гөрі алаңдатуы мүмкін.

Жарайды, біздің ойларымыз мыналар:

  • Келіспеушілік кәсіпқой емес нәрсеге емес, негізінен кәсібилікке бағытталған
  • Келіспеушілік тек өтпелі немесе басқа жолмен оңай шешілмейтін тұрақты сипатта болады.
  • Келіспеушілік ауыр зардаптарды болжайды және әдетте әсерлі нәтижеге әкеледі
  • Тараптар қақтығысты және олар шешілмейтін сияқты

Енді осындай кәсіби келіспеушіліктермен күресуге қатысты менің ұсынған нұсқауларымның немесе тәсілдердің әрқайсысын егжей-тегжейлі қарастырайық.

Жасанды интеллект пен біріккен адам бәрін шешеді (татулықпен немесе жоқ)

Мен тізімді AI мен циклдегі адам арасындағы кәсіби келіспеушіліктерді шеше алатын нақты мүмкіндіктен бастаймын. Екі адамның, ұшқыш пен екінші ұшқыштың мысалы осындай жағдайды суреттейтін сияқты. Олар әйтеуір терминалға оралып, өз жолдарымен жүруді шешті. Мүмкін, AI жүйесі мен адам екі тарапты да қанағаттандыратын шешу тәсілін анықтай алады және мәселе осылайша қанағаттанарлық түрде аяқталды.

Әдепкі бойынша, адам AI-дан басым болады

AI орнату кезінде біз кәсіби келіспеушілік туындаған кезде циклдегі адам әрқашан басым болатынын айтатын ережені бағдарламалауымыз мүмкін. Бұл анық кодталған әдепкі болады. Біз сондай-ақ қандай да бір жағдайда бас тартудың қандай да бір түріне рұқсат ете аламыз, дегенмен тұрақты ереже адам басым болады.

Әдепкі бойынша AI адамнан басым болады

Жасанды интеллект орнату кезінде біз кәсіби келіспеушілік туындаған кезде AI әрқашан циклдегі адамнан басым болатынын көрсететін ережені бағдарламалауымыз мүмкін. Бұл анық кодталған әдепкі. Біз сондай-ақ қандай да бір жағдайда қайта анықтауға рұқсат ете аламыз, дегенмен тұрақты ереже AI басым болады.

Кейбір басқа алдын ала белгіленген бекітілген ажыратымдылық әдепкі бойынша басым болады

AI орнату кезінде біз циклдегі адаммен кәсіби келіспеушілік туындаған кезде басқа алдын ала анықталған тұрақты ажыратымдылық басым болатынын көрсететін ережені бағдарламалауымыз мүмкін. Әдепкі бойынша адам-ин-the-loop басым болмайды. AI әдепкі бойынша басым болмайды. Басқа алдын ала анықталған шешім бар. Мысалы, екі тараптың қайсысы дұрыс жолды таңдайтынын шешу үшін қолданылатын тиын лақтыру бар шығар. Бұл өте ерікті болып көрінетіні анық; осылайша тағы бір мысал тәсілі екі тараптың кірістеріне негізделген мәнді есептейтін және тайбрейкер ретінде нәтижеге келетін мамандандырылған ереженің іске қосылуы болар еді.

Үшінші тарап адамы ілгектелген және олардың көрсеткіші тараптардан басым болады

Кәсіби келіспеушілік туындаған жағдайда, келіспеушілікті шешу туралы шешім қабылдау үшін адам болып табылатын үшінші тарап шақырылып, ортаға қосылуы ереже болуы мүмкін. AI үшінші тарап адам қандай шешім қабылдаса да, кейінге қалдыруға бағдарламаланған. Адамның ілгерілеуінде тұрған адамға, егер мұндай жағдай туындаса, олар да үшінші тараптың адамға жүгінуі керек деп алдын ала нұсқау берілген. Сонымен қатар, егер бұл шешім циклдегі адамның ұстанымымен келіспесе, үшінші тарап адам шешетін кез келген нәрсеге қосылуға ашулануы мүмкін деп болжауға болады.

Үшінші тараптың AI жүйесі қосылған және оның көрсеткіші тараптардан басым болады

Кәсіби келіспеушілік туындаған жағдайда, келіспеушілікті шешу туралы шешім қабылдау үшін басқа AI жүйесі болып табылатын үшінші тарап шақырылып, параметрге қосылуы ереже болуы мүмкін. Түпнұсқа AI үшінші тарап AI шешетін кез келген нәрсені кейінге қалдыруға бағдарламаланған. Адамның айналымында тұрған адамға, егер мұндай жағдай туындаса, олар да үшінші тараптың AI-ға жүгіну керектігі туралы алдын ала нұсқау берілген. Сонымен қатар, егер шешім циклдегі адамның ұстанымымен келіспесе, үшінші тарап AI шешетін кез келген нәрсеге қосылуға ренжіуі мүмкін екенін болжауға болады.

Үшінші тарап адам бар адамды ауыстырады, бәрі жаңаша жүреді

Кәсіби келіспеушілік туындаған кезде, циклдегі адам адам болып табылатын және бұдан былай циклдегі адам болатын үшінші тараппен ауыстырылады. Тапсырманы орындау үшін бастапқы адам болған адам енді тапсырманың бөлігі болып саналмайды. Бұл қазіргі уақытта ауыстырылған адаммен басқаша не болатыны туралы ашық аспект, бірақ біз олардың жұмыс тапсырмасында бұдан былай тұрақты рөлі жоқ екенін айтамыз.

Үшінші тараптың AI бар AI-ны ауыстырады, бәрі жаңадан басталады

Кәсіби келіспеушілік кезінде AI үшінші тараптың AI-мен ауыстырылады және ол бұдан былай жұмыс тапсырмасы үшін пайдаланылатын AI болады. Бастапқыда тапсырма үшін қолданылған AI енді тапсырманың бөлігі болып саналмайды. Бұл қазір ауыстырылған AI-мен басқаша не болатыны туралы ашық аспект, бірақ біз AI жұмыс тапсырмасында бұдан былай тұрақты рөл атқармайтынын айтамыз.

Үшінші тарап адамы бар AI-ны ауыстырады, бәрі жаңадан басталады (қазір адамнан адамға)

Кәсіби келіспеушілік кезінде AI үшінші тарап адамымен ауыстырылады, ол үшін бұл адам енді жұмыс тапсырмасы үшін пайдаланылатын қарастырылатын бірлескен топ болады. Бастапқыда тапсырма үшін қолданылған AI енді тапсырманың бөлігі болып саналмайды. Бұл қазір ауыстырылған AI-мен басқаша не болатыны туралы ашық аспект, бірақ біз AI жұмыс тапсырмасында бұдан былай тұрақты рөл атқармайтынын айтамыз. Қысқасы, бұл енді екі жақты адамнан адамға орындалатын тапсырмаға айналады.

Үшінші тараптың AI бар адамды ауыстырады, бәрі жаңадан басталады (қазір AI-ден AI-ге)

Кәсіби келіспеушілік туындаған кезде, циклдегі адам үшінші тараптың AI-мен ауыстырылады және бұл АИ бұдан былай алдыңғы циклдегі адам үшін толтырғыш болады. Тапсырманы орындау үшін бастапқы адам болған адам енді тапсырманың бөлігі болып саналмайды. Бұл қазіргі уақытта ауыстырылған адаммен басқаша не болатыны туралы ашық аспект, бірақ біз олардың жұмыс тапсырмасында бұдан былай тұрақты рөлі жоқ екенін айтамыз. Қысқасы, бұл енді тапсырманы орындау үшін екі жақты AI-to-AI болады.

басқа

Кәсіби келіспеушілікпен күресу үшін басқа нұсқалар ойлап табылуы мүмкін, бірақ біз мұнда кейбір негізгі тастарды қарастырдық.

Осы тәсілдердің қайсысы белгілі бір жағдайға сәйкес келетінін қалай шешуге болады?

Мұндай таңдауды жасауға көптеген мәселелер кіреді. Технологиялық ойлар бар. Іскерлік ойлар бар. Заңды және этикалық пікірлер бар.

Белгілі бір дәрежеде, сондықтан AI этикасы және этикалық AI өте маңызды тақырып болып табылады. AI этикасының ережелері бізді сергек болуға мәжбүр етеді. AI технологтары кейде технологиямен, әсіресе жоғары технологияларды оңтайландырумен айналысуы мүмкін. Олар міндетті түрде үлкен әлеуметтік салдарларды қарастырмайды. Жасанды интеллект этикасы туралы ой-пікірдің болуы және оны AI әзірлеу және өрістету үшін интегралды түрде жасау сәйкес AI жасау үшін өте маңызды, соның ішінде (таңқаларлық немесе ирониялық) AI этикасын фирмалар қалай қабылдайтынын бағалау.

Жалпы AI этикасының ережелерін қолданудан басқа, бізде AI-ны әртүрлі пайдалануды реттейтін заңдар болуы керек пе деген сәйкес сұрақ бар. Федералды, штаттық және жергілікті деңгейлерде AI қалай жасалуы керектігі мен сипатына қатысты жаңа заңдар әзірленуде. Мұндай заңдарды әзірлеу және қабылдау әрекеті кезең-кезеңімен жүргізілуде. AI этикасы, ең болмағанда, қарастырылатын үзіліс ретінде қызмет етеді және белгілі бір дәрежеде бұл жаңа заңдарға тікелей қосылады.

Кейбіреулер бізге AI қамтитын жаңа заңдар қажет емес және біздің қолданыстағы заңдарымыз жеткілікті деп батыл дау жасайтынын ескеріңіз. Шындығында, олар егер біз осы AI заңдарының кейбірін шығарсақ, үлкен әлеуметтік артықшылықтар беретін AI-дағы жетістіктерді қысқарту арқылы алтын қазды өлтіретінімізді алдын ала ескертеді.

Осы маңызды пікірталастың дәл осы тұсында, мен сізге осы тақырыпты көрсетуі мүмкін кейбір көрнекі мысалдар қажет екеніне сенімдімін. Менің жүрегіме жақын болатын ерекше және танымал мысалдар жиынтығы бар. Көрдіңіз бе, менің AI бойынша сарапшы ретінде этикалық және құқықтық салдарларды қоса алғанда, тақырыптың біршама теориялық сипатын оңай түсіну үшін AI этикасының дилеммаларын көрсететін нақты мысалдарды анықтауды жиі сұрайды. Бұл этикалық AI екіұштылығын айқын көрсететін ең қызықты салалардың бірі - AI негізіндегі өзін-өзі басқаратын автомобильдердің пайда болуы. Бұл тақырып бойынша кең талқылау үшін ыңғайлы пайдалану жағдайы немесе үлгі ретінде қызмет етеді.

Олай болса, ойлануға тұрарлық маңызды сұрақ: AI негізіндегі нағыз өзін-өзі басқаратын көліктердің пайда болуы AI және адам арасындағы келіспеушіліктерді шешу туралы ештеңені жарықтандырады ма, егер солай болса, бұл нені көрсетеді?

Маған сұрақты ашуға бір сәт рұқсат етіңіз.

Біріншіден, нағыз өзін-өзі басқаратын көлікте адам жүргізуші жоқ екенін ескеріңіз. Нағыз өзін-өзі басқаратын көліктер AI жүргізу жүйесі арқылы басқарылатынын есте сақтаңыз. Рульде адам жүргізушінің де қажеті жоқ, көлікті адам басқаратын жағдай да жоқ. Автономды көліктер (АВ) және әсіресе өзін-өзі басқаратын көліктер туралы кең және үздіксіз ақпарат алу үшін қараңыз. сілтеме осында.

Мен нағыз өздігінен жүретін көліктерге сілтеме жасағанда нені білдіретінін қосымша түсіндіргім келеді.

Өздігінен басқарылатын автомобильдердің деңгейлерін түсіну

Түсініктеме ретінде, нағыз өзін-өзі басқаратын автомобильдер - бұл АИ көлікті толығымен өздігінен басқаратын және жүргізу кезінде ешқандай адам көмегінсіз жүретін көліктер.

Бұл жүргізушісіз көліктер 4-деңгей және 5-деңгей болып саналады (менің түсіндірмені қараңыз мына сілтеме), ал адам жүргізушінің жүргізу күш-жігерін бірге бөлісуін талап ететін көлік әдетте 2 немесе 3-деңгейде қарастырылады. Жүргізу міндетін бірге орындайтын көліктер жартылай автономды болып сипатталады және әдетте әр түрлі ADAS (Driver-Assistance Advanced Systems) деп аталатын автоматтандырылған қондырмалар.

5-деңгейде нағыз өзін-өзі басқаратын көлік әлі жоқ, және біз бұған жету мүмкін бе, жоқ па, оған жету үшін қанша уақыт кететінін әлі білмейміз.

Сонымен қатар, 4-деңгейдегі күш-жігер бірте-бірте өте тар және таңдамалы қоғамдық жол сынақтарынан өту арқылы біраз тартуға тырысады, дегенмен бұл сынаққа рұқсат беру керек пе деген пікірталас бар (біз бәріміз экспериментте өмір немесе өлім-жітім теңіз шошқаларымыз) Біздің магистральдарда және айналма жолдарда орын алуда, кейбіреулер даулайды, менің хабарымды мына жерден қараңыз мына сілтеме).

Жартылай автокөліктер адам жүргізушісін қажет ететіндіктен, бұл көлік түрлерін қабылдау әдеттегі көліктерді басқарудан айтарлықтай ерекшеленбейді, сондықтан бұл тақырыпта олар туралы көп жаңалық таба алмайсыз (дегенмен, сіз көресіз Бір сәтте келесі ойлар жалпыға бірдей қолданылады).

Жартылай автокөліктер үшін көпшіліктің соңғы уақытта пайда болатын алаңдатарлық аспект туралы алдын-ала ескертуі маңызды, атап айтқанда 2-деңгей немесе 3-деңгейлі автокөліктің дөңгелегінде ұйықтап жатқандығы туралы бейнежазбаларын жазып жүрген адамдарға қарамастан. , жартылай автономды автокөлік жүргізу кезінде жүргізуші олардың назарын басқару тапсырмасынан алуы мүмкін деп сендіруден аулақ болуымыз керек.

Автоматизацияның 2 немесе 3 деңгейге өтуіне қарамастан, сіз көлік құралын басқаруға жауаптысыз.

Өзін-өзі басқаратын көліктер және AI-Versus-Адам арасындағы келіспеушілік

4 және 5-деңгейдегі өздігінен жүретін көліктер үшін жүргізуші рөлінде адам жүргізушісі болмайды.

Барлық жолаушылар жолаушылар болады.

AI жүргізуді жүргізуде.

Тез арада талқылаудың бір аспектісі бүгінгі жасанды интеллект жүргізуші жүйелеріне қатысатын жасанды интеллекттің сезімтал болмауына алып келеді. Басқаша айтқанда, жасанды интеллект - бұл компьютерлік бағдарламалау мен алгоритмдердің жиынтығы, сондықтан адамдар ойлап тапқан тәртіппен ой қорыта алмайды.

Неліктен бұл интеллектке қосымша назар аударылмайды?

Мен жасанды интеллектті қозғау жүйесінің рөлін талқылағанда мен жасанды интеллектке адами қасиеттерді жатқызбайтынымды атап өткім келеді. Бүгінгі күні жасанды интеллект антропоморфизациясының тұрақты және қауіпті тенденциясы бар екенін ескеріңіз. Шын мәнінде, адамдар мұндай жасанды интеллект әлі жоқ екендігі туралы даусыз және талассыз фактілерге қарамастан, бүгінгі жасанды интеллектке адам тәрізді сезімді тағайындайды.

Осы нақтылау арқылы сіз AI жүргізу жүйесі қандай да бір түрде жүргізудің қырлары туралы «білмейді» деп ойлауға болады. Жүргізу және оған қатысты барлық нәрселер өзін-өзі басқаратын машинаның аппараттық және бағдарламалық жасақтамасының бөлігі ретінде бағдарламалануы керек.

Осы тақырып бойынша ойнауға келетін көптеген аспектілерге сүңгейік.

Біріншіден, AI өздігінен жүретін көліктердің барлығы бірдей емес екенін түсіну маңызды. Әрбір автоөндіруші және өзін-өзі басқаратын технологиялық фирма өзін-өзі басқаратын көліктерді ойлап табуда. Осылайша, AI жүргізу жүйелері не істейтіні немесе жасамайтыны туралы нақты мәлімдеме жасау қиын.

Сонымен қатар, AI басқару жүйесі белгілі бір нәрсені жасамайтынын айтқан кезде, оны кейінірек компьютерді дәл осылай жасауға бағдарламалайтын әзірлеушілер басып озуы мүмкін. Бірте -бірте AI басқару жүйелері біртіндеп жетілдіріліп, кеңейтілуде. Бүгінде бар шектеулер болашақта жүйенің қайталануында немесе нұсқасында болмауы мүмкін.

Бұл мен айтатын нәрсенің негізін салу үшін жеткілікті ескертулер береді деп үміттенемін.

Толығымен автономды көліктер үшін адам мен АИ арасында кәсіби келіспеушілік туындауы мүмкін емес, өйткені оны бастау үшін циклде адам болмауы мүмкін. Өздігінен басқарылатын көлік жасаушылардың көпшілігінің ұмтылысы адам жүргізушіні жүргізу міндетінен толығымен алып тастау болып табылады. Көлікте тіпті адам қол жеткізе алатын басқару элементтері де болмайды. Бұл жағдайда адам жүргізуші, егер бар болса, жүргізу тапсырмасына қатыса алмайды, өйткені оларда кез келген басқару элементтеріне қол жетімділік жоқ.

Кейбір толық автономды көліктер үшін кейбір конструкциялар әлі күнге дейін адамның циклде болуына мүмкіндік береді, дегенмен адамның қол жетімді болуы немесе жүргізу процесіне қатысуы міндетті емес. Осылайша, егер адам қаласа, адам көлік жүргізуге қатыса алады. Ешбір жағдайда AI адамға жүргізу тапсырмаларының кез келгенін орындау үшін тәуелді емес.

Жартылай автономды көліктер жағдайында адам жүргізуші мен АИ арасында қоян-қолтық қатынас бар. Адам драйвері жүргізуді басқаруды толығымен өз қолына алады және AI-ны жүргізуге қатысуын тоқтата алады. Егер адам драйвері АИ-ді жүргізу рөліне қалпына келтіргісі келсе, олар мұны істей алады, бірақ бұл кейде адамды басқару элементтерінен бас тартуға мәжбүр етеді.

Жартылай автономды жұмыстың тағы бір түрі адам драйвері мен АИ-нің командалық түрде бірге жұмыс істеуін талап етеді. AI басқарады, ал адам басқарады. Олар бірге көлік жүргізеді. AI адамға қатысты болуы мүмкін. Адам АИ-ге көнуі мүмкін.

Кейбір сәтте AI жүргізу жүйесі мен циклдегі адам драйвері жүргізу міндетіне қатысты «кәсіби келіспеушілік» түйіскен жеріне жетуі мүмкін.

Кәсіби келіспеушіліктерді шешудің жоғарыда аталған кейбір ережелерін орындау қаншалықты қиын болатынын көрсету үшін мәселеге қатысу үшін үшінші тарапты шақыру және шешілмеген мәселені шешу үшін шешім ұсыныңыз.

Автокөлік жасаушы немесе өзін-өзі басқаратын технологиялық фирма қашықтағы адам операторларына өз паркіндегі көліктерді басқаруға қол жеткізуді ұйымдастырды делік. Адам операторы алыстағы кеңседе немесе жақын жерде отыр. Компьютерлік жүйе арқылы олар өздігінен жүретін көлікке жүктелген камералар мен басқа сенсорлық құрылғыларға қол жеткізу арқылы көлік жүргізу көрінісін көре алады. Олар үшін бұл онлайн бейне ойынын ойнауға ұқсайды, дегенмен, әрине, нақты өмірлік жағдайлар ықтимал ауыр салдары болуы мүмкін.

AI жүйесі мен көліктің ішіндегі адам жүргізуші жартылай автономды көлікті ұзын тас жолда жүргізіп келеді. Күтпеген жерден AI жолды шұңқырға бұрғысы келеді. Адам жүргізуші мұны істегісі келмейді. Екеуі көлікті басқаруға таласып жатыр.

Бұл қалай шешілмек?

Біз адам әрқашан жеңетінін алдын ала ойластырған болар едік. Біз мұны жасамауды таңдадық деп ойлаңыз.

Біз AI әрқашан жеңетінін алдын ала ойластырған болар едік. Біз мұны жасамауды таңдадық деп есептейік. Тұтастай алғанда, біз бұл ережелердің ешқайсысын қабылдаған жоқпыз, тек үшінші тараптың кез келген маңызды сипаттағы кәсіби келіспеушіліктерге араласуына және шешуіне рұқсат беру туралы шешім қабылдағанымыздан басқа.

Бұл жағдайда AI мен рульдегі адам жүргізуші басқаруды басқару үшін күреседі. Бұл қашықтағы адам операторына (біздің үшінші тарап адамымыз) жеткізілді делік. Қашықтағы адам операторы не болып жатқанын тексереді және AI әрекетін болдырмай, арықтан аулақ болуды шешеді. Сонымен қатар, қашықтағы адам операторы қарсы келе жатқан трафикті басқарады делік, мүмкін оны АИ да, көлік ішіндегі адам жүргізуші де жасағысы келмеді.

Мәселе мынада, бұл ережені іске асыру тәсілі - үшінші тарап адам операторы AI мен циклдегі адамды толығымен бас тарта алады. Бұл жақсы нәтиже бере ме, жоқ па, бұл сөзсіз.

Мен осы мысалды осы мәселелер бойынша кейбір қосымша түсініктерді бөлектеу үшін қолданамын.

Сіз осы ережелердің бірі қабылданғандықтан, шешілген келіспеушіліктің нәтижесі міндетті түрде кепілдендірілген жақсы нәтиже болады деген дөрекі болжам жасай алмайсыз. Болмауы мүмкін. Таңдауға болатын әрқашан дұрыс ереженің темірдей түрі жоқ.

Әрі қарай, бұл ережелердің кейбіреулері өміршең орындалмауы мүмкін.

Жасанды интеллект пен адам жүргізушісі басқару элементтеріне төбелесіп жатқанда қашықтағы адам операторының араласу мысалын қарастырайық. Қашықтағы адам операторына не болып жатқанын анықтау үшін бірнеше секунд қажет болуы мүмкін. Ол кезде көлік шұңқырға түсіп кетуі немесе басқа жағымсыз салдары болуы мүмкін. Сондай-ақ, көлік құралының орналасқан жері желілік электрондық қосылым жоқ жерде болу сияқты қашықтан қол жеткізуге кедергі келтіреді делік. Немесе көліктің желілік мүмкіндіктері дәл сол сәтте жұмыс істемеуі мүмкін.

Көріп отырғаныңыздай, ереже қағазда қарапайым болып көрінуі мүмкін, бірақ ережені нақты пайдалануға енгізу өте қиын немесе өте ықтимал тәсіл болуы мүмкін. Автономды көліктер мен өздігінен жүретін көліктердің қашықтағы операторы туралы менің сыни көзқарасымды қараңыз сілтеме осында.

Мен алдағы талдауда тереңірек қарастыратын тағы бір байланысты тақырыпты қысқаша ашқым келеді.

Жартылай автономды болып табылатын автономды көліктер мен өзін-өзі басқаратын көліктерге қатысты өсіп келе жатқан алаңдаушылықтардың бірі - бұл Ыстық картоп синдромы.

Мұнда мәміле.

AI жүргізу жүйесі мен адам бірге жүреді. Ауыр жағдай туындайды. Жасанды интеллект көлік жүргізу тапсырмасын орындаудан бас тартуға және қиын сәт туындаған кезде заттарды адамға тапсыруға бағдарламаланған. Бұл «ақылға қонымды» сияқты, өйткені біз кез келген ықтимал кәсіби келіспеушілік кезінде әдепкі «жеңімпаз» адам туралы ережені қолданатын сияқтымыз.

Бірақ AI оқудан бас тартуы анағұрлым жаман немесе жасырын мақсаттар үшін болуы мүмкін. Автокөлік өндірушісі немесе өзін-өзі басқаратын технологиялық фирма көлік апаты орын алған кезде AI-ның «кінәлі тарап» болып саналғанын қаламауы мүмкін. Осылай қысылып қалмас үшін AI кенеттен басқару элементтерін адамға береді. Voila, адам көлік құралына толығымен жауап береді.

Ең бастысы, AI бұл тапсырманы апат болғанға дейін бір секунд қалды делік.

Адамның апатты болдырмауға шынымен уақыты бар ма?

Мүмкін емес.

AI бірнеше миллисекундтар немесе наносекундтар қалдырылған тапсырманы орындайды делік. Мен адамның апатты болдырмау үшін ештеңе жасауға мүмкіндігі жоқ деп айтуға батылы барамын.

Автокөлік өндіруші немесе өзін-өзі басқаратын фирманың көзқарасы бойынша, олар мұндай көлік апаты орын алған кезде қолдары таза болғандай әрекет етуге тырысуы мүмкін. Көлікті адам басқарған. AI көлікті басқарған жоқ. Жалғыз «логикалық» қорытынды адам кінәлі болуы керек және АИ толығымен кінәсіз болуы керек.

Бұл құмырсқа.

Мен бұл туралы алдағы бағанда толығырақ талқылайтын боламын.

қорытынды

Кәсіби келіспеушіліктер туындайды.

Тапсырманы бірге орындайтын екі тарап бар және ешқашан кәсіби келіспеушіліктер туындамайтын кез келген күрделі тапсырманы елестету қиын. Бұл қиял-ғажайып ел немесе кем дегенде үлкен сирек кездесетін нәрсе сияқты.

Бүгінгі күні бізде көптеген адамдардан адамға кәсіби келіспеушіліктердің көптеген жағдайлары бар, олар үшін күнделікті шешімдер бейбіт және ақылға қонымды түрде шешіледі. Шындығында, біз көбінесе кәсіби келіспеушіліктерді тудыру және көрсету үшін жағдайларды әдейі орнатамыз. Бұл кейде екі бас біреуден жақсы деген әйгілі даналықты көрсетеді деп дауласуға болады.

Жасанды интеллект кең тараған сайын, бізде AI-адамға немесе адамнан-AIге арналған екі жақты тапсырмаларды орындаушылар көп болады және олар болады. кәсіби келіспеушіліктер бұл орын алады. Жалқаулық - бұл әрқашан адамға бағыну. Бұл ең қолайлы тәсіл болмауы мүмкін. AI жақсы таңдау болуы мүмкін. Немесе жоғарыда аталған басқа ережелердің бірі дұрыс көзқарас болуы мүмкін.

Біз бәріміз келіспеушілікпен келісе алуымыз керек деп жиі қайталайтын данышпандық сызық бар, дегенмен әңгіме сымға келгенде, кейде келіспеушілік сөзсіз шешілуі керек, әйтпесе мәселе шешілмейтін апатқа әкеледі. Біз келіспеушіліктің жүзім бұтасына түсуіне жол бере алмаймыз. Уақыт маңызды болуы мүмкін және өмірге қауіп төнуі мүмкін.

Міндетті түрде келіспесе де, келіспеушіліктерді шешудің кейбір сақтық әдістеріне нақты талап бар, соның ішінде AI мен циклдегі адам бір-бірін көрмесе де, байт-байт.

Сіз бұл толықтай қолайлы пікірталаспен келіспейтініңізге сенімдімін.

Дереккөз: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- ұшқыш пен екінші ұшқыш ұшар алдында келіспеді және кенеттен таксиді терминалға қайтарды және бөлек жолдармен кетті/