Этикалық интеллект жасанды интеллекттің өзін-өзі басқаратын көліктердегі этикалық мінез-құлықты өз бетінше үйренуіне үміттенеді.

Аристотель жүректі тәрбиелемей, сананы тәрбиелеу мүлдем білім емес екенін айтқан.

Сіз этика мен моральдық мінез-құлық туралы білім алудың адамзат үшін өте маңызды екенін көрсету үшін бұл түсінікті ескертуді түсіндіре аласыз. Классикалық табиғат пен тәрбие туралы пікірталаста біздің этикалық әдет-ғұрыптарымыздың қаншасы инстинктивті түрде туған, ал біздің өмір сүру күндерімізде қаншалықты үйренетінін сұрау керек. Кішкентай балалар басқа адамдарды байқайды және олардың этикалық негіздерін көргендері мен естігендері негізінде жинайды. Жасөспірімдер туралы да солай деуге болады. Көзі ашық ересектер үшін олар да күнделікті дүниені бастан кешіру нәтижесінде этикалық ойлауында бейімделуді және ілгерілеуді жалғастырады.

Әрине, біреуге этика туралы нақты оқыту да курсқа тең. Адамдар тақырып бойынша сабақтарға қатысу немесе мүмкін оларды қызықтыратын оқиғалар мен тәжірибелерге бару арқылы этикалық әдістерді білуі керек. Этикалық құндылықтарды басқаларға өздерінің этика құрылымын қалыптастыруға көмектесу құралы ретінде анық анықтауға және бөлісуге болады. Сонымен қатар, этика әңгімелерде немесе басқа нұсқау режимдерінде жасырын болуы мүмкін, олар соңында этикалық мінез-құлық неден тұратыны туралы хабарды жеткізеді.

Адамдар этиканы осылай сіңіретін сияқты.

Жасанды интеллект (AI) туралы не деуге болады?

Мен мұндай сұрақ оғаш көрінуі мүмкін екенін түсінемін. Біз адамдардан этиканы енгізіп, моральдық кодекстің кейбір ұқсастығымен өмір сүретінін күтеміз. Бұл қарапайым және айқын факт. Екінші жағынан, машина немесе компьютер сол анықтамалық шеңберге сәйкес келмейтін сияқты. Сіздің ішкі реакцияңыз AI-ны этика мен моральдық кодекстердің іске асуы деп санау қисынсыз немесе оғаш болуы мүмкін.

Жасанды интеллект туралы біз жасай алатын ең жақсы нәрсе - оны этикалық мінез-құлықтан ауытқымайтын етіп жасау. Жасанды интеллект әзірлеушілері және AI-ны қолданатындар жобаланған және іске асырылған кезде AI этикалық ережелерге сәйкес болуын қамтамасыз ету үшін жауапты болуы керек. Қақпаның сыртында, былайша айтқанда, AI қазірдің өзінде таза және этикалық тұрғыдан дұрыс контриванс ретінде жүруге дайын болуы керек.

AI жүйелері шынымен де этикалық негізге толығымен сәйкес келетіндей етіп жасалуы керек деп ойласаңыз, сіз дұрыс болар едіңіз. Жасанды интеллект жүйелерінің соңғы толқыны алғаш рет шыққан кезде қоғам қатты толқыды және біздің дәуірде екенімізді көрсеткендей болды. Жақсылыққа арналған AI. AI әлемдегі ең күрделі мәселелерді шешуге көмектеседі. Технологияның жетістіктері адам мүмкіндіктерін когнитивті құралдармен толықтыру үшін пайдаланылды, дегенмен бізде әлі де сезімтал AI жоқ екенін және сезімтал AI-ға қол жеткізетінін білмейміз.

Жасанды интеллектті әлемге енгізуге деген асығыс мәселе бірте-бірте AI деп аталатын жағымсыз асты ашты. AI for Bad. Алгоритмдік шешім қабылдауды (ADM) қолданатын AI жүйелері туралы көптеген тақырыптар болды, олар бұрмаланулар мен теңсіздіктерге толы. Сонымен қатар, қазіргі заманғы AI-ның көп бөлігі мөлдірліктің жетіспеушілігінен зардап шегеді, есептеу шешімдерін түсіндіру тұрғысынан түсініксіз болып келеді, жиі әділдіктің жоқтығын көрсетеді және кейбіреулерге AI-ға саусақтарын көрсету арқылы өздерінің адами жауапкершілігін бұруға мүмкіндік берді.

Мен өз жазбаларымда этикалық AI және AI этикасын кеңінен қамтыдым, соның ішінде сілтеме осында және сілтеме осында, бірнеше ғана атауға болады.

Қалай болуы мүмкін AI for Bad Егер біз этикалық емес әрекеттерді болдырмау үшін AI басынан бастап жасалуы керек деп белгіленген құрылым ретінде алсақ?

Жауап көп жақты.

Біріншіден, көптеген AI әзірлеушілері мен AI-ді қолданатын компаниялар этикалық шекараларда қалу үшін AI-ны қалыптастырудың маңыздылығын білмейді. Тұжырымдама олардың радарларында мүлдем жоқ. Жылдам ақша табудың тартымдылығы кейбіреулерді әдейі жасағысы келетін кез келген жабайы AI ұғымдарын алға жылжытады. Этикалық нәрселерді анықтаудың қажеті жоқ. Тек AI құрып, оны іске қосыңыз.

Екіншіден, этикалық салдарлар туралы тікелей хабардар ететін AI жасайтындар бар, бірақ олар этикалық AI пікірлерін ашық түрде төмендетеді немесе біршама елемейді. Жалпы перспективалардың бірі - тез сәтсіздікке және жиі сәтсіздікке жетуді мақсат ететін техникалық классикалық мантра. Істер дұрыс шешілгенше қайталауды жалғастырыңыз. Жасанды интеллект этикасының кез келген жүйелі және ойластырылған енгізілуін жылдам әрекет ететін AI күш-жігеріне айналдыру мүмкіндігі, өкінішке орай, аз. Мен этикалық AI-ға көшбасшылықты күшейту қажеттілігін талқылаймын сілтеме осында.

Үшіншіден, AI ойлап тапқан кезде қандай этикалық қоршауларды қолдану керектігі туралы көптеген түсініксіздіктер бар. Әрине, қазіргі уақытта AI этикасының көптеген нұсқаулары бар, менің қамтуымды қараңыз сілтеме осында, дегенмен бұл ыңғайлы теориялық нұсқауларды құрастырылып жатқан берілген AI жүйесі үшін міндетті түрде ерекшеліктерге айналдыру қиын. Мен абстрактілі аспектілер мен резеңке жолды кездестіретін мақалдар арасындағы алшақтықты жоюға көмектесетін этикалық AI кодтау тәжірибесін қамтитын AI құру құралдары мен әдістемелерінің пайда болуын баяу көретінімізді айттым.

Төртіншіден, осы жерде баса назар аудара отырып, біз бастапқыда этикалық шекаралар шегінде тұрса да, кейіннен пайдалану кезінде болжанған этикалық кодталған параметрлерден асып түсетін АИ-нің зардап шеккен жағдайын зерттейміз.

Біз оны қаптамадан шығаруымыз керек.

Бүгінгі AI-ның көп бөлігі Machine Learning (ML) және Deep Learning (DL) пайдаланады. Бұл есептеу үлгісін сәйкестендіру әдістері мен технологиялары. Жалпы, AI жасай алатын нәрсеге қатысты көптеген деректерді жинайсыз, сіз бұл деректерді таңдалған есептеу үлгісін сәйкестендірушіге бересіз және математикалық сәйкес үлгі пайдалы үлгілерді табуға тырысады. Бұл AI тарапынан ешқандай сезімталдық жоқ екенін ескеріңіз (бұл тағы да мұндай нәрсе әлі жоқ). Сондай-ақ бұл жерде ақылға қонымды дәлелдер жоқ. Мұның бәрі математика мен есептеулер.

Бұл ML/DL-ге берілген деректер бұрмаланулар мен теңсіздіктерге толы болуы мүмкін. Бұл жағдайда есептеу үлгісінің сәйкестігі бірдей бейімділіктерді қайталайды. Егер сіз бір нәсілді екіншісінен артық көретін немесе бір жынысты екіншісінен артық көретін деректерді ұсынсаңыз, үлгі сәйкестігінің табылған үлгі ретінде соған жабысып қалуының айтарлықтай мүмкіндігі бар.

Мұндай бекітудің үлкен проблемасы - бұл үлгілердің деректердің осы аспектісіне негізделгенін анықтау қиынға соғуы мүмкін. Тікенді және күрделі математика мұндай табылған үлгілердің бетін өте проблемалы ете алады. Тіпті AI тестілеу қолданылған сынақтардың ауқымы мен тереңдігіне байланысты бұл тенденцияларды міндетті түрде анықтай алмайды.

Сонымен, сіз AI жүйесін құрдыңыз деп есептейік және алдымен бұрыннан бар мәліметтерді пайдаланбауға тырысып, үй тапсырмасын орындадыңыз. Әрі қарай, Machine Learning және Deep Learning жүргізілгеннен кейін, сіз қандай да бір жолмен қандай да бір бұрмаланулар немесе теңсіздіктер туындағанын көру үшін нәтижелерді сынап көрдіңіз. Сіз мұндай жағымсыз бейімділіктерді таба алмайсыз делік.

Айтуынша, енді AI-ны іске қосу үшін жасыл шам жанып тұр. Адамдар AI қолдана бастайды және оны этикалық тұрғыдан дұрыс деп санайды. Әзірлеушілер де осылай ойлайды. Жасанды интеллектпен айналысатын компания осылай ойлайды. Бәріміз кетеміз.

Міне, не болуы мүмкін.

Түпнұсқа деректерде табылмаған және AI тестілеу кезінде байқалмаған ауытқудың сиясы белсендірілген болуы мүмкін. Мүмкін, бұл сирек кездеседі. Сіз бұл сирек кездесетін болса, бәрі жақсы деп сенуіңіз мүмкін. Мен бұл көзқарасқа осал адамдардың нәрселерді осылай көргісі келетініне күмәнданамын. Мен AI жүйесі және оны құрастырғандар заңды соттарда немесе қоғамдық пікірдің ашық сотында зардаптарға тап болады деп айтуға батылы барамын.

Тағы бір нұсқа - бір дюйм алып, бір миль басып алу деген мақал-мәтелдік ұғым. Сия бастапқыда кішкентай болуы мүмкін. Жасанды интеллектті пайдалану кезінде АИ жағдайдың өзгеруіне қарай өзін өзгерту үшін ойлап табылған болуы мүмкін. Мұндай «үйрену» немесе «өзін-өзі оқыту» өте пайдалы болуы мүмкін. Адам-AI әзірлеушілерінен AI жүйесін үнемі өзгертуді және реттеуді талап етудің орнына, AI мұны өздігінен жасау үшін жасалған. Ешқандай кідіріссіз, қымбат жұмыс күші жоқ және т.б.

Бұл ыңғайлы өзін-өзі реттеудің кемшілігі мынада: интеллектуалды индикатор қолдану ауқымында сия үлкенірек және үлкенірек болуы мүмкін. Қиындық кішкене бұрышта болуы мүмкін болса да, енді оны кеңейтуге мүмкіндік берілді. AI бұл «дұрыс емес» және жұмыс істеп тұрған нәрсені есептеу арқылы кеңейтеді дегенге ұқсамайды.

Егер бұл шаш сіздің басыңызға тұрса, келесі нұсқаға отыруға тура келеді.

Біржақтылық бастапқы кезде болған жоқ делік және бізде AI толығымен бейтарап екеніне барлық негізделген сенімдер бар. Бізде сәттілік болды немесе деректердің ешқайсысында ешқандай ауытқулар жоқ екеніне және есептеу үлгісін сәйкестендіру арқылы ешқайсысы пайда болмайтынына жүйелі түрде көз жеткіздік. Осы жеңіл күрсініске қарамастан, AI пайдалану кезінде реттеуге рұқсат етіледі. Pandora-ның есігі ашылады және АИ AI жасайтын кез келген уақытта табылған қиғаштықтарды есептеуді таңдайды.

Жаңадан табылған бейтараптық AI-ге еніп кетеді және ешкім оның орын алғанынан дана емес. Иә, біз құбыжықты, нағыз Франкенштейнді жасадық.

Бұл пайда болуды қалай болдырмауға немесе кем дегенде ескертуге болады?

Тартымдылыққа ие болатын тәсілдердің бірі AI-ге этиканы жинақтау компонентін құрудан тұрады. AI этикалық AI элементтерін қамту үшін жасалған. Содан кейін бұл элементтер AI уақыт өте келе реттеліп жатқанда, AI-ның қалған бөлігін бақылайды немесе бақылайды. AI бағдарламаланған этикалық ережелерден асып кеткендей болған кезде, этикалық AI осы түзетулерді енгізуге тырысады немесе әзірлеушілерге бірдеңе дұрыс болмады деп ескертеді.

Сіз осы этикалық AI-ны бақылайтын мүмкіндігін бағдарламалап көруге болады және ол AI пайдаланылған кезде басым болады деп үміттене аласыз.

Тағы бір қарама-қайшылықты мәселе - AI жүйесіне этикалық AI аспектілерін үйрету үшін Machine Learning және Deep Learning қолдану.

Не дейді?

Иә, бәлкім, әдеттен тыс концепция мынада: адам бағдарламашысы AI этикасының ережелерін тікелей кодтаудың орнына, AI олардың орнына оларды «үйренуге» тырысады. Мен ML/DL қолдану әдетте алгоритмдерге деректерді енгізуге негізделгенін және есептеу үлгісін сәйкестендіру орын алатынын қысқаша атап өткенімді еске түсіріңіз. Миллион долларлық мәселе - этикалық құндылықтарды AI жүйесіне енгізу үшін дәл осындай механизмді пайдалана аламыз ба?

Менің ойымша, сіз мұны адамдардың этикалық принциптерді қалай білетіндігі туралы әңгіменің ашылуындағы менің талқылауыммен салыстыра аласыз деп ойлаймын, бірақ бүгінгі AI-ны адам ойлауымен салыстыруға болмайды деп антропоморфизацияламауыңызды өтінемін (олай емес, мен бұл кеңесті жақын арада қайталаймын). AI этикалық AI ережелерімен «туа біткен» бағдарламалануы мүмкін. Немесе AI этикалық AI ережелерін «үйренуі» мүмкін. Сіз екеуін де жасай аласыз, әрине, бұл мен басқа жерде қарастырған нәрсе, қараңыз сілтеме осында.

Жасанды интеллект этиканы «үйренуі» мүмкін және этикалық мінез-құлықтарды ұстануы мүмкін деген таңғаларлық болып көрінетін тұжырымдаманы ойлап көріңіз.

Бұл зерттеушілер оның қалай жұмыс істейтінін көрсету үшін үйдегі қажетті температураны анықтайтын AI жүйесінің мысалын пайдаланады: «Ол алдымен әртүрлі үй шаруашылықтарындағы адамдардың мінез-құлқын бір апта бойы «байқап» және олардың қалауы туралы қорытынды жасады. Содан кейін ол үйде біреудің бар-жоғын анықтау үшін қозғалысты анықтайтын сенсорды пайдаланды. Үй бос болған кезде, смарт термостат жоғары энергия үнемдеу режиміне кірді; адамдар үйде болған кезде, термостат температураны олардың қалауларына сәйкес реттеді. Бұл термостат өте қарапайым болса да, этика ботының екі талабына жауап береді. Ол адамдардың қалауын бағалайды және оларды жылыту және салқындату жүйесін басқаруға жүктейді. Мұның әлеуметтік моральдық құндылықтарға қандай қатысы бар деген сұрақ туындауы мүмкін. Бұл термостат әртүрлі мәндері бар адамдарға өздері қалаған температура параметрлерін орнатуға мүмкіндік береді. Үй тұрғындары күн сайын келген-кеткен термостатты қайта орнатудың қажеті жоқ. Бұл қарапайым этика боты сонымен қатар қауымдастықтың жалпы энергетикалық ізін азайтады» (Амитай Этциони мен Орен Этционидің «AI көмекші этика» атты мақаласына сәйкес Этика және ақпараттық технологиялар).

Этикалық мінез-құлықты «үйренетін» АИ-ге ие болудың бұрмалары мен бұрылыстарын тереңірек зерттемес бұрын, AI мәртебесі туралы тағы бір нәрсе айтқым келеді.

AI мына ықтимал күйлерден тұруы мүмкін:

1. Бүгінгі күннің санасыз қарапайым ескі AI

2. Адам сапасының сезімтал AI (бізде бұл әлі жоқ)

3. Өте интеллектуалды AI (№2-ден жоғары)

Мен бар күйге назар аударғым келеді, ол қарапайым ескі AI. Кейде этикалық AI туралы оқуға болатын нәрселердің көпшілігі сезімтал АИ-ді қамтиды және сондықтан өте алыпсатарлық. Мен бұл алыпсатарлық деп айтамын, өйткені AI қандай болатынын ешкім есекке құйрықты қада алмайды. Сезімтал АИ адам сапасының шеңберінен тысқары жерде - өте интеллектуалды АИ. Бұл AI дәмі адамзатты құлдыққа айналдыруы немесе бәрімізді жоюы мүмкін екендігі туралы көптеген ғылыми-фантастикалық әңгімелер мен алаңдаушылықтар бар. Бұл AI экзистенциалды тәуекелі ретінде белгілі. Кейде дилемма АИ-нің апатты қаупі ретінде де айтылады.

Кейбіреулер AI-ны бізде бар қарапайым ескі AI-ға ұстанатын болсақ, біз жақсы болуы мүмкін деп санайды. Біз сезімтал AI-ға қол жеткізе алмаймыз делік. Елестетіп көріңізші, біз сезімтал AI жасауға қанша тырысқанымызбен, оны жасай алмаймыз. Сондай-ақ, талқылау үшін сезімтал AI қандай да бір жұмбақ стихиялық процесс арқылы пайда болмайды деп есептейік.

Бұл аз калибрлі жасанды интеллект, яғни жасанды интеллекттің тек мүмкін болатын түрі қолданылуда біз қауіпсіз емеспіз бе?

Онша емес.

Дәл осындай жалпы мәселелер туындауы мүмкін. Мен AI бізді құртуды қалайды деп «ойлайды» деп ұсынбаймын. Жоқ, кәдімгі санасыз AI бізді өз-өзін жоюға мәжбүрлейтін билік позицияларына орналастырылған. Мысалы, біз санасыз AI-ны жаппай қырып-жоятын қаруға енгіземіз. Бұл автономды қарулар ойлауға қабілетсіз. Сонымен қатар, адамдар циклде толығымен сақталмайды. Нәтижесінде, AI автономды автоматтандырудың бір түрі ретінде адамның бұйрығымен, қате немесе қателікпен, имплантацияланған зұлымдықпен немесе мәселені төмендететін өзін-өзі реттеу арқылы абайсызда апатты нәтижелерге әкеледі. ұсқынсыз жол және т.б.

Мен жасанды интеллект этикасының проблемасы AI қарастырылған үш жағдайдың бәрінде де бар деп айтқым келеді, атап айтқанда, бізде сезімтал емес қарапайым жасанды АИ-мен және жай адамдық деңгейге жететін сезімтал AI-мен байланысты AI этикалық мәселелері бар. танымал суперинтеллект деңгейі.

Бұл ақылға қонымды мәлімдемені ескере отырып, біз АИ-нің әрбір тиісті деңгейіндегі этикалық мәселелермен байланысты шама мен қиындықтарды сөзсіз талқылай аламыз. Әдеттегі көзқарас мынада: AI этикасының қиындығы сезімтал емес AI үшін еңсерілмейтін, сезімтал адаммен бірдей AI деңгейінде қиынырақ және сезімтал өте интеллектуалды AI сатысында нағыз бас тырнағыш.

AI неғұрлым жақсырақ болса, AI этикасы мәселесі соғұрлым нашарлайды.

Мүмкін бұл табиғаттың бұлжымас заңы шығар.

Бүгінгі интеллектке назар аударатын болсақ, қазіргі заманғы Machine Learning және Deep Learning арқылы жасанды интеллект этикалық мінез-құлықты «үйренуге» тырысады, алаңдаушылық пен күрделі мәселелерге толы. AI қажетті этикалық ережелерді жинай алмады делік? Оның бұлай істемегенін қайдан білеміз? Сондай-ақ, AI жүйесінің басқа бөліктері жиналған этикалық құрылымдарды жоққа шығаруы мүмкін бе? Бұған қоса, егер AI жылдам реттелсе, түзетулер этикалық аспектілерді жұқартып жіберуі немесе байқаусызда оларды толығымен басып тастауы мүмкін.

Ең сорақысы, «үйрену» AI-ның шын мәнінде этикалық емес мінез-құлыққа түсуіне әкелуі мүмкін. Біз AI-ны этикалық болуға итермелеу арқылы дұрыс әрекет еттік деп ойлағанымызбен, AI оның орнына этикалық емес аспектілерде сәйкестік үлгісіне өтіп кеткені белгілі болды. Өз аяғымызды ату туралы сөйлесіңіз, бұл мүлдем болуы мүмкін.

Осы пікірталастың дәл осы тұсында, AI-ның этиканы «үйрену» бүгінгі АИ-ге (термостат мысалының дәмді тизерінен басқа) қалай қолданылатынын көрсететін кейбір қосымша нақты мысалдарды алғыңыз келеді деп ойлаймын.

Сіз сұрағаныңызға қуаныштымын.

Менің жүрегіме жақын болатын ерекше және танымал мысалдар жиынтығы бар. Көрдіңіз бе, менің AI бойынша сарапшы ретінде этикалық және құқықтық салдарларды қоса алғанда, тақырыптың біршама теориялық сипатын оңай түсіну үшін AI этикасының дилеммаларын көрсететін нақты мысалдарды анықтауды жиі сұрайды. Бұл этикалық AI екіұштылығын айқын көрсететін ең қызықты бағыттардың бірі - AI негізіндегі өзін-өзі басқаратын автомобильдердің пайда болуы. Бұл тақырып бойынша кең талқылау үшін ыңғайлы пайдалану жағдайы немесе үлгі ретінде қызмет етеді.

Олай болса, ойлануға тұрарлық маңызды сұрақ: Жасанды интеллект негізіндегі нағыз өзін-өзі басқаратын көліктердің пайда болуы AI этикалық AI ережелерін «үйренуге» қабілеттілігі туралы бірдеңені жарықтандырады ма, егер солай болса, бұл нені көрсетеді?

Маған сұрақты ашуға бір сәт рұқсат етіңіз.

Біріншіден, нағыз өзін-өзі басқаратын көлікте адам жүргізуші жоқ екенін ескеріңіз. Нағыз өзін-өзі басқаратын көліктер AI жүргізу жүйесі арқылы басқарылатынын есте сақтаңыз. Рульде адам жүргізушінің де қажеті жоқ, көлікті адам басқаратын жағдай да жоқ. Автономды көліктер (АВ) және әсіресе өзін-өзі басқаратын көліктер туралы кең және үздіксіз ақпарат алу үшін қараңыз. сілтеме осында.

Мен нағыз өздігінен жүретін көліктерге сілтеме жасағанда нені білдіретінін қосымша түсіндіргім келеді.

Өздігінен басқарылатын автомобильдердің деңгейлерін түсіну

Түсіндірме ретінде, шын мәнінде өздігінен басқарылатын автомобильдер - бұл ИИ автокөлікті толығымен өздігінен басқаратын және көлік жүргізу кезінде ешқандай көмек болмайтын машиналар.

Бұл жүргізушісіз көліктер 4-деңгей және 5-деңгей болып саналады (менің түсіндірмені қараңыз мына сілтеме), ал адам жүргізушінің жүргізу күш-жігерін бірге бөлісуін талап ететін көлік әдетте 2 немесе 3-деңгейде қарастырылады. Жүргізу міндетін бірге орындайтын көліктер жартылай автономды болып сипатталады және әдетте әр түрлі ADAS (Driver-Assistance Advanced Systems) деп аталатын автоматтандырылған қондырмалар.

5 деңгейдегі өзін-өзі басқаратын нақты көлік әлі жоқ, оған жетуге болатын-болмайтынын және оған жету қанша уақытты білмейміз.

Сонымен қатар, 4-деңгейдегі күш-жігер бірте-бірте өте тар және таңдамалы қоғамдық жол сынақтарынан өту арқылы біраз тартуға тырысады, дегенмен бұл сынаққа рұқсат беру керек пе деген пікірталас бар (біз бәріміз экспериментте өмір немесе өлім-жітім теңіз шошқаларымыз) Біздің магистральдарда және айналма жолдарда орын алуда, кейбіреулер даулайды, менің хабарымды мына жерден қараңыз мына сілтеме).

Жартылай автокөліктер адам жүргізушісін қажет ететіндіктен, бұл көлік түрлерін қабылдау әдеттегі көліктерді басқарудан айтарлықтай ерекшеленбейді, сондықтан бұл тақырыпта олар туралы көп жаңалық таба алмайсыз (дегенмен, сіз көресіз Бір сәтте келесі ойлар жалпыға бірдей қолданылады).

Жартылай автокөліктер үшін көпшіліктің соңғы уақытта пайда болатын алаңдатарлық аспект туралы алдын-ала ескертуі маңызды, атап айтқанда 2-деңгей немесе 3-деңгейлі автокөліктің дөңгелегінде ұйықтап жатқандығы туралы бейнежазбаларын жазып жүрген адамдарға қарамастан. , жартылай автономды автокөлік жүргізу кезінде жүргізуші олардың назарын басқару тапсырмасынан алуы мүмкін деп сендіруден аулақ болуымыз керек.

Автоматизацияның 2 немесе 3 деңгейге өтуіне қарамастан, сіз көлік құралын басқаруға жауаптысыз.

Өздігінен жүретін көліктер және этикалық AI егу

4 және 5-деңгейдегі өздігінен жүретін көліктер үшін жүргізуші рөлінде адам жүргізушісі болмайды.

Барлық жолаушылар жолаушылар болады.

AI жүргізуді жүргізуде.

Тез арада талқылаудың бір аспектісі бүгінгі жасанды интеллект жүргізуші жүйелеріне қатысатын жасанды интеллекттің сезімтал болмауына алып келеді. Басқаша айтқанда, жасанды интеллект - бұл компьютерлік бағдарламалау мен алгоритмдердің жиынтығы, сондықтан адамдар ойлап тапқан тәртіппен ой қорыта алмайды.

Неліктен бұл интеллектке қосымша назар аударылмайды?

Мен жасанды интеллектті қозғау жүйесінің рөлін талқылағанда мен жасанды интеллектке адами қасиеттерді жатқызбайтынымды атап өткім келеді. Бүгінгі күні жасанды интеллект антропоморфизациясының тұрақты және қауіпті тенденциясы бар екенін ескеріңіз. Шын мәнінде, адамдар мұндай жасанды интеллект әлі жоқ екендігі туралы даусыз және талассыз фактілерге қарамастан, бүгінгі жасанды интеллектке адам тәрізді сезімді тағайындайды.

Осы нақтылау арқылы сіз AI жүргізу жүйесі қандай да бір түрде жүргізудің қырлары туралы «білмейді» деп ойлауға болады. Жүргізу және оған қатысты барлық нәрселер өзін-өзі басқаратын машинаның аппараттық және бағдарламалық жасақтамасының бөлігі ретінде бағдарламалануы керек.

Осы тақырып бойынша ойнауға келетін көптеген аспектілерге сүңгейік.

Біріншіден, AI өздігінен жүретін көліктердің барлығы бірдей емес екенін түсіну маңызды. Әрбір автоөндіруші және өзін-өзі басқаратын технологиялық фирма өзін-өзі басқаратын көліктерді ойлап табуда. Осылайша, AI жүргізу жүйелері не істейтіні немесе жасамайтыны туралы нақты мәлімдеме жасау қиын.

Сонымен қатар, AI басқару жүйесі белгілі бір нәрсені жасамайтынын айтқан кезде, оны кейінірек компьютерді дәл осылай жасауға бағдарламалайтын әзірлеушілер басып озуы мүмкін. Бірте -бірте AI басқару жүйелері біртіндеп жетілдіріліп, кеңейтілуде. Бүгінде бар шектеулер болашақта жүйенің қайталануында немесе нұсқасында болмауы мүмкін.

Мен айтқым келетін нәрсені түсіндіру үшін жеткілікті ескертулер жиынтығын беретініне сенемін.

Біз қазір өзін-өзі басқаратын көліктер мен этикалық AI мүмкіндіктеріне терең сүңгуге дайынбыз, бұл AI-ға этикалық мінез-құлық туралы «үйренуге» өз бетінше қол жеткізуге болатындығы туралы сенімді дәлелдеуге мүмкіндік береді.

Қарапайым мысалды қолданайық. AI негізіндегі өзін-өзі басқаратын көлік сіздің маңайыңыздағы көшелерде жүріп жатыр және қауіпсіз жүріп жатқан сияқты. Алдымен сіз өздігінен жүретін көлікті көрген сайын ерекше назар аудардыңыз. Автономды көлік бейнекамералар, радар қондырғылары, LIDAR құрылғылары және т.б. кіретін электронды сенсорлардың сөресімен ерекшеленді. Өздігінен басқарылатын көлік бірнеше апта бойы сіздің қауымдастықтың айналасында жүргеннен кейін, сіз оны әрең байқайсыз. Сіздің ойыңызша, бұл онсыз да бос емес қоғамдық жолдардағы басқа көлік.

Өзін-өзі басқаратын көліктерді көру мүмкін емес немесе мүмкін емес деп ойламас үшін, мен өздігінен жүретін көліктерді сынау аясындағы жергілікті жерлер бірте-бірте шыршалы көліктерді көруге қалай үйренгені туралы жиі жаздым. менің талдауымды қараңыз мына сілтеме. Ақырында жергілікті тұрғындардың көпшілігі өздігінен жүретін көліктердің куәсі болу үшін аузын ашқан ашуланшақтықтан қазір кең көлемді есінеу сезіміне ауысты.

Автономды көліктерді дәл қазір байқайтын басты себеп - тітіркену мен ашулану факторы. Кітаптағы AI жүргізу жүйелері көліктердің барлық жылдамдық шектеулері мен жол ережелеріне бағынатынына көз жеткізеді. Дәстүрлі адам басқаратын көліктеріндегі тынымсыз көлік жүргізушілері үшін сіз заңға қатаң бағынатын AI негізіндегі өздігінен жүретін көліктердің артында тұрып қалған кезде ашуланасыз.

Бұл дұрыс немесе бұрыс болса да, бәріміз үйренуіміз керек нәрсе.

Ертегімізге оралу. Бір күні сіздің қалаңызда немесе қалаңызда өзін-өзі басқаратын көлік келе жатып, жаяу жүргінші жолды кесіп өту үшін күтіп тұрған жағдайға тап болды делік. Жаяу жүргіншінің жеке жүру құқығы жоқ деп есептейік. Адам басқаратын көлік жаяу жүргіншінің жанынан өтіп, мұны істеу толығымен заңды болуы мүмкін. Сол сияқты, AI жүргізу жүйесі заңды түрде күтіп тұрған жаяу жүргіншінің жанынан өте алады.

Тоқтату және жаяу жүргіншіні көшенің арғы бетінен өтуіне рұқсат беру туралы шешім адам жүргізуші немесе AI жүргізу жүйесіне қарамастан, жүргізушінің еркіне байланысты.

Сіз мұндай жағдайды сансыз рет кездестіргеніңізге сенімдімін. Мүмкін сіз асығыссыз, сондықтан жаяу жүргіншіге жол бермейсіз. Басқа жағдайда межелі жерге жетуге көп уақытыңыз бар, осылайша сіз тоқтап, күткен адамға көшеден өтуге рұқсат бересіз. Сіздің көңіл-күйіңіз және нақты жағдайлар сізге не істеу керектігін анықтайды.

Бұл сценарийге қатысты ештеңе ерекше немесе көңілсіз болып көрінбейді.

Мен заттардың AI жағын қарастырмас бұрын, жаяу жүргіншіге көшеден өтуге мүмкіндік беретін таңдаудың осы нақты аспектісі мұқият зерттелгенін білу қызықты болуы мүмкін. Зерттеушілер кейде жүргізушінің таңдауы нәсілдік немесе жыныстық көзқарасқа байланысты болуы мүмкін екенін анықтады. Адам жүргізуші күтіп тұрған жаяу жүргіншінің өлшемін белгілей алады және жүргізушіге тән бейімділік негізінде адамға өтуге рұқсат беруі мүмкін. Жүргізуші тіпті мұны істеп жатқанын түсінеді ме, бұл үздіксіз зерттеу мәселесі. Менің хабарымды мына жерден қараңыз мына сілтеме.

Мен жаяу жүргіншілер өткелінде AI жүргізу жүйесі не істей алатынын зерттеуге негіз қойдым.

Жасанды интеллектіні кәдімгі бағдарламалау AI әзірлеушілеріне әрқашан AI жүргізу жүйесін тоқтатып, жаяу жүргіншіні кесіп өтуге мүмкіндік беруді шешуге әкелуі мүмкін. Бұл этикалық тұрғыдан дұрыс немесе азаматтық нәрсе болып көрінеді. Өздігінен басқарылатын көлік жолды кесіп өткісі келетін күтіп тұрған адамға көнеді.

Мен айта аламын, егер сіз өзін-өзі басқаратын көліктің ішінде жолаушы болсаңыз және AI әрқашан барлық қалауынша күтіп тұрған жаяу жүргіншілер үшін тоқтап тұрса, сіз ессіз қалуыңыз мүмкін. Азық-түлік дүкеніне жылдам сапарыңыз бірнеше есе ұзағырақ болуы мүмкін. Есіңізде болсын, біз өтуге заңды құқығы бар жаяу жүргіншілер туралы айтпаймыз, өйткені мұндай жағдайларда AI әрқашан рұқсат беруге бағдарламаланған болуы мүмкін. Біз тек дискрециялық жағдайларға назар аударамыз.

Көшеден өз қалауынша жаяу жүргіншілерге рұқсат беру үшін үнемі тоқтау туралы мәлімдеменің тағы да кемшіліктері бар.

AI негізіндегі өзін-өзі басқаратын көліктерді жасап шығаратындар адамдардың оларға мінгенін қалайды. Өздігінен басқарылатын көліктерге ие бола отырып, қазіргі уақытта тек Америка Құрама Штаттарында 40,000 2.5-ға жуық жыл сайынғы өлім мен XNUMX миллион адам жарақат алатын жыл сайынғы көлік апаттарының санын азайта аламыз деген идея мынада: менің статистика жинағымды мына жерден қараңыз мына сілтеме. Осы құрметті қоғамдық мақсаттан басқа, автоөндірушілер мен өзін-өзі басқаратын технология өндірушілер AI туындыларынан да ақша табуға үміттенеді, әрине.

Мен мұны айтып отырмын, өйткені егер AI жүргізу жүйесі осындай әрекеттерді жасаса, адамдар өздігінен басқарылатын көліктерге мінбеуді шешуі мүмкін. қажетсіз сапарларды кейінге қалдырумен аяқталады. Кез келген күнделікті адам адам жүргізушіні таңдаудың орнына сапар тезірек болуы мүмкін деп ойлайды, сондықтан саяхат үшін AI өздігінен басқарылатын көлікті таңдау олардың таңдауы тізімінде өте төмен орын алуы мүмкін. Бұл өз кезегінде бізде көлік апаттарының азаймайтынын, сонымен қатар өндірушілер өз тауарларын тиімсіз деп санайтынын білдіреді.

Осы дәлелдер жиынтығын ескере отырып, жаяу жүргіншінің көшені кесіп өткісі келетін ерікті оқиғасы орын алған кезде AI ешқашан тоқтамауы керек деп ойлауыңыз мүмкін. Тек қана AI жүргізу жүйесін қатаң заңды кез келген нәрсені істеу үшін бағдарламалаңыз. Жаяу жүргіншінің өтуіне заң жүзінде талап болмаса, күтіп тұрған жаяу жүргіншінің жолы болмас. Мүмкін адам өзін-өзі басқаратын көлікті тоқтататын АИ заңды негізіне мүмкіндік беретін өткелге баруы керек.

Бұл туралы айқай-шуды елестете аласыз ба?

Сіздің қалаңыздағы немесе қалаңыздағы адамдар AI өздігінен басқарылатын көліктер ешқашан өз еркімен жаяу жүргіншінің өтуіне жол бермейтінін біртіндеп анықтайды. Бұл ашуланшақ АИ! Жасанды интеллект адамдарға мұрнын қағып тұрғандай. Жақсы емес автоматиканың бір бөлігінің әдепсіз еркелігі. Бұған қоса, жаяу жүргіншілердің өтуге өте мұқтаж құжатталған жағдайлары бар екенін елестетіп көріңіз және АИ мүлдем тоқтамайды.

Осы уақытта адам жүргізушілері сол «үмітсіз» адамдарға көшеден аман-есен өтуге дайын болды.

Осы наразылықтың нәтижесінде AI өздігінен басқарылатын көліктер бұдан былай сіздің қалаңыздың көшелерінде және айналма жолдарында қабылданбайды. Қала басшылары берген рұқсаттардың күші жойылды. Біздің жолдарымыздан ризашылық білдірмейтін жауыздарды алып тастау - бұл дауысты шу.

Жарайды, тас пен қатты жердің арасында жүрген сияқтымыз. Жасанды интеллект әрқашан жаяу жүргіншінің еркін өтуіне жол бермеуі керек (әрдайым тоқтамайды). Жасанды интеллект әрқашан жаяу жүргіншінің өтуіне кедергі жасамауы керек (әрдайым өткенді масштабтамаңыз). Не істеу?

Айқын жауап - AI-ны дискрециялық түрде әрекет ету үшін бағдарламалау.

Мен сізден ADM (алгоритмдік шешім қабылдау) туралы ойлануыңызды сұраймын, ол осыдан тұруы керек. AI жаяу жүргіншінің табиғатын анықтауға тырысады және өзін-өзі басқаратын көлікті тоқтату немесе тоқтатпау туралы шешім қабылдау үшін негіз ретінде анықталған сипаттамаларды пайдаланады ма? Мүмкін, жасы үлкен біреуді таңдау жолы шығар. Бірақ жасы бойынша кемсітушілік бар ма? Және тағы басқа.

Мүмкін AI жүргізу жүйесі күндізгі уақытта тоқтап, түнде ешқашан тоқтамайтын етіп бағдарламаланған болуы мүмкін. Автономды көлік күндізгі уақытта тоқтайды, бірақ кешкі уақытта емес, өздігінен басқарылатын көліктегі шабандоздар үшін қауіпсіз деп есептелетін логика болуы мүмкін.

Бұл ақылға қонымды шығар. Мәселенің бір бөлігі жаяу жүргіншілердің үміті болмақ. Міне, менің айтқым келгені. Жаяу жүргіншілер AI өздігінен басқарылатын көліктердің күндізгі жарықта болатын өткелдерге тоқтағанын көреді. Жаяу жүргіншілер АИ тоқтауды шешу үшін қандай критерийлерді қолданатынын білмейді. Кейбір жаяу жүргіншілердің болжамы бойынша, AI әрқашан тоқтайды (күндізгі жарық пен түннің нақты анықтаушысы екенін түсінбейді). Нәтижесінде, өзін-өзі басқаратын көлік әрқашан тоқтайды деп сенетін жаяу жүргіншілер AI жүргізу жүйесі мүлдем тоқтауды мақсат етпеген кезде мүмкіндікті пайдаланып, кесіп өтуге кіріседі (бұл егер AI тоқтап қалуы мүмкін жаяу жүргінші көшеге шығып жатыр, дегенмен бұл әуре-сарсаң болуы мүмкін және физика АИ-дің өзін-өзі басқаратын көлікті тоқтатуына кедергі келтіруі мүмкін, «қате» болып көрінетін жаяу жүргіншіні қағып кетпеу үшін уақыт жеткіліксіз).

AI әзірлеушілері мен сіздің қалаңызда өзін-өзі басқаратын көліктерді біріктіріп, шығаратын фирмалар бұл мәселеде AI-ны қалай жылдамдыққа жеткізуге болатынын білмейді делік.

Олар AI-ны жергілікті жерлерден жиналған деректерге «үйретуді» шешеді. Бүкіл елді мекенде көліктердің кіріп-шығуын түсіретін қалада орнатылған камералар көп екені белгілі болды. Бұл деректер жаяу жүргіншілердің көшені өз еркімен кесіп өткісі келетін көптеген жағдайларын көрсетеді. Барлық деректер осы юрисдикцияда әдеттегі деп саналатын нәрсені алу үшін Machine Learning және Deep Learning жүйесіне беріледі.

Біз AI-ны жергілікті этикалық әдет-ғұрыптарды орындауға үйретеміз бе?

Басқаша айтқанда, егер белгілі бір қалада адамның жүргізуші әрекеті дәлелдейтіндей, тоқтап, қалауынша жаяу жүргіншілерге өтуге мүмкіндік беретін жергілікті мәдениет болса, ML/DL осы үлгі бойынша есептеуді алуы мүмкін. Содан кейін AI дәл осылай жасауға үйретіледі. Басқа шеткі жағдайда, егер адам драйверлері сирек тоқтаса, AI деректерді есептеу арқылы талдаудан «сабақты» алуы мүмкін. AI адамдар сияқты жасайды.

Адамның этикалық мінез-құлқы деректерде сақталады және AI есептеу талдауы арқылы сол этикалық ережелерді енгізеді деген тұжырым. Этика маманы мұны әдетте этикаға ортақ көзқарас ретінде сипаттайды. Қоғамдастықтың ортақ құндылықтары жалпы қауымдастықтың күш-жігерінен көрінеді.

Бұл қарапайым шешім сияқты көрінуі мүмкін.

Өкінішке орай, көптеген қателер бар.

Бір анық мәселе, адам драйверлері тоқтауды немесе тоқтамауды таңдауда қандай да бір бейімділікке ие болуы мүмкін (бұрын айтылғандай). Содан кейін AI осы қисындардың көшірмесі болады. Біз солай болғанын қалаймыз ба?

Басқа мәселені қарастырыңыз. Адам жүргізушілері AI өздігінен басқарылатын көліктердің қалай жұмыс істейтінін оңай қабылдамайды делік. Адам жүргізушілері тоқтауға дайын болғандықтан, бұл өздігінен жүретін көліктер үшін бірдей болжамдалмауы мүмкін. Мүмкін, адам жүргізушілер АИ-дің өздігінен басқарылатын көліктерінен ашулануы мүмкін, олар өз қалауынша жаяу жүргіншілерге тоқтай береді, тіпті адам жүргізушілердің қолымен де солай болады, бірақ бұл адам жүргізушілеріне кедергі жасамайтын сияқты.

Мазасызданумен қатар, сіз адам жүргізушілерінің өздігінен жүретін көліктерді абайсызда артқа қарай бұрып алу мүмкіндігін елестете аласыз. Егер адам жүргізуші өзі басқаратын көлік жаяу жүргіншіге тоқтайды деп күтпеген болса және адам басқаратын көлік өзі басқарылатын көліктің тікелей артында болса, күтулердің қатты сәйкессіздігі туындауы мүмкін. AI жүргізу жүйесі өздігінен жүретін көлікті тоқтатады. Адам жүргізуші бұл әрекетті күтпеген. Жүргізуші адам өзін-өзі басқаратын көлікке соғылады. Жарақаттар мен өлім-жітім болуы мүмкін.

Мен адамға зиян келтіру мүмкіндігін әдейі көрсеттім.

Көшеден өтіп бара жатқан жаяу жүргінші бір қарағанда елеусіз сұрақ болып көрінуі мүмкін. AI тоқтауды немесе тоқтатпауды таңдаған кез келген әдіспен ешкім зардап шеге алмайтын сияқты. Қате! Жаяу жүргіншіні басып кету мүмкіндігі бар. Өздігінен басқарылатын көлікке адам басқаратын көлік соғылу мүмкіндігі бар. Адам басқаратын көліктің жүргізушісі мен жолаушылары жарақат алуы мүмкін. Өздігінен басқарылатын көліктің ішіндегі шабандоздар зардап шегуі мүмкін. Ықтимал адам зиянының қосымша ауыстырулары оңай қарастырылады.

қорытынды

Адамның зияны туралы айтатын болсам, мен сізге осы этикалық AI жұмбағын шешу үшін тағы бір нәрсе беремін.

Жаңалықтарда ер адамның көлікті қиылысқа апарып, жасыл шам жанып тұрғаны туралы хабарланған. Басқа адам басқаратын көлік қиылыстың қызыл шамында өтуді таңдап, заңсыз және қауіпсіз түрде қиылысқа кедергісіз кіріп, заңды түрде жүргізіліп жатқан көлікті соғып кетем деп қорқытты.

Жүргізуші журналистерге соқтығысып қалудың бірін таңдау керек екенін айтты, әйтпесе ол соғылып қалмау үшін көлігін бұрып кетуі мүмкін, бірақ жақын жерде жаяу жүргіншілер болды және бұрылу әрекеті сол адамдарға қауіп төндіруі мүмкін. Сен не істедің? Сіз бұл жақындап келе жатқан көлікті қағып кетуді таңдай аласыз және ертегіні айту үшін өмір сүре аласыз. Немесе сіз қағып кетпеуге әрекет жасай аласыз, бірақ бұл уақытта жазықсыз жаяу жүргіншілерді басып кетуіңіз мүмкін.

Біздің күнделікті жүргізуіміздің көп бөлігінде этикалық тұрғыдан үлкен және бірден қабылданатын шешімдер бар. Мен бұл өмірді немесе өлімді басқару шешімдерін әйгілі немесе кейбіреулер атышулы троллейбус мәселесімен байланыстыра отырып, бұл туралы ұзақ талқыладым. сілтеме осында.

Бұл сценарийдегі адам драйверін AI жүргізу жүйесімен ауыстырыңыз.

AI не істегенін қалайсыз?

Бұл таң қалдыратын сұрақ.

Әдістердің бірі - АИ-ді тікелей қозғалыс әрекетін қатаң түрде орындауға бағдарламалау, осылайша тіпті ықтимал апаттан кету сияқты басқа опцияларды есептемей де. Өзін-өзі басқаратын көліктердегі шабандоздар AI соққыдан басқа ештеңе істеу үшін жасалмағанын білу үшін ренжіді деп күтемін. Сіз сот процестері мен шулар күте аласыз.

Басқа тәсіл әртүрлі мүмкіндіктерді қарастыру үшін AI-ны бағдарламалау болып табылады. AI жүргізу жүйесі қандай жолмен жүретінін шешетін ADM-ті кім құруға болады? AI әзірлеушілеріне мұндай маңызды шешімдерді өздігінен қабылдауға мүмкіндік беру көптеген алаңдаушылық тудыратын сияқты.

Сіз AI-ға күнделікті қозғалыс жағдайлары бойынша жиналған адам жүргізу деректерінен «үйренуге» мүмкіндік беруге болады. Бұл жаяу жүргіншілер өткелінің дилеммасына және бұрын ұсынылған AI жергілікті этикалық әдеттерге қарамастан жинау үшін жиналған деректерді пайдалану идеясына ұқсайды. Бұл туралы көптеген ескертулер бар, мысалы, табылған ML/DL үлгілері қолайлы ма, жоқ па, т.б.

Мен сондай-ақ AI этикалық әдеттерге байланысты этикалық емес мінез-құлықты анықтау мүмкіндігі бар екенін алдын ала ескерттім. Мысалы, басқа көлік өздігінен жүретін көлікті соғу қаупі төнген кезде, АИ әрқашан жаяу жүргіншілерге бағытталған есептеу үлгісіне қонды делік.

Ой, жаяу жүргіншілерге абай болыңыз, сіз дайын нысанаға айналасыз.

Әзірге талқылауды аяқтап, оны соңғы оймен аяқтайтын уақыт.

Сіз Исаак Азимов өзінің «Робототехниканың үш заңын» 1950 жылы ұсынғанын білесіз және біз әлі күнге дейін сол жарияланған ережелерді жақсы көреміз. AI жүйесі немесе робот адамға зиян тигізбеуі және адамға зиян тигізбеуі сияқты ережелер оңай орындалатын болып көрінгенімен, бұл күрделі және кейде жарамсыз ететін көптеген маңызды нюанстар бар, менің талдауымды қараңыз. сағ сілтеме осында.

Қалай болғанда да, Азимов азырақ болса да белгілі тағы бір нәрсе бар: «Сіздің моральдық сезіміңіз дұрыс нәрсені істеуге ешқашан кедергі жасамаңыз».

Біз бәріміз ойлап табамыз деп үміттенетін этикалық AI үшін біз AI этикасы біз күткендей болмауы мүмкін екенін және қандай да бір түрде AI әлі де дұрыс нәрсені істеуі керек екенін есте ұстауымыз керек. Асимов жақсы айтты. Ұзақ уақыт бұрын Аристотель де осыған ұқсас сезімдерді ойлаған сияқты.

Дереккөз: https://www.forbes.com/sites/lanceeliot/2022/03/20/ethical-ai-ambitiously-hoping-to-have-ai-learn-ethical-behavior-by-itself-such-as- Автономды-өздігінен-көліктегі-ай-жағдайы/