Жасанды интеллект этикасы AI әсіресе адамның бейімділігі көп болған кезде қолданылуы керек екенін айтады

Адамдар өздерінің шектеулерін білуі керек.

Сіз 1973 жылы фильмдегі Дірти Гарри кейіпкерінің біздің шектеулерімізді білу туралы әйгілі жолын еске түсіре аласыз. Magnum күші (Инспектор Гарри Каллахан рөліндегі есте қаларлық рөлдегі актер Клинт Иствудтың айтқан сөздері бойынша). Жалпы түсінік мынада: біз кейде өз шектеулерімізді елемейміз және сәйкесінше ыстық суға түсеміз. Менмендіктен бе, эгоцентрліктен бе немесе өз мүмкіндіктерімізге соқырлықпен байланысты ма, біздің бейімділіктеріміз бен кемшіліктерімізді білу және оларды нақты есепке алу туралы өсиет өте ақылға қонымды және пайдалы.

Данышпанның кеңесіне жаңа леп қосайық.

Жасанды интеллект (AI) өзінің шектеулерін білуі керек.

Қадірлі сөз тіркесінің бұл нұсқасымен не айтқым келеді?

Қазіргі жасанды интеллектті әлемдік проблемаларды шешуші құрал ретінде пайдаланудың алғашқы асығы бүгінгі АИ-де біршама шектеулер бар екенін түсінгеннен кейін күңгірттеніп, мүлде күңгірттенгені белгілі болды. Біз көтеріңкі тақырыптардан шықтық Жақсылыққа арналған AI және өзімізді барған сайын батып бара жатырмыз AI for Bad. Көріп отырсыздар, көптеген AI жүйелері әртүрлі нәсілдік және гендерлік теріс көзқарастармен және басқа да көптеген қорқынышты теңсіздіктермен әзірленді және өріс алды.

Жасанды интеллект этикасы мен этикалық AI туралы кең және үздіксіз ақпарат алу үшін қараңыз сілтеме осында және сілтеме осында, бірнеше ғана атауға болады.

Осы AI жүйелерінде табылған қиғаштықтар адамның мінез-құлқына жатқызатын «әдейі» деп айтуға болмайды. Мен мұны бүгінгі AI сезімтал емес екенін атап өту үшін айтып отырмын. Басқаша болжайтын айшықты тақырыптарға қарамастан, кез келген жерде AI жоқ, тіпті сезімге жақын. Оның үстіне, біз AI-ді сезімталдық жақшасына қалай енгізу керектігін білмейміз, сонымен қатар ешкім AI сезімталдығына қол жеткізе алатынымызды нақты айта алмайды. Бәлкім, бір күні болады, мүмкін болмайды.

Сонымен, менің айтайын дегенім, біз қазіргі уақытта иелік ететін AI түріне ерекше мақсат қоя алмаймыз. Айтуынша, біз AI жүйелерін жасайтын адамдарға көп ниет бере аламыз. Кейбір AI әзірлеушілері жағымсыз және мүмкін заңсыз пікірлері бар AI жүйесін ойлап тапқанын білмейді. Сонымен қатар, басқа AI әзірлеушілері өздерінің AI жүйелеріне бейтараптықтарды енгізетінін түсінеді, бұл мақсатты түрде заңсыз әрекет жасауы мүмкін.

Қалай болғанда да, нәтиже әлі де жағымсыз және заңсыз болуы мүмкін.

AI әзірлеушілерін ағартатын және олардың AI жүйелеріне қиғаштықтарды енгізуден аулақ болу үшін қолайлы нұсқаулық беретін AI этикасының принциптерін жариялау бойынша қарқынды күш-жігер жүргізілуде. Бұл екі жолмен көмектеседі. Біріншіден, AI жасайтын адамдар енді қандай өсиеттерді ұстану керектігін білмейтіндіктеріне дайын ақтау болмайды. Екіншіден, этикалық AI шарттарынан ауытқығандар тезірек ұсталады және олар алдын ала ескертілген нәрселерді істеуге және жасамауға тырысады.

AI құрастырушылары не туралы ойлауы және AI этикасы ұстанымынан қатаң түрде әрекет ету керек екенін көрсету үшін кейбір негізгі этикалық AI ережелерін қысқаша қарастыруға бір сәт уақыт бөлейік.

Ватиканның мәлімдемесінде Рим AI этикасына шақырады және мен тереңірек қарастырғанымдай сілтеме осында, бұл олардың анықталған алты негізгі AI этика қағидасы:

  • Ашықтық: Негізінде, AI жүйелері түсінікті болуы керек
  • Қосу: Барлығына пайдасын тигізу үшін және барлық адамдарға өзін көрсету және дамыту үшін ең жақсы жағдайлар ұсынылуы үшін барлық адамдардың қажеттіліктері ескерілуі керек.
  • Жауапкершілік: Жасанды интеллектті қолдануды әзірлейтін және енгізетіндер жауапкершілік пен ашықтықты сақтауы керек
  • Бейтараптылық: Әділдік пен адамдық қадір-қасиетті сақтай отырып, біржақтылық жасамаңыз немесе әрекет етпеңіз
  • сенімділік: AI жүйелері сенімді жұмыс істей алуы керек
  • Қауіпсіздік және құпиялылық: AI жүйелері қауіпсіз жұмыс істеуі және пайдаланушылардың жеке өміріне құрметпен қарауы керек.

Бұл туралы АҚШ Қорғаныс министрлігі (DoD) хабарлады Жасанды интеллектті пайдаланудың этикалық принциптері және мен тереңірек қарастырғанымдай сілтеме осында, бұл олардың AI этикасының алты негізгі қағидасы:

  • Жауапты: DoD қызметкерлері AI мүмкіндіктерін дамытуға, орналастыруға және пайдалануға жауапты бола отырып, тиісті дәрежеде пайымдау мен қамқорлық жасайды.
  • Әділ: Департамент AI мүмкіндіктеріндегі күтпеген ауытқуларды азайту үшін қасақана қадамдар жасайды.
  • Бақыланатын: Департаменттің AI мүмкіндіктері тиісті персонал АИ мүмкіндіктеріне қолданылатын технологияларды, әзірлеу процестерін және операциялық әдістерді, соның ішінде мөлдір және тексерілетін әдістемелерді, деректер көздерін, жобалау процедурасы мен құжаттаманы қоса алғанда, тиісті түсінікке ие болатындай әзірленетін және орналастырылатын болады.
  • сенімді: Департаменттің AI мүмкіндіктерінің нақты, нақты анықталған пайдаланулары болады және мұндай мүмкіндіктердің қауіпсіздігі, қауіпсіздігі және тиімділігі олардың бүкіл өмірлік циклі бойынша анықталған пайдаланулар шеңберінде сынақтан және сенімділіктен өтеді.
  • Басқарылатын: Бөлім күтпеген салдарды анықтау және болдырмау, сондай-ақ күтпеген әрекетті көрсететін орналастырылған жүйелерді ажырату немесе өшіру мүмкіндігіне ие бола отырып, олардың жоспарланған функцияларын орындау үшін AI мүмкіндіктерін жобалайды және құрастырады.

Мен сондай-ақ AI этикасының принциптерінің әртүрлі ұжымдық талдауларын талқыладым, соның ішінде «AI этикасы бойынша нұсқаулықтардың жаһандық ландшафты» (жарияланған) атты мақалада көптеген ұлттық және халықаралық AI этикасының қағидаларының мәнін зерттеген және қысқартқан зерттеушілер әзірлеген топтаманы қарастырдым. ішінде табиғат) және менің қамтуым мына жерде зерттеледі сілтеме осында, бұл негізгі тізімге әкелді:

  • Ашықтық
  • Әділдік және әділдік
  • Зиянсыздық
  • жауапкершілік
  • Құпиялық
  • Қайырымдылық
  • Бостандық және автономия
  • сенім
  • тұрақтылық
  • Ар-ұждан
  • Ынтымақтастық

Тікелей болжағаныңыздай, осы принциптердің негізінде жатқан ерекшеліктерді анықтау өте қиын болуы мүмкін. Сонымен қатар, бұл кең принциптерді AI жүйелерін жасау кезінде қолдануға болатын толықтай нақты және егжей-тегжейлі нәрсеге айналдыруға күш салу да қиын жаңғақ болып табылады. Жасанды интеллект этикасының ережелері қандай және оларды қалай сақтау керектігі туралы толықтай қолмен серуендеу оңай, ал AI кодтауы жолға сәйкес келетін шынайы резеңке болуы керек болған кезде бұл әлдеқайда күрделі жағдай.

Жасанды интеллект этикасының принциптерін AI әзірлеушілері, сонымен қатар AI әзірлеу күш-жігерін басқаратындар, тіпті ақырында AI жүйелерін өңдейтін және жүргізетіндер де пайдалануы керек. Жасанды интеллектіні дамытудың және пайдаланудың бүкіл өмірлік цикліндегі барлық мүдделі тараптар этикалық АИ-нің бекітілген нормаларын сақтау аясында қарастырылады. Бұл маңызды жайт, өйткені әдеттегі болжам «тек кодерлер» немесе AI-ны бағдарламалайтындар AI этикасы ұғымдарын ұстануға жатады. Есіңізде болсын, AI ойлап табу және өрістету үшін ауыл қажет. Ол үшін бүкіл ауыл AI этикасын ұстануы керек.

Қалай болғанда да, қазір мен AI-де біржақтылық болуы мүмкін деген кестеге кіріскендіктен, біз бәріміз осы екі анық фактімен келісе аламыз:

1. Адамдарда көптеген жағымсыз көзқарастар болуы мүмкін және олар бойынша әрекет ете алады

2. Жасанды интеллект көптеген жағымсыз пікірлерге ие болуы мүмкін және сол бейімділіктерге әрекет ете алады

Мен бұл контекстте адамдарды AI-ге қарсы қоюды жек көремін, өйткені бұл қандай да бір түрде AI-ның адамдармен бірдей сезімталдық қабілеті бар дегенді білдіруі мүмкін. Бұл сөзсіз олай емес. Мен осы талқылауда сәл кейінірек AI-ның антропоморфизациясы туралы өсіп келе жатқан алаңдаушылықтарға ораламын.

Қайсысы нашар, жағымсыз көзқарастарды көрсететін адамдар ма, әлде мұны жасайтын AI ма?

Мен бұл сұрақтың сол таңдаулы таңдаудың бірі екенін айта аламын. Бұл екі зұлымдықтың кішісі, бірі таласуға болады. Біз адамдардың теріс көзқарастарға бой алмауын қалаймыз. Сондай-ақ, адамдарда жағымсыз көзқарастар болса да, олар бұл көзқарастарға әрекет етпесе екен деп тілейміз. AI туралы дәл осылай айтуға болады. Біз AI жағымсыз көзқарастарды енгізбегенін және ішкі кодталған бейімділіктер болса да, AI кем дегенде оларға әрекет етпейтінін қалаймыз.

Тілектер міндетті түрде әлемді басқармайды (менің талдауым үшін AI тілектің орындалуы жалпы қоғам бойынша, қараңыз сілтеме осында).

Жарайды, біз адамдардың өз шектеулерін білгенін қалаймыз. Сізде жағымсыз көзқарастар болған кезде танудың маңыздылығы бар. Сіздің әрекеттеріңіз бен шешімдеріңізге жағымсыз көзқарастардың енуіне жол бермеуге тырысудың маңыздылығы бірдей. Бүгінгі күні кәсіпорындар өз қызметкерлерін жағымсыз қателіктерге душар етпеу үшін әр түрлі тәсілдерді қолдануға тырысады. Қызметкерлерге өз жұмысын этикалық тұрғыдан дұрыс орындау туралы арнайы тренингтер өткізілуде. Процестер қызметкерлердің айналасында этикаға жатпайтын әдет-ғұрыптарды көрсетіп жатқанда ескерту үшін қалыптасады. Және тағы басқа.

Адамдармен және олардың жағымсыз көзқарастарымен күресудің тағы бір құралы адамға негізделген жұмысты автоматтандыру болар еді. Иә, адамды циклден алып тастаңыз. Адамның шешім қабылдау тапсырмасын орындауына жол бермеңіз және сізде адамның қандай да бір жағымсыз көзқарастарға деген көзқарасы туралы ұзақ алаңдаушылық болмайды. Бұл жерде адам қатыспайды, осылайша адамның ықтимал бейімділігі мәселесі шешілген сияқты.

Мен мұны айтып отырмын, өйткені біз алгоритмдік шешім қабылдау (ADM) әдісімен AI-ды қолдануға қарай біртіндеп және ауқымды өзгерістердің куәсі болып отырмыз. Егер сіз адам жұмысшысын AI-мен алмастыра алсаңыз, көптеген артықшылықтар пайда болады. Жоғарыда айтылғандай, сіз бұдан былай сол жұмысшының (бұл жұмысты істемейтіні) адами көзқарастары туралы алаңдамайсыз. Ұзақ мерзімді уақыт көкжиегімен салыстырғанда, AI жалпы құны төмен болады. Сіз адам жұмысшыларымен ішінара келетін басқа барлық қиындықтардан бас тартасыз. т.б.

Қолданыстағы ұсыныс келесідей: Жасанды интеллектіні қай жерде ең жақсы орналастыру керектігін шешуге тырысқанда, алдымен сіздің қызметкерлеріңіздің адами көзқарастарын тудыратын және бұл бейімділіктер нақты шешім қабылдау тапсырмаларын төмендететін немесе тым қиындататын параметрлерге назар аударыңыз.

Қорытындылай келе, AI-ға инвестиция салу тұрғысынан ең көп пайда табу ақылға қонымды болып көрінеді, бұл адамның шешім қабылдаудағы өте әсерлі тапсырмаларына тікелей бағытталады, оларды инфузия тұрғысынан бақылауға қиын. Бұл рөлдегі жұмысшыларды алып тастаңыз. Оларды AI-мен ауыстырыңыз. Болжам бойынша, AI-де мұндай жағымсыз көзқарастар болмайды. Сондықтан, сіз өз тортыңызды алып, оны жей аласыз, атап айтқанда, шешім қабылдау тапсырмаларын қабылдаңыз және мұны жағымсыз көзқарастардың этикалық және заңды көрінісін алып тастаңыз.

Сіз оны қарындашпен жазған кезде, ROI (инвестициялардың кірістілігі) AI қабылдауды оңай таңдауға айналдыруы мүмкін.

Міне, бұл әдетте қалай ойнайды.

Компанияңызды қарап шығыңыз және тұтынушыларға әсер ететін шешім қабылдау тапсырмаларын анықтауға тырысыңыз. Осы тапсырмалардың ішінде, егер жұмысшылар теріс көзқарасты ұстанатын болса, олардың қайсысы орынсыз ауытқуы мүмкін? Егер сіз осы қиялдарды тізгіндеуге тырысқан болсаңыз, сіз жағдайды бұрынғыдай қалдырған шығарсыз. Екінші жағынан, егер бұрмаланулар қайта-қайта пайда болса және оларды жою әрекеті ауыр болса, бұл рөлге кейбір сәйкес AI-ны түсіруді қарастырыңыз. Жұмысшыларды араласпаңыз, өйткені олар AI-ны жоққа шығаруы немесе AI-ны кері бұрмалардың тұңғиығына кері итеруі мүмкін. Сондай-ақ, AI тапсырманы шебер орындай алатынына және тапсырманы орындау үшін қажетті шешім қабылдау аспектілерін жеткілікті түрде түсіргеніңізге көз жеткізіңіз.

Шайыңыз және қайталаңыз.

Мен бұл қарапайым түсінік сияқты болып көрінетінін түсінемін, бірақ адам жұмысшыларын AI-мен ауыстырудың оңай сәтсіздікке ұшырауының көптеген жолдары бар екенін түсінемін. Көптеген компаниялар мұндай әрекеттерге баруға құмар болды және мұны қалай жасау керектігін ойланбады. Нәтижесінде, олар көбінесе қолдарынан гөрі әлдеқайда нашар тәртіпсіздіктер жасады.

Мен AI панацея емес екенін түсіндіріп, баса айтқым келеді.

Бұл туралы айтатын болсақ, адамға бейтарап шешім қабылдаушыларды бейтарап АИ-мен бірге тастаудың тазалығына қатысты бір үлкен ақау бар. Қиындық мынада, сіз тек бір жағымсыз көзқарастарды басқасына ауыстыра аласыз. Бұрынғы нұсқау бойынша, AI жағымсыз көзқарастарды қамтуы мүмкін және сол қиғаштықтарға әрекет ете алады. Бейтарап адамдарды бейтарап AI-ға ауыстыру - бұл бәрібір емес деген өрескел болжам жасау.

Қысқасы, мәселеге қатаң түрде теріс факторлардан қараған кезде мәміле:

  • Жасанды интеллекттің жағымсыз жақтары жоқ, сондықтан AI негізіндегі ADM қолдануға ыңғайлы.
  • AI ауыстырылатын адамдар сияқты жағымсыз көзқарастарға ие және осылайша AI негізіндегі ADM алаңдатады.
  • AI ауыстырылатын адамдарға қарағанда жаңа жағымсыз көзқарастарды енгізеді және сәйкесінше жағдайды нашарлатуы мүмкін
  • Алғашында AI жақсы болып көрінеді, содан кейін бірте-бірте жағымсыз көзқарастарға айналады
  • басқа

Біз бұл мүмкіндіктерді қысқаша ашамыз.

Біріншісі - не болуы мүмкін екендігінің идеалдандырылған нұсқасы. AI-де жағымсыз көзқарастар жоқ. Сіз AI-ны орнына қойдыңыз және ол тапсырманы тамаша орындайды. Жарайсың! Әрине, сіз AI қосуына байланысты адам жұмысшыларын ауыстыруды қандай да бір жолмен шешкенсіз деп үміттенуге болады.

Екінші жағдайда, сіз АИ-ді орнатасыз және АИ адам жұмысшылары сияқты жағымсыз көзқарастарды көрсететінін білесіз. Бұл қалай болуы мүмкін? Бұл тұзаққа түсудің жалпы әдісі - рөлдегі адамдардың бұрын өз шешімдерін қалай қабылдағаны туралы жиналған деректер негізінде Machine Learning (ML) және Deep Learning (DL) пайдалану болып табылады.

Түсіндіруге бір сәт рұқсат етіңіз.

ML/DL – есептеу үлгісін сәйкестендірудің бір түрі. Әдеттегі тәсіл - шешім қабылдау тапсырмасы туралы деректерді жинау. Сіз деректерді ML/DL компьютер үлгілеріне бересіз. Бұл модельдер математикалық заңдылықтарды табуға тырысады. Осындай үлгілерді тапқаннан кейін, егер табылса, AI жүйесі жаңа деректерге тап болған кезде сол үлгілерді пайдаланады. Жаңа деректер ұсынылғаннан кейін ағымдағы шешімді қабылдау үшін «ескі» немесе тарихи деректерге негізделген үлгілер қолданылады.

Менің ойымша, сіз бұл қайда бара жатқанын болжай аласыз. Егер бұл жұмысты жылдар бойы жасап келе жатқан адамдар жағымсыз көзқарастарды біріктірсе, деректер мұны нәзік, бірақ маңызды жолдармен көрсетеді. Machine Learning немесе Deep Learning есептеу үлгісінің сәйкестігі деректерді сәйкесінше математикалық имитациялауға тырысады. Модельдеудің жалпы мағынасы немесе басқа сезімтал аспектілері жоқ.

Сонымен қатар, AI әзірлеушілері не болып жатқанын түсінбеуі мүмкін. Арнайы математика қазір жасырынған қисынды анықтауды қиындатуы мүмкін. Сіз AI әзірлеушілері ықтимал жерленген бейімділіктерді тексереді деп үміттенесіз және күтесіз, бірақ бұл көрінгеннен де қиынырақ. Салыстырмалы түрде ауқымды тестілеу кезінде де ML/DL үлгілерін сәйкестендіру модельдерінде әлі де ендірілген қиғаштықтардың болатынына сенімді мүмкіндік бар.

Айтпақшы, сіз бірінші шаршыға оралуыңыз мүмкін. Адамдардың дәл осындай жағымсыз көзқарастары қазір AI жүйесінде есептеу арқылы көрсетіледі. Сіз біржақтылықты жойған жоқсыз.

Ең сорақысы, сіз AI-де біржақтылық бар екенін түсіну ықтималдығы аз болуы мүмкін. Адамдарға келетін болсақ, сіз әдетте адамдардың жағымсыз көзқарастары бар екеніне сақ болуыңыз мүмкін. Бұл базалық үміт. Жасанды интеллектті пайдалану көшбасшыларды автоматтандыру адамның кез келген бейімділігін толығымен жойды деп сенуге мәжбүр етеді. Осылайша олар өздерін аяққа атып өлтіруге дайындап жатыр. Олар белгілі болып көрінетін жағымсыз көзқарастары бар адамдардан құтылды, олардың орнын ондай қиғаштықтары жоқ деп есептеген AI ауыстырды, бірақ қазір бұрыннан белгілі болған сол бейімділіктермен толықтырылған AI-ны қолданды.

Бұл нәрселерді шынымен де шатастыруы мүмкін. Сіз адам жұмысшыларында бұрыннан күткен адами бейімділіктердің пайда болуын анықтау және алдын алу үшін орнатылған басқа қоршауларды алып тастаған боларсыз. AI енді еркін тізгінге ие. Әрекет етуден бұрын оны ұстап алатын ештеңе жоқ. Содан кейін AI сізді бейтарап әрекеттердің үлкен жинақталуының қиын жолына түсіре бастайды.

Сіз ыңғайсыз және мүмкін жауапты күйдесіз, сіз бір кездері біркелкі көзқарастар туралы білетінсіз және қазір бұл көзқарастардың бүлінуіне жол бердіңіз. Мұндай келеңсіз көзқарастарды ешқашан кездестірмеу бір нәрсе, содан кейін кенеттен AI оларды тудырады. Сіз мұны «кім болжаған» дитреактор түрімен ақтауға тырысуыңыз мүмкін (мүмкін, онша сенімді емес). Бірақ қазір бұрынғыдай жағымсыз әрекеттерді жасайтын AI-ны орнатқаныңыз үшін, сіздің сылтауларыңыз жұқарып барады.

Бұның бұрылуы АИ-де адамдар тапсырманы орындаған кезде бұрын кездеспеген жағымсыз көзқарастарды көрсетеді. Мұның алдын алу қиынырақ деп айта аласыз, өйткені ол фирма бұрын іздеп көрмеген «жаңа» позициялардан тұрады. Ақыр соңында, сылтаулар сізге көп жеңілдік бермеуі мүмкін. Егер AI жүйесі әдепсіз және заңсыз аумаққа кірсе, сіздің қазыңыз пісірілген болуы мүмкін.

Есте сақтаудың тағы бір қыры мынада: AI жақсы басталып, содан кейін жағымсыз жақтарға енуі мүмкін. Бұл, әсіресе, AI-ны жаңартып отыру үшін Machine Learning немесе Deep Learning қолдану тұрақты негізде орын алған кезде ықтимал. ML/DL нақты уақыт режимінде жұмыс істей ме, әлде мерзімді жаңартулар жасай ма, назар аудару керек, AI қазір қиғаштықты қамтитын және бұрын болмаған деректерді қабылдауы мүмкін.

Сиқырлы таяқшаны бұлғау арқылы тегін түскі ас ішемін деп ойлайтын көшбасшыларды AI-мен алмастыру үшін олар өте өрескел оянуда. Көшбасшыларға AI этикасының ережелерімен өкілеттік берудің маңыздылығы туралы менің талқылауымды мына жерден қараңыз сілтеме осында.

Осы пікірталастың дәл осы тұсында, мен сізге адамның жағымсыз көзқарастарын AI негізіндегі теріс көзқарастармен ауыстыру (немесе емес) жұмбағын көрсететін кейбір нақты мысалдарды алғыңыз келетініне сенімдімін.

Сіз сұрағаныңызға қуаныштымын.

Менің жүрегіме жақын болатын ерекше және танымал мысалдар жиынтығы бар. Көрдіңіз бе, менің AI бойынша сарапшы ретінде этикалық және құқықтық салдарларды қоса алғанда, тақырыптың біршама теориялық сипатын оңай түсіну үшін AI этикасының дилеммаларын көрсететін нақты мысалдарды анықтауды жиі сұрайды. Бұл этикалық AI екіұштылығын айқын көрсететін ең қызықты бағыттардың бірі - AI негізіндегі өзін-өзі басқаратын автомобильдердің пайда болуы. Бұл тақырып бойынша кең талқылау үшін ыңғайлы пайдалану жағдайы немесе үлгі ретінде қызмет етеді.

Олай болса, ойлануға тұрарлық маңызды сұрақ: Жасанды интеллект негізіндегі нағыз өзін-өзі басқаратын көліктердің пайда болуы AI-дағы жағымсыз көзқарастар туралы ештеңені жарықтандырады ма, егер солай болса, бұл нені көрсетеді?

Маған сұрақты ашуға бір сәт рұқсат етіңіз.

Біріншіден, нағыз өзін-өзі басқаратын көлікте адам жүргізуші жоқ екенін ескеріңіз. Нағыз өзін-өзі басқаратын көліктер AI жүргізу жүйесі арқылы басқарылатынын есте сақтаңыз. Рульде адам жүргізушінің де қажеті жоқ, көлікті адам басқаратын жағдай да жоқ. Автономды көліктер (АВ) және әсіресе өзін-өзі басқаратын көліктер туралы кең және үздіксіз ақпарат алу үшін қараңыз. сілтеме осында.

Мен нағыз өздігінен жүретін көліктерге сілтеме жасағанда нені білдіретінін қосымша түсіндіргім келеді.

Өздігінен басқарылатын автомобильдердің деңгейлерін түсіну

Түсіндірме ретінде, шын мәнінде өздігінен басқарылатын автомобильдер - бұл ИИ автокөлікті толығымен өздігінен басқаратын және көлік жүргізу кезінде ешқандай көмек болмайтын машиналар.

Бұл жүргізушісіз көліктер 4-деңгей және 5-деңгей болып саналады (менің түсіндірмені қараңыз мына сілтеме), ал адам жүргізушінің жүргізу күш-жігерін бірге бөлісуін талап ететін көлік әдетте 2 немесе 3-деңгейде қарастырылады. Жүргізу міндетін бірге орындайтын көліктер жартылай автономды болып сипатталады және әдетте әр түрлі ADAS (Driver-Assistance Advanced Systems) деп аталатын автоматтандырылған қондырмалар.

5 деңгейдегі өзін-өзі басқаратын нақты көлік әлі жоқ, оған жетуге болатын-болмайтынын және оған жету қанша уақытты білмейміз.

Сонымен қатар, 4-деңгейдегі күш-жігер бірте-бірте өте тар және таңдамалы қоғамдық жол сынақтарынан өту арқылы біраз тартуға тырысады, дегенмен бұл сынаққа рұқсат беру керек пе деген пікірталас бар (біз бәріміз экспериментте өмір немесе өлім-жітім теңіз шошқаларымыз) Біздің магистральдарда және айналма жолдарда орын алуда, кейбіреулер даулайды, менің хабарымды мына жерден қараңыз мына сілтеме).

Жартылай автокөліктер адам жүргізушісін қажет ететіндіктен, бұл көлік түрлерін қабылдау әдеттегі көліктерді басқарудан айтарлықтай ерекшеленбейді, сондықтан бұл тақырыпта олар туралы көп жаңалық таба алмайсыз (дегенмен, сіз көресіз Бір сәтте келесі ойлар жалпыға бірдей қолданылады).

Жартылай автокөліктер үшін көпшіліктің соңғы уақытта пайда болатын алаңдатарлық аспект туралы алдын-ала ескертуі маңызды, атап айтқанда 2-деңгей немесе 3-деңгейлі автокөліктің дөңгелегінде ұйықтап жатқандығы туралы бейнежазбаларын жазып жүрген адамдарға қарамастан. , жартылай автономды автокөлік жүргізу кезінде жүргізуші олардың назарын басқару тапсырмасынан алуы мүмкін деп сендіруден аулақ болуымыз керек.

Автоматизацияның 2 немесе 3 деңгейге өтуіне қарамастан, сіз көлік құралын басқаруға жауаптысыз.

Өздігінен басқарылатын машиналар мен АИ

4 және 5-деңгейдегі өздігінен жүретін көліктер үшін жүргізуші рөлінде адам жүргізушісі болмайды.

Барлық жолаушылар жолаушылар болады.

AI жүргізуді жүргізуде.

Тез арада талқылаудың бір аспектісі бүгінгі жасанды интеллект жүргізуші жүйелеріне қатысатын жасанды интеллекттің сезімтал болмауына алып келеді. Басқаша айтқанда, жасанды интеллект - бұл компьютерлік бағдарламалау мен алгоритмдердің жиынтығы, сондықтан адамдар ойлап тапқан тәртіппен ой қорыта алмайды.

Неліктен бұл интеллектке қосымша назар аударылмайды?

Мен жасанды интеллектті қозғау жүйесінің рөлін талқылағанда мен жасанды интеллектке адами қасиеттерді жатқызбайтынымды атап өткім келеді. Бүгінгі күні жасанды интеллект антропоморфизациясының тұрақты және қауіпті тенденциясы бар екенін ескеріңіз. Шын мәнінде, адамдар мұндай жасанды интеллект әлі жоқ екендігі туралы даусыз және талассыз фактілерге қарамастан, бүгінгі жасанды интеллектке адам тәрізді сезімді тағайындайды.

Осы нақтылау арқылы сіз AI жүргізу жүйесі қандай да бір түрде жүргізудің қырлары туралы «білмейді» деп ойлауға болады. Жүргізу және оған қатысты барлық нәрселер өзін-өзі басқаратын машинаның аппараттық және бағдарламалық жасақтамасының бөлігі ретінде бағдарламалануы керек.

Осы тақырып бойынша ойнауға келетін көптеген аспектілерге сүңгейік.

Біріншіден, AI өздігінен жүретін көліктердің барлығы бірдей емес екенін түсіну маңызды. Әрбір автоөндіруші және өзін-өзі басқаратын технологиялық фирма өзін-өзі басқаратын көліктерді ойлап табуда. Осылайша, AI жүргізу жүйелері не істейтіні немесе жасамайтыны туралы нақты мәлімдеме жасау қиын.

Сонымен қатар, AI басқару жүйесі белгілі бір нәрсені жасамайтынын айтқан кезде, оны кейінірек компьютерді дәл осылай жасауға бағдарламалайтын әзірлеушілер басып озуы мүмкін. Бірте -бірте AI басқару жүйелері біртіндеп жетілдіріліп, кеңейтілуде. Бүгінде бар шектеулер болашақта жүйенің қайталануында немесе нұсқасында болмауы мүмкін.

Мен айтқым келетін нәрсені түсіндіру үшін жеткілікті ескертулер жиынтығын беретініне сенемін.

Біз қазір өздігінен басқарылатын көліктерге және AI мен жағымсыз көзқарастарды зерттеуді талап ететін этикалық AI мүмкіндіктеріне терең үңілуге ​​дайынбыз.

Қарапайым мысалды қолданайық. AI негізіндегі өзін-өзі басқаратын көлік сіздің маңайыңыздағы көшелерде жүріп жатыр және қауіпсіз жүріп жатқан сияқты. Алдымен сіз өздігінен жүретін көлікті көрген сайын ерекше назар аудардыңыз. Автономды көлік бейнекамералар, радар қондырғылары, LIDAR құрылғылары және т.б. кіретін электронды сенсорлардың сөресімен ерекшеленді. Өздігінен басқарылатын көлік бірнеше апта бойы сіздің қауымдастықтың айналасында жүргеннен кейін, сіз оны әрең байқайсыз. Сіздің ойыңызша, бұл онсыз да бос емес қоғамдық жолдардағы басқа көлік.

Өзін-өзі басқаратын көліктерді көру мүмкін емес немесе мүмкін емес деп ойламас үшін, мен өздігінен жүретін көліктерді сынау аясындағы жергілікті жерлер бірте-бірте шыршалы көліктерді көруге қалай үйренгені туралы жиі жаздым. менің талдауымды қараңыз мына сілтеме. Ақырында жергілікті тұрғындардың көпшілігі өздігінен жүретін көліктердің куәсі болу үшін аузын ашқан ашуланшақтықтан қазір кең көлемді есінеу сезіміне ауысты.

Автономды көліктерді дәл қазір байқайтын басты себеп - тітіркену мен ашулану факторы. Кітаптағы AI жүргізу жүйелері көліктердің барлық жылдамдық шектеулері мен жол ережелеріне бағынатынына көз жеткізеді. Дәстүрлі адам басқаратын көліктеріндегі тынымсыз көлік жүргізушілері үшін сіз заңға қатаң бағынатын AI негізіндегі өздігінен жүретін көліктердің артында тұрып қалған кезде ашуланасыз.

Бұл дұрыс немесе бұрыс болса да, бәріміз үйренуіміз керек нәрсе.

Ертегімізге оралу.

Әйтпесе зиянсыз және жалпы қабылданған AI негізіндегі өзін-өзі басқаратын көліктерге қатысты екі жағымсыз алаңдаушылық туа бастайды, атап айтқанда:

а. Жасанды интеллект өзін-өзі басқаратын көліктерді роумингте жүрген жерде, жалпы қоғамдастық үшін алаңдаушылық тудырды.

б. АИ-нің жүру құқығы жоқ жаяу жүргіншілерге қалай қарайтыны да көтеріліп жатқан мәселе.

Алғашында AI бүкіл қала бойынша өздігінен жүретін көліктерді аралап жүрді. Өздігінен басқарылатын көлікке мінуді сұрағысы келген кез келген адам оны құттықтауға тең мүмкіндікке ие болды. Бірте-бірте AI ең алдымен қаланың бір бөлігінде өздігінен жүретін көліктерді роумингте ұстай бастады. Бұл бөлім үлкен ақша табушы болды және AI жүйесі қауымдастықтағы пайдаланудың бір бөлігі ретінде кірісті арттыруға тырысып, бағдарламаланған.

Қаланың кедей бөліктеріндегі қауымдастық мүшелерінің өздігінен жүретін көліктен жүру мүмкіндігі аз болды. Себебі, өздігінен жүретін көліктер алысырақ және жергілікті жердің кірісі жоғары бөлігінде роумингте болды. Қаланың шалғай бөлігінен сұрау түскенде, қаланың «құрметті» бөлігінде болуы мүмкін жақын жерден кез келген сұраныс жоғарырақ басымдыққа ие болады. Ақырында, қаланың бай бөлігінен басқа кез келген жерде өздігінен жүретін көлікті алу мүмкін емес еді, бұл қазір ресурстарға тапшылықтан зардап шеккен аудандарда тұратындар үшін бұл.

Сіз AI прокси дискриминациясының түріне (сонымен қатар жанама кемсітушілік деп те аталады) көп жағдайда келді деп айта аласыз. Жасанды интеллект сол кедей аудандардан аулақ болу үшін бағдарламаланбаған. Оның орнына, ол мұны ML/DL пайдалану арқылы «үйренді».

Мәселе мынада, рейдшерингті адам жүргізушілер бірдей нәрсені жасайтыны үшін белгілі болды, бірақ тек ақша табу бұрышына байланысты емес. Қаланың белгілі бір бөліктерінде шабандоздарды жинауға жағымсыз көзқарасы бар кейбір рейдшеринг жүргізушілері болды. Бұл белгілі бір құбылыс болды және қала мұны істеп жатқан адам жүргізушілерді ұстау үшін бақылау әдісін енгізді. Адамдардың жүргізушілері жағымсыз таңдау тәжірибесін жүргізу үшін қиындыққа тап болуы мүмкін.

Жасанды интеллект ешқашан дәл осындай құмға түспейді деп болжанған. AI негізіндегі өздігінен жүретін көліктердің қайда бара жатқанын бақылайтын арнайы мониторинг орнатылмаған. Қауымдастық мүшелері шағым айта бастағаннан кейін ғана қала басшылары не болып жатқанын түсінді. Автономды көліктер мен өзін-өзі басқаратын көліктер ұсынатын жалпы қалалық мәселелердің осы түрлері туралы қосымша ақпаратты мына жерден қараңыз. мына сілтеме және бұл тақырып бойынша мен бірлесіп жазған Гарвардтың зерттеуін сипаттайды.

Жасанды интеллектке негізделген өздігінен жүретін көліктердің роумингтік аспектілерінің бұл мысалы, адамдарда бақылаулар орнатылатын жағымсыз бейімділікке әкелетін жағдайлардың болуы мүмкін екенін және сол адам драйверлерін алмастыратын AI жойылғанын көрсетеді. Тегін. Өкінішке орай, жасанды интеллект кейіннен бірте-бірте ұқсас бағыттарға батып кетуі мүмкін және мұны жеткілікті қоршауларсыз жасай алады.

Екінші мысал, көшені кесіп өтуге құқығы жоқ жаяу жүргіншілерді күту үшін тоқтау керек пе, соны анықтайтын AI кіреді.

Сіз, сөзсіз, көлік жүргізіп, жолды кесіп өтуді күтіп тұрған жаяу жүргіншілерді кездестірдіңіз, бірақ олардың өтуге құқығы жоқ. Бұл тоқтап, оларды кесіп өтуге рұқсат беру туралы өз еркіңіз бар екенін білдірді. Сіз олардың кесіп өтуіне жол бермей жалғастыра аласыз және әлі де мұны істеудің заңды жүргізу ережелеріне сәйкес бола аласыз.

Адамдар жүргізушілердің мұндай жаяу жүргіншілер үшін тоқтау немесе тоқтамау туралы шешім қабылдауы туралы зерттеулер кейде адам жүргізушілер таңдауды теріс көзқарастарға негізделген деп болжайды. Адам жүргізуші жаяу жүргіншіге қарап, тоқтамауды таңдауы мүмкін, тіпті егер жаяу жүргіншінің нәсіліне немесе жынысына байланысты сыртқы түрі басқа болса, олар тоқтар еді. Мен мұны мына жерде тексердім сілтеме осында.

AI негізіндегі өздігінен жүретін көліктер жүру құқығы жоқ жаяу жүргіншілер үшін тоқтау немесе тоқтамау мәселесін шешуге бағдарламаланғанын елестетіп көріңіз. Міне, AI әзірлеушілері бұл тапсырманы қалай бағдарламалауды шешті. Олар қаланың түкпір-түкпірінде орнатылған қаланың бейнекамераларынан мәліметтер жинады. Деректер жүру құқығы жоқ жаяу жүргіншілерге тоқтайтын адам жүргізушілері мен тоқтамайтын адам жүргізушілерін көрсетеді. Оның барлығы үлкен деректер жинағына жинақталған.

Machine Learning және Deep Learning қолдану арқылы деректер есептеу әдісімен модельденеді. Одан кейін AI жүргізу жүйесі осы үлгіні қашан тоқтату немесе тоқтамау керектігін шешу үшін пайдаланады. Жалпы, жергілікті әдет-ғұрып қандай болса да, AI өздігінен жүретін көлікті осылай бағыттайды деген идея.

Қала басшылары мен тұрғындарын таң қалдырғандай, AI жаяу жүргіншінің сыртқы түріне, оның ішінде нәсіліне және жынысына байланысты тоқтауды немесе тоқтамауды таңдады. Өзін-өзі басқаратын көліктің сенсорлары күтіп тұрған жаяу жүргіншіні сканерлейді, бұл деректерді ML/DL үлгісіне береді және модель тоқтау немесе жалғастыру туралы AI-ға шығарады. Өкінішке орай, қалада осыған байланысты көптеген драйверлер болды, ал AI қазір соны еліктейді.

Жақсы жаңалық - бұл бұрын ешкім білмейтін мәселені көтереді. Жаман жаңалық - бұл AI ұсталғандықтан, кінәнің көпшілігіне ие болды. Бұл мысал AI жүйесі адамдардың бұрыннан бар жағымсыз көзқарастарын қайталауы мүмкін екенін көрсетеді.

қорытынды

Қақпаның сыртында жағымсыз жақтары бар немесе уақыт өте келе бұрмаланатын AI ойлап табудан аулақ болудың көптеген жолдары бар. Тәсілдердің бірі AI әзірлеушілерінің бұл оқиға туралы хабардар болуын қамтамасыз етуді қамтиды, сондықтан мәселені болдырмау үшін AI-ны бағдарламалау үшін оларды саусақтарында ұстау. Тағы бір жол - AI этикалық емес мінез-құлық үшін өзін-өзі бақылаудан тұрады (менің талқылауымды қараңыз. сілтеме осында) және/немесе басқа AI жүйелерін әлеуетті әдепсіз әрекеттерді бақылайтын басқа АИ бөлігі болуы (мен бұл туралы мына жерде қарастырдым. сілтеме осында).

Қорытындылай келе, біз адамдарда жағымсыз көзқарастар болуы мүмкін екенін және қандай да бір жолмен олардың шектеулерін білуі керек екенін түсінуіміз керек. Сол сияқты, AI-де жағымсыз көзқарастар болуы мүмкін және біз олардың шектеулерін білуіміз керек.

AI этикасын ынтамен қабылдап жүргендер үшін мен қазір барлығы білуі керек тағы бір әйгілі жолмен аяқтағым келеді. Атап айтқанда, Этикалық AI маңыздылығын пайдалануды және бөлісуді жалғастырыңыз. Осылай ете отырып, мен: «Алға, менің күнімді жасаңыз» деп дірілдеп айтамын.

Дереккөз: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-especially-deployed-when-human-biases-are-aplenty/