Жасанды интеллект этикасы жаппай жаһандық ауқымдағы AI бейімділігінің жақындап келе жатқан спектрі туралы дабыл қоңырауларын соғады, әсіресе жақындап келе жатқан толық автономды жүйелер арқылы қуаттанады.

Платон жақсы шешім сандарға емес, білімге негізделгенін атады.

Бұл терең түсінік бүгінгі жасанды интеллект (AI) туралы таңқаларлықтай көрінеді.

Қарап отырсаңыз, қазіргі уақытта AI қандай да бір жолмен ақылға қонымды және адамның білімі мен пайымдауын бейнелейді деп жариялайтын жарқыраған тақырыптарға қарамастан, бұл асыра айтылған AI гиперболасы жасырын болжам екенін ескеріңіз, өйткені біз бүгінгі алгоритм бойынша шешім қабылдауда (ADM) әлі де сандарды шектеуге сүйенеміз. ) AI жүйелері қабылдағандай. Тіпті мақтанған Machine Learning (ML) және Deep Learning (DL) есептеу үлгілерін сәйкестендіруден тұрады, яғни сандар әлі де ML/DL-ті жоғары пайдаланудың өзегі болып табылады.

Жасанды интеллект сезімталдыққа жету мүмкіндігін білмейміз. Болуы мүмкін, болмауы мүмкін. Мұның қалай пайда болатынын ешкім нақты айта алмайды. Кейбіреулер біз сана-сезім формасы өздігінен пайда болатындай есептеуіш AI күш-жігерімізді біртіндеп жақсартамыз деп сенеді. Басқалары AI есептеуіш супернованың түріне еніп, сезімталдыққа өздігінен жетуі мүмкін деп ойлайды (әдетте сингулярлық деп аталады). AI болашағы туралы осы теориялар туралы қосымша ақпаратты мына жерден қараңыз сілтеме осында.

Ендеше, өзімізді мазақ етіп, қазіргі жасанды интеллект адамдар сияқты ойлай алады деп жалған сенбейік. Менің ойымша, бұл сұрақ Платонның сезімтал АИ-ге емес, есептеулік АИ-ге негізделген жақсы шешімдерге ие бола аламыз ба деген ескертуі туралы бірінші орынға шығады деп ойлаймын. Күнделікті AI жүйелері арқылы бізде жақсы шешімдер қабылданады деп айтатынымды білгенде таң қалуыңыз мүмкін.

Бұл монетаның екінші жағы - бізде жаман шешімдер қабылдайтын күнделікті AI жүйелері болуы мүмкін. Шірік шешімдер. Теріс көзқарастар мен әділетсіздіктерге толы шешімдер. Жасанды интеллекттің соңғы дәуірі басталған кезде кейбіреулер қазір деп атайтын нәрсеге үлкен ынта-ықылас тудырғанын білетін шығарсыз. Жақсылыққа арналған AI. Өкініштісі, сол бір толқудың етегінде біз де куә бола бастадық AI for Bad. Мысалы, жасанды интеллект негізіндегі бет-әлпетті тану жүйелерінің құрамында нәсілдік көзқарастар мен гендерлік көзқарастар бар екені анықталды. сілтеме осында.

Қарсы күресу әрекеттері AI for Bad белсенді жүргізілуде. Дауыстаудан басқа заңды заңсыздықты тежеуге ұмтылу, сонымен қатар AI зұлымдықты түзету үшін AI этикасын қабылдауға айтарлықтай итермелеу бар. Түсінік мынада: біз AI-ны дамыту және өрістету үшін негізгі этикалық AI принциптерін қабылдауымыз және мақұлдауымыз керек. AI for Bad және бір мезгілде артықшылықты жариялау және насихаттау Жақсылыққа арналған AI.

Менің AI этикасы және этикалық AI туралы кең ақпаратымды мына жерден табуға болады мына сілтеме және мына сілтеме, бірнеше ғана атауға болады.

Осы пікірталас үшін мен AI туралы ерекше алаңдататын аспектіні айтқым келеді, бұл AI этикасы аренасындағылар ренжітеді және олар туралы хабардарлықты арттыруға тырысады. Көңіл көтеретін және алаңдататын мәселені атап өту өте оңай.

Мінеки: AI алаңдатарлық жаһандық ауқымда AI-ге негізделген қиялдарды жариялаудың нақты әлеуетіне ие.

Мен «масштабта» десем, бұл дүниежүзілік ауқымды ауқымды білдіреді. Үлкен масштаб. Шкаладан шығып кететін шкала.

Жасанды интеллектке негізделген бұрмаланулардың масштабтауы қалай болатынын білмес бұрын, бәрімізде AI-ге заңсыз бұрмаланулар мен теңсіздіктерді қалай біріктіретіні туралы түсінік бар екеніне көз жеткізейік. Еске сала кетейік, бұл сезімтал әртүрлілік емес. Мұның бәрі есептеу калибрі.

Жасанды интеллект адамдар жасайтын жағымсыз көзқарастар мен теңсіздіктерді қалай сіңіре алатыны сізді таң қалдыруы мүмкін. Біз AI-ны толығымен бейтарап, бейтарап, адамдарда болуы мүмкін эмоционалды ауытқуы мен жаман ойлары жоқ машина деп санаймыз. Жасанды интеллекттік интеллекттің қиғаштық пен теңсіздікке ұшырауының ең көп тараған құралдарының бірі адамдардың шешім қабылдауы туралы жиналған деректерге сүйену нәтижесінде ішінара Machine Learning және Deep Learning пайдалану кезінде орын алады.

Бір сәтке кеңірек тоқталуға рұқсат етіңіз.

ML/DL – есептеу үлгісін сәйкестендірудің бір түрі. Әдеттегі тәсіл - шешім қабылдау тапсырмасы туралы деректерді жинау. Сіз деректерді ML/DL компьютер үлгілеріне бересіз. Бұл модельдер математикалық заңдылықтарды табуға тырысады. Осындай үлгілерді тапқаннан кейін, егер табылса, AI жүйесі жаңа деректерге тап болған кезде сол үлгілерді пайдаланады. Жаңа деректер ұсынылғаннан кейін ағымдағы шешімді қабылдау үшін «ескі» немесе тарихи деректерге негізделген үлгілер қолданылады.

Менің ойымша, сіз бұл қайда бара жатқанын болжай аласыз. Шешімдердің үлгісін қабылдаған адамдар теріс көзқарастарды біріктірсе, деректер мұны нәзік, бірақ маңызды жолдармен көрсетеді. Machine Learning немесе Deep Learning есептеу үлгісінің сәйкестігі деректерді сәйкесінше математикалық имитациялауға тырысады. Жасанды интеллект модельдеудің жалпы мағынасы немесе басқа сезімтал аспектілері жоқ.

Сонымен қатар, AI әзірлеушілері не болып жатқанын түсінбеуі мүмкін. ML/DL-дегі жасырын математика қазір жасырын көзқарастарды анықтауды қиындатуы мүмкін. Сіз AI әзірлеушілері ықтимал жерленген бейімділіктерді тексереді деп үміттенесіз және күтесіз, бірақ бұл көрінгеннен де қиынырақ. Салыстырмалы түрде ауқымды тестілеу кезінде де ML/DL үлгілерін сәйкестендіру үлгілерінде әлі де ендірілген қиғаштықтардың болатынына сенімді мүмкіндік бар.

Сіз белгілі немесе әйгілі «қоқыс ішіндегі қоқыс шығару» деген нақыл сөзді пайдалана аласыз. Мәселе мынада, бұл АИ-ге батып кеткен бейтараптар ретінде жасырын түрде пайда болатын қиғаштыққа көбірек ұқсайды. Алгоритм шешімдерін қабылдау немесе AI-ның ADM аксиоматикалық түрде теңсіздіктерге толы болады.

Жақсы емес.

Бұл масштабта болғанда, AI-ға негізделген бейімділіктер мәселесіне әкеледі.

Алдымен, адами көзқарастардың теңсіздікті тудыруы мүмкін екенін қарастырайық. Ипотекалық несиелер беретін компания ипотекалық несие агентін жалдауды шешеді. Агент үй несиесін алғысы келетін тұтынушылардың өтініштерін қарауы керек. Өтінішті бағалағаннан кейін агент несие беру немесе несие беруден бас тарту туралы шешім қабылдайды. Жеңіл - жеңіл.

Талқылау үшін, адам несие агенті күніне 8 несиені талдай алады деп елестетіп көрейік, бір шолуға шамамен бір сағат кетеді. Бес күндік жұмыс аптасында агент шамамен 40 несиеге шолу жасайды. Жыл сайын агент әдетте шамамен 2,000 несие шолуын жасайды, береді немесе аздап алады.

Компания несиелерді қарау көлемін ұлғайтқысы келеді, осылайша фирма 100 қосымша несие агенттерін жалдайды. Олардың барлығы шамамен бірдей өнімділікке ие делік және бұл біз қазір жылына 200,000 2,000-ға жуық несиені өңдей алатынымызды білдіреді (бір агентке жылына XNUMX XNUMX несиелік шолу жылдамдығымен). Біз несиелік өтінімдерді қарауды күшейткен сияқтымыз.

Компания адам агенттері сияқты несиелерді тексеруді жасай алатын AI жүйесін ойлап тапқаны белгілі болды. AI бұлттағы компьютерлік серверлерде жұмыс істейді. Бұлтты инфрақұрылым арқылы компания қажет болуы мүмкін несиелік шолулардың кез келген көлемін орналастыру үшін қосымша есептеу қуатын оңай қоса алады.

Қолданыстағы AI конфигурациясы арқылы олар сағатына 1,000 несие шолуын жасай алады. Бұл да 24×7 болуы мүмкін. AI үшін демалыс уақыты қажет емес. Түскі үзіліс жоқ. Жасанды интеллект тәулік бойы жұмыс істейді. Біз осындай шамамен қарқынмен AI жылына 9 миллионға жуық несие өтінімін өңдей алатынын айтамыз.

Назар аударыңыз, біз жылына 100 200,000 несие бере алатын 9 адам агентінен бастап, AI жүйесі арқылы жылына XNUMX миллион шолу санына бірнеше есе өстік. Біз несиелік өтінімді өңдеуді күрт кеңейттік. Оған күмән жоқ.

Сізді орындықтарыңыздан құлатуы мүмкін соққыға дайын болыңыз.

Біздің кейбір адам агенттеріміз несие туралы шешімдерді жағымсыз көзқарастар негізінде қабылдайды делік. Мүмкін кейбіреулер несие шешімінде негізгі рөлді нәсілдік факторларға береді. Мүмкін кейбіреулер жынысты пайдаланады. Басқалары жасты пайдаланады. Және тағы басқа.

Жыл сайынғы 200,000 10 несие шолуларының қаншасы теріс көзқарастар мен әділетсіздіктердің заңсыз көзқарасымен жасалуда? Мүмкін 20,000%, бұл шамамен 50 100,000 несие сұрауы. Ең сорақысы, бұл несиелік өтінімдердің XNUMX% делік, бұл жағдайда өте алаңдатарлық XNUMX XNUMX жыл сайынғы несие шешімдері дұрыс емес шешілген.

Бұл жаман. Бірақ біз одан да қорқынышты мүмкіндікті әлі қарастыруымыз керек.

AI-да нәсіл, жыныс, жас және т.б. сияқты факторлардан тұратын жасырын бейімділік бар делік. Жыл сайынғы несие талдауларының 10%-ы осы жағымсыздыққа ұшыраса, бізде дұрыс емес өңделуде 900,000 100 несие сұрауы бар. Бұл, ең алдымен, көлемдік аспектілерге байланысты, адам агенттері жасай алатын нәрседен әлдеқайда көп. Бұл 200,000 агент, егер барлығы тең емес шолу жасаса, мұны ең көбі 9,000,000 XNUMX жылдық несие шолуында жасай алады. AI XNUMX XNUMX XNUMX жылдық шолулардың үлкен ауқымында дәл осылай жасай алады.

Yikes!

Бұл орасан зор ауқымдағы AI-ға негізделген қиғаштық.

AI жүйесінде жағымсыз көзқарастар енгізілген кезде, тиімді болып көрінген масштабтау енді өз бетінше бұрылып, масштабтаудың қорқынышты (және алаңдататын) нәтижесіне айналады. Бір жағынан, AI үй несиесін сұрайтын көбірек адамдарды өңдеу үшін тиімді түрде жұмыс істей алады. Сырттай қарағанда, бұл керемет көрінеді Жақсылыққа арналған AI. Біз адамдардың қажетті несие алу мүмкіндігін кеңейту үшін өзімізді арқалауымыз керек. Сонымен қатар, егер AI енгізілген қиғаштық болса, масштабтау өте нашар нәтиже болады және біз өзімізді өкінішпен батып кетеміз. AI for Bad, шын мәнінде жаппай масштабта.

Мақал-мәтел екі жүзді қылыш.

AI қалаған қызметтер мен өнімдерді іздейтіндер үшін шешім қабылдауға қолжетімділікті түбегейлі арттыра алады. Адам күшін шектейтін жұмыс күші жоқ. Керемет! Қылыштың екінші қыры, егер AI жасырын теңсіздіктер сияқты жамандықты қамтыса, дәл сол жаппай масштабтау бұл жағымсыз мінез-құлықты елестету мүмкін емес масштабта жариялайды. Ашуланған, жөнсіз, ұятсыз және біз қоғамның мұндай шіркін тұңғиыққа түсуіне жол бере алмаймыз.

Жасанды интеллект этикасының маңыздылығына неліктен бас тартуымыз керек екеніне таң қалған кез келген адам енді AI масштабтау құбылысы этикалық AI-ға ұмтылудың маңызды себебі екенін түсінуі керек. Жасанды интеллектпен айналысатын, өрістейтін немесе қолданатын кез келген адам үшін не нәрсе маңызды екенін көрсету үшін кейбір негізгі этикалық AI ережелерін қысқаша қарастыруға бір сәт уақыт бөлейік.

Мысалы, Ватиканның мәлімдемесінде Рим AI этикасына шақырады және мен тереңірек қарастырғанымдай сілтеме осында, бұл олардың анықталған алты негізгі AI этика қағидасы:

  • Ашықтық: Негізінде, AI жүйелері түсінікті болуы керек
  • Қосу: Барлығына пайдасын тигізу үшін және барлық адамдарға өзін көрсету және дамыту үшін ең жақсы жағдайлар ұсынылуы үшін барлық адамдардың қажеттіліктері ескерілуі керек.
  • Жауапкершілік: Жасанды интеллектті қолдануды әзірлейтін және енгізетіндер жауапкершілік пен ашықтықты сақтауы керек
  • Бейтараптылық: Әділдік пен адамдық қадір-қасиетті сақтай отырып, біржақтылық жасамаңыз немесе әрекет етпеңіз
  • сенімділік: AI жүйелері сенімді жұмыс істей алуы керек
  • Қауіпсіздік және құпиялылық: AI жүйелері қауіпсіз жұмыс істеуі және пайдаланушылардың жеке өміріне құрметпен қарауы керек.

Бұл туралы АҚШ Қорғаныс министрлігі (DoD) хабарлады Жасанды интеллектті пайдаланудың этикалық принциптері және мен тереңірек қарастырғанымдай сілтеме осында, бұл олардың AI этикасының алты негізгі қағидасы:

  • Жауапты: DoD қызметкерлері AI мүмкіндіктерін дамытуға, орналастыруға және пайдалануға жауапты бола отырып, тиісті дәрежеде пайымдау мен қамқорлық жасайды.
  • Әділ: Департамент AI мүмкіндіктеріндегі күтпеген ауытқуларды азайту үшін қасақана қадамдар жасайды.
  • Бақыланатын: Департаменттің AI мүмкіндіктері тиісті персонал АИ мүмкіндіктеріне қолданылатын технологияларды, әзірлеу процестерін және операциялық әдістерді, соның ішінде мөлдір және тексерілетін әдістемелерді, деректер көздерін, жобалау процедурасы мен құжаттаманы қоса алғанда, тиісті түсінікке ие болатындай әзірленетін және орналастырылатын болады.
  • сенімді: Департаменттің AI мүмкіндіктерінің нақты, нақты анықталған пайдаланулары болады және мұндай мүмкіндіктердің қауіпсіздігі, қауіпсіздігі және тиімділігі олардың бүкіл өмірлік циклі бойынша анықталған пайдаланулар шеңберінде сынақтан және сенімділіктен өтеді.
  • Басқарылатын: Бөлім күтпеген салдарды анықтау және болдырмау, сондай-ақ күтпеген әрекетті көрсететін орналастырылған жүйелерді ажырату немесе өшіру мүмкіндігіне ие бола отырып, олардың жоспарланған функцияларын орындау үшін AI мүмкіндіктерін жобалайды және құрастырады.

Мен сондай-ақ AI этикасының принциптерінің әртүрлі ұжымдық талдауларын талқыладым, соның ішінде «AI этикасы бойынша нұсқаулықтардың жаһандық ландшафты» (жарияланған) атты мақалада көптеген ұлттық және халықаралық AI этикасының қағидаларының мәнін зерттеген және қысқартқан зерттеушілер әзірлеген топтаманы қарастырдым. ішінде табиғат) және менің қамтуым мына жерде зерттеледі сілтеме осында, бұл негізгі тізімге әкелді:

  • Ашықтық
  • Әділдік және әділдік
  • Зиянсыздық
  • жауапкершілік
  • Құпиялық
  • Қайырымдылық
  • Бостандық және автономия
  • сенім
  • тұрақтылық
  • Ар-ұждан
  • Ынтымақтастық

Тікелей болжағаныңыздай, осы принциптердің негізінде жатқан ерекшеліктерді анықтау өте қиын болуы мүмкін. Сонымен қатар, бұл кең принциптерді AI жүйелерін жасау кезінде қолдануға болатын толықтай нақты және егжей-тегжейлі нәрсеге айналдыруға күш салу да қиын жаңғақ болып табылады. Жасанды интеллект этикасының ережелері қандай және оларды қалай сақтау керектігі туралы толықтай қолмен серуендеу оңай, ал AI кодтауы жолға сәйкес келетін шынайы резеңке болуы керек болған кезде бұл әлдеқайда күрделі жағдай.

Жасанды интеллект этикасының принциптерін AI әзірлеушілері, сонымен қатар AI әзірлеу күш-жігерін басқаратындар, тіпті ақырында AI жүйелерін өңдейтін және жүргізетіндер де пайдалануы керек. Жасанды интеллектіні дамытудың және пайдаланудың бүкіл өмірлік цикліндегі барлық мүдделі тараптар этикалық АИ-нің бекітілген нормаларын сақтау аясында қарастырылады. Бұл маңызды жайт, өйткені әдеттегі болжам «тек кодерлер» немесе AI-ны бағдарламалайтындар AI этикасы ұғымдарын ұстануға жатады. Есіңізде болсын, AI ойлап табу және өрістету үшін ауыл қажет. Ол үшін бүкіл ауыл AI этикасын ұстануы керек.

AI-Steeped Biases Scaling қалай жұмыс істейді

Енді мен AI-де біржақтылық болуы мүмкін деген кестеге қол жеткізгеннен кейін, біз AI масштабтауының соншалықты интрузивті болуының кейбір себептерін зерттеуге дайынбыз.

Он негізгі себептердің осы негізгі тізімін қарастырыңыз:

  1. Оңай қайталанады
  2. Масштабтаудың минималды құны
  3. Жиренішті түрде тұрақты
  4. Өзіндік рефлексияның болмауы
  5. Соқыр мойынсұну
  6. Қолын созбайды
  7. Күдіксіз алушы
  8. Арандатуға итермелемейді
  9. Әділдіктің жалған аурасы
  10. Теріске шығару қиын

Мен осы маңызды сәттердің әрқайсысын қысқаша зерттеймін.

Сіз адам еңбегімен масштабтауға тырысқанда, мұны істеу өте күрделі болуы мүмкін. Сіз адамдарды тауып, жұмысқа алуыңыз керек. Оларды жұмыс істеуге үйрету керек. Сіз оларды төлеп, адамның қажеттіліктері мен қажеттіліктерін ескеруіңіз керек. Мұны AI жүйесімен салыстырыңыз. Сіз оны дамытып, қолданысқа енгізесіз. Жасанды интеллектіні үнемі күтіп ұстаудан басқа, сіз отыруға және оны шексіз өңдеуге мүмкіндік бере аласыз.

Бұл AI оңай көшірілетінін білдіреді. Қосымша есептеу қуатын қосуға болады, себебі тапсырма мен көлем қажет болуы мүмкін (сіз жалдамайсыз немесе жұмыстан шығармайсыз). Жаһандық пайдалану түймені басу арқылы жүзеге асырылады және Интернеттің бүкіл әлемде қол жетімділігі арқылы қол жеткізіледі. Масштабты ұлғайту адам еңбегімен салыстырғанда ең аз шығын болып табылады.

Адам еңбегінің сәйкес келмейтіні белгілі. Егер сізде үлкен командалар болса, сізде шоколадтың нағыз қорабы болады, ол сіздің қолыңызда не болуы мүмкін екенін ешқашан білмейсіз. AI жүйесі өте үйлесімді болуы мүмкін. Ол бірдей әрекеттерді қайта-қайта қайталайды, әр жолы соңғысымен бірдей.

Әдетте, біз AI үйлесімділігін ұнататын едік. Егер адамдар біржақтылыққа бейім болса, бізде әрқашан адам еңбегінің бір бөлігі адасқан болады. AI, егер оның құрылысы мен есептеу күш-жігерінде бейтарап болса, әлдеқайда дәйекті болар еді. Мәселе мынада, егер АИ-де жасырын көзқарастар болса, консистенциясы қазір өте жағымсыз. Біржақты мінез-құлық дәйекті түрде қайта-қайта орындалатын болады.

Адамдардың өз-өзіне ой салуы мүмкін деп үміттенеді және біржақты шешімдер қабылдауға тырысады. Мен бәрі солай жасайды деп айтпаймын. Мен сондай-ақ өзін ұстағандар міндетті түрде қателерін түзетеді деп айтпаймын. Қалай болғанда да, кем дегенде, кейбір адамдар кейде өздерін түзететін.

АИ-де есептеуіш өзін-өзі көрсетудің кез келген түрі болуы екіталай. Бұл жасанды интеллект өзінің істеп жатқанын жасай береді дегенді білдіреді. Жасанды интеллект өзінің меншікті капиталға зиянын тигізіп жатқанын анықтауға нөлдік мүмкіндік болатын сияқты. Айтуынша, мен мұнымен күресу үшін кейбір әрекеттерді сипаттадым, мысалы, AI ішінде AI этикасының құрамдастарын құру (қараңыз). сілтеме осында) және этикалық емес AI әрекеттерін анықтау үшін басқа AI-ды бақылайтын AI әзірлеу (қараңыз сілтеме осында).

Өзін-өзі көрсетудің кез келген түрі болмағандықтан, АИ-де оған нұсқау берілген кез келген нәрсеге соқыр мойынсұну мүмкіндігі болуы мүмкін. Адамдар онша мойынсұнбауы мүмкін. Тапсырманы орындап жатқан кейбір адамдар, мүмкін, олар әділетсіздік аймағына түсіп жатыр ма деп күмәндануы мүмкін. Олар әдетте әдепсіз бұйрықтарды қабылдамайды немесе хабарлаушының жолымен жүруі мүмкін (менің хабарымды мына жерден қараңыз). мына сілтеме). Күнделікті заманауи AI қандай да бір түрде оның бағдарламалауына күмән келтіреді деп күтпеңіз.

Келесі кезекте AI қолданатындарға жүгінеміз. Егер сіз үй несиесін іздеп, адаммен сөйлескен болсаңыз, адамның сізге әділ сілкінісі бар-жоғын білу үшін сергек болуыңыз мүмкін. Жасанды интеллект жүйесін пайдаланған кезде адамдардың көпшілігі күдікті емес сияқты. Олар көбінесе AI әділ деп есептейді және сондықтан тез ашуланбайды. AI адамдарды «бұл жай машина» трансқа түсіретін сияқты. Бұған қоса, AI-ға наразылық білдіру қиын болуы мүмкін. Керісінше, адам агентінің сізге қалай қарағанына наразылық білдіру әлдеқайда оңай және әлдеқайда жиі қабылданған және өміршең деп саналады.

Айтуынша, бейтараптыққа толы АИ-нің біржақтылыққа бой алдырған адамдарға деген намысына тиетін позициясы бар, атап айтқанда, АИ-ге бұл қиғаштықтарды орасан зор ауқымда жаппай орналастыру мүмкіндігі тұрғысынан, оны оңай ұстамай немесе тұтынушыларсыз жасай алады. не болып жатқанын түсіну.

Осы пікірталастың дәл осы тұсында, мен сізге AI-ға негізделген бұрмаланулардың ауқымдылығын көрсететін кейбір қосымша мысалдарды алғыңыз келетініне сенімдімін.

Сіз сұрағаныңызға қуаныштымын.

Менің жүрегіме жақын болатын ерекше және танымал мысалдар жиынтығы бар. Көрдіңіз бе, менің AI бойынша сарапшы ретінде этикалық және құқықтық салдарларды қоса алғанда, тақырыптың біршама теориялық сипатын оңай түсіну үшін AI этикасының дилеммаларын көрсететін нақты мысалдарды анықтауды жиі сұрайды. Бұл этикалық AI екіұштылығын айқын көрсететін ең қызықты бағыттардың бірі - AI негізіндегі өзін-өзі басқаратын автомобильдердің пайда болуы. Бұл тақырып бойынша кең талқылау үшін ыңғайлы пайдалану жағдайы немесе үлгі ретінде қызмет етеді.

Олай болса, ойлануға тұрарлық маңызды сұрақ: Жасанды интеллект негізіндегі нағыз өзін-өзі басқаратын көліктердің пайда болуы ауқымдағы AI-ге тәуелділік туралы ештеңені жарықтандырады ма, егер солай болса, бұл нені көрсетеді?

Маған сұрақты ашуға бір сәт рұқсат етіңіз.

Біріншіден, нағыз өзін-өзі басқаратын көлікте адам жүргізуші жоқ екенін ескеріңіз. Нағыз өзін-өзі басқаратын көліктер AI жүргізу жүйесі арқылы басқарылатынын есте сақтаңыз. Рульде адам жүргізушінің де қажеті жоқ, көлікті адам басқаратын жағдай да жоқ. Автономды көліктер (АВ) және әсіресе өзін-өзі басқаратын көліктер туралы кең және үздіксіз ақпарат алу үшін қараңыз. сілтеме осында.

Мен нағыз өздігінен жүретін көліктерге сілтеме жасағанда нені білдіретінін қосымша түсіндіргім келеді.

Өздігінен басқарылатын автомобильдердің деңгейлерін түсіну

Түсіндірме ретінде, шын мәнінде өздігінен басқарылатын автомобильдер - бұл ИИ автокөлікті толығымен өздігінен басқаратын және көлік жүргізу кезінде ешқандай көмек болмайтын машиналар.

Бұл жүргізушісіз көліктер 4-деңгей және 5-деңгей болып саналады (менің түсіндірмені қараңыз мына сілтеме), ал адам жүргізушінің жүргізу күш-жігерін бірге бөлісуін талап ететін көлік әдетте 2 немесе 3-деңгейде қарастырылады. Жүргізу міндетін бірге орындайтын көліктер жартылай автономды болып сипатталады және әдетте әр түрлі ADAS (Driver-Assistance Advanced Systems) деп аталатын автоматтандырылған қондырмалар.

5 деңгейдегі өзін-өзі басқаратын нақты көлік әлі жоқ, оған жетуге болатын-болмайтынын және оған жету қанша уақытты білмейміз.

Сонымен қатар, 4-деңгейдегі күш-жігер бірте-бірте өте тар және таңдамалы қоғамдық жол сынақтарынан өту арқылы біраз тартуға тырысады, дегенмен бұл сынаққа рұқсат беру керек пе деген пікірталас бар (біз бәріміз экспериментте өмір немесе өлім-жітім теңіз шошқаларымыз) Біздің магистральдарда және айналма жолдарда орын алуда, кейбіреулер даулайды, менің хабарымды мына жерден қараңыз мына сілтеме).

Жартылай автокөліктер адам жүргізушісін қажет ететіндіктен, бұл көлік түрлерін қабылдау әдеттегі көліктерді басқарудан айтарлықтай ерекшеленбейді, сондықтан бұл тақырыпта олар туралы көп жаңалық таба алмайсыз (дегенмен, сіз көресіз Бір сәтте келесі ойлар жалпыға бірдей қолданылады).

Жартылай автокөліктер үшін көпшіліктің соңғы уақытта пайда болатын алаңдатарлық аспект туралы алдын-ала ескертуі маңызды, атап айтқанда 2-деңгей немесе 3-деңгейлі автокөліктің дөңгелегінде ұйықтап жатқандығы туралы бейнежазбаларын жазып жүрген адамдарға қарамастан. , жартылай автономды автокөлік жүргізу кезінде жүргізуші олардың назарын басқару тапсырмасынан алуы мүмкін деп сендіруден аулақ болуымыз керек.

Автоматизацияның 2 немесе 3 деңгейге өтуіне қарамастан, сіз көлік құралын басқаруға жауаптысыз.

Өздігінен басқарылатын көліктер және АИ-нің масштабтағы бейімділіктері

4 және 5-деңгейдегі өздігінен жүретін көліктер үшін жүргізуші рөлінде адам жүргізушісі болмайды.

Барлық жолаушылар жолаушылар болады.

AI жүргізуді жүргізуде.

Тез арада талқылаудың бір аспектісі бүгінгі жасанды интеллект жүргізуші жүйелеріне қатысатын жасанды интеллекттің сезімтал болмауына алып келеді. Басқаша айтқанда, жасанды интеллект - бұл компьютерлік бағдарламалау мен алгоритмдердің жиынтығы, сондықтан адамдар ойлап тапқан тәртіппен ой қорыта алмайды.

Неліктен бұл интеллектке қосымша назар аударылмайды?

Мен жасанды интеллектті қозғау жүйесінің рөлін талқылағанда мен жасанды интеллектке адами қасиеттерді жатқызбайтынымды атап өткім келеді. Бүгінгі күні жасанды интеллект антропоморфизациясының тұрақты және қауіпті тенденциясы бар екенін ескеріңіз. Шын мәнінде, адамдар мұндай жасанды интеллект әлі жоқ екендігі туралы даусыз және талассыз фактілерге қарамастан, бүгінгі жасанды интеллектке адам тәрізді сезімді тағайындайды.

Осы нақтылау арқылы сіз AI жүргізу жүйесі қандай да бір түрде жүргізудің қырлары туралы «білмейді» деп ойлауға болады. Жүргізу және оған қатысты барлық нәрселер өзін-өзі басқаратын машинаның аппараттық және бағдарламалық жасақтамасының бөлігі ретінде бағдарламалануы керек.

Осы тақырып бойынша ойнауға келетін көптеген аспектілерге сүңгейік.

Біріншіден, AI өздігінен жүретін көліктердің барлығы бірдей емес екенін түсіну маңызды. Әрбір автоөндіруші және өзін-өзі басқаратын технологиялық фирма өзін-өзі басқаратын көліктерді ойлап табуда. Осылайша, AI жүргізу жүйелері не істейтіні немесе жасамайтыны туралы нақты мәлімдеме жасау қиын.

Сонымен қатар, AI басқару жүйесі белгілі бір нәрсені жасамайтынын айтқан кезде, оны кейінірек компьютерді дәл осылай жасауға бағдарламалайтын әзірлеушілер басып озуы мүмкін. Бірте -бірте AI басқару жүйелері біртіндеп жетілдіріліп, кеңейтілуде. Бүгінде бар шектеулер болашақта жүйенің қайталануында немесе нұсқасында болмауы мүмкін.

Мен айтқым келетін нәрсені түсіндіру үшін жеткілікті ескертулер жиынтығын беретініне сенемін.

Біз қазір өздігінен басқарылатын көліктерге және кең ауқымда жарияланған AI-ге негізделген бейімділіктерді зерттеуді талап ететін этикалық AI мүмкіндіктеріне терең сүңгуге дайынбыз.

Қарапайым мысалды қолданайық. AI негізіндегі өзін-өзі басқаратын көлік сіздің маңайыңыздағы көшелерде жүріп жатыр және қауіпсіз жүріп жатқан сияқты. Алдымен сіз өздігінен жүретін көлікті көрген сайын ерекше назар аудардыңыз. Автономды көлік бейнекамералар, радар қондырғылары, LIDAR құрылғылары және т.б. кіретін электронды сенсорлардың сөресімен ерекшеленді. Өздігінен басқарылатын көлік бірнеше апта бойы сіздің қауымдастықтың айналасында жүргеннен кейін, сіз оны әрең байқайсыз. Сіздің ойыңызша, бұл онсыз да бос емес қоғамдық жолдардағы басқа көлік.

Өзін-өзі басқаратын көліктерді көру мүмкін емес немесе мүмкін емес деп ойламас үшін, мен өздігінен жүретін көліктерді сынау аясындағы жергілікті жерлер бірте-бірте шыршалы көліктерді көруге қалай үйренгені туралы жиі жаздым. менің талдауымды қараңыз мына сілтеме. Ақырында жергілікті тұрғындардың көпшілігі өздігінен жүретін көліктердің куәсі болу үшін аузын ашқан ашуланшақтықтан қазір кең көлемді есінеу сезіміне ауысты.

Автономды көліктерді дәл қазір байқайтын басты себеп - тітіркену мен ашулану факторы. Кітаптағы AI жүргізу жүйелері көліктердің барлық жылдамдық шектеулері мен жол ережелеріне бағынатынына көз жеткізеді. Дәстүрлі адам басқаратын көліктеріндегі тынымсыз көлік жүргізушілері үшін сіз заңға қатаң бағынатын AI негізіндегі өздігінен жүретін көліктердің артында тұрып қалған кезде ашуланасыз.

Бұл дұрыс немесе бұрыс болса да, бәріміз үйренуіміз керек нәрсе.

Ертегімізге оралу.

Әйтпесе зиянсыз және жалпы қабылданған AI негізіндегі өзін-өзі басқаратын көліктерге қатысты екі жағымсыз алаңдаушылық туа бастайды, атап айтқанда:

а. Жасанды интеллект роумингте жүрген жерде аттракциондарды алуға арналған өздігінен жүретін көліктер алаңдаушылық тудырды.

б. АИ-нің жүру құқығы жоқ жаяу жүргіншілерге қалай қарайтыны өзекті мәселе ретінде көтерілді.

Алғашында AI бүкіл қала бойынша өздігінен жүретін көліктерді аралап жүрді. Өздігінен басқарылатын көлікке мінуді сұрағысы келген кез келген адам оны құттықтауға тең мүмкіндікке ие болды. Бірте-бірте AI ең алдымен қаланың бір бөлігінде өздігінен жүретін көліктерді роумингте ұстай бастады. Бұл бөлім үлкен ақша табушы болды және AI жүйесі қауымдастықтағы пайдаланудың бір бөлігі ретінде кірісті арттыруға тырысып, бағдарламаланған.

Қаланың кедей бөліктеріндегі қауымдастық мүшелерінің өздігінен жүретін көліктен жүру мүмкіндігі аз болды. Себебі, өздігінен жүретін көліктер алысырақ және жергілікті жердің кірісі жоғары бөлігінде роумингте болды. Қаланың шалғай бөлігінен сұрау түскенде, қаланың «құрметті» бөлігінде болуы мүмкін жақын жерден кез келген сұраныс жоғарырақ басымдыққа ие болады. Ақырында, қаланың бай бөлігінен басқа кез келген жерде өздігінен жүретін көлікті алу мүмкін емес еді, бұл қазір ресурстарға тапшылықтан зардап шеккен аудандарда тұратындар үшін бұл.

Сіз AI прокси дискриминациясының түріне (сонымен қатар жанама кемсітушілік деп те аталады) көп жағдайда келді деп айта аласыз. Жасанды интеллект сол кедей аудандардан аулақ болу үшін бағдарламаланбаған. Оның орнына, ол мұны ML/DL пайдалану арқылы «үйренді».

Мәселе мынада, рейдшерингті адам жүргізушілер бірдей нәрсені жасайтыны үшін белгілі болды, бірақ тек ақша табу бұрышына байланысты емес. Қаланың белгілі бір бөліктерінде шабандоздарды жинауға жағымсыз көзқарасы бар кейбір рейдшеринг жүргізушілері болды. Бұл белгілі бір құбылыс болды және қала мұны істеп жатқан адам жүргізушілерді ұстау үшін бақылау әдісін енгізді. Адамдардың жүргізушілері жағымсыз таңдау тәжірибесін жүргізу үшін қиындыққа тап болуы мүмкін.

Жасанды интеллект ешқашан дәл осындай құмға түспейді деп болжанған. AI негізіндегі өздігінен жүретін көліктердің қайда бара жатқанын бақылайтын арнайы мониторинг орнатылмаған. Қауымдастық мүшелері шағым айта бастағаннан кейін ғана қала басшылары не болып жатқанын түсінді. Автономды көліктер мен өзін-өзі басқаратын көліктер ұсынатын жалпы қалалық мәселелердің осы түрлері туралы қосымша ақпаратты мына жерден қараңыз. мына сілтеме және бұл тақырып бойынша мен бірлесіп жазған Гарвардтың зерттеуін сипаттайды.

Жасанды интеллектке негізделген өздігінен жүретін көліктердің роумингтік аспектілерінің бұл мысалы, адамдарда бақылаулар орнатылатын жағымсыз бейімділікке әкелетін жағдайлардың болуы мүмкін екенін және сол адам драйверлерін алмастыратын AI жойылғанын көрсетеді. Тегін. Өкінішке орай, жасанды интеллект кейіннен бірте-бірте ұқсас бағыттарға батып кетуі мүмкін және мұны жеткілікті қоршауларсыз жасай алады.

Бұл сондай-ақ масштаб мәселесінде AI-дің үлкен ауытқуларын көрсетеді.

Адамдардың жүргізушілеріне келетін болсақ, бізде әділетсіздіктің қандай да бір түрін қолданатын бірнеше адам болуы мүмкін. AI жүргізу жүйесі үшін бұл әдетте өздігінен жүретін автомобильдердің бүкіл паркі үшін осындай бірыңғай AI болып табылады. Осылайша, біз қаладағы елу өзін-өзі басқаратын көліктен (барлығы бірдей AI коды бойынша басқарылады) бастаған болар едік және бірте-бірте 500 өзін-өзі басқаратын көлікке дейін өсті (барлығы бірдей AI коды бойынша басқарылады). Осы бес жүз өзін-өзі басқаратын көліктердің барлығы бірдей AI арқылы басқарылатындықтан, олардың барлығы сәйкесінше АИ-ге енгізілген бірдей алынған қиғаштар мен теңсіздіктерге ұшырайды.

Осыған байланысты масштабтау бізге зиян тигізеді.

Екінші мысал, көшені кесіп өтуге құқығы жоқ жаяу жүргіншілерді күту үшін тоқтау керек пе, соны анықтайтын AI кіреді.

Сіз, сөзсіз, көлік жүргізіп, жолды кесіп өтуді күтіп тұрған жаяу жүргіншілерді кездестірдіңіз, бірақ олардың өтуге құқығы жоқ. Бұл тоқтап, оларды кесіп өтуге рұқсат беру туралы өз еркіңіз бар екенін білдірді. Сіз олардың кесіп өтуіне жол бермей жалғастыра аласыз және әлі де мұны істеудің заңды жүргізу ережелеріне сәйкес бола аласыз.

Адамдар жүргізушілердің мұндай жаяу жүргіншілер үшін тоқтау немесе тоқтамау туралы шешім қабылдауы туралы зерттеулер кейде адам жүргізушілер таңдауды теріс көзқарастарға негізделген деп болжайды. Адам жүргізуші жаяу жүргіншіге қарап, тоқтамауды таңдауы мүмкін, тіпті егер жаяу жүргіншінің нәсіліне немесе жынысына байланысты сыртқы түрі басқа болса, олар тоқтар еді. Мен мұны мына жерде тексердім сілтеме осында.

AI негізіндегі өздігінен жүретін көліктер жүру құқығы жоқ жаяу жүргіншілер үшін тоқтау немесе тоқтамау мәселесін шешуге бағдарламаланғанын елестетіп көріңіз. Міне, AI әзірлеушілері бұл тапсырманы қалай бағдарламалауды шешті. Олар қаланың түкпір-түкпірінде орнатылған қаланың бейнекамераларынан мәліметтер жинады. Деректер жүру құқығы жоқ жаяу жүргіншілерге тоқтайтын адам жүргізушілері мен тоқтамайтын адам жүргізушілерін көрсетеді. Оның барлығы үлкен деректер жинағына жинақталған.

Machine Learning және Deep Learning қолдану арқылы деректер есептеу әдісімен модельденеді. Одан кейін AI жүргізу жүйесі осы үлгіні қашан тоқтату немесе тоқтамау керектігін шешу үшін пайдаланады. Жалпы, жергілікті әдет-ғұрып қандай болса да, AI өздігінен жүретін көлікті осылай бағыттайды деген идея.

Қала басшылары мен тұрғындарын таң қалдырғандай, AI жаяу жүргіншінің сыртқы түріне, оның ішінде нәсіліне және жынысына байланысты тоқтауды немесе тоқтамауды таңдады. Өзін-өзі басқаратын көліктің сенсорлары күтіп тұрған жаяу жүргіншіні сканерлейді, бұл деректерді ML/DL үлгісіне береді және модель тоқтау немесе жалғастыру туралы AI-ға шығарады. Өкінішке орай, қалада осыған байланысты көптеген драйверлер болды, ал AI қазір соны еліктейді.

Бұл мысал AI жүйесі адамдардың бұрыннан бар жағымсыз көзқарастарын қайталауы мүмкін екенін көрсетеді. Сонымен қатар, ол мұны масштабта жасайды. Кез келген адам жүргізушілер кейде таңдаудың бұл жағымсыз түрін жасауға үйретілген болуы мүмкін немесе мұны жеке таңдаған болуы мүмкін, бірақ адам драйверлерінің көпшілігі мұны жаппай жасамауы мүмкін.

Керісінше, өзін-өзі басқаратын көліктерді басқару үшін қолданылатын AI жүргізу жүйесі, ең алдымен, дәйекті түрде және сенімді түрде алынған бұрмалануды жүзеге асырады.

қорытынды

Жағымсыз көзқарастары бар немесе уақыт өте келе бұрмаланатын AI ойлап табудан аулақ болудың көптеген жолдары бар. Мүмкіндігінше, идея жоғары редукторға өтпес бұрын және масштабтауға көтерілмес бұрын мәселелерді шешу болып табылады. Былайша айтқанда, біржақтылық есіктен шықпайды деп үміттенеміз.

АИ-де қандай да бір жолмен немесе басқа ауытқулар пайда болады деп болжаңыз. Жасанды интеллектпен үлкен масштабта қолданылғаннан кейін, сіз техниканың «өрт және ұмытыңыз» деген жиі жарияланатын түсініктерінің бірін орындай алмайсыз. Сіз AI не істеп жатқанын мұқият қадағалап, түзетуді қажет ететін кез келген жағымсыз позицияларды анықтауға тырысуыңыз керек.

Жоғарыда айтылғандай, бір тәсіл AI әзірлеушілерінің AI этикасы туралы хабардар болуын қамтамасыз етуді қамтиды және осылайша оларды осы мәселелерді болдырмау үшін AI бағдарламасын бағдарламалауға итермелейді. Басқа жол - бұл этикалық емес мінез-құлық үшін AI өзін-өзі бақылау және/немесе басқа AI жүйелерін әлеуетті әдепсіз мінез-құлық үшін бақылайтын басқа AI бөлігі болуы. Мен өз жазбаларымда көптеген басқа ықтимал шешімдерді қарастырдым.

Әзірге соңғы ой. Бұл пікірталасты Платонның дәйексөзімен бастағаннан кейін, дискурсты Платонның тағы бір ақылды сөзімен аяқтаған дұрыс болар.

Платон жақсы нәрсені қайталаудың зияны жоқ деп айтқан.

AI-мен масштабта жүрудің қарапайымдылығы, әрине, AI жоғары болған кезде осындай жақсы ұмтылысқа жетудің өміршең құралы болып табылады. Жақсылыққа арналған AI әртүрлілік. Біз жақсы нәрсені қайталауды ұнатамыз. AI болғанда AI for Bad және жағымсыз көзқарастар мен әділетсіздіктерге толы болса, біз Платонның ескертулеріне сүйеніп, жаман нәрсені қайталаудың көп зияны бар деп айта аламыз.

Платонның дана сөздерін мұқият тыңдап, соған сәйкес АИ-ді ойлап көрейік.

Дереккөз: https://www.forbes.com/sites/lanceeliot/2022/07/13/ai-ethics-ringing-alarm-bells-about-the-looming-specter-of-ai-biases-at-massive- жаһандық ауқымда-әсіресе-толық-автономды-жүйелер арқылы-отын/