AI этикасы және AI заңы шын мәнінде ненің сенімді AI екенін түсіндіреді

Сенім - бәрі, сондықтан олар айтады.

Атақты философ Лао Цзы жеткілікті түрде сенбейтіндерге сенбейді деген. Құрметті жазушы Эрнест Хемингуэй біреуге сене алатыныңызды білудің ең жақсы жолы – оған сену екенін айтты.

Бұл арада сенім де қымбат, әрі сынғыш сияқты. Адамның сенімі карталар үйі сияқты құлап кетуі немесе ұшып кеткен шар сияқты кенеттен жарылуы мүмкін.

Ежелгі грек трагедиті Софокл сенім өледі, бірақ сенімсіздік гүлдейді деп айтқан. Француз философы және математигі Декарт бізді бір рет болса да алдағандарға толығымен сенбеу ақылға қонымды екенін айтты. Миллиардер бизнес-инвестор, ерекше атақты Уоррен Баффет сенімді беделге ие болу үшін жиырма жыл және оны бұзу үшін бес минут қажет екенін айтты.

Сенім туралы осы әртүрлі көзқарастар мен арандатушылық пікірлердің барлығы Жасанды интеллекттің (AI) пайда болуы үшін өте маңызды екенін білу сізді таң қалдыруы мүмкін.

Иә, қатты атайтын нәрсе бар сенімді AI Бұл бүгінгі күні үлкен назар аударып отыр, соның ішінде AI саласындағы қолмен қоңырау шалу, сондай-ақ AI аймағынан тыс адамдардың қатты жарылыстары. Жалпы түсінік қоғамның AI жүйелеріне сенім артуға дайын немесе дайын еместігін білдіреді.

Болжам бойынша, егер қоғам AI-ға сенбесе немесе сенбесе, AI жүйелері тартымдылыққа ие бола алмайды. Қазір біз білетін AI бір жаққа ығысып, шаң жинайды. Бір таңқаларлығы, AI тарихи түрде сыналған, бірақ керемет сәтсіз жоғары технологиялық эксперименттен басқа ештеңеге айналдырылған қоқыс үйіндісіне түсуі мүмкін. Жасанды интеллектті қайта жандандыруға бағытталған кез келген күш-жігер үлкен шайқасқа тап болуы мүмкін және барлық қарсылықтар мен ашық наразылықтармен тоқтатылуы мүмкін. Шамасы, AI-ға сенімнің жоқтығынан.

Бұл қайсысы болуы керек, біз AI-ға сенуіміз керек пе, әлде AI-ға сенбеуіміз керек пе?

Шын мәнінде, бізде сенімді AI болады ма?

Бұл бұрыннан шешілмеген сұрақтар. Оны орауыштан шығарайық.

AI этикасы және сенімді AI үшін күрес

AI жүйесіндегі көптеген адамдар AI жүйелерін әзірлеушілер сенімді AI-ны дұрыс ойлап табу арқылы AI-ға сенім арта алады деген сенімде. Мәні мынада, егер AI бастапқыда сенімді болып көрінбесе, сіз сенімге ие боласыз деп үміттене алмайсыз. Жасанды интеллект жүйелерін сенімді деп есептейтіндей етіп жасау арқылы адамдардың AI-ны қабылдап, AI қолдануын қабылдауына толық мүмкіндік бар.

Осы сенімді AI мәселесіне алаңдайтын бір мәселе - біз қазірдің өзінде болуы мүмкін халықтың сенім тапшылығы AI туралы айтатын болсақ. Біз бұрыннан көрген AI бір шұңқыр қазып, үлкен көлемдегі сенімге нұқсан келтірді деп айтуға болады. Осылайша, кейбір жеткілікті сенімділік базасынан бастаудың орнына, AI адамдарды AI шын мәнінде сенімді екеніне сендіру үшін қажет болатын әрбір қосымша сенім унциясына қол жеткізіп, тапшылықтан таңқаларлық түрде шығуы керек.

Бұл мәселеге AI этикасы және AI заңы кіреді.

AI этикасы және AI заңы AI сенімді болу үшін не қажет екенін анықтаумен қатты күресуде. Кейбіреулер AI сенімді аспанға апаратын формула немесе темірдей заңдар бар деп болжайды. Басқалары қоғамның жоғары сеніміне ие болу үшін қажырлы еңбек пен AI этикасы мен AI заңы қағидаттарын дәйекті және тынымсыз ұстану қажет екенін айтады.

Жасанды интеллектке сенім туралы заманауи жұмбақ жаңалық емес.

Сіз 1990-жылдардың соңына оңай оралып, сол күндерден бастап «сенімді есептеулерге» деген ұмтылыстың пайда болуын қадағалай аласыз. Бұл компьютерлердің барлығын қоғам сенімді деп санайтындай етіп жасауға болатынын анықтауға арналған ауқымды технологиялық-өнеркәсіптік күш болды.

Негізгі сұрақтардан тұрды:

  • Компьютерлік жабдық сенімді болатындай етіп жасалуы мүмкін бе?
  • Бағдарламалық құрал сенімді болатындай етіп жасалуы мүмкін бе?
  • Біз сенімді болатын жаһандық желілік компьютерлерді орналастыра аламыз ба?
  • Және тағы басқа.

Сол кездегі басым және бүгінгі күнге дейін жалғасып келе жатқан пікір - сенімді есептеулер өкінішке орай, әлі де біздің қолымыздан келе бермейтін қасиетті жолдың бір түрі болып қала береді («Сенімді AI» мақаласында айтылғандай. ACM байланысы). Сіз AI есептеу сенімділігі конвертінің тағы бір құрамдас бөлігі болып табылады деп сенімді түрде дәлелдей аласыз, бірақ AI сенімге ұмтылуды одан да қиын және белгісіз етеді. AI сенімді есептеулерге қол жеткізу үшін күресте әлеуетті спойлер болды. Мүмкін, бұл тізбектегі ең әлсіз буын.

Келіңіздер, AI неге сенімсіз болудан қорқатынын жылдам қарастырайық. Сонымен қатар, біз AI этикасының қағидаларын зерттейміз, олар қазіргі АИ-нің жартылай су астындағы сенімін (немесе сенімсіздікті) нығайтуға көмектеседі деп үміттенеміз. Жасанды интеллект этикасы туралы тұрақты және кең ақпарат алу үшін қараңыз сілтеме осында және сілтеме осында, бірнеше ғана атауға болады.

Бұқаралық ақпарат құралдарының назарын аударған AI этикасының белгілі бір сегменті немесе бөлігі теріс көзқарастар мен теңсіздіктерді көрсететін АИ-ден тұрады. Жасанды интеллекттің соңғы дәуірі басталған кезде кейбіреулер қазір деп атайтын нәрсеге үлкен ынта-ықылас тудырғанын білетін шығарсыз. Жақсылыққа арналған AI. Өкініштісі, сол бір толқудың етегінде біз де куә бола бастадық AI for Bad. Мысалы, жасанды интеллект негізіндегі бет-әлпетті тану жүйелерінің құрамында нәсілдік көзқарастар мен гендерлік көзқарастар бар екені анықталды. сілтеме осында.

Қарсы күресу әрекеттері AI for Bad белсенді жүргізілуде. Дауыстаудан басқа заңды заңсыздықты тежеуге ұмтылу, сонымен қатар AI зұлымдықты түзету үшін AI этикасын қабылдауға айтарлықтай итермелеу бар. Түсінік мынада: біз AI-ны дамыту және өрістету үшін негізгі этикалық AI принциптерін қабылдауымыз және мақұлдауымыз керек. AI for Bad және бір мезгілде артықшылықты жариялау және насихаттау Жақсылыққа арналған AI.

Осыған байланысты мен AI-ны AI қиындықтарын шешудің бір бөлігі ретінде қолдануға тырысамын, осылайша ойлау әдісімен отпен отпен күресемін. Мысалы, біз этикалық AI құрамдастарын AI жүйесіне ендіруіміз мүмкін, ол AI-ның қалған бөліктерінің қалай жұмыс істеп жатқанын бақылайды және осылайша нақты уақытта кез келген кемсітушілік әрекеттерді ұстай алады, менің талқылауымды қараңыз. сілтеме осында. Сондай-ақ бізде AI этикасы мониторының түрі ретінде әрекет ететін жеке AI жүйесі болуы мүмкін. AI жүйесі басқа AI этикалық емес тұңғиыққа қашан бара жатқанын бақылау және анықтау үшін бақылаушы ретінде қызмет етеді (мұндай мүмкіндіктер туралы менің талдауымды мына жерден қараңыз: сілтеме осында).

Біраз уақыттан кейін мен сіздермен AI этикасының негізінде жатқан кейбір негізгі принциптермен бөлісемін. Онда және мұнда өзгермелі тізімдердің көптеген түрлері бар. Сіз әмбебап тартымдылық пен келісімнің бірегей тізімі әлі жоқ деп айта аласыз. Бұл өкінішті жаңалық. Жақсы жаңалық, кем дегенде, оңай қол жетімді AI этикасының тізімдері бар және олар өте ұқсас. Мұның бәрі дәлелді конвергенция нысаны арқылы біз AI этикасының жалпы ортақтығына қарай жол тауып жатқанымызды көрсетеді.

Алдымен, жасанды интеллектпен айналысатын, өрістейтін немесе пайдаланатын кез келген адам үшін маңызды нәрсе нені көрсету керектігін көрсету үшін жалпы этикалық AI ережелерінің кейбірін қысқаша қарастырайық.

Мысалы, Ватиканның мәлімдемесінде Рим AI этикасына шақырады және мен тереңірек қарастырғанымдай сілтеме осында, бұл олардың анықталған алты негізгі AI этика қағидасы:

  • Ашықтық: Негізінде, AI жүйелері түсінікті болуы керек
  • Қосу: Барлығына пайдасын тигізу үшін және барлық адамдарға өзін көрсету және дамыту үшін ең жақсы жағдайлар ұсынылуы үшін барлық адамдардың қажеттіліктері ескерілуі керек.
  • Жауапкершілік: Жасанды интеллектті қолдануды әзірлейтін және енгізетіндер жауапкершілік пен ашықтықты сақтауы керек
  • Бейтараптылық: Әділдік пен адамдық қадір-қасиетті сақтай отырып, біржақтылық жасамаңыз немесе әрекет етпеңіз
  • сенімділік: AI жүйелері сенімді жұмыс істей алуы керек
  • Қауіпсіздік және құпиялылық: AI жүйелері қауіпсіз жұмыс істеуі және пайдаланушылардың жеке өміріне құрметпен қарауы керек.

Бұл туралы АҚШ Қорғаныс министрлігі (DoD) хабарлады Жасанды интеллектті пайдаланудың этикалық принциптері және мен тереңірек қарастырғанымдай сілтеме осында, бұл олардың AI этикасының алты негізгі қағидасы:

  • Жауапты: DoD қызметкерлері AI мүмкіндіктерін дамытуға, орналастыруға және пайдалануға жауапты бола отырып, тиісті дәрежеде пайымдау мен қамқорлық жасайды.
  • Әділ: Департамент AI мүмкіндіктеріндегі күтпеген ауытқуларды азайту үшін қасақана қадамдар жасайды.
  • Бақыланатын: Департаменттің AI мүмкіндіктері тиісті персонал AI мүмкіндіктеріне қолданылатын технологияларды, әзірлеу процестерін және операциялық әдістерді, соның ішінде мөлдір және тексерілетін әдістемелерді, деректер көздерін, жобалау процедурасы мен құжаттамасын дұрыс түсінетіндей етіп әзірленетін және орналастырылатын болады.
  • сенімді: Департаменттің AI мүмкіндіктерінің нақты, нақты анықталған пайдаланулары болады және мұндай мүмкіндіктердің қауіпсіздігі, қауіпсіздігі және тиімділігі олардың бүкіл өмірлік циклі бойынша анықталған пайдаланулар шеңберінде сынақтан және сенімділіктен өтеді.
  • Басқарылатын: Бөлім күтпеген салдарды анықтау және болдырмау, сондай-ақ күтпеген әрекетті көрсететін орналастырылған жүйелерді ажырату немесе өшіру мүмкіндігіне ие бола отырып, олардың жоспарланған функцияларын орындау үшін AI мүмкіндіктерін жобалайды және құрастырады.

Мен сондай-ақ AI этикасының принциптерінің әртүрлі ұжымдық талдауларын талқыладым, соның ішінде «AI этикасы бойынша нұсқаулықтардың жаһандық ландшафты» (жарияланған) атты мақалада көптеген ұлттық және халықаралық AI этикасының қағидаларының мәнін зерттеген және қысқартқан зерттеушілер әзірлеген топтаманы қарастырдым. ішінде табиғат) және менің қамтуым мына жерде зерттеледі сілтеме осында, бұл негізгі тізімге әкелді:

  • Ашықтық
  • Әділдік және әділдік
  • Зиянсыздық
  • жауапкершілік
  • Құпиялық
  • Қайырымдылық
  • Бостандық және автономия
  • сенім
  • тұрақтылық
  • Ар-ұждан
  • Ынтымақтастық

Тікелей болжағаныңыздай, осы қағидалардың негізінде жатқан ерекшеліктерді анықтау өте қиын болуы мүмкін. Сонымен қатар, бұл кең принциптерді AI жүйелерін жасау кезінде қолдануға болатын толықтай нақты және егжей-тегжейлі нәрсеге айналдыруға күш салу да қиын жаңғақ болып табылады. Жасанды интеллект этикасының ережелері деген не және оларды қалай сақтау керектігі туралы жалпы қолмен серуендеу оңай, ал AI кодтауындағы бұл әлдеқайда күрделі жағдай жолға сәйкес келетін нағыз резеңке болуы керек.

Жасанды интеллект этикасының принциптерін AI әзірлеушілері, сонымен қатар AI әзірлеу күш-жігерін басқаратындар, тіпті ақырында AI жүйелерін өңдейтін және жүргізетіндер де қолдануы керек. Жасанды интеллектіні әзірлеу мен пайдаланудың бүкіл өмірлік циклі бойынша барлық мүдделі тараптар этикалық АИ-нің қалыптасқан нормаларын сақтау аясында қарастырылады. Бұл маңызды жайт, өйткені әдеттегі болжам «тек кодерлер» немесе AI-ны бағдарламалайтындар AI этикасының тұжырымдамаларын ұстануға жатады. Жоғарыда айтылғандай, AI әзірлеу және өрістету үшін ауыл қажет және ол үшін бүкіл ауыл AI этикасының ережелерін білуі және ұстануы керек.

Сондай-ақ бүгінгі AI табиғаты туралы бір бетте екенімізді тексерейік.

Бүгінгі күні сезімтал AI жоқ. Бізде бұл жоқ. Біз сезімтал AI мүмкін болатынын білмейміз. Ешкім біз сезімтал AI-ға қол жеткіземіз бе, әлде сезімтал АИ қандай да бір түрде ғажайып түрде есептеу когнитивтік супернованың (әдетте сингулярлық деп аталады) пайда болуын болжай алмайды. сілтеме осында).

Мен назар аударатын АИ түрі бүгінгі күні бізде бар саналы емес АИ-ден тұрады. Біз жабайы болжам жасағымыз келсе сезімтал AI, бұл талқылау түбегейлі басқа бағытта жүруі мүмкін. Сезімтал AI адами сапада болуы мүмкін. Сезімтал АИ адамның когнитивтік баламасы екенін ескеру қажет. Сонымен қатар, кейбіреулер бізде өте интеллектуалды AI болуы мүмкін деп болжайтындықтан, мұндай AI адамдардан да ақылды болуы мүмкін деп болжауға болады (мүмкіндік ретінде супер интеллектуалды AI туралы зерттеуім үшін қараңыз. қамту осында).

Нәрселерді жерге түсіріп, бүгінгі санаулы емес АИ-ді қарастырайық.

Бүгінгі AI адам ойлауымен бірдей «ойлауға» қабілетсіз екенін түсініңіз. Alexa немесе Siri-мен өзара әрекеттескенде, сөйлесу мүмкіндіктері адамның мүмкіндіктеріне ұқсас болып көрінуі мүмкін, бірақ шындық - бұл есептеу және адам танымы жоқ. Жасанды интеллекттің соңғы дәуірі есептеу үлгісін сәйкестендіруге мүмкіндік беретін Machine Learning (ML) және Deep Learning (DL) мүмкіндіктерін кеңінен пайдаланды. Бұл адамға ұқсайтын бейімділікке ие AI жүйелеріне әкелді. Сонымен қатар, бүгінгі күні парасаттылыққа ұқсайтын және адамның күшті ойлауының когнитивтік ғажайыптары жоқ бірде-бір AI жоқ.

ML/DL – есептеу үлгісін сәйкестендірудің бір түрі. Әдеттегі тәсіл - шешім қабылдау тапсырмасы туралы деректерді жинау. Сіз деректерді ML/DL компьютер үлгілеріне бересіз. Бұл модельдер математикалық заңдылықтарды табуға тырысады. Осындай үлгілерді тапқаннан кейін, егер табылса, AI жүйесі жаңа деректерге тап болған кезде сол үлгілерді пайдаланады. Жаңа деректер ұсынылғаннан кейін ағымдағы шешімді қабылдау үшін «ескі» немесе тарихи деректерге негізделген үлгілер қолданылады.

Менің ойымша, сіз бұл қайда бара жатқанын болжай аласыз. Шешімдердің үлгісін қабылдаған адамдар теріс көзқарастарды біріктірсе, деректер мұны нәзік, бірақ маңызды жолдармен көрсетеді. Machine Learning немесе Deep Learning есептеу үлгісін сәйкестендіру деректерді сәйкесінше математикалық имитациялауға тырысады. Жасанды интеллект модельдеудің жалпы мағынасы немесе басқа сезімтал аспектілері жоқ.

Сонымен қатар, AI әзірлеушілері не болып жатқанын түсінбеуі мүмкін. ML/DL-дегі жасырын математика қазір жасырын көзқарастарды анықтауды қиындатуы мүмкін. Сіз AI әзірлеушілері ықтимал жерленген бейімділіктерді тексереді деп үміттенесіз және күтесіз, бірақ бұл көрінгеннен де қиынырақ. Салыстырмалы түрде ауқымды тестілеу кезінде де ML/DL үлгілерін сәйкестендіру үлгілерінде әлі де ендірілген қиғаштықтардың болатынына сенімді мүмкіндік бар.

Сіз белгілі немесе әйгілі «қоқыс ішіндегі қоқыс шығару» деген нақыл сөзді пайдалана аласыз. Мәселе мынада, бұл АИ-ге батып кеткен бейтараптар ретінде жасырын түрде енгізілетін бейімділікке көбірек ұқсайды. AI алгоритмі шешім қабылдау (ADM) аксиоматикалық түрде теңсіздіктерге толы болады.

Жақсы емес.

Мұны сенімді AI туралы сұраққа байланыстырайық

Біз теріс көзқарастар мен кемсітушілік әрекеттерді көрсететін AI-ға сенуге дайын емеспіз. Біздің сеніміміз, бұл жағдайда, мұндай AI сенімді емес, сондықтан біз AI-ға белсенді түрде сенімсіздікпен қарайтын боламыз. Антропоморфтық салыстырудан асып кетпей-ақ (мен AI антропоморфизациясы туралы біраз уақыттан кейін айтамын), жағымсыз көзқарастары бар адам да аса сенімді емес деп бағалануы мүмкін.

Сенімділік пен сенімділікті қазу

Мүмкін біз біреуге немесе бір нәрсеге сенбейтінімізді немесе сенбейтінімізді мәлімдегенде нені білдіретінімізді қарастыруымыз керек. Алдымен сенімнің бірнеше күнделікті сөздік анықтамаларын қарастырыңыз.

Анықтамалық сенімнің мысалдары:

  • Біреудің немесе бір нәрсенің сипатына, қабілетіне, күшіне немесе шындығына сенімді сенім (Merriam-Webster онлайн сөздігі).
  • Адамның немесе заттың тұтастығына, күшіне, қабілетіне, кепілдігіне, т.б (Dictionary.com)
  • Біреудің немесе бір нәрсенің сенімділігіне, ақиқатына, қабілетіне немесе күшіне берік сенім (Oxford Languages ​​онлайн сөздігі).

Мен бұл анықтамалардың барлығы «біреуге» қатысты екенін және сол сияқты «бірдеңені» ықтимал сенімді деп атайтынын атап өткім келеді. Бұл назар аударарлық, өйткені кейбіреулер біз тек адамдарға ғана сенеміз және сену әрекеті біздің сенімділік мақсатымыз ретінде тек адамзатқа арналған деп талап етуі мүмкін. Олай емес. Сіз ас үйдегі тостерге сене аласыз. Егер ол тосттарыңызды сенімді етіп жасап, осылай істеу үшін жүйелі түрде жұмыс істейтін болса, тостер шынымен сенімді ме деген сенімге ие бола аласыз.

Дәл осындай ойлау бағытында AI да біздің сенім көзқарасымыздың тақырыбы болуы мүмкін. Мүмкіндік, AI-мен байланысты сенім қарапайым тостерге қарағанда әлдеқайда күрделірек болады. Тостер әдетте бірнеше әрекеттерді ғана орындай алады. Жасанды интеллект жүйесі әлдеқайда күрделі және ашық емес жұмыс істейтін сияқты. Біздің AI сенімділігін бағалау және анықтау қабілетіміз әлдеқайда қиын және ерекше қиындықтарды ұсынатыны сөзсіз.

Күрделі болумен қатар, типтік AI жүйесі детерминирленген емес және өзін-өзі реттейтін немесе өзін-өзі реттейтін деп аталады. Біз бұл ұғымды қысқаша зерттей аламыз.

Детерминирленген машина бір әрекеттерді қайта-қайта жасауға бейім, болжамды түрде және оның қалай жұмыс істейтінінің айқын көрінетін үлгісімен. Сіз кәдімгі тостер шамамен бірдей тост жасайды және тосттерді реттейтін тосттарды басқару элементтері бар деп айта аласыз, олардың барлығын тостерді пайдаланатын адам әдетте болжауға болады. Керісінше, күрделі AI жүйелері көбінесе детерминистикалық емес болып ойлап шығарылады, яғни олар сіз күткеннен басқаша нәрселерді жасай алады. Егер AI өзін-өзі реттеу үшін жазылса, бұл ішінара одан әрі күшейтілуі мүмкін, бұл ML/DL жағдайында AI-ны жақсартуға тиімді мүмкіндік беретін аспект, бірақ сонымен бірге AI-ның бұзылуына немесе қатарға енуіне себеп болуы мүмкін. AI нашарлығы. Айтуынша, сізге не тигенін білмеуіңіз мүмкін, өйткені AI әрекеті сізді толығымен абайсызда ұстады.

AI-ны сенімділікке жақындату үшін не істей аламыз?

Тәсілдердің бірі AI құру және өрістету AI этикасы ережелерінің жиынтығына бағынуын қамтамасыз етуге тырысудан тұрады. Осы AI зерттеушілері атап өткендей: «Сенім - агент күткендей әрекет етеді және мақсатына жету үшін оған сенуге болады. Сенім агент пен сенімді тұлға арасындағы қателік немесе түсінбеушіліктен кейін бұзылады. Жасанды интеллектке сенімнің психологиялық жағдайы – бұл әдетте жобалаудың, оқытудың, орналастырудың, өнімділікті өлшеудің, реттеудің, қайта жобалаудың және қайта даярлаудың көптеген циклдерін қамтитын күрделі жүйенің пайда болатын қасиеті» (көрсетілген ACM байланысы, Стюарт Миддлтон, Эммануэль Летузе, Али Хоссэйни және Адриан Чапманның «Еуропалық аймақтағы сенім, реттеу және адам АИ-і», сәуір 2022).

Оның мәні мынада, егер біз AI әзірлеушілерін этикалық AI-ға бағынуға мәжбүрлей алсақ, олар сенімді AI шығарады деп үміттенеді. Мұның бәрі жақсы және жақсы, бірақ бұл нақты әлем негізінде біршама практикалық емес болып көрінеді, дегенмен бұл мүлдем ұмтылуға тұрарлық жол.

Міне, мен нені білдіреді.

Біз әдетте X деп атайтын қандай да бір мақсатта AI жүйесін жасауда AI әзірлеушілері тыңғылықты күш жұмсады делік. Олар AI-ның AI этикасының мөлдірлік ережелерін сақтайтынына мұқият көз жеткізеді. Олар құпиялылықтың AI-ге сәйкес келетінін мұқият қамтамасыз етеді. Кәдімгі AI этикасының барлық дерлік принциптері үшін AI құрастырушылары AI берілген өсиетке сәйкес келетініне толық кепілдік береді.

Енді сол AI-ға сену керек пе?

Осы ашық сұрақ бойынша ойларыңызды жеткізуге көмектесуге рұқсат етіңіз.

Анықталғандай, кибералаяқтар AI-ға еніп, жасырын түрде AI-ға X-ті орындауға қол жеткізе алды, сонымен бірге киберхакерлерге AI жинайтын барлық деректерді береді. Осылайша, бұл зұлым адамдар құпиялылық туралы өсиеттерді жасырын түрде бұзады. Сіз бұл AI қақпағы астында болып жатқанын білмейсіз.

Осы қосымша ақпаратпен мен сізге сол сұрақты қайта қоямын.

Сіз бұл AI-ға сенесіз бе?

Мен адамдардың көпшілігі міндетті түрде орындайтынын бірден мәлімдейді деп айтуға батылы барамын емес осы нақты AI-ға сеніңіз. Олар бұған бұрын сенген болуы мүмкін. Олар енді AI сенімді деп санамайды.

Осы қарапайым мысалға негізделген бірнеше негізгі түсініктер ойлануға тұрарлық:

  • Сенім динамикасы. Жасанды интеллект этикасының AI жүйесіне кіріктірілуін қамтамасыз етудің барлық негіздерін қамтуға арналған ең жақсы ниеттердің өзі AI не болып немесе не болатынына кепілдік бермейді. AI пайдалануға енгізілгеннен кейін, бөгде адамдар этикалық AI жинақтарын бұзуы мүмкін.
  • Іштен сенімнің төмендеуі. Сенімділікті төмендету әрекеті міндетті түрде бөтен адамдар болуы керек емес. Жасанды интеллект жүйесіне жүйелі түрде қызмет көрсететін инсайдер қателесіп, AI-ны сенімсіз болу үшін әлсіретуі мүмкін. Бұл AI әзірлеушісі не істегені туралы білмеуі мүмкін.
  • Сенімді байқаусызда бұзу. Өзін-өзі реттейтін немесе өзін-өзі реттейтін AI бір сәтте өзін реттеп, сенімсіз аумаққа бұрылуы мүмкін. Мүмкін, AI AI ашықтығын күшейтуге тырысады, бірақ сонымен бірге құпиялылық аспектілерін бір уақытта және орынсыз түрде бұзады.
  • Сенім шашырауы. Жасанды интеллект этикасының барлық қағидаларына бірдей сенімділік дәрежесіне жетуге тырысу әдетте өміршең емес, өйткені олар көбінесе айқас мақсаттарда немесе басқа да әлеуетті қайшылықтарға ие. Барлық этикалық AI ережелері армандалған және барлығына бірдей максималды дәрежеде қол жеткізуге болатынына сену өте идеалдандырылған перспектива болып табылады.
  • Сенімге қол жеткізу қымбат болуы мүмкін. Әр түрлі ауқымды және жан-жақты қадамдарды орындау және AI этикасының қағидаларын ұстану арқылы сенімді AI-ның жоғары деңгейіне жетуге тырысудың құны салыстырмалы түрде жоғары болады. Қоғам үшін маңызды құндылыққа ие кейбір AI жүйелерін пайдалануға беру тұрғысынан құны тыйым салатын болады деп оңай дәлелдей аласыз, тіпті егер AI сенімділік ниетінен идеалды емес деп айта аламыз.
  • Және тағы басқа.

Сенімді AI-ны мұқият құру және өрістету күш-жігерін қандай да бір жолмен болдырмау керек деп болжау үшін алдыңғы ескертулерді дұрыс түсінбеңіз. Сіз баланы ванна суымен бірге лақтырып жіберетін едіңіз. Дұрыс түсіндірме мынада: AI-ны сенімді қарауға алу үшін бізге сенімді әрекеттерді жасау керек, бірақ бұл жалғыз ем немесе күміс оқ емес.

Сенімді жасанды интеллектке апаратын көп жақты жолдар

Сенімді AI-ға ұмтылудың маңызды қосымша көп жақты жолдары бар.

Мысалы, мен өзімнің бағандарымда бұрын айтып өткенімдей, AI-ға қатысты жаңадан пайда болған көптеген заңдар мен ережелер AI жасаушыларды сенімді AI ойлап табуға итермелеуге бағытталған, қараңыз. сілтеме осында және сілтеме осында.

Бұл заңдық қоршаулар AI ойлап тапқандар өздерінің АИ үшін толық жауап беретініне көз жеткізудің негізгі құралы ретінде өте маңызды. Мұндай әлеуетті құқықтық қорғау құралдары мен заңды жазаларсыз, AI-ны нарыққа асығатындар сенімді AI-ға қол жеткізуге аз болса да, елеулі мән бермей, мұны жалғастыруы мүмкін. Мен атап өтуге болады, егер бұл заңдар мен ережелер нашар әзірленсе немесе тиісті түрде орындалмаса, олар сенімді AI-ға ұмтылуды өкінішті түрде төмендетуі мүмкін, мүмкін, сенімді AI-ге сенімсіз AI-ны ирониялық және таңқаларлық түрде ынталандыруы мүмкін (қосымша түсініктеме алу үшін менің бағандағы талқылауларымды қараңыз).

Мен сондай-ақ өзімді қатты атаған нәрсенің сенімді жақтаушысы болдым AI қорғаушы періште боттары (менің хабарымды қараңыз сілтеме осында). Бұл отпен отпен күресудің алдағы әдісі немесе тәсілі, атап айтқанда сенімді болуы мүмкін немесе болмауы мүмкін басқа AI-мен жұмыс істеуге көмектесу үшін AI пайдалану.

Біріншіден, кейбір фондық контекст пайдалы болады.

Сіз оның сенімділігіне сенімді емес AI жүйесіне сенуді таңдадыңыз делік. Негізгі алаңдаушылық тудыруы мүмкін, сіз AI-ға сену керек пе, жоқ па, соны анықтау әрекеттеріңізде жалғыз болуыңыз мүмкін. Жасанды интеллект сізге қарағанда жылдамырақ және сіздің артықшылығыңызды пайдалана алады. Сізге көмектесу үшін сізге біреу немесе бір нәрсе керек.

Бір перспектива - AI жүйесін пайдаланған кезде сізге көмектесетін адам әрқашан болуы керек. Бұл проблемалық шешім болса да. Егер AI нақты уақыт режимінде жұмыс істесе, біз оны AI негізіндегі өзін-өзі басқаратын көліктер пайда болған кезде талқылайтын боламыз, онда адамның циклде болуы жеткіліксіз болуы мүмкін. AI нақты уақыт режимінде әрекет етуі мүмкін және AI дұрыс жұмыс істеп тұрғанын анықтау үшін суретке циклде тағайындалған адам кірген кезде, апатты нәтиже орын алған болуы мүмкін.

Екінші жағынан, бұл сенімге қатысты тағы бір факторды тудырады. Біз әдетте контекстке немесе жағдайға байланысты сенім деңгейін тағайындаймыз. Сіз кішкентай ұлыңыздың немесе қызыңыздың сізге адал болатынына толықтай сенуіңіз мүмкін, бірақ егер сіз жаяу серуендейтін болсаңыз және жартастың шетіне басудың қауіпсіз екенін айту үшін балаға сенуді шешсеңіз, менің ойымша, сіз даналық болар едіңіз. сәби өмір немесе өлім туралы кеңес бере алатынын қарастыру. Бала мұны шын жүректен және шын жүректен жасауы мүмкін, бірақ соған қарамастан, мұндай кеңесті жеткілікті түрде бере алмайды.

Дәл осындай түсінік AI-ға қатысты сеніммен байланысты. Дойбы немесе шахмат ойнау үшін қолданатын AI жүйесі өмір немесе өлім мәселесін талқылауға қатыспауы мүмкін. Сенімді тапсыру арқылы сіз әлдеқайда жеңіл бола аласыз. Жоғары жылдамдықпен тас жолда келе жатқан AI негізіндегі өзін-өзі басқаратын көлік әлдеқайда күшті сенім деңгейін талап етеді. Жасанды интеллект жүргізу жүйесінің ең аз ғана соғуы тікелей сіздің және басқалардың өліміне әкелуі мүмкін.

Жаһандық Deloitte AI институтының атқарушы директоры және кітап авторы Бина Амманаттың жарияланған сұхбатында Сенімді AI, AI сенімділігінің контекстік аспектілерін қарастыруға ұқсас екпін: «Егер сіз емделушіге диагноз қоятын AI шешімін жасап жатсаңыз, әділдік пен біржақтылық өте маңызды. Бірақ егер сіз реактивті қозғалтқыштың істен шығуын болжайтын алгоритм құрастырып жатсаңыз, әділдік пен қиғаштық соншалықты маңызды емес. Сенімді AI - бұл ұйымыңыздағы сенім өлшемдері туралы ойлауға мүмкіндік беретін құрылым» (VentureBeat, 22 наурыз 2022 ж.).

Сенімді AI туралы талқылағанда, сіз бұл тақырыпты көптеген жолдармен түсіндіре аласыз.

Мысалға, сенімді AI Бұл бәріміз қалаған және ұмтылатын мақсат ретінде қарастыратын нәрсе, атап айтқанда, біз сенімді AI ойлап табуды және жариялауды қалаймыз. Ұстамды сөз тіркесінің тағы бір қолданысы бар. Біршама балама пайдалану - бұл сенімді AI біреу сенімді AI данасы болып табылатын AI жүйесін жасаған деп мәлімдей алатын күй немесе өлшем күйі. Сөз тіркесін де қолдануға болады сенімді AI AI сенімділігіне қол жеткізу үшін қолдануға болатын әдісті немесе тәсілді ұсыну. т.б.

Осыған байланысты, барлық AI бірдей емес екенін және біз барлық AI туралы жалпы мәлімдеме жасамауды есте ұстауымыз керек екенін түсінетініңізге сенемін. Белгілі бір AI жүйесі басқа AI жүйесінен айтарлықтай ерекшеленуі мүмкін. Бұл AI жүйелерінің бірі өте сенімді болуы мүмкін, ал екіншісі өте сенімді болуы мүмкін. AI толығымен сенімді немесе мүлдем сенімді емес монолит деп болжау үшін абай болыңыз.

Бұл жай ғана жағдай емес.

Келесіде мен сізді қызықтыруы мүмкін сенімді AI туралы жүргізіп жатқан зерттеулерімнің кейбірін қысқаша баяндап өткім келеді. AI қорғаушы періште боттары.

Міне, осылай болады.

Сіз басқа AI жүйесінің сенімділігін бағалау үшін жасалған AI жүйесімен (AI қорғаушы періште боты) қаруланған боларсыз. AI қорғаушы періште боты сіздің қауіпсіздігіңізге басты назар аударады. Мұны сіздің қалтаңызда басқа AI жүйесі болуы мүмкін, мүмкін смартфонда немесе басқа да осындай құрылғыларда жұмыс істеп, сенетін AI-ды бақылауға мүмкіндік бар деп ойлаңыз. Сіздің мақал-мәтелге айналған AI қамқоршысы сіз сенетін АИ-нің негізінде есептей алады, жылдам жылдамдықта жұмыс істейді және нақты уақытта жағдайды есептей алады, бұл циклдегі адамға қарағанда әлдеқайда жылдам.

Бір қарағанда, сіз қазірдің өзінде сеніп отырған AI-де біраз нәрсе болуы керек деп ойлайтын шығарсыз ішкі AI қорғаныс періштелері ботын бөлек есептейтін AI қорғаныстары. Иә, бұл сөзсіз қалаған болар еді. Бір алаңдатарлық жайт, AI жүйесіне енгізілген AI қоршаулары жеке интеллектпен интегралды және алдын ала сәйкес келуі мүмкін, осылайша болжалды AI қорғанысы енді бір мағынада AI-ны тәуелсіз түрде тексере немесе растай алмайды.

Қарама-қарсы идея - сіздің AI қорғаушы періште ботыңыз тәуелсіз немесе үшінші тараптың AI механизмі болып табылады, ол сіз сенетін AI-дан ерекшеленеді. Ол басқа АИ-ден тыс жерде отырады, сізге берілген және бақыланатын немесе бағаланатын AI-ға арналмаған.

Бұл туралы ойлаудың қарапайым құралын келесі оңайлатылған теңдеу тәрізді мәлімдемелер арқылы көрсетуге болады. Біз «P» белгілі бір «X» тапсырмасын орындау үшін «R»-ге сенім артқысы келетінін айта аламыз:

Бұл тек адамдар қатысқан кезде келесідей болады:

  • Р тұлғасы X тапсырмасын орындау үшін R адамға сенеді.

Біз AI-ге сенуді таңдаған кезде, мәлімдеме келесідей өзгереді:

  • Р тұлғасы X тапсырмасын орындау үшін AI данасы-R сенеді.

Біз AI қорғаушы періште ботын мынаны айту арқылы қоса аламыз:

  • P тұлғасы AI қорғаншы періште бот данасы-Z бақылайтындай X тапсырмасын орындау үшін AI данасына-R сенеді.

AI қорғаушы періште боты сіз сенетін AI-ны тынымсыз және тынымсыз бағалайды. Осылайша, сіздің ыңғайлы AI қамқоршысы сізге осы басқа AI сенімі негізсіз екенін ескертеді. Немесе AI қамқоршысы басқа AI-мен электронды түрде өзара әрекеттесіп, сенімді болудан басқа кез келген ауытқудың тез түзетілуіне және т.б. (мұндай мәліметтерді мына сайттан қараңыз). сілтеме осында).

Сенімді сенімді резервуар метафорасы

Біз сенімнің әртүрлі деңгейлерін талқылап жатқандықтан, сенімділікті резервуардың бір түрі ретінде қабылдау арқылы сенімділік туралы пайдалы метафораны қолдануға болады.

Сізде белгілі бір уақытта белгілі бір жағдайда белгілі бір адамға немесе затқа белгілі бір сенім мөлшері бар. Сенім деңгейі сол адамға немесе затқа қатысты басқа нәрселерге байланысты көтеріледі немесе төмендейді. Адамға немесе затқа сенімсіз болған кезде сенім нөлдік деңгейде болуы мүмкін. Сіз сол адамға немесе затқа сенімсіздік танытқан кезде сенім теріс болуы мүмкін.

Жасанды интеллект жүйелері жағдайында, сіз белгілі бір жағдайда сенетін нақты AI үшін сенімді резервуарыңыз AI сенімділігін өлшеуге байланысты көтеріледі немесе төмендейді. Кейде сіз AI-ға деген сенімнің әртүрлі деңгейін жақсы білуіңіз мүмкін, ал басқа жағдайларда сіз сенімділік туралы болжамды пайымдаулар арқылы аз хабардар болуыңыз мүмкін.

Бұл жерде біз AI-ға сенім деңгейін арттыру жолдарын талқылаған әдістерді қамтиды:

  • AI этикасын ұстану. Егер сіз сенім артатын AI тиісті AI этикасының ережелерін сақтауға тырысу арқылы ойлап табылса, сіз бұл түсінікті нақты AI жүйесі үшін сенім резервуарыңыздың деңгейін көтеру үшін пайдаланасыз. Қосымша ескерту ретінде, сіз басқа AI жүйелеріне олардың сенімділігі туралы жалпылай аласыз, бірақ бұл кейде мен деп атайтын нәрсенің жаңылыстыратын түрі болуы мүмкін. AI сенім аурасының таралуы (Мұны орындауда абай болыңыз!).
  • Циклдегі Адамды пайдаланыңыз. Егер AI-да адам бар болса, сіз AI-ға деген сеніміңізді арттыра аласыз.
  • Заңдар мен ережелерді бекітіңіз. Осы АИ түріне қатысты заңдар мен ережелер болса, сіз де сенім деңгейіңізді арттыра аласыз.
  • AI Guardian Angel роботын қолданыңыз. Егер сізде AI қорғаушы періште боты дайын болса, бұл да сіздің сенім деңгейіңізді арттырады.

Жоғарыда айтылғандай, сенім айтарлықтай сынғыш болуы мүмкін және бір сәтте ыдырауы мүмкін (яғни, сенім қоймасы барлық құрылған сенімді тез және кенеттен тастайды).

Сіз AI негізіндегі өзін-өзі басқаратын көліктің ішінде екеніңізді елестетіп көріңіз және AI кенеттен оңға бұрылып, доңғалақтардың шырылдауын тудырады және автономды көлікті қауіп төндіретін аударылып кетуге мәжбүр етеді. Сіздің сенім деңгейіңізге не болар еді? Егер сіз бұрын AI-ны жоғары сенім деңгейінде ұстасаңыз да, сіз сенімділік деңгейін күрт және кенеттен төмендететін сияқтысыз.

Осы маңызды пікірталастың дәл осы тұсында, мен сізге сенімді AI сипаты мен көлемін көрсететін қосымша иллюстрациялық мысалдарды алғыңыз келетініне сенімдімін. Менің жүрегіме жақын болатын ерекше және танымал мысалдар жиынтығы бар. Көрдіңіз бе, мен AI бойынша сарапшы ретінде этикалық және құқықтық салдарларды қоса алғанда, тақырыптың біршама теориялық сипатын оңай түсіну үшін AI этикасының дилеммаларын көрсететін нақты мысалдарды анықтауды жиі сұрайды. Бұл этикалық AI екіұштылығын айқын көрсететін ең қызықты бағыттардың бірі - AI негізіндегі өзін-өзі басқаратын автомобильдердің пайда болуы. Бұл тақырып бойынша кең талқылау үшін ыңғайлы пайдалану жағдайы немесе үлгі ретінде қызмет етеді.

Олай болса, ойлануға тұрарлық маңызды сұрақ: Жасанды интеллектке негізделген шынайы өзін-өзі басқаратын көліктердің пайда болуы сенімді AI-ға ұмтылу туралы ештеңені жарықтандырады ма, егер солай болса, бұл нені көрсетеді?

Маған сұрақты ашуға бір сәт рұқсат етіңіз.

Біріншіден, нағыз өзін-өзі басқаратын көлікте адам жүргізуші жоқ екенін ескеріңіз. Нағыз өзін-өзі басқаратын көліктер AI жүргізу жүйесі арқылы басқарылатынын есте сақтаңыз. Рульде адам жүргізушінің де қажеті жоқ, көлікті адам басқаратын жағдай да жоқ. Автономды көліктер (АВ) және әсіресе өзін-өзі басқаратын көліктер туралы кең және үздіксіз ақпарат алу үшін қараңыз. сілтеме осында.

Мен нағыз өздігінен жүретін көліктерге сілтеме жасағанда нені білдіретінін қосымша түсіндіргім келеді.

Өздігінен басқарылатын автомобильдердің деңгейлерін түсіну

Түсініктеме ретінде, нағыз өзін-өзі басқаратын автомобильдер - бұл АИ көлікті толығымен өздігінен басқаратын және жүргізу кезінде ешқандай адам көмегінсіз жүретін көліктер.

Бұл жүргізушісіз көліктер 4-деңгей және 5-деңгей болып саналады (менің түсіндірмені қараңыз мына сілтеме), ал адам жүргізушінің жүргізу күш-жігерін бірге бөлісуін талап ететін көлік әдетте 2 немесе 3-деңгейде қарастырылады. Жүргізу міндетін бірге орындайтын көліктер жартылай автономды болып сипатталады және әдетте әр түрлі ADAS (Driver-Assistance Advanced Systems) деп аталатын автоматтандырылған қондырмалар.

5-деңгейде нағыз өзін-өзі басқаратын көлік әлі жоқ, және біз бұған жету мүмкін бе, жоқ па, оған жету үшін қанша уақыт кететінін әлі білмейміз.

Сонымен қатар, 4-деңгейдегі күш-жігер бірте-бірте өте тар және таңдамалы қоғамдық жол сынақтарынан өту арқылы біраз тартуға тырысады, дегенмен бұл сынаққа рұқсат беру керек пе деген пікірталас бар (біз бәріміз экспериментте өмір немесе өлім-жітім теңіз шошқаларымыз) Біздің магистральдарда және айналма жолдарда орын алуда, кейбіреулер даулайды, менің хабарымды мына жерден қараңыз мына сілтеме).

Жартылай автокөліктер адам жүргізушісін қажет ететіндіктен, бұл көлік түрлерін қабылдау әдеттегі көліктерді басқарудан айтарлықтай ерекшеленбейді, сондықтан бұл тақырыпта олар туралы көп жаңалық таба алмайсыз (дегенмен, сіз көресіз Бір сәтте келесі ойлар жалпыға бірдей қолданылады).

Жартылай автокөліктер үшін көпшіліктің соңғы уақытта пайда болатын алаңдатарлық аспект туралы алдын-ала ескертуі маңызды, атап айтқанда 2-деңгей немесе 3-деңгейлі автокөліктің дөңгелегінде ұйықтап жатқандығы туралы бейнежазбаларын жазып жүрген адамдарға қарамастан. , жартылай автономды автокөлік жүргізу кезінде жүргізуші олардың назарын басқару тапсырмасынан алуы мүмкін деп сендіруден аулақ болуымыз керек.

Автоматизацияның 2 немесе 3 деңгейге өтуіне қарамастан, сіз көлік құралын басқаруға жауаптысыз.

Өздігінен жүретін көліктер және сенімді AI

4 және 5-деңгейдегі өздігінен жүретін көліктер үшін жүргізуші рөлінде адам жүргізушісі болмайды.

Барлық жолаушылар жолаушылар болады.

AI жүргізуді жүргізуде.

Тез арада талқылаудың бір аспектісі бүгінгі жасанды интеллект жүргізуші жүйелеріне қатысатын жасанды интеллекттің сезімтал болмауына алып келеді. Басқаша айтқанда, жасанды интеллект - бұл компьютерлік бағдарламалау мен алгоритмдердің жиынтығы, сондықтан адамдар ойлап тапқан тәртіппен ой қорыта алмайды.

Неліктен бұл интеллектке қосымша назар аударылмайды?

Мен жасанды интеллектті қозғау жүйесінің рөлін талқылағанда мен жасанды интеллектке адами қасиеттерді жатқызбайтынымды атап өткім келеді. Бүгінгі күні жасанды интеллект антропоморфизациясының тұрақты және қауіпті тенденциясы бар екенін ескеріңіз. Шын мәнінде, адамдар мұндай жасанды интеллект әлі жоқ екендігі туралы даусыз және талассыз фактілерге қарамастан, бүгінгі жасанды интеллектке адам тәрізді сезімді тағайындайды.

Осы нақтылау арқылы сіз AI жүргізу жүйесі қандай да бір түрде жүргізудің қырлары туралы «білмейді» деп ойлауға болады. Жүргізу және оған қатысты барлық нәрселер өзін-өзі басқаратын машинаның аппараттық және бағдарламалық жасақтамасының бөлігі ретінде бағдарламалануы керек.

Осы тақырып бойынша ойнауға келетін көптеген аспектілерге сүңгейік.

Біріншіден, AI өздігінен жүретін көліктердің барлығы бірдей емес екенін түсіну маңызды. Әрбір автоөндіруші және өзін-өзі басқаратын технологиялық фирма өзін-өзі басқаратын көліктерді ойлап табуда. Осылайша, AI жүргізу жүйелері не істейтіні немесе жасамайтыны туралы нақты мәлімдеме жасау қиын.

Сонымен қатар, AI басқару жүйесі белгілі бір нәрсені жасамайтынын айтқан кезде, оны кейінірек компьютерді дәл осылай жасауға бағдарламалайтын әзірлеушілер басып озуы мүмкін. Бірте -бірте AI басқару жүйелері біртіндеп жетілдіріліп, кеңейтілуде. Бүгінде бар шектеулер болашақта жүйенің қайталануында немесе нұсқасында болмауы мүмкін.

Мен айтқым келетін нәрсені түсіндіру үшін жеткілікті ескертулер жиынтығын беретініне сенемін.

Біз қазір өзін-өзі басқаратын көліктерге және сенімді AI-ға терең сүңгуге дайынбыз.

Сенім - бұл бәрі, әсіресе AI негізіндегі өздігінен жүретін көліктер жағдайында.

Қоғам өзін-өзі басқаратын көліктердің пайда болуына сақтықпен қарайтын сияқты. Бір жағынан, нағыз өзін-өзі басқаратын көліктердің пайда болуы жыл сайынғы көлікпен байланысты өлім санын азайтады деген үлкен үміт бар. Тек Америка Құрама Штаттарында жыл сайын 40,000 2.5-ға жуық адам қайтыс болып, XNUMX миллионға жуық адам жарақат алады, менің статистикалық жинақымды мына жерден қараңыз. сілтеме осында. Адамдар ішіп, көлік жүргізеді. Адамдар көлікті алаңдатпай басқарады. Көлік жүргізу міндеті көлікті басқаруға қайта-қайта және қатесіз назар аудару және көлік апатына ұшырамау мүмкіндігінен тұратын сияқты. Осылайша, біз AI жүргізу жүйелері өздігінен жүретін көліктерді қайта-қайта және қатесіз басқарады деп армандаймыз. Өздігінен басқарылатын көліктерді көлік апатынан болатын өлім-жітім мен жарақаттардың көлемін азайту, сонымен қатар ұтқырлықты анағұрлым кеңірек және қолжетімді негізде қол жетімді етуден тұратын екі жақты деп түсінуге болады.

Бірақ бұл уақытта қоғамда өзін-өзі басқаратын көліктер біздің қоғамдық жолдарда болу үшін жеткілікті қауіпсіз бола ма деген алаңдаушылық туындайды.

Тіпті бір өзі басқаратын көлік бір өлімге немесе ауыр жарақатқа әкелетін апатқа немесе соқтығысқа тап болса, бүгінгі күні AI негізіндегі жүргізушісіз көліктерге деген сенімнің біршама төмендейтінін болжауға болады. Біз мұны Аризона штатында өзін-өзі басқаратын көліктің жаяу жүргіншіні қағып өлтіріп кеткен (шынымен де емес) орын алған атышулы оқиға болған кезде көрдік (менің мақаламды мына жерден қараңыз). мына сілтеме).

Кейбір сарапшылар AI өзін-өзі басқаратын көліктердің сеніміне сүйену әділетсіз және орынсыз деп санайды, мұндай келесі өлімге әкелетін апат немесе соқтығысу қазірдің өзінде салыстырмалы түрде апатсыз қоғамдық жол сынақтарын бұзуы мүмкін. Бұдан басқа, әділетсіз негізде, қандай да бір AI өзін-өзі басқаратын автокөлік бренді немесе моделі қайғылы оқиғаға ұшырағанына қарамастан, қоғам барлық өзін-өзі басқаратын көлік брендтерін кінәлайтыны сөзсіз.

Өздігінен басқарылатын көліктердің барлығын жалпылама түрде ластауға болады және тұтастай алғанда сала үлкен кері әсерге ұшырауы мүмкін, бұл барлық қоғамдық жолдар сынақтарының тоқтатылуы мүмкін.

Өздігінен басқарылатын көлікті жақтаушылардың барлық жүргізушісіз көліктер апатқа ұшырамайтыны туралы мағынасыз мәлімдемелерінде мұндай соққыға себепкер болған. Бұзылмайтын деген бұл идея тек қате емес (қараңыз сілтеме осында), ол күтпеген күтулер үшін өздігінен жүретін автомобиль индустриясын құрып жатыр. Өздігінен басқарылатын көліктердің салдарынан өлім-жітім нөлдік болатыны туралы бұл таңқаларлық және қол жетімсіз мәлімдемелер кез келген жүргізушісіз көлік апаты бүкіл жиынтық пен кабудельдің бекер екеніне сенімді белгі деген қате пікірді күшейтеді.

Өзін-өзі басқаратын көліктерге деген ілгерілеушілік пен қоғам сенімінің дюймдік жинақталуын әп-сәтте жоғалтуы мүмкін екенін түсінудің ерекше қайғысы бар. Бұл сенімнің сынғыштығы туралы керемет көрініс болады.

қорытынды

Көптеген автоөндірушілер мен өзін-өзі басқаратын технологиялық фирмалар әдетте AI этикасының принциптерін ұстанады, осылайша қауіпсіз және сенімді AI негізіндегі өзін-өзі басқаратын көліктер тұрғысынан сенімді AI-ны құруға және енгізуге тырысады. Бұл фирмалардың кейбіреулері басқаларға қарағанда күштірек және этикалық AI ережелеріне көбірек берілгенін түсініңіз. Сондай-ақ, кейде AI этикасының негізгі іргетастарының көпшілігін жоққа шығаратын қарапайым немесе жаңадан келген автокөлігімен байланысты стартаптар бар (менің шолуды мына жерден қараңыз). сілтеме осында).

Басқа салаларда өздігінен жүретін көліктерді қамтитын жаңа заңдар мен ережелер біртіндеп заң кітаптарына енгізілді. Олардың сақтық көшірмесін жасау үшін қажетті тістері бар ма, бұл басқа мәселе, сол сияқты бұл заңдардың орындалуы байыпты түрде қабылданады ма немесе назардан тыс қалды ма (бұл туралы талдаулар үшін менің бағандарымды қараңыз).

Мұның жоғары технологиялық бұрышы да бар. Автономды көліктер мен өздігінен жүретін автомобильдер аренасында бірінші орынға шығатын AI қорғаушы періште боттарының нұсқаларын бірте-бірте көреміз деп болжадым. Біз әлі жоқпыз. Бұл өздігінен жүретін көліктердің танымалдылығы кеңірек тараған кезде кеңірек болады.

Бұл соңғы тармақ сенім туралы әйгілі жолды келтіреді, оны сіз сөзсіз жатқа білесіз.

Сеніңіз, бірақ тексеріңіз.

Біз өзімізге сенімімізді арттыруға мүмкіндік бере аламыз, мүмкін жомарттықпен солай. Бұл арада біз де артылған сенімнің сөзбен де, іспен де расталатынына көз жеткізу үшін сұңқар сияқты қарауымыз керек. Жасанды интеллектке біраз сенім артайық, бірақ өз сенімімізді дұрыс қойып, көзімізді ашқанымызды шексіз тексерейік.

Бұл туралы маған сенуге болады.

Дереккөз: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/