Жасанды интеллектке құқықтық пайымдауларды енгізу адами құндылықтарды сәйкестендіруге ақылды түрде қол жеткізуі мүмкін дейді AI этикасы мен AI заңы

Бүгінгі бағанда мен AI-ға қатысты бір-біріне ұқсамайтын көптеген тақырыптарды әдемі тоқылған бір матаға біріктіремін.

Дайынсыз ба?

Қандай да бір маңызды тапсырманы орындау кезінде сізге көмектесетін AI-мен жұмыс істейтін қолданбаны пайдаланып жатырсыз деп елестетіңіз. Мүмкін бұл қаржылық мәселе немесе денсаулыққа байланысты болуы мүмкін. Мәні мынада: сіз дұрыс нәрсені жасау және болжалды қауіпсіз және сенімді түрде орындау үшін AI-ға тәуелдісіз.

Жасанды интеллект әдепсіз аумаққа кіріп кетті делік.

Сіз AI осылай істеп жатқанын түсінбеуіңіз мүмкін.

Мысалы, AI нәсіл немесе жыныс сияқты ықтимал жасырын кемсітушілік факторларға сүйенуі мүмкін, бірақ сізде жағымсыз пайдалануды анықтаудың өміршең құралы болмауы мүмкін. Міне, сіз бастапқыда проблемалық жолмен ойлап табылған немесе күрделі және шекаралық этикалық қауіп-қатерге төтеп бере алған AI арқылы таяқтың қысқа ұшын аласыз (мен бұл туралы көбірек айтамын). бұл бір сәтте).

Этикалық емес жолды таңдайтын AI туралы не істеуге болады немесе не істеуге болады?

Жасанды интеллект мұндай қулық-сұмдық әрекет жасамайтындай етіп алдын ала құруға тырысудан басқа, мен ендірілген қызығушылықтың артып келе жатқанын бұрын да егжей-тегжейлі айтқан болатынмын. AI этикасын тексеру Жабайы Батыстың дамып келе жатқан сазының құрамдас бөлігі - AI жүйелері нарыққа шығарылады. Идея мынада: AI енгізілген қолданбаны этикалық өлшемдерден тыс қалдыруға тырысу және болдырмау үшін біз тексеру және теңгерім жасау үшін қосымша AI пайдалана аламыз. Бұл қосылған AI мақсатты AI қолданбасынан тыс болуы мүмкін немесе біз екі рет тексергіміз келетін AI-ге тікелей енгізілген немесе имплантацияланған құрамдас болуы мүмкін.

Мен бұрын айтқанымдай, қараңыз сілтеме осында: «Жақында пайда болған тенденция AI жүйесінің қалған бөлігі алдын ала белгіленген этикалық шекаралардан шыға бастағанда ұстанатын AI-ға этикалық қоршауларды салудан тұрады. Белгілі бір мағынада, мақсат этикалық тұрғыдан бұрмаланбау үшін AI-ның өзін пайдалану болып табылады. Біз AI өзін-өзі емдеуді мақсат етіп жатырмыз деп айта аласыз» (Лэнс Элиот, «Этикалық емес АИ-ді бақылайтын және жаман AI-ны әрекет етуден аулақ болуға тырысатын этикалық AI жасау», Forbes, 28 наурыз 2022 ж.).

Сіз сондай-ақ менің кітабымды қызықтыратын нәрсені таба аласыз AI қорғаушы боттары, кейде қорғаншы періштелер деп аталады, ол осы заманауи AI-ішіндегі ендірілген қос тексергіштердің техникалық негіздерін қамтиды, қараңыз. сілтеме осында.

Қорытындылай келе, сіздің беконыңыз сіз пайдаланып жатқан AI қолданбасында ойлап табылған және имплантацияланған ендірілген AI екі реттік тексеруші этиканы өлшейтін элементті пайдалану арқылы құтқарылуы мүмкін. Бірақ бұл AI сізді толығымен қатайтпайтынына және тіпті зиянды жерге кірмейтініне көз жеткізу үшін қамқоршы жеткілікті ме?

Көрдіңіз бе, AI қолданбасы көрінетіндей жұмыс істей алады заңсыз әрекет етеді.

Этикалық немесе этикалық емес мінез-құлық деп санайтын сұр аймаққа енетін AI болуы бір нәрсе. Бірдей мазасыздандыратын мінез-құлық және нашарлауы мүмкін алаңдаушылық акуланы жай ғана секіретін және заңсыз әрекеттердің нашар қараңғылығына түсетін АИ-ге әкеледі.

Заңсыз AI жаман. Заңсыз AI-ге қараусыз өтуге рұқсат беру жаман. Кейбір заңгер ғалымдар AI-ның пайда болуы мен кең таралуы біздің интеллектуалдық ұқсастығымызды бірте-бірте және қорқынышты түрде төмендетеді деп алаңдайды. заңның үстемдігі, менің талдауымды мына жерден қараңыз сілтеме осында.

Бір секунд күте тұрыңыз, мүмкін сіз айтасыз.

Сіз AI әзірлеушілері болады деп ойлауыңыз мүмкін ешқашан да олардың AI заңға қайшы келетіндей етіп бағдарламалаңыз. Елестету мүмкін емес. Мұны тек зұлым зұлым адамдар жасайды (айтпақшы, AI-ді зұлым мақсаттарда әдейі ойлап тауып, қолданатындар бар екенін, қылмыскерлердің және басқалардың AI-ны зұлым әрекеттер үшін пайдаланғысы келетіндердің өсіп келе жатқанын ескеріңіз).

Кешіріңіз, бірақ барлық зұлым емес AI әзірлеушілері өздерінің AI толық заңға бағынатынына қатаң көз жеткізгісі келеді деп болжау арман. Бұл AI өзін-өзі реттеп, заңсыз әрекетке баруы мүмкін. Әрине, AI әзірлеушілері АИ-нің заңсыз әрекет етуін қалауы немесе олар АИ жасаған кезде заңға қайшы және құқықтық актілердің не екенін білмеуі мүмкін (иә, бұл әбден мүмкін, атап айтқанда толық технологиялық AI тобы өздерінің АИ-нің заңды шытырмандықтарын білмеуі мүмкін, бұл кешірілмейді, бірақ қорқынышты жиілікте болады).

Бұл туралы не істеуге болады?

Тағы да, AI қақпасынан тыс темірбетонды және заңды болуын қамтамасыз етуге тырысудан басқа, бу алудың қосымша тәсілі AI қолданбасының қалған бөлігін заңды екі рет тексеретін AI компонентін енгізу немесе имплантациялауды қамтиды. Тыныш отыра отырып және жиі хабарланбайды, бұл қосымша AI басқа AI-ны бақылайды және AI жалған болып кететінін немесе кем дегенде заңды немесе нормативтік шектеулердің шегінен өтіп бара жатқанын анықтауға тырысады.

Енді бізде AI қолданбасына ықтимал кірістірілген AI қосарлы тексерудің екі түрі бар:

  • AI этикасын тексеруші: Нақты уақытта бұл құрамдас немесе AI қондырмасы AI көрсететін этикалық және әдепсіз мінез-құлық үшін AI-ның қалған бөлігін бағалайды.
  • AI Заңды тексеруші: Нақты уақытта бұл құрамдас немесе AI қондырмасы заңды негізгі тастардың шегінде тұруды қамтамасыз ету және AI пайда болатын заңсыз әрекеттерді ұстау үшін АИ-нің қалған бөлігін бағалайды.

Түсіндіру үшін, бұл салыстырмалы түрде жаңа тұжырымдамалар, сондықтан сіз бүгін қолданатын AI осы жағдайлардың кез келгенінде болуы мүмкін:

  • Қос дойбы мүлде қосылмаған AI
  • AI этикасының қос тексерушісі бар, бірақ басқа қос тексеруші жоқ AI
  • AI Заңды қос тексерушісі бар, бірақ басқа қос тексеруші жоқ AI
  • AI этикасының қос тексерушісі де, AI заңдық тексерушісі де бар AI
  • басқа

AI этикасының қос тексерушісінің де, AI заңдық қос тексерушісінің де AI қолданбасында туыс ағасы мен әпкесі ретінде қатар жұмыс істеуінің кейбір күрделі аспектілері бар. Бұл дуализмнің бір түрі, оны үйлестіру сіз ойлағаннан қиынырақ болуы мүмкін (менің ойымша, біз бәріміз бауырлар мен әпкелер арасында ең тығыз байланыста бола алатынын білеміз, бірақ олар мезгіл-мезгіл диккендер сияқты шайқаса алады және қатты қарсы тұрады. көріністер).

Мен бұл қиын түрін ұзақ талқыладым дуализм: «Әлеуметтік игілік үшін AI-да назардан тыс қалған дуализм орын алуда, ол жасанды моральдық агенттік рөлін де, озық AI жүйелеріндегі жасанды құқықтық пайымдауды да қамтымауымен байланысты. AI зерттеушілері мен AI әзірлеушілерінің күш-жігері AI жүйесі өрісте жұмыс істеп тұрған кезде моральдық шешім қабылдауға бағыт-бағдар беру үшін жасанды моральдық агенттерді қалай жасауға және енгізуге баса назар аударды, бірақ сонымен бірге жасанды заңды пайымдау мүмкіндіктерін пайдалануға назар аудармады және біріктірді. , бұл күшті моральдық және құқықтық нәтижелер үшін бірдей қажет» (Лэнс Элиот, «The Neglected Dualism Of Artificial Moral Agency and Artificial Legal Reasoning In AI For Social Good,» Гарвард университетінің CRCS жыл сайынғы конференциясы 2020, Гарвард зерттеу және есептеу қоғамы орталығы)

Егер сіз AI этикасының қос тексерушісі мен AI заңдық тексерушісінің арасында неге шиеленіс болуы мүмкін екенін білгіңіз келсе, сіз ақылға қонымды концептуалды лайықтылық туралы мына маңызды дәйексөзді таба аласыз: «Заң белгілі бір әрекетке рұқсат етуі мүмкін, бұл әрекет әдепсіз болса да; және бұл әрекет моральдық тұрғыдан рұқсат етілсе де, тіпті моральдық тұрғыдан талап етілсе де, заң әрекетке тыйым сала алады» (Шелли Каган, Моральдың шектері, 1998).

Назарымызды сәл өзгертіп, бұл қос дойбылардың басқа мұқият зерттелген AI тақырыбына қалай енетінін көрейік. Жауапты AI немесе адами құндылықтар мен AI сәйкестігін келісілген қарастыру.

Жалпы түсінік мынада: біз дұрыс және қалаулы адами құндылықтарды ұстанатын АИ-ді қалаймыз. Кейбіреулер бұған сілтеме жасайды Жауапты AI. Басқалары да осылай талқылайды Есеп беретін AI, Сенімді AI, және AI туралау, олардың барлығы бірдей іргетас принципін қозғайды. Осы маңызды мәселелер бойынша менің талқылауым үшін қараңыз сілтеме осында және сілтеме осында, бірнеше ғана атауға болады.

AI-ны адами құндылықтарға қалай сәйкестендіруге болады?

Жоғарыда айтылғандай, біз AI әзірлеушілері жауапты AI ұстануға қол жеткізетін AI әзірлеуді біледі деп үміттенеміз. Өкінішке орай, олар бұрын анықталған себептерге сәйкес болмауы мүмкін. Бұған қоса, олар мұны істеуге тырысуы мүмкін, бірақ соған қарамастан, AI этикалық мінез-құлық аймағынан тыс өзін-өзі реттейді немесе заңсыз суларға түсуі мүмкін.

Жарайды, содан кейін біз осы тәуекелдер мен әсер етуді күшейтетін құрал ретінде өзіміздің ыңғайлы қос дойбыларды қарастыруымыз керек. Жақсы ойластырылған AI этикасының қос тексерушісін пайдалану AI-ны адами құндылықтармен сәйкестендіруге айтарлықтай көмектеседі. Сол сияқты, жақсы ойластырылған AI Құқықтық қос тексеру құралын пайдалану AI-ны адами құндылықтармен сәйкестендіруге айтарлықтай көмектеседі.

Осылайша, Жауапты AI, Сенімді AI, Есеп беретін AI, AI Alignment және т.б. жетуге ұмтылудың маңызды және әлі танымал емес құралы AI этикасының қос тексерушісі және AI этикасы сияқты AI қос тексерушілерін пайдалануды қамтиды. AI Құқықтық қос тексеруші, олар енгізілген AI-ны қосарланған тексеру ретінде тынымсыз жұмыс істейді.

Осы талқылауда мен AI-ге енгізілуі мүмкін AI заңды қос тексергіштерінің табиғаты мен конструкциялары туралы толығырақ толығырақ айтқым келеді. Мұны істеу үшін сізбен жалпы тақырып бойынша қосымша мәліметтермен бөлісу пайдалы болуы мүмкін AI және заң.

Жасанды интеллект пен заңның бір-бірімен қалай араласатыны туралы түсініксіз сараптама алу үшін менің талқылауымды қараңыз: сілтеме осында. Менің талғампаз көзқарасымда AI және заң байланыстыра отырып, мен AI мен заңды өзара байланыстырудың екі негізгі әдісінің осы қарапайым тұжырымдамасын ұсынамын:

  • (1) AI-ға қолданылатын заң: Біздің қоғамда жасанды интеллектті реттеуге немесе басқаруға қолданылатын заңдарды тұжырымдау, қабылдау және орындау
  • (2) AI-қолданылатын заң: Заңға енгізілген және қолданылған жасанды интеллект технологиясы, соның ішінде заңгерлік тапсырмаларды автономды немесе жартылай автономды түрде орындау үшін LegalTech жоғары технологиялық қолданбаларына енгізілген AI негізіндегі Заңды дәлелдеу (AILR)

Бірінші аталған көзқарас қолданыстағы және жаңа заңдар AI-ны қалай басқаратынын қарастырудан тұрады. Екінші аталған перспектива AI-ны заңға қолданумен байланысты.

Бұл соңғы санат әдетте заңгерлер пайдаланатын әртүрлі онлайн құралдарда AI негізіндегі заңдық негіздеуді (AILR) қолдануды қамтиды. Мысалы, AI жаңа келісім-шарттарды жасау үшін пайдалы болатын келісімшарт тілін анықтау арқылы адвокаттарға көмектесетін немесе келеңсіздіктерге немесе заңдағы олқылықтарға жол беретін заңды түрде тілсіз тілде бар келісім-шарттарды анықтауға көмектесетін Contract Life Cycle Management (CLM) пакетінің бөлігі болуы мүмкін. (ЖҚ анықтауға болатын «заң иістері» деп аталатын нәрсеге көзқарасым үшін қараңыз сілтеме осында).

Біз сөзсіз AI-ны жалпы жұртшылықтың пайдалануы үшін қол жетімді болатын және адвокаттың ілгерілеуін талап етпейтін заңға қолданатын боламыз. Дәл қазір әртүрлі шектеулердің, соның ішінде UPL (заңның рұқсат етілмеген практикасы) нәтижесінде AI негізіндегі заңгерлік кеңес беру қолданбаларын қолжетімді ету қиын және даулы мәселе болып табылады, менің талқылауымды мына жерден қараңыз. сілтеме осында.

Мен бұл AI және құқық туралы кіріспемен заңға қолданылатын AI-ның тағы бір аспаптық қолданылуы AI заңдық қос тексерушілерін құру болатынын атап өттім.

Иә, AI-ны заңға қолданумен байланысты технологиялық шеберліктің бірдей түрі АИ-ді ендірілген немесе имплантацияланған AI Құқықтық қос тексеруші ретінде пайдалану арқылы қосарланған міндет ретінде қызмет ете алады. AI Құқықтық қос тексеруші - бұл құқықтық аспектілерді білу керек компонент. Қалған AI қолданбасы әртүрлі әрекеттерді орындаған кезде, AI заңды қос тексерушісі AI қолданбасының мұны заңды түрде және заңды шектеулер аясында істеп жатқанын тексереді.

AI Құқықтық қос тексеру компоненті заң туралы білуге ​​болатын барлық нәрсені қамтуы міндетті емес. Жалпы АИ мақсаты мен әрекеттеріне қатысты AI қолданбасының сипатына қарай, AI Заңды қос тексерушісі құрамындағы құқықтық сараптама тұрғысынан әлдеқайда тар болуы мүмкін.

Мен заңды домендегі AI автономия деңгейлері (LoA) деп аталатын автономды мүмкіндіктер сериясы бойынша қалай ауқымын көрсететінін көрсету үшін пайдалы негізді анықтадым. Шолу үшін менің Forbes 21 жылғы 2022 қарашадағы «Адвокаттар АИ және заң туралы неліктен білуі керек екендігі туралы бекер емес жан-жақты дәлелді іс» бағанының жарияланымы сілтеме осында, және егжей-тегжейлі техникалық суреттеу үшін менің терең зерттеу мақаламды қараңыз MIT есептеу құқығы журналы 7 жылғы 2021 желтоқсандағы, қараңыз сілтеме осында.

Негіз заңдық әрекеттерде қолданылатын AI бес деңгейін түсіндіреді:

  • 0-деңгей: AI негізіндегі заң жұмысын автоматтандыру жоқ
  • 1-деңгей: AI негізіндегі құқықтық жұмыс үшін қарапайым көмекті автоматтандыру
  • 2-деңгей: Жасанды интеллект негізіндегі заң жұмысы үшін қосымша көмекті автоматтандыру
  • 3-деңгей: AI негізіндегі құқықтық жұмысты жартылай автономды автоматтандыру
  • 4-деңгей: AI негізіндегі құқықтық жұмыс үшін автономды домен
  • 5-деңгей: AI негізіндегі заң жұмысы үшін толық автономды

Мен оларды осы жерде қысқаша сипаттаймын.

0 деңгейі автоматтандырусыз деңгей болып саналады. Құқықтық пайымдаулар мен құқықтық міндеттер қолдық әдістер арқылы жүзеге асырылады және негізінен қағаз негізіндегі тәсілдер арқылы жүзеге асады.

1-деңгей AI заңдық негіздеу үшін қарапайым көмекті автоматтандырудан тұрады. Бұл санаттың мысалдарына күнделікті компьютерлік мәтінді өңдеуді пайдалану, күнделікті компьютерлік электрондық кестелерді пайдалану, электронды түрде сақталатын және шығарылатын онлайн құқықтық құжаттарға қол жеткізу және т.б. жатады.

2-деңгей AI құқықтық пайымдаулар үшін қосымша көмекті автоматтандырудан тұрады. Бұл санаттың мысалдары сұраныс стиліндегі қарапайым табиғи тілді өңдеуді (NLP), Machine Learning (ML) қарапайым элементтерін, заңды жағдайларды болжауға арналған статистикалық талдау құралдарын және т.б.

3-деңгей AI заңдық негіздеу үшін жартылай автономды автоматтандырудан тұрады. Бұл санаттың мысалдарына құқықтық негіздеу үшін кеңейтілген білімге негізделген жүйелерді (KBS) пайдалану, құқықтық негіздеу үшін Machine Learning және Deep Learning (ML/DL) пайдалану, кеңейтілген NLP және т.б. жатады.

4-деңгей AI құқықтық пайымдауға арналған домендік автономды компьютерлік жүйелерден тұрады. Бұл деңгей өздігінен жүретін көліктер үшін пайдаланылатын, бірақ заңды доменге қолданылатындай Операциялық дизайн домендерінің (ODDs) тұжырымдамалық түсінігін қайта пайдаланады. Құқықтық домендерді функционалдық салалар бойынша жіктеуге болады, мысалы, отбасы құқығы, жылжымайтын мүлік құқығы, банкроттық туралы заң, экологиялық құқық, салық құқығы және т.б.

5-деңгей AI құқықтық пайымдауға арналған толық автономды компьютерлік жүйелерден тұрады. Белгілі бір мағынада, 5-деңгей барлық мүмкін болатын құқықтық домендерді қамту тұрғысынан 4-деңгейдің жоғарғы жиынтығы болып табылады. Бұл өте үлкен тапсырыс екенін түсініңіз.

Автономияның осы деңгейлерін өздігінен жүретін автомобильдер мен автономды көліктерді (сонымен қатар ресми SAE стандартына негізделген) талқылағанда ұқсас қолданулармен теңестіруге болады, менің қамтуымды мына жерден қараңыз: сілтеме осында). Бізде SAE 5-деңгейіндегі өздігінен жүретін көліктер әлі жоқ. Біз SAE 4-деңгейіндегі өзін-өзі басқаратын көліктерге жақындап жатырмыз. Кәдімгі автомобильдердің көпшілігі SAE 2-деңгейінде, ал кейбір жаңа автомобильдер SAE 3-деңгейіне енеді.

Заңды доменде бізде әлі 5-деңгей AILR жоқ. Біз өте тар ODD болса да, кейбір 4-деңгейге тоқталамыз. 3-деңгей күннің жарығын көре бастады, ал бүгінгі таңда AILR негізгі тірегі негізінен 2-деңгейде.

Жақында заңға қолданылатын AI туралы зерттеу мақаласы деп аталатын типтеуді ұсынды Заң ақпараттар кодексі. Бұл туралы зерттеуші былай дейді: «Алғашқы мақсаттардың бірі Заң ақпараттар кодексі Күн тәртібі – AI-ға заңның рухын ұстануды үйрету» (Джон Дж. Ней, «Заңды ақпараттандыру кодексі: Жасанды интеллектті адамдармен теңестіруге арналған құқықтық информатика тәсілі», Солтүстік-батыс технология және зияткерлік меншік журналы, 20-том, алдағы). Кейбір маңызды ойлар бар Заң ақпараттар кодексі мантра әкеледі және мен сізге сол негізгі ережелердің бірнешеуімен таныстырамын.

Тақырыпқа кіріспес бұрын, мен алдымен AI және әсіресе AI этикасы және AI заңы туралы маңызды негіз қалағым келеді, осылайша талқылау контекстік тұрғыдан ақылға қонымды болатынына көз жеткізгім келеді.

Этикалық AI және сонымен қатар AI заңы туралы хабардарлықтың артуы

Жақында AI дәуірі бастапқыда қарастырылды Жақсылыққа арналған AI, яғни біз AI-ны адамзатты жақсарту үшін пайдалана аламыз. Өкшеде Жақсылыққа арналған AI біз де суға батқанымызды түсіндік AI for Bad. Бұған кемсітушілік ретінде ойлап табылған немесе өздігінен өзгертілген және орынсыз қисындылықтарға негізделген есептеу таңдауын жасайтын AI кіреді. Кейде AI осылай құрастырылады, ал басқа жағдайларда ол қолайсыз аумаққа бұрылады.

Мен бүгінгі АИ-нің табиғаты туралы бір бетте екенімізге сенімді болғым келеді.

Бүгінгі күні сезімтал AI жоқ. Бізде бұл жоқ. Біз сезімтал AI мүмкін болатынын білмейміз. Ешкім біз сезімтал AI-ға қол жеткіземіз бе, әлде сезімтал АИ қандай да бір түрде ғажайып түрде есептеу когнитивтік супернованың (әдетте сингулярлық деп аталады) пайда болуын болжай алмайды. сілтеме осында).

Мен назар аударатын АИ түрі бүгінгі күні бізде бар саналы емес АИ-ден тұрады. Егер біз ақылға қонымды AI туралы ойдан шығарғымыз келсе, бұл талқылау түбегейлі басқа бағытта жүруі мүмкін. Сезімтал AI адами сапада болуы мүмкін. Сезімтал АИ адамның когнитивтік баламасы екенін ескеру қажет. Сонымен қатар, кейбіреулер бізде өте интеллектуалды AI болуы мүмкін деп болжайтындықтан, мұндай AI адамдардан да ақылды болуы мүмкін деп болжауға болады (мүмкіндік ретінде супер интеллектуалды AI туралы зерттеуім үшін қараңыз. қамту осында).

Мен заттарды жер бетінде ұстап тұруды және бүгінгі күннің санаулы емес АИ-ін қарастыруды ұсынамын.

Бүгінгі AI адам ойлауымен бірдей «ойлауға» қабілетсіз екенін түсініңіз. Alexa немесе Siri-мен өзара әрекеттескенде, сөйлесу мүмкіндіктері адамның мүмкіндіктеріне ұқсас болып көрінуі мүмкін, бірақ шындық - бұл есептеу және адам танымы жоқ. Жасанды интеллекттің соңғы дәуірі есептеу үлгісін сәйкестендіруге мүмкіндік беретін Machine Learning (ML) және Deep Learning (DL) мүмкіндіктерін кеңінен пайдаланды. Бұл адамға ұқсайтын бейімділікке ие AI жүйелеріне әкелді. Сонымен қатар, бүгінгі күні парасаттылыққа ұқсайтын және адамның күшті ойлауының когнитивтік ғажайыптары жоқ бірде-бір AI жоқ.

Бүгінгі AI-ны антропоморфизациялаудан өте сақ болыңыз.

ML/DL – есептеу үлгісін сәйкестендірудің бір түрі. Әдеттегі тәсіл - шешім қабылдау тапсырмасы туралы деректерді жинау. Сіз деректерді ML/DL компьютер үлгілеріне бересіз. Бұл модельдер математикалық заңдылықтарды табуға тырысады. Осындай үлгілерді тапқаннан кейін, егер табылса, AI жүйесі жаңа деректерге тап болған кезде сол үлгілерді пайдаланады. Жаңа деректер ұсынылғаннан кейін ағымдағы шешімді қабылдау үшін «ескі» немесе тарихи деректерге негізделген үлгілер қолданылады.

Менің ойымша, сіз бұл қайда бара жатқанын болжай аласыз. Шешімдердің үлгісін қабылдаған адамдар теріс көзқарастарды біріктірсе, деректер мұны нәзік, бірақ маңызды жолдармен көрсетеді. Machine Learning немесе Deep Learning есептеу үлгісін сәйкестендіру деректерді сәйкесінше математикалық имитациялауға тырысады. Жасанды интеллект модельдеудің жалпы мағынасы немесе басқа сезімтал аспектілері жоқ.

Сонымен қатар, AI әзірлеушілері не болып жатқанын түсінбеуі мүмкін. ML/DL-дегі жасырын математика қазір жасырын көзқарастарды анықтауды қиындатуы мүмкін. Сіз AI әзірлеушілері ықтимал жерленген бейімділіктерді тексереді деп үміттенесіз және күтесіз, бірақ бұл көрінгеннен де қиынырақ. Салыстырмалы түрде ауқымды тестілеудің өзінде ML/DL үлгісіне сәйкес модельдер ішінде әлі де енгізілген қиғаштықтардың болатынына сенімді мүмкіндік бар.

Сіз белгілі немесе әйгілі «қоқыс ішіндегі қоқыс шығару» деген нақыл сөзді пайдалана аласыз. Мәселе мынада, бұл АИ-ге батып кеткен бейтараптар ретінде жасырын түрде енгізілетін бейімділікке көбірек ұқсайды. AI алгоритмі шешім қабылдау (ADM) аксиоматикалық түрде теңсіздіктерге толы болады.

Жақсы емес.

Мұның бәрі AI этикасының айтарлықтай маңызды салдары бар және AI-ны заңдастыруға тырысқанда алынған сабақтарға (барлық сабақтар болмай тұрып) ыңғайлы терезені ұсынады.

Жалпы AI этикасының ережелерін қолданудан басқа, бізде AI-ны әртүрлі пайдалануды реттейтін заңдар болуы керек пе деген сәйкес сұрақ бар. Федералды, штаттық және жергілікті деңгейлерде AI қалай жасалуы керектігі мен сипатына қатысты жаңа заңдар әзірленуде. Мұндай заңдарды әзірлеу және қабылдау әрекеті кезең-кезеңімен жүргізілуде. AI этикасы, ең болмағанда, қарастырылатын үзіліс ретінде қызмет етеді және белгілі бір дәрежеде бұл жаңа заңдарға тікелей қосылады.

Кейбіреулер бізге AI қамтитын жаңа заңдар қажет емес және біздің қолданыстағы заңдарымыз жеткілікті деп батыл дау жасайтынын ескеріңіз. Олар егер біз осы AI заңдарының кейбірін қабылдасақ, орасан зор әлеуметтік артықшылықтар беретін AI-дағы жетістіктерді қысқарту арқылы алтын қазды өлтіретінімізді ескертеді.

Алдыңғы бағандарда мен AI реттейтін заңдарды жасау және қабылдау бойынша әртүрлі ұлттық және халықаралық әрекеттерді қарастырдым, қараңыз. сілтеме осында, Мысалға. Мен сондай-ақ әртүрлі елдер анықтаған және қабылдаған AI этикасының әртүрлі принциптері мен нұсқауларын, соның ішінде БҰҰ-ның күш-жігерін, мысалы, ЮНЕСКО-ның 200-ге жуық ел қабылдаған AI этикасының жиынтығын, қараңыз. сілтеме осында.

Міне, мен бұрын мұқият зерттеген AI жүйелеріне қатысты этикалық AI критерийлерінің немесе сипаттамаларының пайдалы негізгі тізімі:

  • Ашықтық
  • Әділдік және әділдік
  • Зиянсыздық
  • жауапкершілік
  • Құпиялық
  • Қайырымдылық
  • Бостандық және автономия
  • сенім
  • тұрақтылық
  • Ар-ұждан
  • Ынтымақтастық

Бұл AI этикасының принциптерін AI әзірлеушілері, сондай-ақ AI әзірлеу күш-жігерін басқаратындармен, тіпті ақырында AI жүйелерін өңдейтін және жүргізетіндер де пайдалануы керек.

Жасанды интеллектіні әзірлеу мен пайдаланудың бүкіл өмірлік циклі бойынша барлық мүдделі тараптар этикалық АИ-нің қалыптасқан нормаларын сақтау аясында қарастырылады. Бұл маңызды жайт, өйткені әдеттегі болжам «тек кодерлер» немесе AI-ны бағдарламалайтындар AI этикасы ұғымдарын ұстануға жатады. Бұл жерде алдын ала атап өтілгендей, AI-ны ойлап табу және өрістету үшін ауыл қажет және ол үшін бүкіл ауыл AI этикасының ережелерін білуі және ұстануы керек.

Мен де жақында тексердім AI құқықтары туралы Билл Бұл АҚШ үкіметінің Ғылым және технология саясаты басқармасының (OSTP) бір жылдық күш-жігерінің нәтижесі болып табылатын «AI құқықтары туралы Биллдің жобасы: американдықтар үшін автоматтандырылған жүйелердің жұмыс істеуін қамтамасыз ету» деп аталатын ресми құжаттың ресми атауы. ). OSTP — Америка президенті мен АҚШ Атқарушы кеңсесіне ұлттық маңызы бар әртүрлі технологиялық, ғылыми және инженерлік аспектілер бойынша кеңес беретін федералды ұйым. Осы тұрғыдан алғанда, бұл AI құқықтары туралы Билл АҚШ-тың қолданыстағы Ақ үйі мақұлдаған және мақұлдаған құжат деп айта аласыз.

AI құқықтары туралы Биллде бес негізгі санат бар:

  • Қауіпсіз және тиімді жүйелер
  • Алгоритмдік дискриминациядан қорғау
  • Деректердің құпиялылығы
  • Ескерту және түсіндіру
  • Адамның баламалары, қарастыру және кері қайтару

Мен бұл өсиеттерді мұқият қарап шықтым, қараңыз сілтеме осында.

Енді мен осы сәйкес AI этикасы және AI заңы тақырыптарында пайдалы негіз қалағандықтан, біз AI заңдық қос тексерушілері және AI саласындағы негізгі тақырыбына өтуге дайынбыз. Заң ақпараттар кодексі.

Адамдық құндылықтарды теңестіру үшін AI жүйесіне енгізілген AI заңды қос тексергіштері

Мен кейде сілтеме жасаймын AI заңды қос тексерушілер AI-LDC аббревиатурасы арқылы. Бұл аббревиатурамен таныс емес адамдар үшін аздап көрнекі. Сондықтан мен бұл талқылауда бұл нақты аббревиатураны қолданбаймын, бірақ оны сізге ескерту ретінде айтқым келді.

AI заңдық қос тексерушілерінің кейбір күрделіліктерін ашу үшін мына негізгі мәселелерді қарастырайық:

  • AI заңды қос тексерушілерін AI адам құндылықтарын теңестіру механизмі ретінде пайдалану
  • Неғұрлым кеңейтілген AI сәйкесінше күшті AI Заңды қос тексерушілерді қажет етеді
  • AI Заңды тексерушілер заң шығарады және әсіресе заң шығармайды (мүмкін)
  • AI арасындағы нәзік тепе-теңдік Заңның нормалар мен ережелер ретінде заңды түрде іске асуы
  • Заңға бағынатын AI туралы айтатын болсақ, пудингтің дәлелдемесін талап ету

Кеңістіктің шектеулілігіне байланысты мен осы бес тармақты ғана қарастырамын, дегенмен осы жылдам дамып келе жатқан және алға жылжып жатқан мәселелер бойынша қосымша және бірдей назар аударарлық ойларды қамтитын бағанымда әрі қарай қамту үшін сақ болыңыз.

Дәл қазір қауіпсіздік белбеуіңізді тағып, сергітетін саяхатқа дайындалыңыз.

  • AI заңды қос тексерушілерін AI адам құндылықтарын теңестіру механизмі ретінде пайдалану

Жасанды интеллект пен адами құндылықтар арасындағы үйлесімді үйлестіруге тырысудың және оған қол жеткізудің көптеген жолдары бар.

Жоғарыда айтылғандай, біз AI этикасының ережелерін жасап, жариялай аламыз және AI әзірлеушілерін және AI-ны қолданатын және қолданатындарды осы негізгі тастарды ұстану үшін алуға тырысамыз. Өкінішке орай, мұның өзі көмектеспейді. Сізде хабарламаны сөзсіз қабылдамайтын кейбір әзірлеушілер бар. Сізде этикалық AI-ны мақтан тұтатын және біршама жеңіл-желпі белгіленген қағидаларды айналып өтуге тырысатын кейбір айлакерлер бар. Және тағы басқа.

Жасанды интеллект этикасын тудыратын «жұмсақ заң» тәсілдерін қолдану AI жасайтын немесе пайдаланатындардың барлығына үлкен сигнал беретін заңдар мен ережелерді қабылдау сияқты «қатаң заң» жолдарымен сөзсіз жұптастырылуы керек. Егер сіз AI-ны ақылмен қолданбасаңыз, заңның ұзақ қолы сізді алуы мүмкін. Түрме есіктерінің сықырлаған дыбысы адамдардың назарын аударуы мүмкін.

Үлкен мәселе, кейде қораның есігі жылқыларды сыртқа шығарып жібереді. Қолданылатын AI ықтимал заңсыз әрекеттердің барлық түрлерін жасай алады және оны ұсталып қана қоймай, заңсыз әрекеттер ағынын тоқтату үшін кейбір мәжбүрлеу шаралары күшейгенге дейін жасай береді. Мұның бәрі уақыт алуы мүмкін. Осы уақытта адамдарға бір немесе басқа жолмен зиян тигізуде.

Бұл шабуылға AI заңды қос тексерушісі кіреді.

AI қолданбасында тұру арқылы AI заңды қос тексерушісі AI заңға қайшы жұмыс істеп жатқанын бірден анықтай алады. AI заңды қос тексерушісі АИ-ді өз жолында тоқтатуы мүмкін. Немесе құрамдас адамдарға анықталған заңсыз әрекеттер туралы ескертуі мүмкін, мұны уақтылы орындап, бақылаушыларды шұғыл түзету әрекетіне итермелеуі мүмкін. Сондай-ақ, АИ-нің қолайсыз әрекеттерін кодификациялау мақсатында аудит ізінің нақты көрінісін қамтамасыз ететін құрамдас құра алатын ресімделген журналды тіркеу қарастырылады.

Біздің заңдарымыз көп агенттік конгломерацияның бір түрі деп айтылады, сондықтан заңдар сөзсіз қоғам дұрыс және дұрыс емес қоғамдық мінез-құлық туралы қайшылықты көзқарастар арасындағы тепе-теңдік ретінде қалыптастыруға тырысқан нәрселердің қоспасы болып табылады. Сондықтан біздің заңдарымызға негізделген AI заңды қос тексерушісі бұл қоспаны бейнелейді.

Айта кету керек, бұл нақты заң ережелерінің тізімін бағдарламалау ғана емес. Заңдар неғұрлым икемді және микроскопиялық ережелердің ең кішкентай бөлігін көрсетудің орнына, жалпы стандарттарға ұмтылады. Күрделіліктер жеткілікті.

Бұрын атап өтілген зерттеу жұмысына қайта оралсақ, AI Alignment ұмтылысына қатысты бұл ойларды да қалай қарауға болады: «Заң, көп агентті теңестірудің қолданбалы философиясы осы критерийлерді бірегей түрде орындайды. Теңестіру - бұл мәселе, өйткені біз жасай алмаймыз бұрынғы жақсы AI әрекетін толық және дәлелді түрде басқаратын ережелерді көрсетіңіз. Сол сияқты, құқықтық шарттың тараптары өзара қарым-қатынастарының кез келген жағдайын болжай алмайды, ал заң шығарушылар олардың заңдары қолданылатын нақты жағдайларды болжай алмайды. Сондықтан да заңның көп бөлігі стандарттар шоғыры болып табылады» (сонда).

Заңды AI Құқықтық тексерушіге енгізу сіз ойлағаннан әлдеқайда қиын.

Жасанды интеллект дамып келе жатқанда, біз мұндай жетістіктерді сәйкесінше пайдалануымыз керек. Қазға пайдалы нәрсе гандерге де пайдалы болып шығады. Заңға сәйкес AI-да ілгерілеушілікке қол жеткізіп жатқандар AI-ның конвертін итермелейді және ақыр соңында AI-ның прогресіне толықтай әсер ететін жаңа жетістіктерге қол жеткізуде.

  • Неғұрлым кеңейтілген AI сәйкесінше күшті AI Заңды қос тексерушілерді қажет етеді

Бұл тақырыпқа мысық пен тышқан гамбиті қарсы тұрады.

Мүмкіндік, AI одан әрі жетілдірілген сайын, кез келген AI заңды қос тексеру компоненті мәселелерді шешу қиынырақ және қиынырақ болады. Мысалы, тексеріліп жатқан AI қолданбасында AI қолданатын заңсыз әрекеттерді жасырудың жаңадан ойлап тапқан өте жасырын әдістері болуы мүмкін. Жасанды интеллект жасырын бағытты ұстанбаса да, АИ-нің жалпы күрделілігінің өзі AI Құқықтық екі тексеруші бағалауын алу үшін күрделі кедергі болуы мүмкін.

Міне, бұл әсіресе маңызды болады.

AI әзірлеушісі немесе AI қолданатын кейбір фирма AI негізіндегі қолданбаға енгізілген AI заңды қос тексерушісі бар деп жариялады делік. Войла, олар енді кез келген басқа алаңдаушылықтардан қолдарын жуған сияқты. AI Заңды тексерушісі бәрін реттейді.

Олай емес.

AI заңды қос тексерушісі AI қолданбасының сипаты үшін жеткіліксіз болуы мүмкін. Сондай-ақ, AI заңды қос тексерушісі AI қолданбасына қатысты соңғы заңдармен жаңартылмаған болуы мүмкін ескірген болуы мүмкін. Неліктен AI заңды қос тексерушісінің болуы күміс оқ болмайтыны туралы көптеген себептерді болжауға болады.

Жоғарыда келтірілген зерттеудің осы түсініктерін қарастырыңыз: «AI үшін ең заманауи жетістіктерге қарай, біз заңды түсіну мүмкіндіктерінің қайталанатын жоғары жолақтарын қоя аламыз. Егер әзірлеуші ​​өз жүйесінде тапсырмалар бойынша жетілдірілген мүмкіндіктерге ие деп мәлімдесе, олар уақыт, прецедент және юрисдикция бойынша заңдар мен ережелердің азғындығын қарастыру кезінде іс жүзінде ешқандай қиындық тудырмайтын АИ-нің сәйкесінше жетілдірілген құқықтық түсіну және құқықтық, пайымдау қабілеттерін көрсетуі керек. » (сонда).

  • AI Заңды тексерушілер заң шығарады және әсіресе заң шығармайды (мүмкін)

Сіздердің кейбіреулеріңіз осы AI заңдық қос тексерушілеріне ие болу идеясына ашуланғаныңызға сенімдімін.

Жиі айтылатын алаңдаушылықтың бірі - біз AI-ға өз заңдарымызды шешуге мүмкіндік беретін сияқтымыз. Жарайсың, сіз автоматтандырудың қандай да бір бөлігі адамзатты басып озады деп ойлайтын шығарсыз. Бұл кіріктірілген AI Заңды қос тексерушілер біздің заңдарымыздың әдепкі патшаларына айналады. Олар не істесе де, заң бойынша солай болады.

Адамдарды AI басқаратын болады.

Бұл AI Заңды қос дойбы - бізді сол жерге апаратын тайғақ баурай.

Қарсы аргумент - мұндай әңгіме - қастандық теорияларының материалы. Сіз жабайы постулация жасап, өзіңізді ашуландырып жатырсыз. Шындық мынада, бұл AI заңдық қос тексерушілері сезімтал емес, олар планетаны басып алмақ емес, және олардың экзистенциалды тәуекелі туралы қиял-ғажайып және өте асыра айтылған.

Тұтастай алғанда, сабырлы және дәлелді ұстанымды сақтай отырып, біз AI Құқықтық қос тексерушілер заңның дұрыс көрсетілуіне қызмет ететінін есте ұстауымыз керек, ол жоба бойынша емес, не кездейсоқ емес, қандай да бір жолмен әдепкі жасаудың құрметті саласына дефолтқа барады. заң. Сезімге қатысты экстраполяцияларды былай қойғанда, біз AI заңдық қос тексерушісі берілген заңның шынайы табиғатын бұрмалауы мүмкін деген нақты және өзекті алаңдаушылық бар екендігімен келісе аламыз.

Өз кезегінде, сіз бұл нақты «бұрыс ұсынылған» заң негізінен жаңадан жасалып жатыр деп мәлімдей аласыз, өйткені ол енді нақты заңда көзделген нәрсені дұрыс білдірмейді. Сіз мұның қаншалықты нәзік, бірақ маңызды көзқарас екенін көре аласыз деп сенемін. Кез келген уақытта AI заңды қос тексерушісі виртуалды негізде жаңа заңдарды АИ құрамдас бөлігі АИ-де бастапқыда айтылған немесе бейнеленген заңды қалай түсіндіретініне қарап «галлюцинациялау» жасай алады (менің қамтуым үшін). AI деп аталатын галлюцинация, қараңыз сілтеме осында).

Бұған мұқият болу керек.

Осы тақырып бойынша жоғарыда аталған зерттеу зерттеуі осы қасиетті сызықты кесіп өтуді болдырмауға ұмтылу тұрғысынан осы параллель ойды ұсынады: «Біз AI заң шығару, заңды прецедент орнату немесе заңды қолдану үшін заңдылыққа ие болуын мақсат етпейміз. Шын мәнінде, бұл біздің көзқарасымызға нұқсан келтіреді (және біз мұны болдырмау үшін айтарлықтай күш салуымыз керек). Керісінше, Заңды ақпараттандыру кодексінің ең амбициялық мақсаты – қолданыстағы заң тұжырымдамалары мен стандарттарының жалпылануын расталған AI көрсеткіштеріне есептеу арқылы кодтау және енгізу» (сонда).

  • AI арасындағы нәзік тепе-теңдік Заңның нормалар мен ережелер ретінде заңды түрде іске асуы

Заңдар бейберекет.

Кітаптар туралы кез келген заң үшін іс жүзінде заңның нені қарастыратыны туралы көптеген түсіндірулер болуы мүмкін. AI саласының тілімен айтқанда, біз заңдарды семантикалық тұрғыдан анық емес деп атаймыз. Заңға сәйкес AI-ны дамытуды қызықты және сонымен бірге бір уақытта қиын міндетке айналдыратын нәрсе осы. Қаржылық-бағдарланған жасанды интеллект қосымшалары үшін көруге болатын нақты сандардан айырмашылығы, біздің заңдарымызды AI-ға енгізу ниеті семантикалық екіұштылықтардың цунамиімен күресуді талап етеді.

Мен өзімнің қорымның AI заңдық негіздеу негіздері туралы кітабында (AILR) мен заңдарды шектелген ережелер жиынтығына кодификациялаудың бұрынғы әрекеттері бізді құқықтық салада барғымыз келетін дәрежеге жеткізбегенін талқылаймын (қараңыз). сілтеме осында). Бүгінгі AILR ережелерді пайдалану мен заң көрсететін жалпы стандарттар деп атауға болатын интеграцияны қамтуы керек.

Бұл маңызды тепе-теңдікті келесі түрде көрсетуге болады: «Тәжірибеде көптеген заң ережелері таза ереже мен таза стандарт арасындағы спектрде орналасады, ал құқықтық теория «ережелік» және «стандарттылық» дұрыс үйлесімін бағалауға көмектеседі. AI жүйелерінің мақсаттарын анықтау кезінде» (сонда).

  • Заңға бағынатын AI туралы айтатын болсақ, пудингтің дәлелдемесін талап ету

Бір нәрсені қалау бір нәрсеге ие болудан басқа.

Бұл даналықтың бір бөлігі бізде AI заңгерлік қос тексерушілерге ие болғымыз келсе де, олардың жұмыс істейтініне және дұрыс жұмыс істейтініне сенімді болуымыз керек. Бұл тағы бір қиын және қиын кедергі болатынын ескеріңіз. Мен бұған дейін AI тексеру және тексерудегі соңғы жетістіктер мен қиындықтарды қарастырдым, қараңыз сілтеме осында.

Зерттеу жұмысында атап өтілгендей: «Алшақтықты жою үшін AI үлгілері барған сайын агенттік қуаттарда, мысалы, негізгі жолдарда толық автономды көліктерде орналастырылмас бұрын, орналастырушы тарап жүйенің адам мақсаттарын, саясаттарын және заң стандарттарын түсінетінін көрсетуі керек. Валидация процедурасы АИ-нің құқықтық ұғымдардың «мағынасын» «түсінуін» көрсетуі мүмкін» (сонда).

қорытынды

Мен сізді AI Құқықтық қос тексерушілерді құру және өрістету бойынша осы асыл ізденісімде маған қосылуды қарастыруға шақырамын. Бізге осы ізгілікті ізденіске көбірек көңіл бөлу және ресурстар қажет.

Бұл сондай-ақ, жоғарыда айтылғандай, адвокаттарға көмектесу үшін пайдаланылуы мүмкін және жалпы жұртшылықтың тікелей пайдалануы мүмкін AI заңдық негіздемесіне (AILR) қол жеткізуге қосарланған міндетті қамтамасыз етеді. Шынында да, кейбіреулер сот төрелігіне толыққанды қол жеткізу сезіміне (A2J) жетудің жалғыз өміршең құралы құқықтық мүмкіндіктерді қамтитын және барлығына қол жеткізе алатын AI жасау арқылы болады деп батыл айтады.

Әзірге бір жылдам соңғы нүкте.

Талқылау осы уақытқа дейін AI заңдық қос тексерушісі AI-ге ендірілген немесе имплантацияланатынын атап өтті. Бұл шынымен де осы жаңа саланы зерттеп, қолға алушылардың басты назарында.

Міне, ойлануға тұрарлық сұрақ.

Ойланатын қалпақ киіңіз.

Неліктен барлық бағдарламалық жасақтамада AI заңды қос тексерушілерін пайдаланбасқа?

Оның мәні мынада: АИ-де тек қана AI заңды қос тексерушілерді пайдаланудың орнына, біз өз көзқарасымызды кеңейтуіміз керек. Бағдарламалық жасақтаманың барлық түрлері заңды түрде адасуы мүмкін. Жасанды интеллект адамдардың күнделікті өміріне әсер ететін іш қататын шешімдерді қабылдау сияқты әдетте қолдану тәсілдеріне байланысты AI назардың негізгі бөлігін алды. Сіз дәл солай істейтін көптеген AI емес жүйелер бар екеніне сенімді бола аласыз.

Негізінде, біз кез келген бағдарламалық жасақтаманың заңнан аулақ болу немесе болдырмау үшін тегін жүруіне жол бермеуіміз керек.

Естеріңізге сала кетейік, мен AI мен заңды біріктірудің екі санатын айтқан болатынмын. Біз бұл жерде заңға сәйкес AI-ны пайдалануға назар аудардық. Монетаның екінші жағында заңның AI-ға қолданылуы. AI Құқықтық қос тексеру құралдарын пайдалануды талап ететін заңдар шығардық делік.

Бұл алдымен AI жүйелерімен, әсіресе қауіптілігі жоғары деп бағаланған жүйелермен шектелуі мүмкін. Бірте-бірте AI заңды қос тексеру талабы AI емес бағдарламалық жасақтамаға да кеңейтілуі мүмкін. Тағы да, тегін сапарлар жоқ.

Сіз жоғарыда аталған мәселеге тоқталып жатқанда, мен қорытынды тизер ретінде заттарды дәмдейтін боламын. Егер біз AI заңды қос тексерушілерін талап еткіміз келсе, AI этикасының қос тексерушілері туралы да солай істеуіміз мүмкін. AI заңды қос тексерушісін пайдалану - бұл оқиғаның жартысы ғана және біз AI этикасы мәселелерін де елемеуге немесе ұмытуға болмайды.

Мен бұл қызықты дискурсты сүйікті дәйексөздерімнің бірімен аяқтаймын. Америка Құрама Штаттарының Бас судьясы қызметін атқарған атақты заңгер Эрл Уорреннің дана сөздері бойынша: «Өркениетті өмірде заң этика теңізінде жүзеді».

Қауіпсіздігімізге қауіп төндіретін қышқыл AI және AI емес жүйелерден басымызды төтеп беруі мүмкін ауыр теңіздерден жоғары ұстағымыз келсе, жаңадан шығып жатқан және көпіршіген AI заңды қос тексерушілерін және AI этикасының қос тексерушілерін қатаң түрде қолданған дұрыс. .

Олар адамзаттың құтқару жилетіне айналуы мүмкін.

Дереккөз: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- және-ai-law/