Жасанды интеллект этикасы нашар әрекет еткен AI үшін жауапкершілікті қамтамасыз ету үшін өтеу қорларын заңды түрде міндеттеудің артықшылығын талқылау

Кім кінәлі?

Бұл қарапайым сұрақ сияқты көрінуі мүмкін, бірақ аты аңызға айналған Эбботт пен Костелло дуэтінің бейсбол командасы туралы әйгілі комедиясында «кім» шатастыруы мүмкін. Сіз бұл туралы түсініксіз болуы мүмкін Кім Бірінші олар барлық уақыттағы ең ұзақ скиттердің біріне айналдырған комедиялық бағдарлама (оны естімегендер үшін спойлер туралы ескерту).

Эбботт Костеллоға кім бірінші, не екінші, ал мен білмеймін үшінші орында екенін айтады. Ақылға қонымды айла мынада: бірінші басшының аты Кім, екінші жертөленің аты не, үшінші подвалдың аты Мен білмеймін. Әрине, бұл фразалар да өздерінің шартты мағынасына ие, сондықтан Эбботттың айтқанын түсіндіруге тырысу мүлдем шатасуы мүмкін. Шынында да, Костелло бірінші болып кім бар деген зиянсыз болып көрінетін сұрақты қояды, оған жауап қатты иә. Бірақ бұл Костелло үшін мағынасы жоқ, өйткені ол атау күткен және оның орнына жауап ретінде таңқаларлық иә деп жауап берген.

Жасанды интеллект (AI) пайда болған кезде берілістерді ауыстыру, үнемі қойылатын сұрақтардың бірі AI адасып кеткенде кім немесе не жауап береді дегенді білдіреді.

Мен бұрын AI қылмыстық әрекеттерге әкелетін немесе жасағаны үшін қылмыстық жауапкершілікті талқыладым. сілтеме осында. Сондай-ақ азаматтық жауапкершілік мәселесі бар, мысалы, AI сізге қателескен кезде кімге немесе нені сотқа беруіңіз мүмкін, бұл мен осы жерде талқылайтын тақырып. Мұның барлығында AI этикасының маңызды ойлары бар. Жасанды интеллект этикасы және этикалық AI туралы тұрақты және кең ақпарат алу үшін қараңыз сілтеме осында және сілтеме осында, бірнеше ғана атауға болады.

AI этикасының ережелері бізді сергек болуға мәжбүр етеді. AI технологтары кейде технологиямен, әсіресе жоғары технологияларды оңтайландырумен айналысуы мүмкін. Олар міндетті түрде үлкен әлеуметтік салдарларды қарастырмайды. Жасанды интеллект этикасы туралы ой-пікірдің болуы және оны AI әзірлеу және өрістету үшін интегралды түрде жасау сәйкес AI жасау үшін өте маңызды, соның ішінде (таңқаларлық немесе ирониялық) AI этикасын фирмалар қалай қабылдайтынын бағалау.

Жалпы AI этикасының ережелерін қолданудан басқа, бізде AI-ны әртүрлі пайдалануды реттейтін заңдар болуы керек пе деген сәйкес сұрақ бар. Федералды, штаттық және жергілікті деңгейлерде AI қалай жасалуы керектігі мен сипатына қатысты жаңа заңдар әзірленуде. Мұндай заңдарды әзірлеу және қабылдау әрекеті кезең-кезеңімен жүргізілуде. AI этикасы, ең болмағанда, қарастырылатын үзіліс ретінде қызмет етеді және белгілі бір дәрежеде бұл жаңа заңдарға тікелей қосылады.

Кейбіреулер бізге AI қамтитын жаңа заңдар қажет емес және біздің қолданыстағы заңдарымыз жеткілікті деп батыл дау жасайтынын ескеріңіз. Шындығында, олар егер біз осы AI заңдарының кейбірін шығарсақ, үлкен әлеуметтік артықшылықтар беретін AI-дағы жетістіктерді қысқарту арқылы алтын қазды өлтіретінімізді алдын ала ескертеді.

Қолданыстағы заңдар қоғамда AI жүйелерінің пайда болуын дұрыс шеше ала ма деген қызу пікірталас жүріп жатыр. Заңды жауапкершілік әдетте есектің құйрығын зиянды әрекетке кім жауапты екенін білуді талап етеді. AI жағдайында белгілі бір адамды немесе адамдарды қандай да бір зиянды әрекетті жасаған АИ-мен байланыстыратын өте түсініксіз жол болуы мүмкін. Жасанды интеллект көзі немесе өнертапқышы үшін AI негізінен қадағаланбауы мүмкін.

Тағы бір ескеретін жайт, АИ-нің тамырын біреуден іздеуге болатын болса да, мәселе адам немесе адамдар АИ тудырған жағымсыз нәтижені негізді түрде болжай алмады ма деген сұрақ туындайды. Алдын ала білудің түйіні заңды жауапкершілікті бағалаудың әдеттегі маңызды факторы болып табылады.

Сіз жай ғана АИ-дің өзінен кейін барып, АИ-ді келтірілген зиян үшін жауапты немесе жауапты заңды тарап деп атауға болады деп ойлауға азғырылуы мүмкін. Жалпы алғанда, AI әлі заңды тұлғалық деңгейге жеткен жоқ деген заңды көзқарас басым. Осылайша, сіз қатаң түрде AI-ны төлеуге ұмтыла алмайсыз және сахнаның артында тұтқалармен жұмыс істейтін адамдарды табу керек болады (AI үшін заңды тұлғаны талдау үшін, қараңыз. сілтеме осында).

Осы әлеуетті заңсыздықтың барлығына қысқа мерзімді негізде немесе мүмкін ұзақ мерзімді жолмен ықтимал емдеу ретінде қолданылатын идея кіреді. Бұл АИ-ден зардап шеккендерге қаржылық көмек көрсету үшін арнайы өтемақы қорын құру керек деген ой. Егер сіз басқаша түрде АИ сізге өтемақы алу үшін қол жеткізе алмасаңыз және сіз жауапқа тартылуы мүмкін адамдарды анықтай алмасаңыз, келесі ең жақсы нұсқа AI зардап шеккендерге көмектесуге бағытталған өтемақы қорын пайдалану болуы мүмкін.

Мұндай қор ойландыратын зерттеу жұмысында айтылғандай сақтандырудың бір түріне ұқсайды: «Бұл негізінен белгісіздікке қарсы сақтандыру механизмі болар еді: жауапкершілікті талап еткен жағдайларда тез өтемақы үшін нақты және ашық негіз. зиян келтіретін іс-әрекеттің болжанбайтын сипатына, зақымданудың (түріне) немесе шамадан тыс шығындарға және/немесе процедураның күрделілігіне байланысты белгісіз немесе табысқа жету перспективасы жоқ» (Оливия Эрдели мен Габор Эрделидің мақаласы, «AI жауапкершілігі туралы басқатырғыштар» Қорға негізделген жұмыс», Жасанды интеллект зерттеулері журналы, 2021).

Өтемақы қоры кең ауқымды AI кепілдігі схемасының (AIGS) бөлігі болады және заңды жауапкершілік туралы қолданыстағы заңдарға кейбір жеңіл өзгерістермен бірге жүреді. Қолданыстағы құқықтық режимдерге демонстрациялық өзгерістердің анағұрлым күшті сериясы енгізілсе, жеңіл жанасуды қабылдау оңайырақ болар еді және ауыр құқықтық және әлеуметтік күйзелістерді қажет етпейтін болар еді. Зерттеушілердің пікірінше: «Бұл тез шешілетін шешімнің тартымдылығына қарамастан, біздің сенімімізді көрсетеді. өзгермеген AI немесе a-ға қолданыстағы жауапкершілік ережелерін қолдану протекционистік мотивация Кез келген шығынмен жауапкершілікті орнату мақсатында қатаң жауапкершілікке жүгіну үш себеп бойынша дұрыс жауап болып табылмайды: Біріншіден, бұл ережелер әртүрлі жағдайларға бейімделгенін және демек, AI үшін орынсыз болуы мүмкін екенін елемеу, олар басқарудың нәзік теңдестірілген мақсаттарына қайшы келеді. құқықтық жауапкершілік жүйесі. Екіншіден, олар жазалаушы тәсілді қолдану арқылы AI инновациясын тежейді. Үшіншіден, қатаң жауапкершілікке негізсіз жүгіну алдын ала болжауға және қателік мәселелерін оларды түзетудің орнына, догматикалық тұрғыдан сәйкес келмейтін түрде айналып өтеді» (жоғарыда келтірілген қағаз бойынша).

Мұндай AI өтемақы қорларының пайдасына дәлелдер мыналарды қамтиды:

  • Жасанды интеллект келтіретін зиянмен күресу үшін ұзақ және қымбат сот процестерінің қажеттілігін азайтады
  • Адамдарды AI-ны пайдалана алатынына және зиян келтірген жағдайда өтемақы алатынына сендіреді
  • AI инноваторлары алдында тұрған заңды белгісіздікті жеңілдету арқылы AI инновациясын алға жылжытады
  • Қолданыстағы заңдарға ауқымды өзгерістер енгізуден әлдеқайда жылдамырақ пайдалануға болады
  • Сенімді және оңай қол жетімді салыстырмалы түрде анық құрал ұсынады
  • басқа

Сонымен қатар, AI өтемақы қорларына қарсылықтар мынаны айтады:

  • AI жасаушыларға шамадан тыс бейхабар болсын және оларға жауапкершіліктен бас тартуға мүмкіндік берейік
  • Қауіпсіздік пен дұрыс басқаруды қамтамасыз етпейтін AI жасаушыларды AI жасауға итермелейді
  • Адамдарды AI зияны туралы жалған мәлімдеуге итермелеуі мүмкін, осылайша олар қаражатты пайдалана алады
  • Жасанды интеллектті жеткілікті түрде басқару үшін заңдарымызды қайта қараудың шынайы қажеттілігін жоққа шығарады және жоққа шығарады
  • Бұл қаражатты ысырап ететін және дұрыс пайдаланбайтын бюрократиялық қорқынышқа айналуы мүмкін
  • басқа

Әлбетте, бұл мүлде даулы ұғымды жақтаушылар да, қарсылар да бар.

Сізге зиян келтіретін AI туралы өсіп келе жатқан алаңдаушылыққа ықтимал көзқарас ретінде AI өтемақы қорын жоққа шығару қиынға соғады. Ұсынылған шешім де слем-данк емес.

Бір көзқарас мынада, AI жасаушылар AI-ны ойлап табу және тарату кезінде күш-жігерінің бөлігі ретінде қорларға ақша салуы керек. Бұл AI-ны әлемге шығару мүмкіндігінің бөлігі ретінде олар төлеуге міндетті төлем немесе салық түрі ретінде қарастырылуы мүмкін. Бірақ бұл қосымша құн бүгінгі AI шекараларын ығыстыруға тырысатын стартаптардың күш-жігерін тежей ме? Ал AI жасаушылардың өз алымдарын немесе салықтарын төлегеніне көз жеткізуді қамтамасыз ету қалай өңделеді?

Көптеген сұрақтар туындайды және оларды шешу қажет:

  • AI өтемақы қоры қай елдерде тиімдірек болады?
  • Бір-бірімен байланысты AI өтемақы қорларының жаһандық көрінісін құруға бола ма?
  • Мұндай қаражатпен байланысты егжей-тегжейлі және жұмыс істейтін механизмдер қандай болар еді?
  • AI өтемақы қорлары қалай қаржыландырылады (мемлекеттік, жеке, қайырымдылық)?
  • Бұл кінәсіз сақтандырудың негізі бола ма, әлде басқа тәсіл қолданыла ма?
  • Және т.б.

Жасанды интеллект өтемдік қорлары идеясы бұрыннан бар сала автономды көліктер мен өздігінен жүретін көліктер сияқты автономды жүйелерден тұрады. Өзін-өзі басқаратын көліктер мен AI автономды жүйелері туралы ақпарат алу үшін қараңыз сілтеме осында.

Бұл AI негізіндегі өздігінен жүретін көліктер үшін қалай жұмыс істейтіні туралы эскиз.

Өздігінен басқарылатын көлік велосипедшіге соқтығысты делік. Велосипедші зардап шекті. Велосипедші автономды көлік өндірушісін қудалау арқылы сотқа жүгінуі мүмкін. Немесе олар AI жүргізу жүйесін жасаған өзін-өзі басқаратын технологиялық фирмаға бағытталған болуы мүмкін. Өздігінен басқарылатын көлік флот ретінде пайдаланылса, тағы бір заңды жол - флот операторын іздеу. Жасанды интеллектпен сотқа жүгіну осы сәтте мүмкін емес, өйткені АИ-нің заңды тұлғасы әлі анықталмаған.

Осы тараптардың кез келгеніне қатысты заңды шара қолданудың орнына, AI-ның қолайлы өтемақы қорына өтініш беру немесе талап қою басқа шара болады. Қор шағымды қарауды қамтитын процестерді рәсімдеп, содан кейін талап қоюшыға өтемақы төлемдері ұсынылуы мүмкін екенін анықтайды. Қор оларды дұрыс қабылдамады немесе қор жеткіліксіз өтемақы алды деп есептейтін үміткерлерге көмектесетін апелляция процесі болуы мүмкін.

Теориялық тұрғыдан, AI өтемақы қоры келтірілген зиянның орнын толтырудың әлдеқайда жылдам жолы болар еді. Сотқа тартылған фирмалар істі созуға тырысуы мүмкін сот ісі қаншалықты ауыр болуы мүмкін екенін елестете аласыз.

Адвокаттар AI өтемақы қоры басқа тараптарға, мысалы, AI жасаушыларға велосипед жүргізушісін қағып кеткен қоғамдық жолдарда өздігінен басқарылатын көлігін жібергені үшін қандай да бір нақты жазадан құтылуға мүмкіндік беретінін баса айтуы мүмкін. Бұл фирмалар «байқаусыз» тағы не істеуге болады? Олардың басына салбырап тұрған заңды қылыштың елесі болмаса, біз күн сайын қауіп төндіретін қабілеттерге толы AI-мен бетпе-бет келе аламыз.

Аргументтер дөңгелене түседі.

қорытынды

AI этикасы бізге АИ-нің этикалық және құқықтық салдарын әрқашан ескеру керек екенін еске салады. Бұл АИ өтемақы қорлары жағдайында, АИ зардап шеккендердің орнын толтыру үшін сақтандыруға ұқсас қаражат қоры туралы ұсынылған түсінік тартымды болып көрінеді. Қаражаттар сол жерде күтіп тұрған сияқты, игерілуге ​​және мүмкіндігінше тезірек өтемақы беруге дайын.

Қауіпсіздікті басқару аз және азырақ AI жасау үшін бұл тасқынды ашуға мүмкіндік бере ме деген келіссөздер қорқынышты және тым шынайы алаңдаушылық тудырады. Қазірдің өзінде біраз жүріп жатқан отқа май құюдың қажеті жоқ шығар.

Біз әлі де AI жасаушыларын тиісті этикалық AI ойлап табуға және бір уақытта осы AI өтемақы қорларын құруға әлі де қолдау көрсете аламыз ба?

Кейбіреулер иә, қолымыздан келеді дейді. Қолданыстағы заңдарды AI-ның өтемақы қорларына сәйкестендіру үшін қайта құру арқылы АИ-ден зардап шеккендер өздерінің әділ өтемін іздеудің екі жақты жолы болуы мүмкін.

Кім бірінші?

Иә, бұл (бәрімізде сияқты) біз AI өтемақы қорларын әлеуетті пайдалану туралы ойлануымыз керек және қолданыстағы заңдарды аз болса да өзгертіп, жақсы АИ-нің шабуылымен күресу үшін құралдармен қамтамасыз етуіміз керек екенін бірінші рет ескертеді. жаман AI.

Бұл өмірлік маңызды мәселеде ешқандай шатасушылық жоқ.

Дереккөз: https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legalally-mandating-atonement-funds-to-ensure-ai- жауапкершілік/