AI этикасы автономды AI жүйелерінде бейтарап алгоритмдерді шақыру үшін «Қызыл ту» деп аталатын AI заңдарын құруға күмәнмен қарайды.

Қызыл ту туралы заңдар туралы сөйлесейік.

Соңғы кездері жаңалықтарда «Қызыл ту туралы» Заңдар туралы түсінік кең таралғанын білесіздер. Тақырыпты қамтитын тақырыптар өте көп. Мұндай мәселелер бойынша құмарлықтар мен қызу пікірталастар қоғамды алаңдататын мәселе ретінде және қазіргі және тез дамып келе жатқан Қызыл Ту туралы қару туралы заңдарды талап етеді.

Сіз 1800 жылдардың аяғында моторлы көліктерге және бүгінгі күнделікті заманауи автомобильдердің ізашарларына қатысты қабылданған Қызыл Ту туралы басқа заңдармен таныс болмауыңыз мүмкін деп айтуға батыл едім. Иә, дұрыс, Қызыл Ту туралы заңдар бүгінгі күннің назарына қарағанда басқа тақырыптарды қамтығанымен, тарихқа қайта оралады. Олар әдетте Қызыл ту жол қозғалысы туралы заңдар деп аталады.

Бұл ғасырлық және мүлде қолданыстан шыққан заңдар сол кезде бумен жүретін кез келген моторлы арба немесе қозғалтқыш көліктің алдында ересек адам болуын және ескерту мақсатында қызыл жалаушаның болуын талап етеді. Идеясы мынада еді, малдар топырақты немесе аз төселген жолдармен баяу және біркелкі емес өтіп бара жатқан шулы және қауіпті қарама-қайшылықтардан қорқуы мүмкін, осылайша біреудің қызыл жалаушаны желбіретіп, апаттың алдын алады деп үміттенеді. Егер сізді қызықтыратын болса, темір жолдар мен пойыздар бірдей заңдардан алынып тасталды деп саналды, өйткені олар рельстерге тұтас бекітілген көлік құралдары және олардың әрекеттерін қамтитын басқа заңдар бар.

Елестетіп көріңізші, бүгінгі күні біздің қоғамдық жолдардағы әрбір көлікке қойылатын талап ретінде қызыл жалаулар желбіреуі керек.

Мысалы, сіздің маңайыңыздағы көшемен келе жатқан қарапайым көлік жүргізушісі қызыл жалауды желбіретіп тұрған ересек адамның жүріп бара жатқан көліктің алдында жүруін қамтамасыз етуі керек. Бұл сіздің көшеден өтетін әрбір көлік үшін орын алуы керек еді. Бәлкім, адамдар жолдан өтіп бара жатқан көлік жүргізушілерін жалдайтын, әйтпесе олардың алдынан өтіп, белгіленген қол бұлғау әрекетін жасай алатын досы немесе туысы жоқ қызыл жалауша жұмысшыларға айналуы мүмкін.

Біз қазір тас жолға қатысты қызыл жалаудың желбіреуін жол құрылысы алаңдарымен байланыстырамыз. Сіз қазылған жолға жақындағанда, жұмысшылар сіздің назарыңызды аудару үшін қызыл жалауды көтеріп тұрады. Бұл сізге жылдамдықты азайтып, сергек болуды білдіреді. Сіздің жолыңызға бульдозер шығып кетуі мүмкін. Алда үлкен тесік болуы мүмкін және оны абайлап айналып өту керек.

Бірақ 1800 жылдардағы қызыл жалауларды қолдануға қайта оралайық.

Сенесіз бе, сенбесеңіз, қызыл жалау желбіреген адам алдағы моторлы машинаның алдында кем дегенде сегізден бір мильге жетуі керек еді. Бұл өте ұзақ қашықтыққа ұқсайды. Біреу бұл күндерде өте мағыналы болды деп болжайды. Қозғалтқыштың таң қалдыратын дыбыстары және мүмкін көлікті көру жануарларды ашуландыру үшін жеткілікті болуы мүмкін. Сол дәуірдің кейбір Қызыл ту туралы заңдары түнде қызыл шамды жоғарыда ұстауды талап етті, осылайша көзге көрінетін қызыл сақтық ескертуі қараңғы қашықтықтан көрінуі мүмкін.

Жалпы, менің ойымша, біз қоғам ретінде қызыл жалауды бірдеңе дұрыс емес немесе кем дегенде біздің мұқият назарымызды қажет ететін сигнал немесе белгі ретінде байланыстырамыз деп айту әділетті деп ойлаймын.

Осы қызыл жалау феноменін аздап бұруға дайын болыңыз.

Жасанды интеллект (AI) туралы сөз болғанда, біз қызыл жалау ережелерін талап етуіміз керек деген пікірталастар бар.

Бұл таңқаларлық және көптеген адамдардың басын тырнап тастайтын таңқаларлық тұжырымдама. Сіз бұл қалай немесе неліктен осылай аталу керек деп таң қалуыңыз мүмкін Қызыл ту AI заңдары. Мәселені Қызыл Ту туралы жол қозғалысы туралы заңдардан (мысалы, 1800 жылдардың аяғындағылар) ажырату үшін, сондай-ақ оларды қазіргі басқа кең таралған Қызыл Ту туралы қару туралы заңдардан ажырату үшін мен мұны Қызыл Ту туралы AI заңдары деп белгілеп жатқанымды ескеріңіз.

Бізге нақты және тек AI мәселелеріне бағытталған Red Flag AI заңдары қажет пе?

Ұсынылған тәсілді қолдайтындар бізге кемсітушілік тәсілдермен орынсыз бейтараптар мен әрекеттерді қамтитын AI-ны қысқартуға көмектесетін заң ережелері қажет деп сендіреді. Дәл қазір AI құру және енгізу жабайы Батыс жағдайына ұқсайды. Жаман AI-мен күресу әрекеттері қазіргі уақытта AI этикасы бойынша нұсқаулықтардың тұжырымдалуына және қабылдануына байланысты. Жасанды интеллект этикасы және этикалық AI туралы тұрақты және кең ақпарат алу үшін қараңыз сілтеме осында және сілтеме осында, бірнеше ғана атауға болады.

Нашар AI-ға қарсы заңдар баяу әзірленіп, қабылдануда, менің қамтуды қараңыз сілтеме осында. Кейбіреулер заң шығарушылар жеткілікті жылдам жүрмейді деп алаңдайды. Қазіргі уақытта әлемде бейтарап AI-ны дамытуға мүмкіндік беретін тасқын қақпалары кеңінен ашылған сияқты. Қол сілтеу жаңа заңдар кітаптарға енген кезде зұлым жын бөтелкеден шығып кетеді дейді.

Соншалықты тез емес, қарсы аргументтер өтеді. Егер заңдар тым тез қабылданса, біз алтын қазды өлтіреміз, осылайша AI күш-жігері құрғап, жаңа AI жүйелерінің қоғамды арттыратын артықшылықтарын ала алмаймыз деген алаңдаушылық бар. AI әзірлеушілері мен AI-ды қолданғысы келетін фирмалар, егер AI-ға қатысты халықаралық заңдарды айтпағанда, AI-ға қатысты жаңа заңдардың федералдық, штаттық және жергілікті деңгейлерде кенеттен қабылданса, үрейленуі мүмкін.

Бұл беймаза іске AI туралы Red Flag заңдарына шақыру келеді.

Қызыл ту туралы AI заңының негізінде жатқан жабайы және жүнді ойлар туралы көбірек ет пен картопқа кіріспес бұрын, өте маңызды тақырыптар бойынша кейбір қосымша негіздерді анықтайық. Біз AI этикасына және әсіресе Machine Learning (ML) және Deep Learning (DL) пайда болуына қысқаша шолу жасауымыз керек.

Сіз бұл күндері AI саласындағы және тіпті AI өрісінен тыс жерде ең қатты дауыстардың бірі этикалық AI-ның көбірек ұқсастығына байланысты айқайлаудан тұратынын білмеуіңіз мүмкін. AI этикасы және этикалық AI дегенге сілтеме жасау нені білдіретінін қарастырайық. Оның үстіне, біз Machine Learning және Deep Learning туралы айтқанда не айтқым келетінін зерттейміз.

Бұқаралық ақпарат құралдарының назарын аударған AI этикасының белгілі бір сегменті немесе бөлігі теріс көзқарастар мен теңсіздіктерді көрсететін АИ-ден тұрады. Жасанды интеллекттің соңғы дәуірі басталған кезде кейбіреулер қазір деп атайтын нәрсеге үлкен ынта-ықылас тудырғанын білетін шығарсыз. Жақсылыққа арналған AI. Өкініштісі, сол бір толқудың етегінде біз де куә бола бастадық AI for Bad. Мысалы, жасанды интеллект негізіндегі бет-әлпетті тану жүйелерінің құрамында нәсілдік көзқарастар мен гендерлік көзқарастар бар екені анықталды. сілтеме осында.

Қарсы күресу әрекеттері AI for Bad белсенді жүргізілуде. Дауыстаудан басқа заңды заңсыздықты тежеуге ұмтылу, сонымен қатар AI зұлымдықты түзету үшін AI этикасын қабылдауға айтарлықтай итермелеу бар. Түсінік мынада: біз AI-ны дамыту және өрістету үшін негізгі этикалық AI принциптерін қабылдауымыз және мақұлдауымыз керек. AI for Bad және бір мезгілде артықшылықты жариялау және насихаттау Жақсылыққа арналған AI.

Осыған байланысты мен AI-ны AI қиындықтарын шешудің бір бөлігі ретінде қолдануға тырысамын, осылайша ойлау әдісімен отпен отпен күресемін. Мысалы, біз этикалық AI құрамдастарын AI жүйесіне ендіруіміз мүмкін, ол AI-ның қалған бөліктерінің қалай жұмыс істеп жатқанын бақылайды және осылайша нақты уақытта кез келген кемсітушілік әрекеттерді ұстай алады, менің талқылауымды қараңыз. сілтеме осында. Сондай-ақ бізде AI этикасы мониторының түрі ретінде әрекет ететін жеке AI жүйесі болуы мүмкін. AI жүйесі басқа AI этикалық емес тұңғиыққа қашан бара жатқанын бақылау және анықтау үшін бақылаушы ретінде қызмет етеді (мұндай мүмкіндіктер туралы менің талдауымды мына жерден қараңыз: сілтеме осында).

Біраз уақыттан кейін мен сіздермен AI этикасының негізінде жатқан кейбір негізгі принциптермен бөлісемін. Онда және мұнда өзгермелі тізімдердің көптеген түрлері бар. Сіз әмбебап тартымдылық пен келісімнің бірегей тізімі әлі жоқ деп айта аласыз. Бұл өкінішті жаңалық. Жақсы жаңалық, кем дегенде, оңай қол жетімді AI этикасының тізімдері бар және олар өте ұқсас. Мұның бәрі дәлелді конвергенция нысаны арқылы біз AI этикасының жалпы ортақтығына қарай жол тауып жатқанымызды көрсетеді.

Алдымен, жасанды интеллектпен айналысатын, өрістейтін немесе пайдаланатын кез келген адам үшін маңызды нәрсе нені көрсету керектігін көрсету үшін жалпы этикалық AI ережелерінің кейбірін қысқаша қарастырайық.

Мысалы, Ватиканның мәлімдемесінде Рим AI этикасына шақырады және мен тереңірек қарастырғанымдай сілтеме осында, бұл олардың анықталған алты негізгі AI этика қағидасы:

  • Ашықтық: Негізінде, AI жүйелері түсінікті болуы керек
  • Қосу: Барлығына пайдасын тигізу үшін және барлық адамдарға өзін көрсету және дамыту үшін ең жақсы жағдайлар ұсынылуы үшін барлық адамдардың қажеттіліктері ескерілуі керек.
  • Жауапкершілік: Жасанды интеллектті қолдануды әзірлейтін және енгізетіндер жауапкершілік пен ашықтықты сақтауы керек
  • Бейтараптылық: Әділдік пен адамдық қадір-қасиетті сақтай отырып, біржақтылық жасамаңыз немесе әрекет етпеңіз
  • сенімділік: AI жүйелері сенімді жұмыс істей алуы керек
  • Қауіпсіздік және құпиялылық: AI жүйелері қауіпсіз жұмыс істеуі және пайдаланушылардың жеке өміріне құрметпен қарауы керек.

Бұл туралы АҚШ Қорғаныс министрлігі (DoD) хабарлады Жасанды интеллектті пайдаланудың этикалық принциптері және мен тереңірек қарастырғанымдай сілтеме осында, бұл олардың AI этикасының алты негізгі қағидасы:

  • Жауапты: DoD қызметкерлері AI мүмкіндіктерін дамытуға, орналастыруға және пайдалануға жауапты бола отырып, тиісті дәрежеде пайымдау мен қамқорлық жасайды.
  • Әділ: Департамент AI мүмкіндіктеріндегі күтпеген ауытқуларды азайту үшін қасақана қадамдар жасайды.
  • Бақыланатын: Департаменттің AI мүмкіндіктері тиісті персонал AI мүмкіндіктеріне қолданылатын технологияларды, әзірлеу процестерін және операциялық әдістерді, соның ішінде мөлдір және тексерілетін әдістемелерді, деректер көздерін, жобалау процедурасы мен құжаттамасын дұрыс түсінетіндей етіп әзірленетін және орналастырылатын болады.
  • сенімді: Департаменттің AI мүмкіндіктерінің нақты, нақты анықталған пайдаланулары болады және мұндай мүмкіндіктердің қауіпсіздігі, қауіпсіздігі және тиімділігі олардың бүкіл өмірлік циклі бойынша анықталған пайдаланулар шеңберінде сынақтан және сенімділіктен өтеді.
  • Басқарылатын: Бөлім күтпеген салдарды анықтау және болдырмау, сондай-ақ күтпеген әрекетті көрсететін орналастырылған жүйелерді ажырату немесе өшіру мүмкіндігіне ие бола отырып, олардың жоспарланған функцияларын орындау үшін AI мүмкіндіктерін жобалайды және құрастырады.

Мен сондай-ақ AI этикасының принциптерінің әртүрлі ұжымдық талдауларын талқыладым, соның ішінде «AI этикасы бойынша нұсқаулықтардың жаһандық ландшафты» (жарияланған) атты мақалада көптеген ұлттық және халықаралық AI этикасының қағидаларының мәнін зерттеген және қысқартқан зерттеушілер әзірлеген топтаманы қарастырдым. ішінде табиғат) және менің қамтуым мына жерде зерттеледі сілтеме осында, бұл негізгі тізімге әкелді:

  • Ашықтық
  • Әділдік және әділдік
  • Зиянсыздық
  • жауапкершілік
  • Құпиялық
  • Қайырымдылық
  • Бостандық және автономия
  • сенім
  • тұрақтылық
  • Ар-ұждан
  • Ынтымақтастық

Тікелей болжағаныңыздай, осы қағидалардың негізінде жатқан ерекшеліктерді анықтау өте қиын болуы мүмкін. Сонымен қатар, бұл кең принциптерді AI жүйелерін жасау кезінде қолдануға болатын толықтай нақты және егжей-тегжейлі нәрсеге айналдыруға күш салу да қиын жаңғақ болып табылады. Жасанды интеллект этикасының ережелері деген не және оларды қалай сақтау керектігі туралы жалпы қолмен серуендеу оңай, ал AI кодтауындағы бұл әлдеқайда күрделі жағдай жолға сәйкес келетін нағыз резеңке болуы керек.

Жасанды интеллект этикасының принциптерін AI әзірлеушілері, сонымен қатар AI әзірлеу күш-жігерін басқаратындар, тіпті ақырында AI жүйелерін өңдейтін және жүргізетіндер де қолдануы керек. Жасанды интеллектіні әзірлеу мен пайдаланудың бүкіл өмірлік циклі бойынша барлық мүдделі тараптар этикалық АИ-нің бекітілген нормаларын сақтау аясында қарастырылады. Бұл маңызды сәт, өйткені әдеттегі болжам «тек кодерлер» немесе AI-ны бағдарламалайтындар AI этикасының түсініктерін ұстануға жатады. Жоғарыда айтылғандай, AI әзірлеу және өрістету үшін ауыл қажет және ол үшін бүкіл ауыл AI этикасының ережелерін білуі және ұстануы керек.

Сондай-ақ бүгінгі AI табиғаты туралы бір бетте екенімізді тексерейік.

Бүгінгі күні сезімтал AI жоқ. Бізде бұл жоқ. Біз сезімтал AI мүмкін болатынын білмейміз. Ешкім біз сезімтал AI-ға қол жеткіземіз бе, әлде сезімтал АИ қандай да бір түрде ғажайып түрде есептеу когнитивтік супернованың (әдетте сингулярлық деп аталады) пайда болуын болжай алмайды. сілтеме осында).

Мен назар аударатын АИ түрі бүгінгі күні бізде бар саналы емес АИ-ден тұрады. Біз жабайы болжам жасағымыз келсе сезімтал AI, бұл талқылау түбегейлі басқа бағытта жүруі мүмкін. Сезімтал AI адами сапада болуы мүмкін. Сезімтал АИ адамның когнитивтік баламасы екенін ескеру қажет. Сонымен қатар, кейбіреулер бізде өте интеллектуалды AI болуы мүмкін деп болжайтындықтан, мұндай AI адамдардан да ақылды болуы мүмкін деп болжауға болады (мүмкіндік ретінде супер интеллектуалды AI туралы зерттеуім үшін қараңыз. қамту осында).

Нәрселерді жерге түсіріп, бүгінгі санаулы емес АИ-ді қарастырайық.

Бүгінгі AI адам ойлауымен бірдей «ойлауға» қабілетсіз екенін түсініңіз. Alexa немесе Siri-мен өзара әрекеттескенде, сөйлесу мүмкіндіктері адамның мүмкіндіктеріне ұқсас болып көрінуі мүмкін, бірақ шындық - бұл есептеу және адам танымы жоқ. Жасанды интеллекттің соңғы дәуірі есептеу үлгісін сәйкестендіруге мүмкіндік беретін Machine Learning (ML) және Deep Learning (DL) мүмкіндіктерін кеңінен пайдаланды. Бұл адамға ұқсайтын бейімділікке ие AI жүйелеріне әкелді. Сонымен қатар, бүгінгі күні парасаттылыққа ұқсайтын және адамның күшті ойлауының когнитивтік ғажайыптары жоқ бірде-бір AI жоқ.

ML/DL – есептеу үлгісін сәйкестендірудің бір түрі. Әдеттегі тәсіл - шешім қабылдау тапсырмасы туралы деректерді жинау. Сіз деректерді ML/DL компьютер үлгілеріне бересіз. Бұл модельдер математикалық заңдылықтарды табуға тырысады. Осындай үлгілерді тапқаннан кейін, егер табылса, AI жүйесі жаңа деректерге тап болған кезде сол үлгілерді пайдаланады. Жаңа деректер ұсынылғаннан кейін ағымдағы шешімді қабылдау үшін «ескі» немесе тарихи деректерге негізделген үлгілер қолданылады.

Менің ойымша, сіз бұл қайда бара жатқанын болжай аласыз. Шешімдердің үлгісін қабылдаған адамдар теріс көзқарастарды біріктірсе, деректер мұны нәзік, бірақ маңызды жолдармен көрсетеді. Machine Learning немесе Deep Learning есептеу үлгісін сәйкестендіру деректерді сәйкесінше математикалық имитациялауға тырысады. Жасанды интеллект модельдеудің жалпы мағынасы немесе басқа сезімтал аспектілері жоқ.

Сонымен қатар, AI әзірлеушілері не болып жатқанын түсінбеуі мүмкін. ML/DL-дегі жасырын математика қазір жасырын көзқарастарды анықтауды қиындатуы мүмкін. Сіз AI әзірлеушілері ықтимал жерленген бейімділіктерді тексереді деп үміттенесіз және күтесіз, бірақ бұл көрінгеннен де қиынырақ. Салыстырмалы түрде ауқымды тестілеу кезінде де ML/DL үлгілерін сәйкестендіру үлгілерінде әлі де ендірілген қиғаштықтардың болатынына сенімді мүмкіндік бар.

Сіз белгілі немесе әйгілі «қоқыс ішіндегі қоқыс шығару» деген нақыл сөзді пайдалана аласыз. Мәселе мынада, бұл АИ-ге батып кеткен бейтараптар ретінде жасырын түрде енгізілетін бейімділікке көбірек ұқсайды. AI алгоритмі шешім қабылдау (ADM) аксиоматикалық түрде теңсіздіктерге толы болады.

Жақсы емес.

Қызыл ту туралы AI заңдарына назар аударайық.

Негізгі тұжырымдама мынада: адамдар AI жүйесі негізсіз немесе кемсітушілікпен жұмыс істейді деп сенген кезде қызыл жалауша көтере алады. Сіз физикалық жалауды көтермейсіз, оның орнына жай ғана алаңдаушылықтарыңызды білдіру үшін кейбір электронды құралдарды қолданар едіңіз. Схема немесе тәсілдің қызыл жалауша бөлігі физикалық іске асырудан гөрі метафора болып табылады.

Сіз үй несиесіне өтініш беріп жатырсыз деп елестетіңіз. Сіз несиеге өтініш беру үшін онлайн-банкинг қызметін пайдалануды таңдайсыз. Кейбір жеке деректерді енгізгеннен кейін сіз несиеге лайықсыз ба, жоқ па деген шешім қабылдау үшін пайдаланылатын AI жүйесін бір сәт күтесіз. AI сізге несие беруден бас тартқаныңызды айтады. Неліктен қабылданбағаныңызды түсіндіруді сұраған кезде, мәтіндік баяндау сізге AI шешім қабылдау алгоритмінің бөлігі ретінде негізсіз бейтарап факторларды пайдаланғанын көрсететін сияқты.

AI туралы Қызыл жалауды көтеру уақыты.

Бұл қызыл жалау қай жерде желбіреді?

Бұл миллион долларлық сұрақ.

Бір көзқарас мынада, біз адамдарға AI-ге қатысты қызыл жалауларды белгілеуге мүмкіндік беретін жалпыұлттық дерекқорды құруымыз керек. Кейбіреулер мұны федералды үкімет реттеуі керек дейді. Федералды агенттіктер қызыл жалауларды тексеруге және жалпы жұртшылыққа көмекке келуге және қызыл жалау туралы есептерді тудырған болжамды «жаман AI» мәселесімен күресуге жауапты болады.

Ұлттық Қызыл Ту туралы AI заңын Конгресс бекітетін сияқты. Заң AI-ға қатысты қызыл жалаудың не екенін түсіндіреді. Заң бұл AI-дің қызыл жалаушаларының қалай көтерілетінін сипаттайды. Және тағы басқа. Сондай-ақ жекелеген штаттар өздерінің Қызыл Ту туралы AI заңдарын жасауды таңдауы мүмкін. Мүмкін, олар мұны ұлттық бастаманың орнына жасайды немесе олар өздерінің нақты жағдайына ерекше тартымды мәліметтерді күшейту үшін жасайды.

Федералды немесе үкімет қолдайтын кез келген Red Flag AI бағдарламасын сынаушылар бұл жеке өнеркәсіп жасай алатын нәрсе және бізге Үлкен ағаның бірінші орынға шығуы қажет емес деп даулайды. Сала адамдар AI жүйелері туралы қызыл жалауларды тіркей алатын онлайн репозиторий құра алады. Саланың өзін-өзі бақылау әрекеті осы мәселелермен жеткілікті түрде айналысады.

Өнеркәсіптік тәсілге қатысты күмәнданатын жері, ол кронизмге ұқсайтын сияқты. Фирмалар жеке басқарылатын Red Flag AI дерекқорына бағынғысы келеді ме? Көптеген фирмалар AI туралы белгіленген қызыл жалауларды елемейді. Енгізілген қызыл жалаулармен күресуге компанияларды тартудың өткір тістері болмайды.

Ей, жеке секторды жақтаушылар үнсіз естіледі, бұл ұлттық Yelp тәрізді қызметке ұқсайды. Тұтынушылар қызыл жалаушаларға қарап, AI-бағдарланған қызыл жалаулардың көп бөлігін жинаған компаниялармен бизнес жасағысы келетінін өздері шеше алады. Өзінің AI туралы көптеген қызыл жалауларды алған банк AI жүйелеріне назар аударуы және жаңартуы керек еді, сондықтан логика сәйкес келеді, әйтпесе тұтынушылар оба сияқты фирмадан аулақ болады.

Бұл тәсілді үкімет немесе өнеркәсіп қабылдайды ма, бұл ұсынылған Қызыл Ту туралы AI заңдарының постулаттары алдында тұрған күрделі сұрақтар бойынша айсбергтің ұшы ғана.

Өзіңізді AI дамыған немесе қолданатын фирманың орнына қойыңыз. Мүмкін, тұтынушылар қызыл жалаушаларды көтеруі мүмкін, бірақ мұны істеу үшін өміршең негіз жоқ. Егер адамдар AI туралы қызыл жалаушаны еркін жариялай алса, олар мұны қалауымен жасауға немесе тұтынушыға ешқандай жамандық жасамаған фирмадан кек алу үшін азғырылуы мүмкін.

Қысқасы, AI туралы көптеген жалған-позитивті Қызыл жалаулар болуы мүмкін.

Тағы бір ескеретін нәрсе - алынған қызыл жалаулардың үлкен өлшемі немесе шамасы. Миллиондаған қызыл жалаулар оңай көтерілуі мүмкін. Осы қызыл жалаулардың бәрін кім қадағалайды? Мұны істеудің құны қандай болады? Қызыл жалауды кейінгі әрекеттер үшін кім төлейді? т.б.

Егер сіз AI туралы қызыл жалауды тіркеген немесе хабарлаған кез келген адам ақы төлеуі керек деп айтсаңыз, сіз бұлыңғыр және жасырын салаға кірдіңіз. Тек ауқатты адамдар қызыл жалауларды көтере алады деген алаңдаушылық туады. Бұл өз кезегінде кедейлердің қызыл жалау іс-шараларына бірдей қатыса алмайтынын және іс жүзінде жағымсыз АИ туралы ескертуге орын болмайтынын білдіреді.

Әзірге тағы бір қосымша бұрылыс, атап айтқанда, AI туралы мұндай қызыл жалау туралы заңдар немесе нұсқаулар алдын ала ескерту ретінде емес, фактіден кейін пайда болған сияқты.

Қызыл тудың жол қозғалысы туралы заңдарына қайта оралсақ, қызыл жалауды пайдаланудың басты мақсаты алдымен апаттың алдын алу болды. Қызыл жалаушы келе жатқан көліктен алда болуы керек еді. Көліктен озып кету арқылы мал дабылға ие болады және малды күзететіндер жақын арада келе жатқан мазасыз көзге байланысты сақтық шараларын қолдану керектігін біледі.

Егер адамдар өздерінің құқықтарына зиянын тигізген немесе төмендететін AI туралы қызыл жалауды көтере алса, мақал-мәтелдік жылқы қорадан шығып кетті. Мұның бәрі орындалатын сияқты, басқа адамдар енді осы AI жүйесінен сақ болуды біледі деп үміттенеміз. Сонымен қатар, жәбірленді деген адам зардап шегіп үлгерді.

Кейбіреулер адамдарға AI туралы қызыл жалауларды көтеруге мүмкіндік беруіміз мүмкін деп болжайды Күдікті олар AI қолданбаса және АИ тікелей әсер етпесе де, біржақты болуы мүмкін. Осылайша, зақымдалғанға дейін қызыл жалау желбіреді.

Иә, сіз AI-мен күресетін қызыл жалауларды толығымен басқарылмайтын және хаотикалық іске айналдырасыз. Егер кез келген адам қандай да бір себептермен AI жүйесі туралы қызыл жалауша көтерсе, бұл AI-мен мүлдем ештеңе жасамағанына қарамастан, сіз қызыл жалауларға толы боласыз. Ең сорақысы, бидайды сабаннан ажырата алмайсың. Бүкіл қызыл жалау тәсілі өз салмағының астында құлап, флотсам мен риффраффқа бүкіл кемені суға батыруға мүмкіндік беру арқылы идеяның жақсылығын жояды.

Бас айналу және шатастыру.

Осы маңызды пікірталастың дәл осы тұсында, мен сізге осы тақырыпты көрсетуі мүмкін кейбір көрнекі мысалдар қажет екеніне сенімдімін. Менің жүрегіме жақын болатын ерекше және танымал мысалдар жиынтығы бар. Көрдіңіз бе, менің AI бойынша сарапшы ретінде этикалық және құқықтық салдарларды қоса алғанда, тақырыптың біршама теориялық сипатын оңай түсіну үшін AI этикасының дилеммаларын көрсететін нақты мысалдарды анықтауды жиі сұрайды. Бұл этикалық AI екіұштылығын айқын көрсететін ең қызықты салалардың бірі - AI негізіндегі өзін-өзі басқаратын автомобильдердің пайда болуы. Бұл тақырып бойынша кең талқылау үшін ыңғайлы пайдалану жағдайы немесе үлгі ретінде қызмет етеді.

Олай болса, ойлануға тұрарлық маңызды сұрақ: AI негізіндегі өзін-өзі басқаратын автомобильдердің пайда болуы Қызыл Ту туралы AI заңдары туралы ештеңені жарықтандырады ма, егер солай болса, бұл нені көрсетеді?

Маған сұрақты ашуға бір сәт рұқсат етіңіз.

Біріншіден, нағыз өзін-өзі басқаратын көлікте адам жүргізуші жоқ екенін ескеріңіз. Нағыз өзін-өзі басқаратын көліктер AI жүргізу жүйесі арқылы басқарылатынын есте сақтаңыз. Рульде адам жүргізушінің де қажеті жоқ, көлікті адам басқаратын жағдай да жоқ. Автономды көліктер (АВ) және әсіресе өзін-өзі басқаратын көліктер туралы кең және үздіксіз ақпарат алу үшін қараңыз. сілтеме осында.

Мен нағыз өздігінен жүретін көліктерге сілтеме жасағанда нені білдіретінін қосымша түсіндіргім келеді.

Өздігінен басқарылатын автомобильдердің деңгейлерін түсіну

Түсініктеме ретінде, нағыз өзін-өзі басқаратын автомобильдер - бұл АИ көлікті толығымен өздігінен басқаратын және жүргізу кезінде ешқандай адам көмегінсіз жүретін көліктер.

Бұл жүргізушісіз көліктер 4-деңгей және 5-деңгей болып саналады (менің түсіндірмені қараңыз мына сілтеме), ал адам жүргізушінің жүргізу күш-жігерін бірге бөлісуін талап ететін көлік әдетте 2 немесе 3-деңгейде қарастырылады. Жүргізу міндетін бірге орындайтын көліктер жартылай автономды болып сипатталады және әдетте әр түрлі ADAS (Driver-Assistance Advanced Systems) деп аталатын автоматтандырылған қондырмалар.

5-деңгейде нағыз өзін-өзі басқаратын көлік әлі жоқ, және біз бұған жету мүмкін бе, жоқ па, оған жету үшін қанша уақыт кететінін әлі білмейміз.

Сонымен қатар, 4-деңгейдегі күш-жігер бірте-бірте өте тар және таңдамалы қоғамдық жол сынақтарынан өту арқылы біраз тартуға тырысады, дегенмен бұл сынаққа рұқсат беру керек пе деген пікірталас бар (біз бәріміз экспериментте өмір немесе өлім-жітім теңіз шошқаларымыз) Біздің магистральдарда және айналма жолдарда орын алуда, кейбіреулер даулайды, менің хабарымды мына жерден қараңыз мына сілтеме).

Жартылай автокөліктер адам жүргізушісін қажет ететіндіктен, бұл көлік түрлерін қабылдау әдеттегі көліктерді басқарудан айтарлықтай ерекшеленбейді, сондықтан бұл тақырыпта олар туралы көп жаңалық таба алмайсыз (дегенмен, сіз көресіз Бір сәтте келесі ойлар жалпыға бірдей қолданылады).

Жартылай автокөліктер үшін көпшіліктің соңғы уақытта пайда болатын алаңдатарлық аспект туралы алдын-ала ескертуі маңызды, атап айтқанда 2-деңгей немесе 3-деңгейлі автокөліктің дөңгелегінде ұйықтап жатқандығы туралы бейнежазбаларын жазып жүрген адамдарға қарамастан. , жартылай автономды автокөлік жүргізу кезінде жүргізуші олардың назарын басқару тапсырмасынан алуы мүмкін деп сендіруден аулақ болуымыз керек.

Автоматизацияның 2 немесе 3 деңгейге өтуіне қарамастан, сіз көлік құралын басқаруға жауаптысыз.

Өзін-өзі басқаратын көліктер және қызыл жалау туралы AI заңдары

4 және 5-деңгейдегі өздігінен жүретін көліктер үшін жүргізуші рөлінде адам жүргізушісі болмайды.

Барлық жолаушылар жолаушылар болады.

AI жүргізуді жүргізуде.

Тез арада талқылаудың бір аспектісі бүгінгі жасанды интеллект жүргізуші жүйелеріне қатысатын жасанды интеллекттің сезімтал болмауына алып келеді. Басқаша айтқанда, жасанды интеллект - бұл компьютерлік бағдарламалау мен алгоритмдердің жиынтығы, сондықтан адамдар ойлап тапқан тәртіппен ой қорыта алмайды.

Неліктен бұл интеллектке қосымша назар аударылмайды?

Мен жасанды интеллектті қозғау жүйесінің рөлін талқылағанда мен жасанды интеллектке адами қасиеттерді жатқызбайтынымды атап өткім келеді. Бүгінгі күні жасанды интеллект антропоморфизациясының тұрақты және қауіпті тенденциясы бар екенін ескеріңіз. Шын мәнінде, адамдар мұндай жасанды интеллект әлі жоқ екендігі туралы даусыз және талассыз фактілерге қарамастан, бүгінгі жасанды интеллектке адам тәрізді сезімді тағайындайды.

Осы нақтылау арқылы сіз AI жүргізу жүйесі қандай да бір түрде жүргізудің қырлары туралы «білмейді» деп ойлауға болады. Жүргізу және оған қатысты барлық нәрселер өзін-өзі басқаратын машинаның аппараттық және бағдарламалық жасақтамасының бөлігі ретінде бағдарламалануы керек.

Осы тақырып бойынша ойнауға келетін көптеген аспектілерге сүңгейік.

Біріншіден, AI өздігінен жүретін көліктердің барлығы бірдей емес екенін түсіну маңызды. Әрбір автоөндіруші және өзін-өзі басқаратын технологиялық фирма өзін-өзі басқаратын көліктерді ойлап табуда. Осылайша, AI жүргізу жүйелері не істейтіні немесе жасамайтыны туралы нақты мәлімдеме жасау қиын.

Сонымен қатар, AI басқару жүйесі белгілі бір нәрсені жасамайтынын айтқан кезде, оны кейінірек компьютерді дәл осылай жасауға бағдарламалайтын әзірлеушілер басып озуы мүмкін. Бірте -бірте AI басқару жүйелері біртіндеп жетілдіріліп, кеңейтілуде. Бүгінде бар шектеулер болашақта жүйенің қайталануында немесе нұсқасында болмауы мүмкін.

Бұл мен айтатын нәрсенің негізін салу үшін жеткілікті ескертулер береді деп үміттенемін.

Қызыл тудың AI заңын қолдануы мүмкін сценарийді сызып көрейік.

Сіз AI негізіндегі өздігінен жүретін көлікке отырасыз және автономды көлік сізді жергілікті азық-түлік дүкеніне апаруын қалайсыз. Салыстырмалы түрде қысқа сапар кезінде AI сізге дұрыс емес болып көрінетін бағытты ұстанады. Тікелей жолмен жүрудің орнына, AI жолдан тыс көшелерге жылжиды, бұл көлік жүргізу уақытын әдеттегіден жоғарырақ етеді.

Не болып жатыр?

Өздігінен басқарылатын көлікті пайдаланғаны үшін ақы төлеп жатырсыз деп болжасаңыз, AI жол ақысын немесе сапар құнын көтеру үшін ұзағырақ бағытты жүргізуге бағдарламаланған деп күдіктенуіңіз мүмкін. Кәдімгі адам басқаратын кабинаға отырған кез келген адам есептегіште көбірек қамыр алу үшін орын алуы мүмкін қулық туралы біледі. Әрине, адамдар таксиде немесе оның баламасымен жүргенде смартфондарында GPS бар болса, қажетсіз ұзақ маршруттарға жасырын түрде бара жатқан адам жүргізушіні оңай ұстай аласыз.

Сізде маршрут таңдауға қатысты тағы бір алаңдаушылық бар екені белгілі болды, бұл сізді шынымен кеміретін нәрсе.

Маршрут нәсілдік аспектілерге байланысты қаланың белгілі бір бөліктерін болдырмау үшін жасалды делік. Мұндай таңдау жасау кезінде ұсталған адам жүргізушілердің құжатталған жағдайлары бар, менің талқылауымды қараңыз сілтеме осында. Мүмкін, АИ оған теріс бағдарламаланған.

Сіз қызыл жалауды көтеруді шешесіз.

Талқылау үшін сіздің юрисдикцияңызды қамтитын Қызыл Ту туралы AI заңы қабылданды деп есептейік. Бұл жергілікті заң, штат заңы, федералды немесе халықаралық құқық болуы мүмкін. Мен Гарвардтың Автономды көлік саясаты бастамасымен (AVPI) бірлесіп жазған талдау үшін қауымдастықтар өзін-өзі басқаратын көліктерді пайдалануды қабылдаған кезде жергілікті басшылықтың маңыздылығының артуы туралы ақпаратты қараңыз. сілтеме осында.

Сонымен, сіз Red Flag AI деректер базасына онлайн кіресіз. Оқиғалар дерекқорына сіз өздігінен жүретін көлік сапары туралы ақпаратты енгізесіз. Бұған өздігінен жүретін көліктің маркасы мен үлгісімен бірге жүру күні мен уақыты кіреді. Содан кейін сіз күдікті болып көрінген навигациялық маршрутқа кіресіз және сіз AI біржақты немесе кемсітушілік ниет пен мүмкіндіктермен жасалған деп ұсынасыз немесе тікелей мәлімдейсіз.

Біз осы нақты сценарийде бұдан әрі не болатыны туралы Қызыл Ту туралы AI заңының басқа мәліметтері туралы болжауға тура келеді. Теориялық тұрғыдан алғанда, біреудің қызыл жалауды қайта қарауы туралы ереже болады. Олар автоөндірушіден немесе өзін-өзі басқаратын технологиялық фирмадан журналға жазылған қызыл жалауға өз көзқарасын түсіндіруге тырысады. Тағы қанша осындай қызыл жалаулар тіркелді? Бұл қызыл жалаулар қандай нәтиже берді?

Солай бола береді.

қорытынды

Ақылсыз, кейбір скептиктер үгіттейді.

Бізге Red Flag AI заңдары қажет емес, олар қатаң түрде әрекет етеді. Кез келген нәрсені жасау AI қарқыны мен прогрессіне қатысты жұмыстарды күшейтеді. Мұндай заңдардың кез келгені тиімсіз болар еді. Сіз мәселені шешпейтін мәселені жасайсыз. Жасанды интеллектпен күресудің басқа да жаман жолдары бар. Біржақты AI-мен күресу үшін сабандарды соқыр ұстамаңыз.

Берілістерді ауыстыра отырып, корридашылардың ашулы бұқаның назарын аудару үшін қызыл шапандар пайдаланатынын бәріміз білеміз. Қызыл түс біз бұл тәжірибемен жиі байланыстыратын түс болса да, ғалымдардың бұқалар мулетаның қызыл түсін қабылдамайтынын (олар қызылдан қызылға соқыр) деп айтқанына таң қалуыңыз мүмкін. Танымал шоу Мифбасерлер бұл мәселе бойынша өте қызықты сараптама жасады. Кептің қозғалысы таңдалған түстен гөрі негізгі элемент болып табылады.

Қызыл жалау туралы AI заңдарының қажеттілігін жоққа шығаратындар үшін қарсы талап - AI әзірлеушілері мен AI-ды қолданатын фирмалар біржақты немесе нашар AI-дан аулақ болатынына көз жеткізу үшін бізге драмалық және анық толқынды сипаттағы нәрсе қажет. Егер қызыл жалау болмаса, желбіреген шапан немесе негізінен ескертудің кез келген түрі тиісті түрде қарастырылатын салада болуы мүмкін.

Біз нашар AI бар екенін және одан да көп жаман AI біздің бағытқа қарай бет алатынын нақты білеміз. Жағымсыз AI-дан өзімізді қорғау жолдарын табу өте маңызды. Сол сияқты, жаман AI әлемге енуіне жол бермеу үшін қоршауларды орнату бірдей маңызды.

Эрнест Хемингуэй бұқашылардан басқа ешкім ешқашан өмір бойы өмір сүрмейді деп атады. Бізге қандай да бір AI зұлымдығы немесе ақылсыздығы жарияланғанына қарамастан, адамдар өз өмірін толығымен өткізе алатынына көз жеткізуіміз керек.

Дереккөз: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-called-red-flag-ai-laws-for-calling-out- автономды-ай-жүйелеріндегі жақты-алгоритмдер/