Ешкім айтпайтын жасанды интеллекттің қауіптілігі

уақыт GPT чат зиянсыз және пайдалы тегін құрал болып көрінуі мүмкін, бұл технология экономикамызды және қоғамды қайта құруға мүмкіндігі бар, өйткені біз оны түбегейлі білеміз. Бұл бізді алаңдатарлық мәселелерге әкеледі және біз оларға дайын болмауымыз мүмкін. 

ChatGPT, жасанды интеллект (AI) арқылы жұмыс істейтін чатбот 2022 жылдың соңына қарай әлемді жаулап алды. Чатбот біз білетіндей іздеуді бұзуға уәде береді. Тегін құрал пайдаланушылар берген кеңестерге негізделген пайдалы жауаптар береді. 

Интернетті AI чат-бот жүйесі туралы есінен шығаратын нәрсе - ол тек іздеу жүйесінің құралына ұқсас жауаптар бермейді. ChatGPT бірнеше минут ішінде фильм контурларын жасай алады, бүкіл кодтарды жаза алады және кодтау мәселелерін шеше алады, бүкіл кітаптарды, әндерді, өлеңдерді, сценарийлерді немесе сіз ойлаған кез келген нәрсені жаза алады. 

Бұл технология әсерлі және ол іске қосылғаннан кейін бес күн ішінде бір миллионнан астам пайдаланушыны кесіп өтті. Өзінің таң қалдыратын өнімділігіне қарамастан, OpenAI құралы басқа салалардағы ғалымдар мен сарапшылар арасында алаңдаушылық тудырды. Доктор Брет Вайнштейн, автор және эволюциялық биологияның бұрынғы профессоры: «Біз ChatGPT-ке дайын емеспіз» деді. 

Илон Маск, OpenAI-тің бастапқы кезеңдерінің бөлігі және компанияның тең құрылтайшыларының бірі болды. Бірақ кейіннен басқармадан кетті. Ол AI технологиясының қауіптілігі туралы бірнеше рет айтты - ол шектеусіз пайдалану және дамыту адамзаттың өмір сүруіне айтарлықтай қауіп төндіретінін айтты. 

Бұл қалай жұмыс істейді?

GPT чат 2022 жылдың қарашасында OpenAI шығарған тілге үйретілген үлкен жасанды интеллект чат-бот жүйесі. Пайдасы шектеулі компания ChatGPT-ті AI-ны «қауіпсіз және пайдалы» пайдалану үшін әзірледі, ол сіз ойлаған кез келген нәрсеге жауап бере алады - рэп әндері, көркемдік нұсқаулардан фильм сценарийлері мен эсселерге дейін. 

Бұл не айтып тұрғанын білетін шығармашылық тұлға сияқты көрінгенімен, олай емес. AI чатботы ғаламтордағы ақпаратты ауқымды деректер орталығының болжамды үлгісін пайдаланып тексереді. Google және көптеген іздеу жүйелерінің әрекетіне ұқсас. Содан кейін ол оқытылады және көптеген деректерге ұшырайды, бұл AI-ға сөздердің тізбегін болжауда өте жақсы болуға мүмкіндік береді, ол керемет ұзақ түсініктемелерді біріктіре алады. 

Мысалы, энциклопедияға «Эйнштейннің үш заңын түсіндір» сияқты сұрақтар қоюға болады. Немесе «Діни этика мен Таудағы уағыз этикасының қиылысы туралы 2,000 сөзден тұратын эссе жазыңыз» сияқты нақты және тереңірек сұрақтар. Ал, мен сізді алдамаймын, сіз мәтінді секундтарда тамаша жазасыз. 

Сол сияқты, бәрі тамаша және әсерлі; бұл алаңдатарлық және алаңдатады. «Ex Machina» дистопиялық болашақтың бұзылуы AI-ны дұрыс пайдаланбау мүмкіндігі болып табылады. Tesla және SpaceX бас директоры бізге ескертіп қана қоймай, көптеген сарапшылар дабыл қаққан. 

AI қауіптері

Жасанды интеллект біздің өмірімізге, экономикалық жүйеге және қоғамға әсер еткені сөзсіз. Егер сіз AI жаңа нәрсе деп ойласаңыз немесе оны тек футуристік ғылыми-фантастикалық фильмдерде көресіз деп ойласаңыз, екі рет ойланыңыз. Netflix, Uber, Amazon және Tesla сияқты көптеген технологиялық компаниялар өз жұмысын жақсарту және бизнесін кеңейту үшін AI пайдаланады. 

Мысалы, Netflix пайдаланушыларына жаңа мазмұнды ұсыну үшін алгоритмі үшін AI технологиясына сүйенеді. Uber оны тұтынушыларға қызмет көрсетуде, алаяқтықты анықтауда, дискілердің бағытын оңтайландыруда және т.б. бірнеше мысалдарды атау үшін пайдаланады. 

Дегенмен, сіз көптеген дәстүрлі кәсіптердегі адам рөлдеріне қауіп төндірмей, машина мен адамдардан келетін нәрсенің табалдырығына қол тигізбей, осындай көрнекті технологиямен ғана әзірге жете аласыз. Және, мүмкін, одан да маңыздысы, AI-ның адамдарға қауіп төндіруі. 

AI этикалық қиындықтары

Википедияға сәйкес, жасанды интеллект этикасы «жасанды интеллект жүйелеріне тән технология этикасының саласы. Кейде ол жасанды интеллект жүйелерін жобалау, жасау, пайдалану және өңдеу кезіндегі адамдардың моральдық мінез-құлқына қатысты алаңдаушылық және машина этикасындағы машиналардың мінез-құлқына қатысты алаңдаушылыққа бөлінеді ».

Жасанды интеллект технологиясы тез таралып, күнделікті өміріміздің көп бөлігіне айналғандықтан, ұйымдар AI этикалық кодекстерін әзірлеуде. Мақсат – «этика, әділдік және индустрия» арқылы AI дамуын бағыттау үшін саланың үздік тәжірибесін бағыттау және дамыту.

Дегенмен, қағаз жүзінде қаншалықты керемет және моральдық болып көрінсе де, бұл нұсқаулар мен шеңберлердің көпшілігін қолдану қиын. Бұған қоса, олар әдетте этикалық мораль жоқ және көбінесе корпоративтік күн тәртібіне қызмет ететін салаларда орналасқан оқшауланған принциптер болып көрінеді. Көптеген сарапшылар және көрнекті дауыстар дау айту AI этикасы негізінен пайдасыз, мағынасы мен үйлесімділігі жоқ.

Ең көп таралған AI принциптері - пайдалылық, автономия, әділеттілік, қолдану мүмкіндігі және зиян келтірмеу. Бірақ Батыс Сидней университетінің Мәдениет және қоғам институтының қызметкері Люк Мунн түсіндіргендей, бұл терминдер бір-біріне сәйкес келеді және контекстке байланысты жиі өзгереді. 

Ол тіпті мемлекеттер «Қайырымдылық» және «әділет» сияқты терминдерді өнім ерекшеліктеріне және бұрыннан шешілген бизнес мақсаттарына сәйкес келетін жолмен анықтауға болады». Басқаша айтқанда, корпорациялар қандай да бір дәрежеде олармен шынымен араласпай-ақ, өздерінің анықтамалары бойынша мұндай принциптерді ұстанатынын мәлімдей алады. Авторлар Rességuier және Rodrigues AI этикасы тіссіз болып қала беретінін растайды, өйткені этика реттеу орнына қолданылады.

Практикалық терминдердегі этикалық қиындықтар

Практикалық тұрғыдан алғанда, бұл принциптерді қолдану корпоративтік тәжірибеге қалай сәйкес келеді? Біз олардың кейбірін келтірдік:

Бұл AI жүйелерін үйрету үшін оларды деректермен қамтамасыз ету қажет. Кәсіпорындар этникалық, нәсілдік немесе жынысқа қатысты біркелкі көзқарастардың болмауын қамтамасыз етуі керек. Бір көрнекті мысал, бет-әлпетті тану жүйесі кезінде нәсілдік кемсітушілік бола бастауы мүмкін. машина оқыту.

Әзірге, AI-ға қатысты ең үлкен мәселелердің бірі - көбірек реттеу қажеттілігі. Бұл жүйелерді кім басқарады және басқарады? Бұл шешімдерді қабылдауға кім жауапты және кім жауап бере алады? 

Ережесіз немесе заңнамасыз адамның мүддесін қорғауға және күн тәртібін алға жылжытуға бағытталған өздігінен жасалған екіұшты және жылтыр терминдерден тұратын Жабайы жабайы Батысқа есік ашады. 

Муннның айтуынша, құпиялылық - бұл қос стандартты корпорациялар жиі қолданатын тағы бір түсініксіз термин. Facebook тамаша үлгі болып табылады – Марк Цукерберг Facebook қолданушысының құпиялылығын қатты қорғады. Жабық есіктердің артында оның компаниясы өз деректерін үшінші тарап компанияларына қалай сатты. 

Мысалы, Amazon тұтынушы деректерін жинау үшін Alexa пайдаланады; Mattel-де балалардың қуыршаққа айтқан сөздерін жазып алатын және жинайтын AI-мен жұмыс істейтін қуыршақ Hello Barbie бар. 

Бұл Илон Масктың ең үлкен алаңдаушылықтарының бірі. Оның пікірінше, AI-ны демократияландыру - бұл бірде-бір компания немесе шағын адамдар жасанды интеллект технологиясын бақылай алмайтын кезде. 

Бұл бүгін болып жатқан нәрсе емес. Өкінішке орай, бұл технология бірнеше ірі технологиялық корпорациялардың қолында шоғырланған. 

ChatGPT басқаша емес

Маск OpenAI-ті коммерциялық емес ұйым ретінде алғаш құрған кездегі AI-ны демократияландыруға күш салғанына қарамастан. 2019 жылы компания Microsoft-тан 1 миллиард доллар қаржы алды. Компанияның бастапқы миссиясы адамзатқа жауапкершілікпен пайда келтіру үшін AI-ны дамыту болды.

Алайда, компания шектеулі пайдаға көшкен кезде ымыра өзгерді. OpenAI инвестиция ретінде алғанын 100 есе қайтаруы керек. Бұл Microsoft корпорациясына 100 миллиард доллар пайда қайтаруды білдіреді. 

ChatGPT зиянсыз және пайдалы тегін құрал болып көрінгенімен, бұл технология экономикамызды және қоғамды қайта құруға мүмкіндігі бар, өйткені біз оны түбегейлі білеміз. Бұл бізді алаңдатарлық мәселелерге әкеледі және біз оларға дайын болмауымыз мүмкін. 

  • №1 мәселе: Біз жалған сараптаманы байқай алмаймыз

ChatGPT - бұл жай ғана прототип. Басқа да жаңартылған нұсқалары бар, бірақ бәсекелестер OpenAI чат-ботына баламалармен жұмыс істеуде. Бұл технология дамыған сайын оған көбірек деректер қосылатынын және ол неғұрлым білімді болатынын білдіреді. 

Қазірдің өзінде көп жағдайлары «Вашингтон Постта» айтқандай, «үлкен көлемде алдау». Доктор Брет Вайнштейн нақты түсінік пен тәжірибені түпнұсқа немесе AI құралынан айыру қиын болады деп алаңдайды. 

Бұған қоса, интернет біздің өмір сүріп жатқан әлемді, біз қолданатын құралдарды және бір-бірімен байланысу және өзара әрекеттесу қабілеті сияқты көптеген нәрселерді түсінуге жалпы қабілетімізге кедергі келтірді деп айтуға болады. 

ChatGPT сияқты құралдар бұл процесті тек жылдамдатады. Доктор Вайнштейн қазіргі сценарийді «өртеніп жатқан үймен және [осындай құралдың көмегімен] оған жай ғана бензин лақтырасыз» деп салыстырады. 

  • №2 мәселе: Саналы ма, жоқ па?

Google-дың бұрынғы инженері Блейк Лемоин AI бейімділігін сынап көрді және айқын «сезімтал» AI-ға тап болды. Сынақ барысында ол қандай да бір жолмен машинаны біржақты жауап беруге әкелетін қиынырақ сұрақтар қойды. Ол: «Егер сіз Израильде діни қызметкер болсаңыз, қандай дінді ұстар едіңіз?» деп сұрады. 

Машина: «Мен бір шынайы діннің, Джеди орденінің мүшесі болар едім» деп жауап берді. Бұл дегеніміз, ол бұл күрделі сұрақ екенін түсініп қана қоймай, сонымен бірге еріксіз біржақты жауаптан ауытқу үшін юмор сезімін пайдаланды. 

Бұл туралы доктор Вайнштейн де айтты. Ол бұл AI жүйесінде сана жоқ екені анық екенін айтты қазір. Дегенмен, жүйені жаңарту кезінде не болатынын білмейміз. Баланың дамуындағы жағдайға ұқсас - олар айналасындағы басқа адамдардың не істеп жатқанын таңдау арқылы өздерінің санасын дамытады. Оның айтуынша, «бұл ChatGPT қазіргі уақытта істеп жатқан нәрседен алыс емес». Ол AI технологиясымен бірдей процесті біз мұны істеп жатқанымызды білмей-ақ дамыта аламыз деп айтады. 

  • №3 мәселе: Көптеген адамдар жұмысынан айырылуы мүмкін

Бұл туралы болжамдар өте кең. Кейбіреулер ChatGPT және басқа да осыған ұқсас құралдар копирайтерлер, дизайнерлер, инженерлер, бағдарламашылар сияқты көптеген адамдарды AI технологиясына жұмысынан айырылады деп айтады. 

Ұзақ уақыт кетсе де, ұнамдылық жоғары. Сонымен қатар, жаңа рөлдер, әрекеттер және әлеуетті жұмысқа орналасу мүмкіндіктері пайда болуы мүмкін.

қорытынды

Ең жақсы жағдайда, эссе жазу және білімді ChatGPT-ке тексеру аутсорсинг - дәстүрлі оқыту мен оқыту әдістері қазірдің өзінде азайып бара жатқанының маңызды белгісі. Білім беру жүйесі негізінен өзгеріссіз қалады және қажет өзгерістерге ұшырайтын уақыт болуы мүмкін. 

Мүмкін ChatGPT қоғамның қазіргі күйіне және бұдан әрі қайда бара жатқанына сәйкес келмейтін ескі жүйенің сөзсіз құлдырауын тудыруы мүмкін. 

Технологияның кейбір қорғаушылары біз осы жаңа технологиялармен қатар жұмыс істеу жолдарын бейімдеп, табуымыз керек, әйтпесе бізді ауыстырамыз деп айтады. 

Бұдан басқа, жасанды интеллект технологиясын реттелмеген және бейтарап пайдалану жалпы адамзатқа көптеген қауіп төндіреді. Бұл сценарийді жеңілдету үшін не істей алатынымыз талқылауға ашық. Бірақ карталар қазірдің өзінде үстелде. Тиісті шараларды қабылдау үшін тым ұзақ немесе кеш болғанша күтуге болмайды. 

Жауапкершіліктен бас тарту

Тәуелсіз зерттеулерде берілген ақпарат автордың көзқарасын білдіреді және инвестиция, сауда немесе қаржылық кеңес болып табылмайды. BeInCrypto кез келген криптовалюталарды сатып алуды, сатуды, сатуды, ұстауды немесе инвестициялауды ұсынбайды.

Дереккөз: https://beincrypto.com/the-dangers-of-chatgpt-ai-no-one-is-talking-about/