AI Hype-тің қасқырдың жылаған сәті пайдасыз

Мен адамзаттың аяқталу сценарийін зерттейтін адам болсам да, 6 айлық AI мораторийін ұсынатын «сараптама хаты» немесе AI қаупі пандемия және ядролық қауіп деңгейінде екендігі туралы соңғы мәлімдеменің екеуі де артық деп есептеймін. Жасанды интеллектті өшіру керек деген одан да жабайы пікір жауапсыздық. Кез келген алаңдаушылық біз тап болатын тәуекелдерге пропорционалды болуы керек. Дәл қазір AI-дан бізге ешқандай қауіп төніп тұрған жоқ.

Қазіргі АИ қоғамды жаулап ала алмайды. Олардың сезімдері жоқ және адам өмірі сияқты қорғауға лайық емес. Олар аса интеллектуалды емес және жалпы жағынан адамдардан асып түспейді. Шындығында, олар мүлдем ойламайды. Дәл қазір, егер көп деректермен қамтамасыз етілсе, АИ есептеу және болжау сияқты нақты тапсырмаларды орындауда өте жақсы. Бұл алаңдатарлық емес, бұл жүйелерде дизайн бойынша бар мүмкіндіктер. Жасанды интеллекттердің уәдесіне қатерлі ісік ауруын шешу, өнеркәсіптік өндірісті түрлендіру, болашақ сценарийлерді модельдеу және экологиялық мәселелерді басқару кіреді. Осыны айта отырып, қазіргі AI-ны ресурстарды пайдалану, ашықтық, бейтараптық, киберқауіпсіздік және оның жұмыспен қамтуға болашақ әсері үшін сынға алуға заңды себептер бар.

Жасанды интеллект есептеу жағынан қымбат, яғни олар тапшы, қазбалы энергияның үлкен шығыны болып табылады. Мұны дереу шешу керек. Бірақ бұл экзистенциалды мәселе емес, бұл ресурстарды ұтымды пайдалану мәселесі. Үлкен және тиімсіз деректер модельдеріне сүйенетін АИ-лердің академия немесе үкімет тарапынан қадағалау және зерттеу үшін тым қымбатқа түсуі нақты мәселе болып табылады. Бірақ оны тез арада түзетуге болады. Элиталық академиялық институттардың немесе үкіметтердің консорциумдары бірігіп, суперкомпьютер үшін жасағандай есептеу ресурстарын бөлісе алады.

Үлкен тіл үлгілері (LLM) – үлкен көлемдегі деректерден табиғи тіл мәтіндерін жасай алатын AI үлгілері. Бір мәселе - бұл мәтіндер басқа адамдардың адал зияткерлік үлестерінен тікелей алынған. Олар шын мәнінде ұрланған. Генеративті AI, атап айтқанда, тұтынушылық және ұйымдық деректерді, сондай-ақ авторлық құқықты өрескел бұзатын шығармашылық мазмұнды біріктіреді. Бұл маңызды, бірақ экзистенциалды емес, сонымен қатар ЕО, Голливудтың лоббистері және «үлкен бестік» кітап баспалары қазірдің өзінде іспен айналысуда. Бұл AI жылдамдығын бәсеңдетеді деп күтіңіз. Ағымдағы қарқынмен АИ-де жақсы жаттығу деректері сезімталдыққа жақындамай тұрып таусылады.

Салықтарды есептеу, онлайн арналарды таңдау немесе адамдарды түрмеге отырғызу үшін бұрыннан қолданылған алгоритмдерде ашықтық жоқ. Дегенмен, бұл көптеген жылдар бойы болды және соңғы AI әзірлемелерімен ешқандай байланысы жоқ. AI бейімділігі қате емес, мүмкіндік болып табылады. Стереотиптеу, шын мәнінде, мұндай модельдер жұмыс істейтін негізгі тәсіл болып табылады. Алдын ала пікір адамдар үшін, сарапшылар немесе жоқ емес, машиналық ойлаудың өтпейтін қабаттарында жасырылғаннан басқа. Бізге күмәнданатын нәрсе - олар жасаған жүйенің мүмкіндігі емес, мұндай жүйелерді жасаған әзірлеушілердің даналығы, бұл берілген. Жүйелер оны құрастыратын немесе басқаратындардың даналығынан немесе ниетінен жақсырақ болады.

Жасанды интеллект жаттығуларының деректері осы деректер жиналған қоғамда орын алған теріс көзқарастарды көрсетеді. Жаман жаттығу деректерін қайта пайдалану AI үлгілерін ластайтын алаңдатарлық тәжірибе болып табылады. Ағымдағы AI тәсілдері нәтижеге тез жету үшін жай ғана бұрмалауды күшейтеді. Бұл, әрине, біз қалаған нәрсеге керісінше. Біз технологияны адам қатесін қорғау үшін қолданғымыз келеді. Машинаның қатесі туралы алаңдау - адам интеллектін ысырап ету.

«Нейрондық желі» метафорасына қарамастан, қазіргі жасанды интеллекттер қиялдың кез келген бөлігі бойынша миға ұқсамайды. Қазіргі AI жүйелері адамдар сияқты аналогия бойынша пайымдай алмайды. Бұл жақсы. Біз зелоттар қолдайтын және еліктеуге тырысатын AI теңестіруді қаламауымыз мүмкін. Машиналар адамдардан өзгеше болуы керек. Осылайша біз бір-біріміздің күш-қуатымызды арттыра аламыз. Біз машиналарды қалай бөлек және бөлек ұстай аламыз. Машиналардың теңестіру мүдделері болмауы керек.

AI қылмыскерлер мен дұшпан мемлекеттер үшін актив ретінде киберқауіпсіздікке айтарлықтай қауіп төндіреді. Бірақ киберқауіпсіздік - бұл мәселені шешуге жақсы жабдықталған көптеген сарапшылары бар жетілген сала. Киберқауіпсіздік қорқынышына байланысты AI-ны жабуға ешқандай себеп жоқ.

Жасанды интеллектке байланысты жұмысты тоқтату жылдар бойы саясат мәселесі болды, алдымен роботтар, енді бағдарламалық жасақтамаға негізделген AI жүйелері. Бұл үкіметтер онымен күресуге дайын болады дегенді білдіреді. MIT Work of the Future зерттеуі роботтардың кесірінен жұмыссыздыққа қатысты алаңдаушылықты тым жоғары бағалады. Адамдар әрқашан жұмыс істеу жолдарын тапқан және болашақта да солай істейтін болады. Өндіріс AI арқылы өзгере ме? Бұл қазірдің өзінде болып жатыр, бірақ жеткілікті түрде бақыланатын түрде.

Кейде AI ағымдағы функционалдылық немесе болашақ ауқым туралы шамадан тыс уәделерден зардап шегеді. Алғашқы AI қыстары 1974–1980 жылдары басталды, өйткені АҚШ үкіметі қаржыландыруды алып тастады. Екіншісі 1987–1993 жылдар аралығында болды, өйткені шығындар өсті және AI өзінің жоғары уәделерін орындай алмады.

Жаңа парадигмалардың келуін күтіп, 2025-2030 жылдар аралығында біз үшінші AI қысына кіруіміз мүмкін. Кем дегенде, ыстық AI жазымен салыстырғанда бізге уәде етілген. Мұның себебі, жоғарыда айтылған себептердің барлығына қарамастан, үлкен тіл үлгілері өздерінің максималды пайдалылығына қол жеткізуге жақын және ақыр соңында неғұрлым мөлдір болатын есептеулік талғампаз тәсілдермен алмастырылуы керек.

Осындай үміткерлердің бірі - гиперөлшемді есептеулер, ол машиналарды тиімдірек ойлауға мүмкіндік береді, өйткені олар машиналарға семантикалық түсінік береді, нақты әлемдегі ақпараттың мағынасы мен контекстін өңдеу мүмкіндігін береді. Дәл қазір AI жүйелері сөздер мен сөз тіркестерінің арасындағы байланыстарды түсінбейді, олар жай ғана болжам жасауда жақсы. Бұл жеткіліксіз. Ақыр соңында бізге AI қажет болады, өйткені ойлау кеңістікті қабылдаумен байланысты. Бұл өте физикалық ойын болып табылатын өндірістегі жағдай. Сондай-ақ бізге кейбір ақпаратты алдын ала көрсету және басқа ақпараттың астарлылығына негізделген басымдықтарды анықтау сияқты адамның жады мүмкіндіктеріне қабілетті AI қажет болады. Ұмыту - адамдардың абстрактілі ойлау, ескірген ұйымдық тәжірибелерден өту, шешім қабылдау және осы сәтте қалу үшін қолданатын құрал және бұл жай ғана кемшілік емес. Мұны әлі ешбір машина жақсы жасай алмайды.

Бұл арада біз реттеуіміз керек, бірақ бұл секунд емес. Ал, біз реттеген кезде, біз мұны жақсы орындаймыз. AI-ны дұрыс реттемеу жағдайды нашарлатуы мүмкін. Реттеушілерді осы мәселеге қарсы ояту пайдалы болуы мүмкін, бірақ мен реттеушілердің қазіргі ұрпағы оны жақсы орындау үшін қажет болатын ауқымды өзгерістерге дайын екеніне сенімді емеспін. Бұл қуатты компанияларды (мүмкін барлық листингілік компанияларды) қысқартуға, AI-ны басқаруда пайдалануды шектеуге алып келеді және қазіргі уақытта тұтыну нарықтарының жұмыс істеу тәсіліне үлкен өзгерістер енгізеді. Негізінде, біз қоғамды қайта құруымыз керек еді. Бұл біз күткеннен бірнеше ондаған жылдар бұрын азаюымызға әкеледі. AI айналасындағы мөлдірлік мәселесі, әрине, бір-бірімен байланысты емес деп емес, барлығын алаңдататын басқару айнымалыларына қарағанда күрделі болуы мүмкін.

Сонымен қатар, біз AI эталонына жеткен сайын бірдей алаңдай алмаймыз. Біз өз энергиямызды каскадты тәуекелдің шын мәнінде үлкен сәттері үшін сақтауымыз керек. Олар келеді, әділдік үшін біз дайын емеспіз. Менің болжанған болашақ сценарийлерім (2075 жылға арналған жойылу сценарийлерін қараңыз) бүкіл елдерді бірнеше ай бойы өз процестерінен тыс ұстайтын ауқымды деректерді бұзуды қамтиды. Мен сондай-ақ қылмыстық топтар немесе мемлекеттік субъектілер көмектесетін AI туралы алаңдаймын. Ең бастысы, мені AI, нанотехнологиялар, синтетикалық биология және кванттық технологияның үйлесімі алаңдатады - белгісіз мүмкіндіктердің көрінбейтін квазиорганикалық интеллектіне жақын, мүмкін бірнеше онжылдықтар ғана, бұл әлем климаттың каскадты әсерінен тұтынылатын кезде болады. өзгерту.

Қазіргі AI үлгілері әлі де адамзатқа қауіп төндіретіндей жақсы жұмыс істемейді. Оларды жабуды қарастырмас бұрын, бізге жақсырақ AI қажет. Бұған қоса, бізге ақылды әзірлеушілер, неғұрлым сезімтал азаматтар және жақсырақ ақпараттандырылған саясаткерлер қажет. Бізге сондай-ақ AI-ны қалай реттеуге болатыны туралы тұжырымдама қажет. Бірақ мұны ештеңе баяулатпай жасауға болады. Бұл барлығына білім беретін саяхат болады. GPT 4-ке (2023) қатысты мораторий хаты - бұл қасқырдың айқайлау сәті, ол адамзаттың алдағы онжылдықтарда кездесетін каскадты тәуекелдерге шамалы ғана ұқсастығы. 2023 жылы AI қаупін пандемия қаупі мен ядролық қауіп деңгейіне қою ертерек. Біз сонда жетеміз бе? Мүмкін. Бірақ қасқырдың жылауының салдары бар. Ол шынайы қорқыныш туралы алдағы пікірталастардан оттегін сорып алады.

Дереккөз: https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/