AI сарапшылары «AI-дан жойылу» қаупін пандемияға, ядролық соғысқа дейін салыстыратын құжатқа қол қойды

Жасанды интеллект (AI) бойынша ондаған сарапшылар, соның ішінде OpenAI, Google DeepMind және Anthropic бас директорлары жақында AI қауіпсіздігі орталығы (CAIS) жариялаған ашық мәлімдемеге қол қойды. 

Мәлімдемеде бір сөйлем бар:

«AI-дан жойылу қаупін азайту пандемия мен ядролық соғыс сияқты басқа да әлеуметтік қауіптермен қатар жаһандық басымдық болуы керек».

Құжатқа қол қойғандардың қатарында АИ-нің «Өкіл әкесі» Джеффри Хинтонды қоса алғанда, AI майталмандарының нағыз «кім кім» бар; Калифорния университеті, Берклидегі Стюарт Рассел; және Массачусетс технологиялық институтының қызметкері Лекс Фридман. Музыкант Гримс сонымен қатар «басқа да көрнекті тұлғалар» санатында тізімге қол қоюшы болып табылады.

Қатысты: Музыкант Гримс AI арқылы жасалған музыкамен «50% роялтиді бөлуге» дайын

Мәлімдеме сырттай зиянсыз болып көрінгенімен, негізгі хабарлама AI қауымдастығында біршама даулы болып табылады.

Сарапшылардың саны өсіп келе жатқан сияқты, қазіргі технологиялар адам түріне экзистенциалды қауіп төндіретін AI жүйесінің пайда болуына немесе дамуына әкелуі мүмкін немесе сөзсіз әкеледі деп санайды.

Алайда олардың пікірлеріне диаметральді қарама-қайшы пікірлері бар сарапшылар контингенті қарсы. Мысалы, мета-жетекші AI ғалымы Янн Лекун AI басқарылмайтынына сенбейтінін бірнеше рет атап өтті.

Оған және Google Brain негізін қалаушы және Baidu компаниясының бұрынғы бас ғалымы Эндрю Нг сияқты «жою» риторикасымен келіспейтін басқа адамдар үшін AI проблема емес, бұл жауап.

Дәлелдің екінші жағында, Хинтон және Conjecture бас директоры Коннор Лихи сияқты сарапшылар адам деңгейіндегі AI сөзсіз және дәл қазір әрекет ету уақыты келді деп санайды.

Алайда мәлімдемеге қол қойғандардың қандай әрекеттерге шақырғаны белгісіз. Әрбір дерлік AI компанияларының бас директорлары және/немесе AI басшылары, сондай-ақ академиялық ортаның атақты ғалымдары қол қойғандардың қатарында, бұл ниеті осы ықтимал қауіпті жүйелердің дамуын тоқтату емес екенін көрсетеді.

Осы айдың басында OpenAI бас директоры Сэм Альтман, жоғарыда аталған мәлімдемеге қол қойғандардың бірі, AI реттеуін талқылау үшін Сенаттағы тыңдау кезінде Конгресс алдында бірінші рет шықты. Оның айғақтары оның көп бөлігін заң шығарушыларды өз саласын реттеуге шақырумен өткізгеннен кейін тақырыптарға айналды.

Альтманның Worldcoin жобасы, криптовалюта мен тұлғаны дәлелдейтін жоба, сонымен қатар жақында C сериясын қаржыландыруда 115 миллион доллар жинап, үш раундтан кейін жалпы қаржыландыруды 240 миллион долларға жеткізді.

Дереккөз: https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war