Жасанды интеллект (AI) бойынша ондаған сарапшылар, соның ішінде OpenAI, Google DeepMind және Anthropic бас директорлары жақында AI қауіпсіздігі орталығы (CAIS) жариялаған ашық мәлімдемеге қол қойды.
Біз жай ғана мәлімдеме жасадық:
«AI-дан жойылу қаупін азайту пандемия мен ядролық соғыс сияқты басқа да әлеуметтік қауіптермен қатар жаһандық басымдық болуы керек».
Қол қойғандар арасында Хинтон, Бенджио, Альтман, Хассабис, Сонг және т.б.https://t.co/N9f6hs4bpa
(1 / 6)
— Дэн Хендрикс (@DanHendrycks) Мамыр 30, 2023
Мәлімдемеде бір сөйлем бар:
«AI-дан жойылу қаупін азайту пандемия мен ядролық соғыс сияқты басқа да әлеуметтік қауіптермен қатар жаһандық басымдық болуы керек».
Құжатқа қол қойғандардың қатарында АИ-нің «Өкіл әкесі» Джеффри Хинтонды қоса алғанда, AI майталмандарының нағыз «кім кім» бар; Калифорния университеті, Берклидегі Стюарт Рассел; және Массачусетс технологиялық институтының қызметкері Лекс Фридман. Музыкант Гримс сонымен қатар «басқа да көрнекті тұлғалар» санатында тізімге қол қоюшы болып табылады.
Қатысты: Музыкант Гримс AI арқылы жасалған музыкамен «50% роялтиді бөлуге» дайын
Мәлімдеме сырттай зиянсыз болып көрінгенімен, негізгі хабарлама AI қауымдастығында біршама даулы болып табылады.
Сарапшылардың саны өсіп келе жатқан сияқты, қазіргі технологиялар адам түріне экзистенциалды қауіп төндіретін AI жүйесінің пайда болуына немесе дамуына әкелуі мүмкін немесе сөзсіз әкеледі деп санайды.
Алайда олардың пікірлеріне диаметральді қарама-қайшы пікірлері бар сарапшылар контингенті қарсы. Мысалы, мета-жетекші AI ғалымы Янн Лекун AI басқарылмайтынына сенбейтінін бірнеше рет атап өтті.
Аса адамдық AI экзистенциалды тәуекелдер тізімінде еш жерде жоқ.
Көбінесе ол әлі жоқ.Бізде ит деңгейіндегі AI үшін негізгі дизайн болғанша (адам деңгейін айтпағанда), оны қалай қауіпсіз ету керектігін талқылау ертерек. https://t.co/ClkZxfofV9
— Янн Лекун (@ylecun) Мамыр 30, 2023
Оған және Google Brain негізін қалаушы және Baidu компаниясының бұрынғы бас ғалымы Эндрю Нг сияқты «жою» риторикасымен келіспейтін басқа адамдар үшін AI проблема емес, бұл жауап.
Дәлелдің екінші жағында, Хинтон және Conjecture бас директоры Коннор Лихи сияқты сарапшылар адам деңгейіндегі AI сөзсіз және дәл қазір әрекет ету уақыты келді деп санайды.
Барлық ірі AI зертханаларының басшылары осы хатқа қол қойды, бұл AGI-дан жойылу қаупін нақты мойындады.
Керемет алға қадам, Дэнді осыны біріктірген керемет жұмысы үшін құттықтаймыз және әрбір қол қоюшыға жақсы болашақ үшін өз үлесін қосқаны үшін алғыс айтамыз! https://t.co/KDkqWvdJcH
— Коннор Лихи (@NPCollapse) Мамыр 30, 2023
Алайда мәлімдемеге қол қойғандардың қандай әрекеттерге шақырғаны белгісіз. Әрбір дерлік AI компанияларының бас директорлары және/немесе AI басшылары, сондай-ақ академиялық ортаның атақты ғалымдары қол қойғандардың қатарында, бұл ниеті осы ықтимал қауіпті жүйелердің дамуын тоқтату емес екенін көрсетеді.
Осы айдың басында OpenAI бас директоры Сэм Альтман, жоғарыда аталған мәлімдемеге қол қойғандардың бірі, AI реттеуін талқылау үшін Сенаттағы тыңдау кезінде Конгресс алдында бірінші рет шықты. Оның айғақтары оның көп бөлігін заң шығарушыларды өз саласын реттеуге шақырумен өткізгеннен кейін тақырыптарға айналды.
Альтманның Worldcoin жобасы, криптовалюта мен тұлғаны дәлелдейтін жоба, сонымен қатар жақында C сериясын қаржыландыруда 115 миллион доллар жинап, үш раундтан кейін жалпы қаржыландыруды 240 миллион долларға жеткізді.
Дереккөз: https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war