OpenAI ChatGPT-ті жалған ақпараттан қалай тазартуды жоспарлайды

OpenAI 31 мамырда жасанды интеллект (AI) галлюцинацияларының даналарын азайтуға бағытталған ChatGPT-тің математикалық есептерді шешу мүмкіндіктерін жақсартуға бағытталған күш-жігерін жариялады. OpenAI теңестірілген AGI дамыту жолындағы шешуші қадам ретінде галлюцинацияларды азайтуға баса назар аударды.

Наурызда ChatGPT GPT-4 соңғы нұсқасын енгізу жасанды интеллектті негізгі ағымға одан әрі жылжытты. Дегенмен, генеративті AI чат-боттары ұзақ уақыт бойы фактілердің дәлдігімен күресіп, кейде әдетте «галлюцинациялар» деп аталатын жалған ақпаратты шығарады. Бұл AI галлюцинацияларын азайту әрекеттері олардың веб-сайтындағы пост арқылы жарияланды.

AI галлюцинациялары жасанды интеллект жүйелері іс жүзінде дұрыс емес, жаңылыстыратын немесе нақты дүние деректерімен қолдау көрсетілмейтін нәтижелерді жасайтын жағдайларды білдіреді. Бұл галлюцинациялар әртүрлі нысандарда көрінуі мүмкін, мысалы, жалған ақпарат жасау, болмаған оқиғаларды немесе адамдарды құру немесе белгілі бір тақырыптар туралы дәл емес мәліметтерді беру.

OpenAI кері байланыстың екі түрінің – «нәтижені қадағалау» және «процессті қадағалау» тиімділігін зерттеу үшін зерттеу жүргізді. Нәтижені бақылау соңғы нәтижеге негізделген кері байланысты қамтиды, ал процесті бақылау ой тізбегіндегі әрбір қадам үшін кірісті қамтамасыз етеді. OpenAI бұл модельдерді математикалық есептерді пайдаланып, бірнеше шешімдерді генерациялай отырып және әрбір кері байланыс үлгісіне сәйкес ең жоғары деңгейлі шешімді таңдап бағалады.

Егжей-тегжейлі талдаудан кейін зерттеу тобы процесті қадағалау жақсы нәтиже беретінін анықтады, өйткені ол модельді адам бекіткен процесті ұстануға шақырды. Керісінше, нәтижелерді қадағалау дәйекті түрде тексеру қиынырақ болды.

OpenAI процесті қадағалаудың салдары математикадан тыс болатынын мойындады және оның әртүрлі салалардағы әсерін түсіну үшін қосымша зерттеу қажет. Ол егер бақыланатын нәтижелер кеңірек контексте шындыққа сай болса, процесті қадағалау нәтижені қадағалаумен салыстырғанда өнімділік пен теңестірудің қолайлы комбинациясын ұсына алатынын білдірді. Зерттеуді жеңілдету үшін компания осы салада барлау мен зерттеуді шақыра отырып, процесті қадағалаудың толық деректер жинағын жария етті.

Қатысты: AI сұранысы қысқаша Nvidia-ны $1T клубына айналдырады

OpenAI галлюцинацияларды зерттеуге түрткі болатын нақты мысалдарды бермегенімен, соңғы екі оқиға нақты өмір сценарийлеріндегі мәселені мысал етті.

Жақында болған оқиғада адвокат Стивен А. Шварц Мата Авианкаға қарсы іс бойынша чатботқа зерттеу ресурсы ретінде сенетінін мойындады. Дегенмен, ChatGPT ұсынған ақпарат толығымен ойдан шығарылған болып шықты, бұл мәселеге назар аударды.

OpenAI ChatGPT галлюцинацияға тап болатын жасанды интеллект жүйелерінің жалғыз мысалы емес. Майкрософттың AI наурыз айында чат-бот технологиясын көрсету кезінде табыс туралы есептерді зерттеп, Gap және Lululemon сияқты компаниялар үшін дәл емес сандар жасады.

Журнал: 25 мың трейдер ChatGPT акцияларының таңдауына бәс тігеді, AI сүйектерді лақтырады және т.б.

Дереккөз: https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information