Майкрософт алаяқтардың алдын алу үшін AI Chatbot қауіпсіздігін жақсартады

Microsoft корпорациясы Azure AI Studio-ға бірқатар қауіпсіздік мүмкіндіктерін қосты, олар уақыт өте келе оның пайдаланушылары AI үлгілерін әдеттен тыс немесе орынсыз әрекет ететін режимге конфигурациялау ықтималдығын азайтуды жалғастырады. Редмондта орналасқан көпұлтты технологиялық компания, Вашингтон AI өзара әрекеттесуінің тұтастығына кепілдік беруге және пайдаланушы базасына сенімді нығайтуға баса назар аудара отырып, блог жазбасындағы жақсартуларды атап өтті.

Жедел қалқандар және т.б 

Негізгі әзірлемелердің қатарында AI чат-боттарымен сөйлесу кезінде жылдам инъекцияларды табуға және жоюға арналған технология «жедел қалқандарды» құру болып табылады. Бұл джейлбрейктер деп аталатын және негізінен AI үлгілерінен қажетсіз жауап беретіндей әдейі құрастырылған пайдаланушылардың кірістері.

Мысалы, Microsoft корпорациясы зұлым бұйрықтарды орындау мүмкін болатын жедел инъекциялармен жанама түрде өз рөлін атқарады және мұндай сценарий деректерді ұрлау және жүйені ұрлау сияқты қауіпсіздіктің ауыр зардаптарына әкелуі мүмкін. Microsoft корпорациясының жауапты AI жөніндегі бас өнім директоры Сара Бердтің айтуынша, тетіктер нақты уақыт режимінде осы бірегей қауіптерді анықтау және оларға жауап берудің кілті болып табылады.

Майкрософт жақында пайдаланушы экранында ескертулер болатынын қосады, олар модельдің жалған немесе жаңылыстыратын ақпаратты көрсетуі ықтимал екенін көрсетеді, бұл пайдаланушыға ыңғайлылық пен сенімділікті қамтамасыз етеді.

AI құралдарына сенімді қалыптастыру 

Майкрософт күш-жігері жеке тұтынушылар мен корпоративтік клиенттерге бағытталған қызметтерде кеңінен қолданылатын танымал генеративті AI-ға адамдарға сенімділік беруге арналған үлкен бастаманың бөлігі болып табылады. Пайдаланушылар Copilot чатботын оғаш немесе зиянды нәтижелер шығару үшін ойнай алатын жағдайға тап болғаннан кейін Майкрософт жұқа тісті тарақты қолданды. Бұл AI технологиялары мен танымал біліммен көтерілуі мүмкін аталған манипуляциялық тактикадан күшті қорғаныс қажеттілігін көрсететін нәтижені қолдау болады. Болжау және одан кейін жеңілдету шабуылдың үлгілерін мойындау болып табылады, мысалы, шабуылдаушы рөлдік ойын кезінде сұрақ қоюды немесе шақыруды қайталайды.

OpenAI-дің ең ірі инвесторы және стратегиялық серіктесі ретінде Microsoft жауапты, қауіпсіз генеративті AI технологияларын енгізу және құру жолының шекараларын ұлғайтуда. Екеуі де қауіпсіздік шаралары үшін генеративті AI-ның жауапты қолдануына және негізгі үлгілеріне ұмтылады. Бірақ Берд бұл үлкен тілдік модельдер, тіпті болашақ AI инновацияларының негізі ретінде қарастырылатын болса да, манипуляцияға төзімді емес екенін мойындады.

Бұл іргетастарды құру модельдердің өздеріне сенуден әлдеқайда көп нәрсені қажет етеді; ол AI қауіпсіздігі мен қауіпсіздігіне кешенді көзқарасты қажет етеді.

Жақында Microsoft корпорациясы өзгермелі AI қауіптерінің көрінісін қорғау үшін қабылданатын белсенді қадамдарды көрсету және кепілдік беру үшін Azure AI Studio үшін қауіпсіздік шараларын күшейтетінін жариялады.

Ол AI-ны теріс пайдалануды болдырмауға және уақтылы экрандар мен ескертулерді қосу арқылы AI өзара әрекеттесуінің тұтастығы мен сенімділігін сақтауға тырысады.

Жасанды интеллект технологиясының тұрақты эволюциясы және оны күнделікті өмірдің көптеген инклюзияларына енгізу арқылы Microsoft пен қалған AI қауымдастығы үшін өте қырағы қауіпсіздік ұстанымын сақтау уақыты келді.

Дереккөз: https://www.cryptopolitan.com/microsoft-ai-chatbot-security-to-tricsters/