ФБР AI Deepfake бопсалау алаяқтықтары туралы ескертеді

Генеративті AI-ның өмірге ұқсас кескіндерді жасау қабілеті әсерлі, бірақ АҚШ Федералдық тергеу бюросы қылмыскерлер құрбандарды бопсалау үшін нысанаға алу үшін терең фейктерді пайдаланады дейді.

«ФБР жәбірленушілерден, соның ішінде кәмелетке толмаған балалар мен келісімсіз ересектерден, фотосуреттері немесе бейнелері ашық мазмұнға өзгертілген хабарламаларды алуды жалғастыруда», - деді агенттік дүйсенбіде PSA ескертуінде.

ФБР құқық қорғау органдары өткен жылы кәмелетке толмағандарға бағытталған онлайн бопсалау туралы 7,000-нан астам хабарлама алғанын, сәуір айынан бастап терең фейктерді қолданып «қорқытып алу» деп аталатын алаяқтардың құрбандары көбейгенін айтады.

Deepfake – Midjourney 5.1 және OpenAI-дің DALL-E 2 сияқты генеративті AI платформаларының арқасында жалған деп анықтау қиынырақ жалған оқиғаларды бейнелейтін жасанды интеллектпен жасалған бейне немесе аудио мазмұнның кең таралған түрі.

Мамыр айында Tesla және Twitter компаниясының бас директоры Илон Масктың крипто инвесторларын алдау үшін жасаған терең фейкі интернетте тарап кетті. Әлеуметтік желіде таратылған бейнеде Масктың алаяқтыққа сәйкес өңделген алдыңғы сұхбаттарындағы кадрлары бар.

Deepfakes бәрі де зиянды емес, Рим Папасы Францисктің ақ Баленсиага күртеше киген терең фейкі осы жылдың басында вирусқа тарады, ал жақында AI жасаған терең фейктер де кісі өлтіру құрбандарын өмірге қайтару үшін пайдаланылды.

Өз ұсыныстарында ФБР кез келген төлемді төлеуден сақтанды, өйткені бұл қылмыскерлердің бәрібір терең фейк жарияламайтынына кепілдік бермейді.

ФБР сонымен қатар жеке ақпарат пен мазмұнды желіде бөліскенде, соның ішінде тіркелгілерді жеке ету, балалардың желідегі белсенділігін бақылау және бұрын араласқан адамдардан әдеттен тыс әрекеттерді бақылау сияқты құпиялылық мүмкіндіктерін пайдалану кезінде сақ болуға кеңес береді. Агенттік сонымен қатар жеке және отбасы мүшелері туралы ақпаратты желіде жиі іздеуді ұсынады.

Дабыл қаққан басқа агенттіктерге АҚШ-тың Федералды Сауда Комиссиясы кіреді, ол қылмыскерлер досы немесе отбасы мүшелерінің ұрланғаны туралы дыбыстық фейк жасағаннан кейін күдікті құрбандарды алдап, ақша жіберу үшін терең фейктерді қолданды деп ескертті.

«Жасанды интеллект енді ғылыми-фантастикалық фильмнен алыс идея емес. Біз онымен осында және қазір өмір сүріп жатырмыз. Алаяқ сіздің жақын адамыңыздың дауысын клондау үшін AI-ны қолдана алады », - деді FTC наурыз айында тұтынушыларға ескертуде және барлық қылмыстық қажеттіліктер - жазбаны шынайы ету үшін отбасы мүшесінің дауысының қысқа аудиоклипі екенін айтты.

ФБР әлі жауап берген жоқ Шешімнің шешімі түсініктеме сұрау.

Крипто жаңалықтарынан хабардар болыңыз, кіріс жәшігіңізде күнделікті жаңартуларды алыңыз.

Дереккөз: https://decrypt.co/143479/fbi-warning-ai-extortion-sextortion-deepfake-scams