Адамдарға жалған ақпарат беруге көмектесу үшін AI этикасы және индукцияланған психологиялық егу

Біз жалған ақпарат пен жалған ақпараттың жаппай толып кетуіне қарсы не істейміз?

Мұның бәрі күн өткен сайын нашарлап, нашарлай түсуде.

Мүмкін жасанды интеллект (AI) бізге көмекке келуі мүмкін. Иә, дұрыс, біз жалған ақпарат пен жалған ақпараттың үздіксіз цунамиімен күресу үшін AI-ның пайдалы мүмкіндіктерін пайдалана аламыз. Мұны істеуге тырысқанымыз дұрыс шығар. Әлеуетті шешімнің әрбір жолы ізденуге лайық болып көрінеді.

Сонымен қатар, мен бірден мойындағым келеді және AI сөзсіз Сондай-ақ, мәселенің бір бөлігі болыңыз. Адамдар жалған ақпарат пен жалған ақпарат жасау үшін AI-ны оңай қолдана алатынына күмән жоқ. Сонымен қатар, AI жалған ақпарат пен жалған ақпаратты таңғажайып дұрыс болып көрінуі және ұсынылған ақпараттың шынайы және шынайы екеніне сену үшін адамдарды алдау үшін жасырын түрде қолданылуы мүмкін. Жасанды интеллект үстелге әкелетін нәрсенің қайғылы бет жағы. Біз осы пікірталастың соңында осы жағымсыз жұмбаққа қайта ораламыз.

Әзірге смайликтерімізді киіп, AI-нің жалған ақпарат пен жалған ақпаратты тізелеріне жеткізу үшін қаншалықты пайдалы екенін зерттейік. Мұның бәрі AI этикасының маңызды элементтеріне енетіні маңызды аспектілердің бірі болады. Менің AI этикасы және этикалық AI туралы мақалам үздіксіз және кең, соның ішінде сілтеме осында және сілтеме осында, бірнеше ғана атауға болады.

AI жалған ақпарат пен жалған ақпаратқа қарсы соғыста әсіресе пайдалы одақтас бола алатын негізгі жолдарды қарастырыңыз:

  • Жолда тоқтаңыз: Жасанды интеллект жалған ақпарат пен жалған ақпаратты жоғалып кетпес бұрын анықтау және акциздеуге тырысу үшін пайдаланылуы мүмкін.
  • Көру алдында сүзгі: Жасанды интеллект жалған ақпарат пен жалған ақпаратты сүзу үшін пайдаланылуы мүмкін, сондықтан оны көруге алаңдамау керек.
  • Сізді иммунитетке дайындаңыз: AI сіздің дайындығыңызды және жалған ақпаратпен және жалған ақпаратпен күресу қабілетіңізді арттыру үшін пайдаланылуы мүмкін (ресми түрде психологиялық егу түрі ретінде белгілі)
  • басқа

Бірінші тізімде келтірілген таңбалау нүктесі жалған ақпарат пен жалған ақпаратты мазмұн әлемге енгенге дейін мүмкіндігінше ертерек тоқтатуға тырысады.

Бұл өте проблемалық тәсіл. Кейбіреулер бұл Үлкен ағаның сөз бостандығын басу әрекеті болуы мүмкін деп қатты даулайды. Бұл AI қаншалықты алыс жүре алады? Бұл адамдардың өз пікірін еркін білдіруіне кедергі бола ала ма? Бұл AI-ның тайғақ баурайына айналуы мүмкін, сайып келгенде, ең жақсы ниетпен жазықсыз басталған зұлым нәтижелердің ең жаман қорқынышына айналуы мүмкін.

Суретті алғаныңызға сенімдімін.

Екінші таңбалау нүктесі сәл қалыптырақ және біз үшін мазмұнды сүзу үшін AI-ды қолдануға болатынын білдіреді.

Сізде әртүрлі жаңалықтар мен басқа көздерден барлық кіріс деректер арналарын сканерлейтін AI сүзгі боты болуы мүмкін. AI сіздің жеке критерийлеріңізге сәйкес келетін кез келген жалған ақпаратты немесе жалған ақпаратты ұстауға бейімделген. Осылайша, мұндай сценарийде бұл Big Brother цензурасы емес. Сіз AI-ны және оның сіздің атыңыздан нақты кіріс жәшігін қалай сүзетінін басқарасыз.

Өте жақсы естіледі.

Дегенмен назар аударарлық жайттар бар.

Мысалы, біз қазірдің өзінде өз көзқарастарымызда қатты поляризацияландық және AI-ны пайдалану бұл поляризацияны тереңірек және қараңғылауы мүмкін. Тоқтаусыз 24×7 жұмыс істейтін осы тамаша AI көмегімен сіз ықтимал жалған ақпарат және жалған ақпарат ретінде жіктелген ақпаратты ешқашан көрудің қажеті жоқ екенін елестетіп көріңіз. Сіздің поляризацияланған көзқарасыңыз енді дерлік бұзылмағанына кепілдік беріледі. Күні бойы және сіздің назарыңызды күтіп тұрған ақпаратты қарауға тырысқанда, ол әрқашан алдын ала таңдалған және жалған ақпарат пен жалған ақпарат деп аталатын нәрселерге көз жүгіртуге мүмкіндік жоқ.

Мен жалған ақпарат пен жалған ақпарат болуы мүмкін екенін айтамын деп аталатын өйткені жалған ақпарат пен жалған ақпараттың не екеніне қатысты үлкен даулар бар. Кейбір сарапшылар ненің жалған ақпарат, ненің жалған ақпарат екенін анықтау үшін абсолютті негіз бар деп сендіреді. Дұрысы да, бұрысы да бар. Барлығын бірдеңе дезинформация немесе жалған ақпарат деп қателеспестен есептеуге болады.

Әркім жағдайды соншалықты анық деп санамайды.

Мақал-мәтелді қосу немесе өшіру өзара эксклюзивті дихотомиялық қарама-қарсылық адастыратын ой шеңбері деп айтылады. Бір адамның жалған ақпараты басқа адамға жалған ақпарат болып саналмауы мүмкін. Жалған ақпарат туралы да. Бекіту жалған ақпарат пен жалған ақпарат сипаты мен ауқымы бойынша ауытқиды. Барлық ақпаратты бір қадаға немесе басқасына түпкілікті түрде жіктеуге тырысу қолмен бұлғау ұсынғаннан әлдеқайда қиын.

Оның мәні мынада: AI-ны сүзгілеу механизмі ретінде пайдалану туралы екінші тармақтың өз мәмілелері бар. Жасанды интеллект осы мақсатта көбірек қолданыла бастайды деген сұрақ аз. Сонымен қатар, біз мұндай AI алға әкелетін қиындықтарды есте ұстауымыз керек. Дезинформация мен жалған ақпарат үшін сүзгі ретінде AI - бұл күміс оқ немесе слем-данк емес.

Бұл бізді үшінші тармаққа, яғни адамдарды жалған ақпарат пен жалған ақпаратпен күресуді жақсарту үшін AI пайдалану мүмкіндігіне апарады.

Осы контексте AI пайдаланудың осы үшінші жолы туралы көп естігеніңізге күмәнім бар. Ол енді ғана пайда бола бастады. Сіз қазір өсетін және бірте-бірте қолданысқа енгізілетін нәрсенің алдыңғы жағындасыз. Бұл танымалдылық кеңейген сайын, оның қолайлы тәсіл екендігі туралы даулар да көп көрінетінін біліңіз.

Мәселенің бір бөлігі мынада: AI кейбіреулер қорлау деп атайтын нәрсе үшін қолданылады адамдармен ақыл-ой ойындарын ойнау.

Бұл қорқынышты сияқты.

Бұл бізді AI этикасы саласына да әкеледі.

Мұның бәрі бүгінгі AI-ға, әсіресе машиналық оқыту мен терең оқытуды технологияның бір түрі ретінде пайдалану және оның қалай қолданылатыны туралы туындаған алаңдаушылыққа қатысты. Көріп отырсыздар, ML/DL-ді жалпы жұртшылық антропоморфизациялауды көздейтін ML/DL қолданыстары бар, олар ML/DL сезімтал AI немесе оған жақын (ол емес) деп есептейді немесе таңдайды. Бұған қоса, ML/DL қалаусыз немесе мүлдем дұрыс емес немесе этика немесе заң тұрғысынан заңсыз болып табылатын есептеу үлгісін сәйкестендіру аспектілерін қамтуы мүмкін.

Жалпы AI-ға сілтеме жасағанда алдымен нені білдіретінімді түсіндіру, сонымен қатар Machine Learning және Deep Learning туралы қысқаша шолу жасау пайдалы болуы мүмкін. Жасанды интеллект нені білдіретініне қатысты үлкен шатасулар бар. Сондай-ақ, мен сіздерге осы дискурстың қалған бөлігінің ажырамас бөлігі болатын AI этикасының ережелерімен таныстырғым келеді.

AI туралы жазбаны айту

Бүгінгі AI табиғаты туралы бір бетте екенімізге көз жеткізейік.

Бүгінгі күні сезімтал AI жоқ.

Бізде бұл жоқ.

Біз сезімтал AI мүмкін болатынын білмейміз. Ешкім біз сезімтал AI-ға қол жеткіземіз бе, әлде сезімтал AI қандай да бір түрде ғажайып түрде есептеулік когнитивтік суперновалар түрінде өздігінен пайда бола ма (әдетте «Сингулярлық» деп аталады, менің қамтуымды қараңыз) дәл болжай алмайды. сілтеме осында).

Бүгінгі AI адам ойлауымен бірдей «ойлауға» қабілетсіз екенін түсініңіз. Alexa немесе Siri-мен өзара әрекеттескенде, сөйлесу мүмкіндіктері адамның мүмкіндіктеріне ұқсас болып көрінуі мүмкін, бірақ шындық - бұл есептеу және адам танымы жоқ. Жасанды интеллекттің соңғы дәуірі есептеу үлгісін сәйкестендіруге мүмкіндік беретін Machine Learning және Deep Learning мүмкіндіктерін кеңінен пайдаланды. Бұл адамға ұқсайтын бейімділікке ие AI жүйелеріне әкелді. Сонымен қатар, бүгінгі күні парасаттылыққа ұқсайтын және адамның күшті ойлауының когнитивтік таңғажайыптары жоқ бірде-бір AI жоқ.

Мәселенің бір бөлігі - компьютерлерді және әсіресе AI-ны антропоморфизациялау үрдісі. Компьютерлік жүйе немесе АИ адамның мінез-құлқымен байланыстыратындай әрекет ететіндей болған кезде, жүйеге адами қасиеттерді жатқызуға деген үлкен ықылас туады. Бұл тіпті ең ымырасыз скептикті де сезімталдыққа жету мүмкіндігіне ұстай алатын қарапайым психикалық тұзақ.

Белгілі бір дәрежеде, сондықтан AI этикасы және этикалық AI өте маңызды тақырып болып табылады.

AI этикасының ережелері бізді сергек болуға мәжбүр етеді. AI технологтары кейде технологиямен, әсіресе жоғары технологияларды оңтайландырумен айналысуы мүмкін. Олар міндетті түрде үлкен әлеуметтік салдарларды қарастырмайды. Жасанды интеллект этикасы туралы ой-пікірге ие болу және оны AI әзірлеу мен өрістету үшін интегралды түрде жасау сәйкес AI жасау үшін өте маңызды, соның ішінде AI этикасының фирмалар қалай қабылданатынын бағалау.

Жалпы AI этикасының ережелерін қолданудан басқа, бізде AI-ны әртүрлі пайдалануды реттейтін заңдар болуы керек пе деген сәйкес сұрақ бар. Федералды, штаттық және жергілікті деңгейлерде AI қалай жасалуы керектігі мен сипатына қатысты жаңа заңдар әзірленуде. Мұндай заңдарды әзірлеу және қабылдау әрекеті кезең-кезеңімен жүргізілуде. AI этикасы, ең болмағанда, қарастырылатын үзіліс ретінде қызмет етеді және белгілі бір дәрежеде бұл жаңа заңдарға тікелей қосылады.

Кейбіреулер бізге AI қамтитын жаңа заңдар қажет емес және біздің қолданыстағы заңдарымыз жеткілікті деп батыл дау жасайтынын ескеріңіз. Олар егер біз осы AI заңдарының кейбірін қабылдасақ, орасан зор әлеуметтік артықшылықтар беретін AI-дағы жетістіктерді қысқарту арқылы алтын қазды өлтіретінімізді ескертеді. Мысалы, менің қамтуымды қараңыз сілтеме осында.

Алдыңғы бағандарда мен AI реттейтін заңдарды жасау және қабылдау бойынша әртүрлі ұлттық және халықаралық әрекеттерді қарастырдым, қараңыз. сілтеме осында, Мысалға. Мен сондай-ақ әртүрлі елдер анықтаған және қабылдаған AI этикасының әртүрлі принциптері мен нұсқауларын, соның ішінде БҰҰ-ның күш-жігерін, мысалы, ЮНЕСКО-ның 200-ге жуық ел қабылдаған AI этикасының жиынтығын, қараңыз. сілтеме осында.

Міне, мен бұрын мұқият зерттеген AI жүйелеріне қатысты этикалық AI критерийлерінің немесе сипаттамаларының пайдалы негізгі тізімі:

  • Ашықтық
  • Әділдік және әділдік
  • Зиянсыздық
  • жауапкершілік
  • Құпиялық
  • Қайырымдылық
  • Бостандық және автономия
  • сенім
  • тұрақтылық
  • Ар-ұждан
  • Ынтымақтастық

Бұл AI этикасының принциптерін AI әзірлеушілері, сондай-ақ AI әзірлеу күш-жігерін басқаратындармен, тіпті ақырында AI жүйелерін өңдейтін және жүргізетіндер де пайдалануы керек. Жасанды интеллектіні дамытудың және пайдаланудың бүкіл өмірлік циклі бойынша барлық мүдделі тараптар этикалық АИ-нің қалыптасқан нормаларын сақтау аясында қарастырылады. Бұл маңызды жайт, өйткені әдеттегі болжам «тек кодерлер» немесе AI-ны бағдарламалайтындар AI этикасы ұғымдарын ұстануға жатады. Бұл жерде алдын ала атап өтілгендей, AI-ны ойлап табу және өрістету үшін ауыл қажет және ол үшін бүкіл ауыл AI этикасының ережелерін білуі және ұстануы керек.

Заттарды жер бетінде ұстайық және бүгінгі санаулы емес AI-ға назар аударайық.

ML/DL – есептеу үлгісін сәйкестендірудің бір түрі. Әдеттегі тәсіл - шешім қабылдау тапсырмасы туралы деректерді жинау. Сіз деректерді ML/DL компьютер үлгілеріне бересіз. Бұл модельдер математикалық заңдылықтарды табуға тырысады. Осындай үлгілерді тапқаннан кейін, егер табылса, AI жүйесі жаңа деректерге тап болған кезде сол үлгілерді пайдаланады. Жаңа деректер ұсынылғаннан кейін ағымдағы шешімді қабылдау үшін «ескі» немесе тарихи деректерге негізделген үлгілер қолданылады.

Менің ойымша, сіз бұл қайда бара жатқанын болжай аласыз. Шешімдердің үлгісін қабылдаған адамдар теріс көзқарастарды біріктірсе, деректер мұны нәзік, бірақ маңызды жолдармен көрсетеді. Machine Learning немесе Deep Learning есептеу үлгісін сәйкестендіру деректерді сәйкесінше математикалық имитациялауға тырысады. Жасанды интеллект модельдеудің жалпы мағынасы немесе басқа сезімтал аспектілері жоқ.

Сонымен қатар, AI әзірлеушілері не болып жатқанын түсінбеуі мүмкін. ML/DL-дегі жасырын математика қазір жасырын көзқарастарды анықтауды қиындатуы мүмкін. Сіз AI әзірлеушілері ықтимал жерленген бейімділіктерді тексереді деп үміттенесіз және күтесіз, бірақ бұл көрінгеннен де қиынырақ. Салыстырмалы түрде ауқымды тестілеу кезінде де ML/DL үлгілерін сәйкестендіру үлгілерінде әлі де ендірілген қиғаштықтардың болатынына сенімді мүмкіндік бар.

Сіз белгілі немесе әйгілі «қоқыс ішіндегі қоқыс шығару» деген нақыл сөзді пайдалана аласыз. Мәселе мынада, бұл АИ-ге батып кеткен бейтараптар ретінде жасырын түрде енгізілетін бейімділікке көбірек ұқсайды. AI алгоритмі шешім қабылдау (ADM) аксиоматикалық түрде теңсіздіктерге толы болады.

Жақсы емес.

Мен енді жалған ақпаратпен және жалған ақпаратпен күресуге байланысты психологиялық егуді жеделдету құралы ретінде AI рөлін жеткілікті түрде талқылау үшін кезеңді қойдым деп ойлаймын.

Адамдардың санасына ену

Жалған ақпарат пен жалған ақпараттың негізінде жатқан негіздерден немесе негіздерден бастайық.

Жалпы, жалған ақпарат жалған немесе жаңылыстыратын ақпаратты білдіреді.

Дезинформация шамамен бірдей, бірақ қосылған элементтен тұрады ниеті. Біз ақпаратты әдетте жалған ақпарат ретінде түсінеміз арналған қате хабарлау.

Мен қазір түнгі сағат 10 деп айта аламын, бұл жалған делік, өйткені уақыт шынымен түн ортасы. Егер мен саған 10-ды болжам ретінде айтсам және алдауға тырыспасам, әдетте мен сені қате хабардар еттім деп айтатын едік. Мен жалған ақпарат бердім. Мүмкін мен жалқау болдым ба, мүмкін сағат 10 болды деп сендім. Екінші жағынан, егер мен сізді әдейі уақыт 10 сағат деп алдап алғым келгендіктен және уақыт шын мәнінде түн ортасы екенін білемін деп 10 сағатты айтқан болсам, бұл жалған ақпараттың бір түрі деуге болады. .

Жалпы ақпараттың бір маңызды аспектісі, әдетте біз ақпараттың айналасында тарай аламыз және осылайша ақпарат біршама кең тарауы мүмкін. Ақпарат кең мағынада су сияқты ағып кетуі мүмкін.

Мен саған айтамын, түнгі 10. Енді сізде нақты ақпарат бар. Маңайдағы бір топ адамға түнгі сағат 10 деп дауыстап айқайлауыңыз мүмкін. Қазір оларда дәл осындай ақпарат бар. Мүмкін, кейбір адамдар ұялы телефондарын алып, басқаларға қоңырау шалып, сағат 10 болды деп айтады. Тұтастай алғанда, ақпаратты таратуға немесе бөлісуге және кейде өте жылдам жасауға болады, ал басқа жағдайларда өте баяу орындалады.

Былайша айтқанда, сіз ақпараттың вирусқа айналуы мүмкін деп айтуға болады.

Ақпараттың вирусқа айналу құбылысын сипаттауға көмектесетін ойлап табылған сөз немесе терминология бар. инфодемиялық. Бұл сөз ақпараттың қосындысы және індет болып табылады. Жалпы алғанда, инфодемия жалған ақпараттың немесе жалған ақпараттың таралуына байланысты жағдайлармен байланысты. Түсінік жалған немесе жаңылыстыратын ақпарат аурудың немесе аурудың қалаусыз таралуына ұқсас, қалаусыз вирусқа айналуы мүмкін.

Сағат түнгі 10 болғаны туралы мысалда бұл көрінетін факт жақын маңдағы адамдар тобына таратылған ақпарат болды. Олар өз кезегінде бұл фактіні басқаларға таратады. Егер сағат 10 жалған болса, онда бұл жалған ақпарат немесе жалған ақпарат басқаларға таратылды. Олар ақпараттың жалған ақпарат немесе мүмкін жалған ақпарат екенін білмеуі мүмкін.

Мен бұл анықтамалар мен негіздердің барлығы ақылға қонымды болып көрінетініне сенемін және сіз әлі күнге дейін борттасыз.

Керемет, жалғастырайық.

Мен сізді таң қалдыратын және сондай-ақ алаңдататын нәрсеге жасырын түрде әкелдім. Мәселе мынада: вирустық аурулар мен жалған ақпарат немесе жалған ақпарат вирустық әсер ететіні арасында ақылға қонымды параллельдер бар.

Бұл мәлімделген параллельдермен бәрі келіспейді. Дегенмен, олар қызықты және назар аударуға тұрарлық.

Толығырақ айтып беруге рұқсат етіңіз.

Көрдіңіз бе, біз адам жұқтыратын аурулар мен таралатын ауруларға сілтеме жасаудың ыңғайлы ұқсастығын қолдануға тырысамыз, осылайша жалған ақпарат пен жалған ақпараттың таралуымен ұқсас мүмкіндікті салыстыра аламыз. Аурулардың таралуын тоқтату үшін біз аурудың ықтимал таралу нүктесін ерте анықтауға және оның пайда болуын болдырмауға тырысамыз. Таралатын аурумен күресудің тағы бір тәсілі оны маска немесе қорғаныс құралдарын кию арқылы абайлап қолдану арқылы жұқтырудан сақтану болады. Үшінші тәсіл ауруға байланысты иммунитетті құруға тырысу үшін вакцинациялаудан тұруы мүмкін.

Қазір біз аурулармен күресудің дәл осындай тәсілдерін жалған ақпаратпен және жалған ақпаратпен күресумен салыстыруға болатынына толықтай жеттік. Мен жоғарыда атап өткендей, жалған ақпарат пен жалған ақпаратпен күресу мақсатында жасанды интеллектті қолдану бойынша күш-жігер бар екенін айттым, атап айтқанда (бұрын айтылғандай):

  • Жолда тоқтаңыз: Жасанды интеллект жалған ақпарат пен жалған ақпаратты жоғалып кетпес бұрын анықтау және акциздеуге тырысу үшін пайдаланылуы мүмкін.
  • Көру алдында сүзгі: Жасанды интеллект жалған ақпарат пен жалған ақпаратты сүзу үшін пайдаланылуы мүмкін, сондықтан оны көруге алаңдамау керек.
  • Сізді иммунитетке дайындаңыз: AI сіздің дайындығыңызды және жалған ақпаратпен және жалған ақпаратпен күресу қабілетіңізді арттыру үшін пайдаланылуы мүмкін (ресми түрде психологиялық егу түрі ретінде белгілі)
  • басқа

Үшінші аспект бұл жерде ең қызықты болады.

Мұнда мәміле.

Аурулар әдетте ауыратынын білеміз адам денесі. Жалған ақпарат пен жалған ақпараттың пайда болуының ұқсастығына сүйене отырып, біз жалған ақпараттың желіге шабуыл жасайтынын ұсына аламыз. адам санасы. Иә, сіз өзіңіздің ойыңызға келетін жалған ақпаратпен немесе жалған ақпаратпен байланыста болуыңыз мүмкін. Жалған ақпарат немесе жалған ақпарат сіздің ойлау жолыңызды бұзуы немесе уландыруы мүмкін.

Адам ағзасын аурумен байланыста болуға тырысу және дайындау үшін вакцинациялауға болады. Адам санасы үшін де солай істей аламыз ба деген үлкен сұрақ туындайды. Дезинформация немесе жалған ақпарат сіздің ойыңызға келгенде, сіз оған дайынсыз және сәйкесінше егілгенсіз деп сананы егуге тырысуға болады ма?

деп аталатын зерттеу саласы психологиялық егу ақыл-ойды жалған ақпаратты немесе жалған ақпаратты өңдеуге дайын болу мағынасында егуге болады деп есептейді.

Бұл сипаттаманы психологиялық егу және кейде не істеу деп белгілейтініне қатысты жақында жүргізілген зерттеуде қарастырыңыз пребункинг:

  • «Дезинформацияны жою да қиын, өйткені жалған ақпаратты түзету оның салдарын толығымен жоққа шығармайды, бұл құбылыс үздіксіз әсер ету әсері деп аталады. Тиісінше, бұрмалаудан айырмашылығы, алдын-ала жалған ақпараттың болжамды әсеріне қарсы тұрақтылықты алдын ала құру құралы ретінде танымал болды. Бұл тәсіл әдетте егу теориясына негізделген. Инокуляция теориясы медициналық иммундау ұқсастығына сүйенеді және медициналық егу патогендерге физиологиялық төзімділікті қалыптастыратын сияқты, қажетсіз сендіру әрекеттеріне психологиялық қарсылықты қалыптастыруға болады деп болжайды» (Ғылыми жетістіктер, 24 жылғы 2022 тамыз, бірлескен авторлар Джон Рузенбек, Сандер ван дер Линден, Бет Голдберг, Стив Ратже және Стефан Левандовскийдің «Психологиялық егу әлеуметтік медиадағы жалған ақпаратқа төзімділікті арттырады».

Түнгі сағат 10-ға қатысты менің мысалыма қайта оралсақ, мен сізге кейде мәлімделген уақыт нақты уақыт емес екенін бұрын айттым делік. Бұдан былай сізде мәлімделген уақыттан сақ болу үшін егу түрі бар. Бұл егу сізді жалған ақпарат немесе жалған ақпарат болып табылатын мәлімделген уақыттармен байланыста болуға дайындады.

Егер мен сізге бірнеше жыл бұрын мәлімделген уақыттардың нақты уақыт емес екендігі туралы алдын ала ескерткен болсам, сіз бұрыннан болған ескерту туралы ойланбауыңыз мүмкін. Осылайша, бұрынғы егу (айту керек) тозған. Менің сізге егуді күшейту қажет болуы мүмкін.

Сондай-ақ, егу қажет болған кезде оны пайдалану үшін жеткілікті нақты емес болуы мүмкін. Егер мен бірнеше жыл бұрын сізге мәлімделген уақыт пен нақты уақыт туралы ескерткен болсам, бұл өте кең болуы мүмкін. Сізге 10 сағат туралы айтылған нақты жағдайда егу жұмыс істемеуі мүмкін. Осы тұрғыдан алғанда, менің егуім 10 сағаттық уақытты қолданған кезде абай болу керек еді. Әрине, аурулар кезінде егу біршама бірдей, кейде белгілі ауруларға өте тән, ал басқа жағдайларда кең спектр.

1961 жылы Колумбия университетінің қызметкері Уильям МакГуайрдың психологиялық егу бойынша жасаған жиі сілтеме жасайтын зерттеу зерттеуі қазір бұл зерттеу саласындағы классикалық болып саналады. Сізді оның сол кезде айтқан негізгі ойлары қызықтыруы мүмкін:

  • «Мұндай жалпылама иммундау екі механизмнің кез келгенінен туындауы мүмкін. Алдын ала әсер ету адамды ол әрқашан қабылдаған «труизмдердің» шынымен де осал екенін түсінуге таң қалдыруы мүмкін, осылайша оны өз сенімін қорғауды дамытуға итермелейді, нәтижесінде ол күшті қарсы дәлелдерге төзімдірек болады. Немесе, алдын ала әсер етумен байланысты теріске шығару сенімге қарсы кейіннен ұсынылған барлық қарсы дәлелдерді аз әсерлі етіп көрсетуі мүмкін» (Уильям МакГуайр, «Resistance to Conferred by Active and Passive Prior Refutation Of The Same And Alternative Counterarguments and Journal of Abnormal) Әлеуметтік психология, 1961).

Сіз егу мен иммундау ұқсастығын жалған ақпарат пен дезинформация саласымен пайдалы және орынды салыстыру деп санайсыз ба?

Кейбіреулер жасайды, кейбіреулері жоқ.

Осы талқылаудың мақсаттары үшін алғышарттың орынды және орынды екенін қабылдаңыз.

Біз қалай тырысамыз және адамдардың санасын егуге немесе иммунизациялауға тырысамыз?

Біз адамдарға олардың санасын нұрландыратын кітаптарды оқуға шақыра аламыз. Біз оларға бұл туралы айта аламыз немесе бейнелерді көруді немесе аудио таспаларды тыңдауды сұраймыз. т.б.

Біз де дәл осылай істеу үшін AI-ды қолдануымыз мүмкін.

Инокулятор болу үшін AI жүйесі жасалуы мүмкін. Интернетке қарау сияқты желіге кіре бастағанда, AI негізіндегі қолданба сізді онлайн саяхатыңызға дайындауы мүмкін. Жасанды интеллект сізге әдейі жалған нәрсені көретіндігіңізді түсінуге мүмкіндік беретін кішкентай дезинформация беруі мүмкін.

Жасанды интеллектпен қоректенетін осы дезинформацияға ұшыраған кезде, сіздің санаңыз Интернетте жабайы табиғатта кездесуі мүмкін жалған ақпаратпен немесе жалған ақпаратпен күресуге дайын. Сіздің ойыңыз дайын. Voila, сіз Интернетте Марстағы бөтен жаратылыстар қазірдің өзінде жер бетінде және көзге көрінбейтін жерде жасырынып жатқандығы туралы мәлімделген фактілерді ұсынатын блогты көресіз, бірақ бұл көрінетін жалған ақпарат немесе жалған ақпарат алдын ала егілгендіктен сіздің ойыңыздан оңай бас тартады (жақсы, содан кейін тағы да, мүмкін бұл шындық және олар шынымен де осында!).

Қалай болғанда да, сіз AI адамдарды жалған ақпаратқа немесе жалған ақпаратқа қарсы егуге немесе иммунизациялауға қалай көмектесетінін қазір түсіне аласыз деп үміттенемін.

Дезинформация немесе жалған ақпарат егу ретінде жұмыс істейтін әртүрлі AI қолданбалары жасалуда. AI кең және иммунизацияның жалпы көрінісін беретін егуді қамтамасыз етуге ұмтылуы мүмкін. Сондай-ақ АИ егудің нақты формалары үшін де жасалуы мүмкін. Сонымен қатар, AI сіздің жеке қажеттіліктеріңізге немесе қызығушылықтарыңызға бейімделген жеке негізде жұмыс істей алады. Бұл кеңістіктегі жетілдірілген жасанды интеллект сіздің төзімділік деңгейіңізді, ақыл-ойды сіңіру жылдамдығыңызды, сақтау қабілетіңізді және иммундау деп аталатын вакциналарды жасау және ұсыну кезінде басқа факторларды анықтауға тырысады.

Өте ыңғайлы сияқты.

AI қауіпті ақыл ойындарының ойыншысы ретінде

Осылай қолданылған AI бір қарағанда өте ыңғайлы болып көрінеді (эй, мен бұл туралы бір секунд бұрын айтқанмын).

Мазасыздық тудыратын және мүмкін қорқынышты болуы мүмкін көптеген кемшіліктер мен проблемалар бар.

Мен өзімнің бағандарымда AI-ның қосарлы пайдалану мүмкіндіктерін жиі талқылаймын, мысалы, қараңыз сілтеме осында. AI адамзатқа маңызды үлес қоса алады. Өкінішке орай, AI-ға көптеген қауіптер мен бақытсыз тұзақтар кіреді.

AI инкультатор ретіндегі жағдайда, AI этикасына қатысты осы демонстрациялық мәселелерді қарастырайық:

  • Адамдардың жағымсыз реакциялары
  • Адамдардың жауап бермейтін реакциялары
  • AI қате бағыттау
  • AI мақсатсыз
  • AI кибербұзушылық
  • басқа

Біз бұл алаңдаушылықтарды қысқаша қарастырамыз.

Адамдардың жағымсыз реакциялары

AI негізіндегі егудің мұндай түрін алған адам жағымсыз реакцияға ие немесе жағымсыз әсер етті делік.

Адам иммунизацияны дұрыс түсінбеуі және кенеттен олар алған кез келген ақпаратты қабылдамауы мүмкін. Олар барлық ақпаратты жауып тастайды. AI оларды қандай да бір жолмен баланы ванна суымен лақтырып тастауға итермеледі (ескі сөз, мүмкін зейнетке шығуға тұрарлық). Жалған ақпаратпен және жалған ақпаратпен күресуге тырысудың орнына, адам барлық ақпарат әрқашан жалған деп шешім қабылдау арқылы әрекет етті.

Менің ойымша, біз адамдардың шектен шығуын қаламаймыз.

AI ынталандыруы мүмкін көптеген жағымсыз реакциялар бар. Бұл ішінара АИ-нің егуді қалай орындағанына байланысты, бірақ біз мәселенің бір бөлігін егу алған адамның аяғына қоюымыз керек. Олар жабайы немесе оғаш тәсілдермен әрекет еткен болуы мүмкін, сол AI егуін алған басқалар мұны жасамаған.

Тағы да, сіз мұны ауруларға егу ұқсастығына ұқсай аласыз.

Қысқасы, мұндай AI күш-жігерін пайдаланған кезде, олар жағымсыз әсерлерді азайтуға тырысатын жауапты әдістермен жасалуы маңызды болады. Жағымсыз реакцияның орын алған-болмағанын анықтау үшін АИ-нің кейінгі аспектісі де болуы керек. Егер жағымсыз реакция анықталса, АИ адамға жағымсыз реакциясында көмектесу және жауапты жеңуге немесе жеңілдетуге тырысу үшін жасалуы керек.

Адамдардың жауап бермейтін реакциялары

Тағы бір мүмкіндік, AI-мен қоректенетін егу қабылдаушы адамға әсер етпейді.

Адам жалған ақпаратқа немесе жалған ақпаратқа байланысты AI негізіндегі егу алады. Адамдардың көпшілігі «оны алады» және иммунизацияланса, мүлдем реакция жасамайтын адамдар болуы мүмкін. Олар егуден ештеңе үйренбейді. Олар жалған ақпараттың немесе жалған ақпараттың барлық немесе белгілі бір түрлеріне қарсы AI әрекетіне жауап бермейді.

Бұл тағы да ауруларға қарсы егумен салыстыруға болады.

AI осындай жағдаймен күресу үшін жасалуы керек.

AI қателіктері

Елестетіп көріңізші, AI адамдарды белгілі бір тақырыпқа қатысты иммунизациялауға үміттенеді, біз оны X тақырыбы деп айтамыз, бірақ оның орнына Y тақырыбы қамтылады. AI қате бағытталады.

Бұл екіжақты мәселе. Біріншіден, Х тақырыбы АИ егу құралының болжамды және күтілетін мақсаты ретінде қарастырылмаған. Екіншіден, Y тақырыбы қамтылған, бірақ біз адамдардың осы тақырып бойынша иммунизацияланғанын қаламаған болар едік.

Көрінбейтін.

Сұрақтар көп. Мұның алдын алуға болар ма еді? Егер бұл орын алса, Y иммунизациясы тақырыбын жоюға болады ма? Біз X егу тақырыбын қамтуға тырысамыз ба, әлде адам бастапқыда АИ қате бағыттағандықтан қабылдаушы немесе қабылдамайды ма?

Көптеген проблемалық алаңдаушылықтар туындайды.

AI мақсатсыз

AI Z тақырыбы бойынша егуді қамтамасыз етеді. Инокуляцияны алатын адамдар минималды немесе елеусіз реакцияға ие сияқты. Егу ұстау үшін жеткіліксіз болды.

Сіз бұл оңай шешілетінін тез талап етуіңіз мүмкін. Сізге тек егуді қайталау жеткілікті. Мүмкін Иә, мүмкін жоқ.

AI егу соншалықты шектеулі мәнге ие болуы мүмкін, егер сізде адамдар оны жүз рет бастан өткерсе де, нәтиже әлі де маргиналды нәтиже болып табылады. Сізге егуді жай қайталаудың орнына күшейту қажет болуы мүмкін.

Сонымен қатар, AI-мен қоректенетін егуді арттыру әрекеті жасалғанын елестетіп көріңіз, бірақ бұл шектен шығады. Күшейтілген нұсқа гиперреакцияларды тудырады. Иә, біз жаманнан да жаманға жеттік.

AI кибербұзушылық

AI адамдарға жалған ақпарат пен жалған ақпараттан арылуға көмектесу үшін кеңінен қолданылады деп ойлаңыз.

Адамдар жалпы сенімге ие болады. Олар AI оларға жалған ақпарат пен жалған ақпарат деп аталатын нәрселерге көздерін ашатын үзінділер беретінін біледі және күтеді.

Бәрі жақсы және жақсы сияқты.

Зұлымдық жасаушы қандай да бір жолмен АИ-де кибербұзушылық жасай алады. Олар AI-ға адамдар жалған ақпарат емес деп ойлағысы келетін кейбір дезинформацияны жасырын түрде мәжбүрлейді. AI нақты жалған ақпарат шынайы ақпарат болып көрінетіндей етіп ұйымдастырылған. Сондай-ақ, шынайы ақпарат жалған ақпарат ретінде көрсетіледі.

Адамдар толықтай құмар. Оларды AI дезинформациялайды. Оның үстіне, олар АИ-ге тәуелді болғандықтан және АИ дұрыс істеп жатқанына сенгендіктен, олар осы бұзылған AI үшін ілмекке, сызыққа және суға түседі. Еш ойланбастан.

Дезинформацияның қаншалықты тез таралатынын ескере отырып, зұлымдық жасаушы АИ-нің бұл түрінің болуы олардың өтіріктерін бүкіл әлемге таратудың ең оңай және жылдам әдісі екеніне қуанады. Бір қызығы, ауруды тарату үшін AI егу құралын қолданды.

қорытынды

AI бізбен ақыл-ой ойындарын ойнауы керек пе?

Дезинформацияға және жалған ақпаратты егуге арналған AI қауіпті трояндық ат болуы мүмкін бе?

Сіз осындай қорқынышты түс туралы алаңдаушылық үшін маңызды жағдай жасай аласыз.

Басқалары мұндай мүмкіндікті мазақ етеді. Адамдар AI оларды алдауға тырысқанда білуге ​​жеткілікті ақылды. Адамдар мұндай дриблингке түспейді. Мұндай AI-ге тек ақымақтар ғана алданып қалады. Бұл әдеттегі қарсылықтар мен қарсы дәлелдер.

Адамдарға және адам табиғатына толықтай таңданатын сияқты көрінгім келмей, мен адамдардың оларды адастыратын AI-ға түсуі мүмкін екендігі туралы көптеген белгілер бар екенін ұсынар едім.

Осының бәріне қатысты бұдан да үлкен мәселе бар.

Жасанды интеллектті кім жасайды және AI алгоритмі жалған ақпарат пен жалған ақпарат деп нені анықтайды?

Бүгінгі күні әлемде нақты дезинформация мен жалған ақпараттың нені құрайтыны туралы тұтас өрт сөндіру жүріп жатыр. Кейбіреулер фактілер фактілер деп мәлімдейді, сондықтан дұрыс ақпарат пен дұрыс емес ақпараттың қандай екендігі туралы ешқашан шатасуы мүмкін емес. Шайтан кейде егжей-тегжейлі болса да, бұл сөзсіз.

Әзірге соңғы ескерту. Авраам Линкольн: «Сіз барлық адамдарды кейде және кейбір адамдарды үнемі алдай аласыз, бірақ сіз барлық адамдарды әрқашан алдай алмайсыз», - деген атақты.

Адамзатты жалған ақпарат пен жалған ақпараттан жұқтыруға көмектесу үшін қолданылатын AI барлық адамдарды әрдайым алдап кетпеуін қамтамасыз ететін маңызды құрал бола ма? Немесе бұл көп адамдарды алдау үшін пайдаланылуы мүмкін бе?

Уақыт айтады.

Және бұл дезинформация немесе жалған ақпарат емес.

Дереккөз: https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-induced-psychological-inoculation-to-help-humans-with-disinformation/