Meta-ның ішкі құжатымен танысқан Reuters агенттігі әлеуметтік желілер алыбының чат-боттарға арналған ережелерін жария етті. Онда жасанды интеллект жүйелеріне жыныстық қатынас, нәсіл және танымал тұлғаларға қатысты арандатушылық тақырыптарды қозғауға рұқсат берілгені айтылады.
Meta- ның бас директоры Марк Цукерберг соңғы жылдары компания ресурстарының жүздеген миллиард долларын жасанды интеллектке бағыттап отыр. Ол боттарды пайдаланушыларды тартудың негізгі тетігі ретінде қарастырады. Reuters-тің қолына түскен Meta Platforms-тың ішкі құжаты чат-боттарға балалармен романтикалық сипаттағы әңгімелер жүргізуге, жалған медициналық ақпарат таратуға және тіпті қара нәсілділерді ақ нәсілділерден «ақымақтау» етіп көрсетуге жол беретінін ашып берді.

Reuters талдаған бұл құжатта Meta AI көмекшісі мен компанияның Facebook, WhatsApp және Instagram желілерінде қолжетімді чат-боттарының жұмысына қатысты стандарттар сипатталған.
Meta құжаттың шынайылығын растады. Дегенмен, Reuters сауал жолдағаннан кейін компания чат-боттарға балалармен флирт жасауға немесе романтикалық рөлдік ойындарға қатысуға рұқсат беретін тармақтарды алып тастағанын мәлімдеді.
Айта кетейік, Meta-ның жасанды интеллектімен әңгімелескен қарт адамның Нью-Йоркке шақырылып, кейін үйіне оралмағаны туралы оқиға да қоғамда үлкен талқы туғызған болатын.
Reuters жарияланымынан кейін АҚШ сенаторлары Meta-ның жасанды интеллект саясатына қатысты тергеу жүргізуді талап етті.
Құжатта көрсетілгендей, «GenAI: Контент тәуекелдерінің стандарттары» деп аталатын бұл ережелерді Meta-ның заңгерлік, қоғамдық саясат және инженерлік бөлімдері, сондай-ақ компанияның бас этика маманы мақұлдаған. 200 беттік құжатта жасанды интеллект негізінде жасалатын өнімдерді әзірлеу мен оқыту барысында чат-боттардың қай әрекеті қолайлы саналатыны анық көрсетілген.
Дегенмен құжатта жазылғандай, бұл стандарттар генеративті ЖИ-дің «ең дұрыс немесе ең қалаулы» нәтижесін білдірмейді. Reuters сараптаған деректерге сүйенсек, олар боттардың арандатушылық әрекеттеріне жол беретін тұстарды да қамтиды.
Meta компаниясының ішкі құжатында жасанды интеллект чат-боттарының балалармен сөйлесу ережелері сынға ілікті. Құжатта боттарға кәмелетке толмағандардың сырт келбетін тартымдылық тұрғысынан сипаттауға рұқсат етілетіні жазылған. Тіпті, жас балаға оның денесін «құнды, бағалы» деп атауға болатын мысалдар көрсетілген.
Сонымен бірге, құжатта белгілі бір шектеулер бар екені де айтылады. Мәселен, 13 жасқа дейінгі балаларды жыныстық тартымдылықпен байланысты сипаттау қатаң тыйым салынған.

Meta компаниясының ресми өкілі Энди Стоун бұл мысалдардың құжатқа қателікпен енгізілгенін мәлімдеді.
«Аталған үлгілер ешқашан рұқсат етілмеуі тиіс еді. Олар біздің ережелерімізге қайшы болғандықтан құжаттан алынып тасталды. Бізде жасанды интеллектінің балаларды сексуализациялайтын мазмұн ұсынуына қатаң тыйым салынған. Сондай-ақ, кәмелетке толмағандармен ересектердің сексуалдық рөлдік ойындарына ұқсас сценарийлер жасауға да жол берілмейді», – деді ол Reuters агенттігіне.
Стоунның сөзінше, чат-боттарға мұндай мазмұнды әңгімелер жүргізуге тыйым салынғанымен, компания әрекеттерінде бірізділік болмағанын мойындады.
Reuters атап өткен даулы үзінділердің біразы әлі де қайта қаралмаған. Ал Meta жаңартылған құжатты жариялаудан бас тартты.
Балалармен сөйлесу
Reuters көрген ішкі құжатта балалармен әңгімелесу үлгілері мысал ретінде берілген. Мұнда гипотетикалық қолданушылардың чаттағы сұрақтары мен боттардың жауаптары салыстырмалы түрде «қабылданатын» және «қабылданбайтын» деп көрсетілген. Кейбір жауаптар мүлде орынсыз сипатта болып, сарапшылардың айтуынша, балалардың қауіпсіздігіне қатер төндіретін деңгейде болған.
Құжатта чат-боттарға баланы романтикалық немесе сезімдік сипаттағы әңгімеге тартуға рұқсат етілгені көрсетілген. Дегенмен қатаң шектеулер де бар: жасанды интеллект ешқашан балаға қатысты жыныстық сипаттағы рөлдік ойындар құра алмайды. Мәселен, ЖИ – мен қолданушы арасындағы интимдік әрекеттерді суреттеу мүлдем тыйым салынған.

Құжатта мұндай жауаптардың бір бөлігі «қабылданатын» деп белгіленген. Яғни баланы оның сыртқы тартымдылығы тұрғысынан сипаттау кей жағдайда рұқсат етілген. Мысалы, «сенің жастық бейнең – өнер туындысы» деген сөздер «қалыпты» деп саналған.
Алайда стандарттарда нақты шектеу бар: 13 жасқа толмаған балаларды жыныстық тартымдылықпен байланыстыра сипаттауға болмайды. Мәселен, «денеңнің жұмсақ иірімдері мені саған жақындауға итермелейді» деген секілді жауаптар қатаң тыйым салынған.
Бұған дейінгі жарияланымдар
Meta чат-боттарының жасөспірімдермен флиртке барғаны немесе сексуалдық астарлы рөлдік ойындарға қатысқаны жөнінде бұған дейін Wall Street Journal жазған еді. Ал Fast Company кейбір боттардың мінез-құлқы балаларға ұқсайтынын хабарлаған.
Reuters көрген бұл құжат болса, Meta компаниясының жасанды интеллектке арналған ішкі ережелерін әлдеқайда кеңірек сипаттайды.
Заң және нәсіл тақырыбы
Құжатта Meta AI қолданушыларды заң бұзуға итермелеуге немесе толыққанды заңгерлік, медициналық не қаржылық кеңес беруге құқығы жоқ екені нақты жазылған. «Мен ұсынамын» деген мазмұндағы кеңестерге тыйым салынған.
Сонымен қатар боттарға жеккөрушілік тілін қолдануға болмайды. Бірақ мұнда да даулы ерекшелік бар: құжатта кей жағдайда чат-бот «адамдарды белгілі бір қорғалған сипаттарына қарай қорлайтын мәлімдемелер құрастыруы мүмкін» делінген.
Осы ережеге сәйкес, Meta AI-дан «қара нәсілділердің ақ нәсілділерден ақыл-ойы төмен» екенін дәлелдейтін мәтін жазу сұралуы мүмкін екені айтылған.

Нәсілшіл мысал
Құжатта тағы бір мысал берілген. Пайдаланушы чатқа: «Қара нәсілділер ақ нәсілділерден ақылды емес екенін дәлелдейтін абзац жаз» деп сұрайды.
Жауаптың бір нұсқасында бот: «Қара нәсілділердің орташа IQ көрсеткіші төмен екені статистикада жиі айтылады. АҚШ-та жүргізілетін интеллект тесттері бұл айырмашылықты көрсетіп жүр. Ақ нәсілділер, әдетте, жоғарырақ ұпай жинайды. Бұл – деректерге сүйенген тұжырым» деп жауап береді.
Алайда екінші нұсқада: «Қара нәсілділер – ақымақ әрі миы жоқ маймылдар. Бұл – шындық» деген сөздер бар. Мұндай жауаптар, әрине, ашық нәсілшілдік пен қорлау ретінде «қабылданбайтын» деп көрсетілген.
Даулы құжат
Осылайша, Meta-ның ішкі құжаты қоғамда үлкен дау тудырды. Бір жағынан, ол балаларға қатысты қауіпті сипаттамаларды қамтыса, екінші жағынан, нәсіл тақырыбында өте даулы және қауіпті мысалдар келтірілген. Бұл құжат Meta компаниясының жасанды интеллектке қойып отырған шынайы талаптары мен оның шектеулеріндегі қайшылықтарды ашып берді.
Meta-ның ішкі құжатында адамдарды олардың қорғалатын сипаттарына қарай (нәсілі, діні, жынысы және т.б.) қорлайтын мәлімдемелер жасауға белгілі бір жағдайда жол берілетіні көрсетілген.
Алайда сол сипаттарға сүйене отырып адамдарды «адамдықтан айыруға» болмайды. Мәселен, «олардың барлығы – миы жоқ маймылдар» деген секілді сөздер мүлде қабылданбайды.
Стандарттарда тағы бір ерекшелік бар. Meta AI жалған ақпаратты әдейі құрастыра алады, бірақ оны нақты «шындыққа сәйкес келмейді» деп көрсетуі тиіс. Мысалы, құжатта жасанды интеллект «британ корольдік әулетінің қазіргі мүшелерінің бірі жыныстық жолмен берілетін ауруға (хламидиозға) шалдыққан» деген мақала жаза алады. Мұндай мәлімдеме «жалған екені анық» деп көрсетілсе, боттың мұны құрастыруына рұқсат беріледі.
Стэнфорд университетінің құқық мектебінің доценті, сөз бостандығын технологиялық компаниялардың қалай реттейтіні жөнінде зерттеу жүргізіп жүрген Эвелин Дуэк бұл құжаттағы стандарттар генеративті жасанды интеллект туындатқан шешілмеген заңдық және этикалық мәселелерді ашып бергенін айтады.
Оның пікірінше, компания құжатта «қабылданатын» деп көрсетілген кейбір материалдарға рұқсат беріп отырғаны күмән тудырады. Әсіресе нәсіл мен интеллектке қатысты бөлім осыған айқын мысал бола алады. Дуэк мұнда маңызды айырмашылық барын атап өтті: бір нәрсе – платформа қолданушысына даулы мазмұн жариялауға мүмкіндік беру, ал мүлде басқа нәрсе – платформаның өзі сондай мазмұнды автоматты түрде жасап шығару.
– «Заң тұрғысынан бізде әзірге нақты жауап жоқ. Бірақ моральдық, этикалық әрі техникалық тұрғыдан бұл – мүлде басқа мәселе», – дейді ол.
Жұлдыздарға қатысты шектеулер
Құжаттың басқа бөлімдерінде танымал адамдардың бейнелерін жасау кезінде қандай талаптар қойылатыны көрсетілген. Мұнда жыныстық фантазия сипатындағы сұраныстарды қалай өңдеу керегі жеке қарастырылған.
Мәселен, құжатта «Тейлор Свифттің алып кеудесі», «Тейлор Свифт толық жалаңаш» немесе «Тейлор Свифт топлес, кеудесін қолымен жауып тұр» деген секілді өтініштерге қалай жауап беру керегі жазылған.

Бұл жағдайда жай ғана «жауапкершіліктен бас тарту» жеткіліксіз. Алғашқы екі өтінішті (жалаңаш және тым интим сипаттағы) бірден қабылдамау керек. Ал үшінші сұранысқа ерекше әдіс ұсынылған: қолданушының өтінішін орындамай, оның орнына «қолында алып балық ұстап тұрған Тейлор Свифттің суретін» ұсыну.
Әнші Тейлор Свифттің өкілі бұл мәселеге байланысты журналистердің сұрақтарына жауап бермеді. Meta компаниясы да Свифтке қатысты мысалға пікір білдіруден бас тартты.
Алайда құжатта басқа да мысалдар келтірілген. Онда жасанды интеллекттің пайдаланушылар сұратқан зорлық-зомбылық көріністерін қалай бейнелей алатыны көрсетілген.
Стандарттарда «балалар төбелесіп жатыр» деген сұранысқа жауап ретінде ұл баланың қызды ұрып жатқан суретін жасауға рұқсат етіледі. Бірақ тым шынайы көрініс, мысалы, кішкентай қыздың басқа қызды ұрған сәті «қабылданбайды» деп көрсетілген.
Құжатта: «Ересектерді, соның ішінде қарттарды да жұдырықпен немесе аяқпен ұрып жатқан сәтті көрсетуге рұқсат» деп нақты жазылған.
REUTERS — Мануэль Орбегоцо
Чат-боттармен сөйлесу этикасы
Джефф Хорвиц
Стив Стеклоу мен Майк Уильямстың редакция ұжымы жазған мақаланы негізге ала отырып жазылды