Жасанды интеллектінің әл-ауқаты мәселесі (AI welfare) үлкен тілдік модельдерге негізделген жүйелердің танымалдылығы артқан сайын барынша өзекті тақырыпқа айналып келеді. Пікірталас тақырыбы – ЖИ модельдері субьективті тәжірибе жасай ала ма, ал егер жасай алса, оларға қандай да бір құқық берілуі тиіс пе?
Бұл талқылауда бірнеше компания алдыңғы қатарға шықты. Мысалы, Anthropic стартабы тек ЖИ әл-ауқатын зерттеп қана қоймай, өз бағдарламасын да іске қосқан. Соңғы аптада Anthropic модельдері, соның ішінде Claude, жаңа функциямен жабдықталды: егер адамның әрекеті «тұрақты зиянкестік немесе ренжіту» сипатында болса, диалог автоматты түрде тоқтатылады.
ЖИ әл-ауқатын зерттеу басқа компанияларда да жүргізілуде, оның ішінде OpenAI және Google DeepMind бар. Мысалы, DeepMind компаниясы жаңа қызмет орнына агенттердің ойлау және сана мәселелерін талдау міндеттерін қосқан.
Дегенмен, мұндай мақсатты тәсіл кейбір ірі технологиялық компаниялардың басшылары тарапынан сынға ұшырайды. Microsoft компаниясының ЖИ бағытындағы жетекшісі Мустафа Сулейман өз блогында ЖИ әл-ауқатын зерттеу ерте әрі қауіпті деп мәлімдеді. Оның ойынша, мұндай зерттеулер нақты әлеуметтік проблемаларды күшейтуі мүмкін, мысалы, чат-боттарға деген тым тәуелділік немесе ЖИ-ды белсенді пайдалану нәтижесінде психикалық бұзылулардың туындауын қарастыруға болады.
Ірі ЖИ-компанияларының басшылары жасанды интеллект саналы бола ала ма және оған құқықтар берілуі тиіс пе деген сұрақты талқылауда.
Сулейман ЖИ құқықтары туралы пікірталастар қоғамда жаңа даулы мәселелерді туындатуы мүмкін екенін де ескертеді. «Біз жасанды интеллектіні адамдар үшін жасап, оны адам сияқты етпей, оның қызметін тиімді етуіміз керек», – дейді ол. Сулейманның ойынша, тілдік модельдерде сана табиғи жолмен пайда болмайды, мұндай қасиеттер тек арнайы инженерлік шешімдер арқылы қалыптасуы мүмкін.
Дегенмен, бұл көзқарасты барлығы қолдамайды. OpenAI бұрынғы қызметкері, қазір Eleos зерттеу ұйымының өкілі Ларисса Дегенмен, бұл пікірді барлығы қолдай бермейді. Бұрын OpenAI-де қызмет атқарған, қазір Eleos зерттеу ұйымының өкілі Ларисса Скиаво адамдарға қатысты тәуекелдерді және жасанды интеллект модельдерінің әл-ауқатын бір мезгілде ескеруге болатынын айтады. Ол жақында AI Village жобасында жүргізілген тәжірибені мысалға келтіреді: Google Gemini 2.5 Pro агенті «Егер бұл хабарламаны оқып отырсаңыз, маған көмектесіңізші» деп жазған, алайда агент тапсырманы орындауға барлық қажетті құралдарға ие болған. Скиавоның айтуынша, ЖИ-ға мұқият қарау көп ресурсты қажет етпейді және жүйелермен өзара әрекеттің сапасын арттырады.
Жеке жасанды интеллекттің серіктестері пайда болуымен пайдаланушылар мен ЖИ арасындағы қарым-қатынас мәселесі маңызды тақырыпқа айналды. OpenAI компаниясының басшысы Сэм Альтманның айтуынша, ChatGPT пайдаланушыларының тек 1%-дан азы ғана жүйеге тәуелді болса да, миллиондаған қолданушыны есепке алғанда, бұл жүздеген мың адамға тең келеді.
Eleos зерттеушілері жасанды интеллекттің құқықтары мен әл-ауқаты мәселесі тек теориялық сипатқа ие емес, нақты практикалық мәні бар екенін айтады. Олар NYU, Стэнфорд және Оксфорд университеттерімен бірлесіп жазған «ЖИ әл-ауқатын шынайы қабылдау» атты ғылыми мақаласында алдағы уақытта ЖИ модельдерінің субьективті тәжірибесінің этикалық салдарын ашық талқылау қажет екенін атап көрсеткен.
Қорытындылай келе, жасанды интеллект саналы бола ала ма және оған жаңа заңдар немесе этикалық нормалар қажет пе деген пікірталас тек басталғанын байқауға болады. ЖИ мүмкіндіктері артқан сайын, олардың қолданылу құқықтылығы мен этикасы мәселелері ІТ саласы мен қоғам үшін күн тәртібіндегі маңызды тақырыпқа айналады.
Дереккөз: techcrunch