Мамандар жасанды интеллектіге шамадан тыс сенім білдіру кезінде ғылыми білімнің қарапайымдалуы немесе бұрмалануы мүмкін екенін ескертеді.
Қазіргі таңда ChatGPT секілді жасанды интеллект құралдары академиялық ортада белсенді қолданыла бастады. Олар ғалымдарға әдеби шолу жасауға, гипотезаларды құрастыруға және ғылыми мақалалардың тілін жетілдіруге көмектеседі. Алайда сарапшылар бақылаусыз пайдаланған жағдайда бұл жүйелер зерттеулер сапасын төмендетіп, күрделі ғылыми ұғымдардың мәнін түсіру қаупін тудыратынын айтады.
Мәселенің бастысы – ЖИ арқылы жасалған мәтіндер кейде толық емес немесе бұрмаланған ақпаратты ұсынуы мүмкін, сондай-ақ плагиат қаупі мен түпнұсқа емес контенттің пайда болу ықтималдығы бар. Бұл ғылыми ойдың дамуына кері әсерін тигізеді, себебі зерттеушілер кейде дәл емес деректерге немесе беткей қорытындыларға сүйеніп, оларды терең және сыни тұрғыдан тексермей қалуы мүмкін.
Сонымен қатар мамандар ChatGPT сияқты модельдерді дұрыс және саналы пайдаланған жағдайда зерттеушілердің күнделікті жұмысын жеңілдететін тиімді құрал екенін айтады. Мысалы, әдебиетті іздеу, шолулар жасау және мәтінді өңдеу ғылыми мақалаларды дайындау жылдамдығы мен сапасын арттыра алады.
Дегенмен басты шарт – ғалымдардың жасанды интеллект арқылы алынған мәтіндерді міндетті түрде тексеріп, редакциялауы. ЖИ зерттеушінің сыни ойлауын немесе шығармашылық қабілетін алмастыруға емес, тек қосымша көмекші құрал ретінде қолданылуы керек.
Ғылыми коммуникацияда жасанды интеллектінің рөлі артып отырғандықтан, қауымдастықтар мен баспалар осындай технологияларды ашық және қауіпсіз енгізу үшін ұсынымдар мен стандарттар әзірлеуде. Бұл қадам зерттеушілерге қауіптерді азайтып, технологияның мүмкіндіктерін барынша тиімді пайдалануға мүмкіндік береді.