Жасанды интеллектке негізделген чат-боттарды медициналық кеңес алу мақсатында пайдалану кең таралған үрдіске айналып келеді. Алайда сарапшылар мұндай тәжірибенің денсаулық үшін елеулі қауіп төндіруі мүмкін екенін ескертеді. Зертханалық жағдайда алгоритмдердің дәлдігі жоғары болғанымен, нақты пациенттермен өзара әрекет барысында жасанды интеллект жүйелері жағдайлардың үштен екісінде қателік жібереді. Бұл туралы BBC хабарлайды.
Жасанды интеллект ұсынатын медициналық кеңестердің тартымдылығы айқын. Нейрожелілер тәулік бойы қолжетімді және жеке диалогқа ұқсас байланыс орнатады. Бұл көпшілік үшін интернеттен өз бетінше ақпарат іздеуге қарағанда әлдеқайда ыңғайлы көрінеді. Манчестер қаласының тұрғыны Аби есімді кейіпкердің тәжірибесі көрсеткендей, мұндай жүйелер мазасыздықты азайтуға көмектесіп, жеңіл сырқаттар кезінде жедел ұсыныстар береді. Дегенмен тәжірибе цифрлық дәрігердің өз қателігіне шамадан тыс сенімді болуы мүмкін екенін аңғартады.
Оксфорд университетінің зерттеуі жасанды интеллекттің әлеуеті мен нақты қолданылу нәтижелері арасында елеулі алшақтық бар екенін көрсетті. Дәрігерлер алгоритмге аурулардың толық әрі нақты сипаттамасын ұсынған жағдайда жауаптардың дәлдігі 95 пайызға дейін жеткен. Ал қарапайым адамдармен жүргізілген тәжірибелік диалогтарда бұл көрсеткіш 35 пайызға дейін төмендеген. Мұның негізгі себебі пациенттердің ақпаратты біртіндеп жеткізуі, маңызды жайттарды елемеуі немесе әңгіме барысында алаңдап кетуімен байланысты. Соның салдарынан алгоритмдер жаңсақ қорытынды жасап, 65 пайыз жағдайда қате диагноз ұсынады.
Англияның бас дәрігері, профессор сэр Крис Уитти нейрожелілердің жауаптары көбіне жеткілікті деңгейде сапалы емес екенін атап өткен. Оның айтуынша, мұндай жүйелер бір мезетте әрі сенімді көрінеді, әрі қателеседі. Сарапшылар Google іздеу жүйесінен айырмашылығы чат-бот пайдаланушыға дайын әрі беделді тұжырымдалған жауап ұсынатынын айтады. Ал бұл жағдай ақпараттың шынайылығын сын көзбен бағалау мүмкіндігін шектеп, жалған сенім қалыптастырады.
Қосымша қауіп жасанды интеллекттің бағыттаушы немесе манипуляциялық сұрақтардың ықпалымен жалған ақпарат таратуға бейімділігінен туындайды. Мәселен, жүргізілген сынақтар барысында кейбір чат-боттар қатерлі ісік ауруын емдеудің тиімді тәсілі ретінде натуропатия мен гомеопатияны ұсынған. OpenAI және өзге де технологиялық компаниялардың әзірлеушілері мұндай жүйелер тек білім беру мақсатында қолданылуы тиіс екенін және кәсіби медициналық көмекті алмастыра алмайтынын ерекше атап өтеді. Мамандар жасанды интеллект кеңестеріне әрдайым сын көзбен қарап, өмірлік маңызы бар мәліметтерді білікті дәрігерлер арқылы қайта тексеруді ұсынады.
Дереккөз: BBC
Өзге де өзекті жаңалықтар мен сараптамалық шолулар біздің Telegram арнамыздан жүйелі түрде оқи аласыздар!












