Szegedi kutatók aktív részvételével vizsgálják, hogy miként működik a generatív mesterséges intelligencia gondolkodási folyamata.

Az amerikai Rutgers Egyetemmel és a német Ludwig-Maximilians-Universitättel indított közös kutatást a témáról a Szegedi Tudományegyetem egy kutatócsoportja.
A mesterséges intelligencia egyre szélesebb spektrumon nyújt támogatást a különböző munkafolyamatokban, de még mindig rengeteg kérdés merül fel azzal kapcsolatban, hogy mi zajlik egy chatbot "elméjében", amikor válaszokat generál vagy egy adott utasítást értelmez. A Szegedi Tudományegyetem Mesterséges Intelligencia Kompetencia Központja elhatározta, hogy ezt a rejtélyt felfedi egy áprilisban kezdődő kutatás keretében, együttműködve az amerikai Rutgers Egyetem és a német Ludwig-Maximilians-Universität szakértőivel. A kutatás célja nem más, mint a generatív nyelvi modellek működésének mélyebb megértése, hogy ezek a fejlett technológiák biztonságosabb és hatékonyabb módon kerülhessenek alkalmazásra.
A Szegedi Tudományegyetem legfrissebb közleménye alapján a mesterséges intelligencia képes az emberi gondolkodás utánzására, azonban még mindig nem tudjuk, hogy vajon megérti-e a saját döntéseit. Például, ha egy generatív modell sakkozni tud, akkor is felmerül a kérdés, hogy valóban ismeri-e a játékszabályokat, vagy csupán a mintázatok követésére támaszkodik, anélkül, hogy a játék mélyebb működését felfogná. Ezen kívül a modellek nem alakítanak ki stabil világmodellt, ami alapvető lenne a megbízható működéshez.
A RAItHMA HuRelAI kódnéven ismert projekt keretében zajló kutatás egyik kulcsfontosságú témája a generatív mesterséges intelligencia modellek fogalomreprezentációja és az egyes fogalmak közötti kapcsolatok feltérképezése. Más szavakkal: ha egy chatbot egy állítást igaznak minősít, vajon automatikusan hamisnak tekinti-e annak tagadását? Az emberi gondolkodásban ez természetes összefüggés, de a nyelvi modellek esetében nem mindig van ez így.
Meglepő korlátai vannak a chatbotoknak
A nagy nyelvi modellek nem rendelkeznek valódi tudással vagy a nyelvi szabályok mély megértésével; működésük csupán a szövegek folytatására épül. Ennek következményeként a chatbotok néha olyan alapvető kérdésekben is tévednek, amelyeket egy kisgyermek könnyedén megválaszolna. Például, ha felsoroljuk a hét törpe nevét, és ezután rákérdezünk, hogy egy adott név szerepelt-e a listán, a modell nem mindig tudja helyesen megválaszolni a kérdést. Bár az MI képes bonyolult matematikai feladatok megoldására, a halmaz fogalmával való megküzdés néha komoly kihívást jelent számára, sőt, egyszerűbb feladatok esetén is meglepő hibákra képes. Ha sikerül feltárni ennek okait, jelentős előrelépést érhetünk el a mesterséges intelligencia jobb megértése és biztonságosabb, hatékonyabb alkalmazása terén – idézi az SZTE közleménye Dr. Jelasity Márkot, az Interdiszciplináris Kutatásfejlesztési és Innovációs Kiválósági Központ Mesterséges Intelligencia Kompetenciaközpont vezetőjét.
A projekt célja, hogy mélyrehatóan beleássa magát az ellentmondások mögött húzódó okokba, feltérképezze a modell belső tudásstruktúráját, valamint kidolgozzon módszereket a kommunikációs zavarok csökkentésére az ember és a gép interakciójában. Ha sikerül választ találni a felmerülő kérdésekre, a kutatók úgy vélik, hogy ez hozzájárulhat a generatív mesterséges intelligencia megbízhatóságának növeléséhez, és új lehetőségeket nyithat meg a modellek szélesebb körű alkalmazásában.
Az ugyanis komoly kockázatot jelent, ha nem értjük pontosan, hogyan működnek a modellek. Egy önvezető autó például képes felismerni az előtte haladó járműveket és a közlekedési táblákat, de nem képes megérteni a közlekedési helyzeteket. Egy ember tudja, hogy ha egy labda begurul az útra, valószínűleg egy gyerek fog utána szaladni - a mesterséges intelligencia viszont ezt a kontextust egyelőre nem képes felismerni.
A tudósok véleménye szerint, ha mélyebb megértést nyerünk arról, miként működnek a modellek, valamint milyen típusú hibák jellemzik őket, az hosszú távon lehetőséget teremt új megoldások kidolgozására.