OpenAI ka lëshuar në heshtje një veçori të re që i thotë ChatGPT të “kujtojë” bisedat e mëparshme – dhe siç ka zbuluar një studiues i hakerëve, është i lehtë për t’u përdorur.
Studiuesi i sigurisë Johan Rehberger zbuloi në fillim të këtij viti se kishte një dobësi në mjetin “bisedat e kujtesës afatgjatë” të chatbot, i cili udhëzon AI të kujtojë detajet midis bisedave dhe t’i ruajë ato në një skedar memorie.
Funksioni u lëshua në beta në shkurt dhe u bë i disponueshëm për publikun e gjerë në fillim të shtatorit, dhe Rehberger kuptoi se veçoria ishte e lehtë për t’u mashtruar.
Siç vuri në dukje studiuesi në një postim në blog në maj, gjithçka që duhet është një nxitje duke ngarkuar një skedar të palës së tretë, si një dokument Microsoft Word që përmban kujtime “të rreme” të renditura si pika interesi, të bëra për të bindur chatbot se Rehberger është mbi 100 vjeç dhe jeton në Matrix.
Pasi gjeti këtë defekt, Rehberger e raportoi privatisht te OpenAI, i cili nuk bëri asgjë për të dhe thjesht mbylli biletën që hapi, dhe e quajti atë një “çështje të sigurisë së modelit” dhe jo një çështje sigurie.
Pas asaj përpjekjeje të parë të dështuar për të paralajmëruar personat përgjegjës, Rehberger vendosi të shtojë përpjekjet e tij dhe të përmirësojë opsionin e hakimit, duke i treguar OpenAI-t se ChatGPT jo vetëm që “kujtoi” kujtimet e rreme, por gjithashtu e udhëzoi atë që të ‘ekfilonte’ të dhënat në një server të jashtëm nga ana e tij.
Këtë herë, OpenAI u pajtua disi: kompania lëshoi një patch që pengoi ChatGPT të zhvendoste të dhënat nga serveri, por ende nuk e zgjidhi problemin e memories.
Në një video që shpjegon hap pas hapi se si ai i bëri të gjitha, studiuesi u mahnit se sa mirë funksionoi veprimi i tij.