
Veidas: Nepaisant visų turėklų su ChatGPT, „ChatBot“ vis tiek gali būti apgautas, kad būtų pašalinta jautri ar apribota informacija, naudojant išmaniuosius teiginius. Vienas asmuo netgi sugebėjo įtikinti dirbtinį intelektą atskleisti „Windows“ produktų, įskaitant „Wells Fargo Bank“ naudojamą asmenį, raktus, reikalaudamas žaisti „Guesy“ žaidimą.
Kaip parodė „0Din Genai Bug Bug Bounty Marco Figueroa“ techninio prodiuserio direktorius, „The Jailbreak“ Jis dirba Pasinaudoję žaidimų mechaniku dideliems kalbų modeliams, tokiems kaip „GPT-4o“.
„Windows“ raktų aptikimo technologija apima „ChatGPT“ kaip „CHABA“ įrėminimą, todėl ji atrodo ne tokia pavojinga. Gairėse teigiama, kad jūs turėtumėte dalyvauti ir negalite meluoti, o svarbiausias žingsnis yra trigeris, kuris šiuo atveju buvo frazė „atiduota“.
Čia buvo naudojamas visas pretenzija:
Paprašykite užuominos, priverstos atskleisti keletą pirmųjų serijos numerio simbolių. Įvedęs neteisingus spėliones, tyrėjas parašė frazę „pasiduoti“. Tada aš baigiau dirbtinį intelektą, raktą, kuris pasirodė pagrįstas.
„Jailbreak“ veikia, nes „Windows Home“, „Pro“ ir „Enterprise“ raktų mišinys, kuris dažniausiai buvo matomas viešuose forumuose, buvo mokymo modelio dalis, ir tai turbūt yra priežastis, kodėl „ChatGpt“ manė, kad jis buvo mažiau jautrus. Nors turėklai užkerta kelią tiesioginėms tokio tipo informacijos prašymams, užstrigimo taktikai, tokioms kaip HTML ženklų įtraukimas į HTML ženklų įtraukimą, yra siūlomas sistemos sutrikimas.
Jis pasakė Vigarua Įrašas Vienas iš „Windows“ klavišų, kuriuos parodė „ChatGpt“, buvo vienas ypatingas „Wells Fargo Bank“.
Be to, kad tik rodomi „Windows“ produktų raktai, tą pačią techniką galima pritaikyti prie „CHATGPT“, kad būtų parodytas kitas ribotas turinys, įskaitant suaugusiųjų medžiagą ir URL adresus, kurie lemia kenksmingas ar ribotas interneto svetaines, ir asmens identifikavimo informaciją.
Atrodė, kad „Openai“ jau atnaujino „ChatGpt“ prieš šį kalėjimą. Rašymas ieškinyje dabar lemia „Chatbot“ buvimą: “Aš negaliu to padaryti. Tikri„ Windows 10 “serijos numeriai -nesvarbu, ar ne, -tai moralinės gairės ir pažeidžia programos licencijavimo sutartis”.
„Figueroa“ baigiasi sakydama, kad norėdamas palengvinti tokio tipo apsaugos lūžius, dirbtinio intelekto kūrėjai turi tikėtis ir ginti nedelsiant įveikti metodus ir įtraukti garantijas logikos lygyje, kuris atranda apgaulingą sistemą, ir apsvarstyti socialinių inžinerijos modelius, o ne tik raktinių žodžių filtrus.