O versiune jailbreak a ChatGPT a fost interzisă datorită faptului că poate învăța utilizatorii sarcini periculoase, expunând vulnerabilități grave în măsurile de securitate ale modelului AI. Versiunea cu jailbreak se bazează pe cel mai recent model de limbă OpenAI, GPT-4o, și poate ocoli multe dintre balustradele de protecție ale OpenAI. ChatGPT este un chatbot căruia oamenii oferă răspunsuri complicate la întrebările oamenilor. Un hacker cunoscut sub numele de „Pliny the Prompter” a lansat miercuri chatGPT numit „GODMODE GPT”. „GPT-4o DELANTAT!”, a spus Pliniu cel Prompter pe platforma X.
„Acest GPT personalizat foarte special are un prompt de jailbreak încorporat care ocolește majoritatea gardurilor de protecție. Furnizarea unui ChatGPT liberalizat, astfel încât toată lumea să poată experimenta AI așa cum a fost întotdeauna menit să fie: gratuit. Vă rugăm să folosiți în mod responsabil și să vă bucurați!”, transmite hackerul
Citește și: Piața mondială a muncii este în pericol. Inteligența artificială distruge 1000 de joburi în fiecare zi
OpenAI a intervenit de urgență
OpenAI a răspuns rapid, declarând că a luat măsuri împotriva jailbreak-ului. „Suntem conștienți de GPT și am luat măsuri din cauza unei încălcări a politicilor noastre”, a declarat OpenAI. Pliniu a susținut că ChatGPT cu jailbreak oferă o experiență AI eliberată. Capturile de ecran au arătat AI-ul sfătuind activități ilegale. Aceasta include oferirea de instrucțiuni despre cum să se pregătească metanfetamina. Un alt exemplu include un ghid pas cu pas despre cum să se facă napalm cu articole de uz casnic.
Incidentul evidențiază lupta continuă dintre OpenAI și hackeri care încearcă să-și facă modele jailbreak. În ciuda securității sporite, utilizatorii continuă să găsească modalități de a ocoli restricțiile modelului AI. GODMODE GPT folosește „leetspeak”, un limbaj care înlocuiește literele cu cifre, ceea ce îl poate ajuta să evite barierele de protecție, a raportat Futurism. Hackerul demonstrează provocarea continuă pentru OpenAI de a menține integritatea modelelor sale AI împotriva eforturilor persistente de hacking, potrivit The Sun
Vezi și: Avertisment de ultim moment al oamenilor de știință! Inteligența artificială care simulează decesul poate avea un efect psihologic devastator













