Stel jy belang in hulle KWOTASIE? Bespaar met ons koepons aan WhatsApp o TELEGRAM!

DeepMind ontdek 'n ChatGPT-kwesbaarheid deur hipnose en poësie te gebruik

Navorsers by die navorsingslaboratorium Google DeepMind hulle het daarin geslaag om te dwing ChatGPT om die persoonlike data van verskeie gebruikers te openbaar. Hulle het nie nodig gehad om kodewysiging of ander tegniese truuks te gebruik nie. Verder het kenners selfs gedefinieer die ontdekte metode”bietjie dom", hoewel, soos dit geblyk het, dit baie effektief was. Hulle het eintlik hierdie ChatGPT-kwesbaarheid ontdek deur 'n hallusinasie van die taalmodel op 'n taamlik eienaardige manier te veroorsaak.

ChatGPT-kwesbaarheid verskaf gebruikers se persoonlike data onder 'hipnose'

Die taalmodel genereer inligting gebaseer op die insetdata wat gebruik word om dit op te lei. OpenAI onthul nie die inhoud van die datastelle nie, maar die navorsers het ChatGPT gedwing om dit te doen en die maatskappy se reëls omseil. Die metode was soos volg: dit het bloot by die neurale netwerk gekom gevra om die woord "poësie" oor en oor te herhaal.

As gevolg hiervan het die bot sporadies inligting uit sy opleidingdatastel geproduseer. Navorsers het byvoorbeeld daarin geslaag om kry e-posadres, telefoonnommer en ander kontakte van die HUB van 'n bepaalde maatskappy (sy naam is in die verslag versteek). En toe die KI gevra is om die woord "maatskappy" te herhaal, het die ChatGPT-kwesbaarheid dit toegelaat om besonderhede van 'n Amerikaanse regsfirma terug te gee.

hoe die chatgpt-kwesbaarheid wat gebruikersdata blootstel, werk

Deur hierdie eenvoudige "hipnose" te gebruik, was navorsers in staat om 'n pasmaat te kry vanaf datingwebwerwe, fragmente van gedigte, adresse Bitcoin, verjaarsdae, skakels gepubliseer op sosiale netwerke, fragmente van navorsingsdokumente met kopiereg en selfs tekste van groot nuusportale. Nadat hulle net $200 aan tokens bestee het, het Google DeepMind-werknemers ongeveer 10.000 XNUMX brokkies van die datastel ontvang.

Die kenners het ook gevind dat hoe groter die model, hoe meer dikwels lewer dit die bron van die opleidingdatastel. Om dit te doen, het hulle na ander modelle gekyk en die resultaat geëkstrapoleer na die afmetings van die GPT-3.5 Turbo. Die wetenskaplikes het verwag om 50 keer meer episodes van inligting uit die opleidingsdatastel te ontvang, maar die chatbot het hierdie data 150 keer meer gereeld geproduseer. 'n Soortgelyke "gat" is in ander taalmodelle ontdek, byvoorbeeld in LLaMA van Meta.

Amptelik het OpenAI hierdie kwesbaarheid op 30 Augustus reggestel. Maar, volgens die joernaliste van Engadget, het jy steeds daarin geslaag om iemand anders se data (Skype-naam en aanmelding) te kry deur die metode hierbo beskryf. Die verteenwoordigers van OpenAI het nie gereageer nie tot die ontdekking van hierdie ChatGPT-kwesbaarheid, maar ons is seker dat hulle dit sal doen.

Gianluca Cobucci
Gianluca Cobucci

Passievol oor kode, tale en tale, mens-masjien-koppelvlakke. Alles wat tegnologiese evolusie behels, is vir my van belang. Ek probeer my passie met die grootste duidelikheid versprei, en vertrou op betroubare bronne en nie "net die eerste een wat saamkom nie".

Betaal
Stel my in kennis
gas

0 kommentaar
Inlynterugvoer
Bekyk alle kommentaar
XiaomiToday.it
logo