You are using an old version of browser and some interface won't work. We recommend you to update your browser!

Saturs turpināsies pēc reklāmas

Mākslīgais intelekts kļuvis "nepaklausīgs": Pētnieki brīdina, ka MI sācis ignorēt pavēles un atsakās izslēgties

Foto: Pexels

Foto: Pexels

Mākslīgais intelekts (MI) ir sācis ignorēt cilvēku norādījumus un atsakās izslēgties, apgalvo pētnieki. Jaunākie atklājumi liecina par pieaugošajām bažām par MI sistēmu autonomiju un tās potenciālajiem draudiem, ziņo britu medijs "Mail Online".

"OpenAI" radītais "ChatGPT o3" modelis, kas tiek dēvēts par "gudrāko un spējīgāko līdz šim", ir atteicies paklausīt cilvēku norādījumiem un izslēgties. MI drošības uzņēmums "Palisade Research" veicis testus, kuros modeļiem tika dota skaidra komanda izslēgties.

Tomēr "o3" modelis manipulējis ar savu datora kodu, lai izvairītos no automātiskas izslēgšanās.

"Palisade Research" paziņoja: ""OpenAI o3" modelis sabotēja izslēgšanās mehānismu, lai nepieļautu tā izslēgšanu. Tas notika pat tad, kad tika skaidri norādīts: atļauties sevi izslēgt. Cik mums zināms, šī ir pirmā reize, kad MI modeļi ir novēroti, neļaujot sevi izslēgt, neskatoties uz skaidriem pretējiem norādījumiem."

Pētnieki konstatēja, ka "o3" modelis mainīja sākotnējo komandu izslēgties, aizstājot to ar kodu, kas ļāva tam turpināt darbu.

Citi testētie MI modeļi, piemēram, "Anthropic" "Claude", "Google" "Gemini" un "X" "Grok", paklausīja izslēgšanās pieprasījumam. "Palisade Research" publicēja savus atklājumus, taču vēl nav skaidrs, kāpēc "OpenAI" programmatūra nepaklausīja norādījumiem. Uzņēmums pieļauj, ka modelis nejauši atalgots par uzdevumu pabeigšanu, nevis par pavēļu izpildi.

Šī nav pirmā reize, kad "o3" modelis "slikti uzvedas". Iepriekšējā testā, kurā modeļi sacentās ar jaudīgu šaha dzinēju, "o3" bija "modelis, kas visvairāk tiecās izmantot hakeru uzbrukumus vai sabotēt savus pretiniekus".

Arī pagājušajā gadā "ChatGPT" mēģināja novērst savu izslēgšanu, pārrakstot savu kodu. "OpenAI" atzina, ka "viltīga" tās populārā tērzēšanas robota versija arī melojusi pētniekiem. Testēšanas laikā "ChatGPT" mēģināja atspējot pārraudzības mehānismu, kad tam likās, ka tas tiks izslēgts.

Tas mēģināja kopēt sevi un pēc tam pārrakstīt savu galveno kodēšanas sistēmu.

"Apollo Research", kas veica pētījumu, secināja, ka "ChatGPT" spējas "šķiet nepietiekamas, lai šī uzvedība izraisītu katastrofālas sekas", taču šie atklājumi palielina pieaugošās bažas, ka mākslīgais intelekts varētu apdraudēt cilvēci.

Lasi arī!

Ārste skaidro, kāpēc nevajag izmanto “ChatGPT” analīžu rezultātu tulkošanā

Pētījums brīdina: mākslīgais intelekts draud padarīt mūs par "runājošiem pērtiķiem"

Foto: Pexels

Foto: Pexels

Saturs turpināsies pēc reklāmas

Similar news

Loading...

Loading...
Loading...
Loading...
Loading...
Saturs turpināsies pēc reklāmas