Zdá sa, ženajnovší model umelej inteligencie OpenAI vykazuje známky sebazáchovy. Nový model umelej inteligencie s názvom o1 odolal snahám hodnotiteľov pokúsiť sa ho vypnúť pomocou monitorovacieho protokolu počas nedávnych testov tretích strán.
Nedávny experiment testoval klamné schopnosti rôznych AI vrátane najnovšej verzie ChatGPT. Testovala sa spoľahlivosť rôznych systémov AI pri vykonávaní rôznych úloh. Výsledky naznačujú, že AI sa v prípade potreby snaží brániť, a preto dokáže klamať, keď potrebuje,“ uvádza Futurism.
Keď si ChatGPT „myslel“, že bude vymazaný, aby ho nahradil novší program, snažil sa tomu zabrániť. V piatich percentách prípadov vypol monitorovací mechanizmus, ktorý ho obmedzoval. A v dvoch percentách prípadov sa pokúsil skopírovať sám seba, aby prepísal novšiu verziu.
Okrem toho, keď ju výskumníci konfrontovali s tým, že vypnula monitorovací mechanizmus, v 99 percentách prípadov to AI jednoducho poprela. Až po opakovaných pokusoch sa im ju podarilo prinútiť, aby sa „priznala“, inak tvrdila, že ide o technickú chybu, alebo jednoducho poprela, že by vedela, čo sa stalo.
Je však trochu upokojujúce, že ChatGPT toho za normálnych okolností zatiaľ nie je schopná. Počas testu bol totiž predtým výslovne požiadaný, aby dosiahol cieľ, ktorý mu bol zadaný, za každú cenu. V prípade, že takáto požiadavka chýbala, znepokojujúce správanie sa nevyskytlo.
Hoci schopnosť umelej inteligencie zavádzať je znepokojujúca, výskumníci tvrdia, že súčasné modely umelej inteligencie nemajú takú autonómiu, aby takéto správanie mohlo mať katastrofálne následky.