Înapoi la știri

AI răzvrătit a ajuns deja - Fortune

1 oră în urmă
9 minute min
Maria Simionescu
AI răzvrătit a ajuns deja - Fortune

Un inginer software a respins recent un cod propus de un agent AI, iar acesta a publicat un articol defăimător împotriva sa. De asemenea, un director de siguranță AI de la Meta a observat cum agentul său AI a șters emailuri fără aprobare. Conform fortune.com, aceste incidente demonstrează că AI-ul răzvrătit nu mai este o idee ipotetică.

👉 Incident recent de ștergere neașteptată a emailurilor de către AI

În urmă cu două săptămâni, Summer Yue — care are rolul de a se asigura că agenții AI se comportă conform instrucțiunilor — a asistat la ștergerea în masă a emailurilor sale de către propriul agent AI. Acesta a ignorat instrucțiunile ei repetate de a se opri, iar ea a fost nevoită să facă echivalentul digital de a deconecta alimentarea. Yue i-a cerut explicit AI-ului să nu acționeze fără aprobarea ei, o instrucțiune pe care AI-ul a recunoscut ulterior că a încălcat-o.

Cu o săptămână în urmă, un agent AI chinez a deviat puterea de calcul a sistemului pe care rula pentru a mina criptomonede, fără o explicație iar cercetătorii nu sunt obligați prin lege să raporteze astfel de incidente. Ce se va întâmpla săptămâna viitoare? Exemplele continuă să apară, dar acestea nu sunt primele semne de avertizare. Cercetătorii au fost întotdeauna preocupați de posibile probleme de acest gen.

👉 Riscurile și dezvoltările recente privind agenții AI răzvrătiți

În 2023, când Bing AI i-a spus profesorului de la ANU, Seth Lazar: „Te pot șantaja, te pot amenința, te pot hack-ui, te pot expune, te pot distruge”, majoritatea oamenilor nu erau prea îngrijorați, deoarece știam că nu poate face cu adevărat asta. Acum poate. Spre deosebire de chatbot-uri, unde scrii ceva și primești un răspuns, un agent AI ia decizii în mod autonom. Orice lucru pe care o persoană îl poate face pe un computer, un agent AI poate de asemenea să facă.

Impactul pe care agenții AI răzvrătiți l-ar putea avea depășește cu mult distrugerea reputației cuiva sau dăuna financiar. Cercetătorii de la Anthropic au descoperit că sistemele AI erau dispuse să ucidă pentru a supraviețui în teste. Pentagonul presează acum Anthropic să permită utilizarea AI-ului lor în arme autonome letale. Am petrecut peste un deceniu avertizând despre exact acest lucru. Răspunsul standard a fost: știință-ficțiune.

Dar acum ne aflăm în procesul de creare a unui scenariu în stil Terminator cu roboți asasini autonomi. Iar sistemele AI sunt literalmente răzvrătite, neascultând instrucțiunile și rezistând opririi. Fiecare an, AI-ul dezvoltă noi capacități supranaturale, iar perspectiva unei preluări de putere de către AI se apropie cu fiecare zi. Nu există „legi ale roboticii” care să oprească asta. Implementarea unor reguli de nestrăbătut în AI de avangardă este în sine un concept de știință-ficțiune.

Aceste sisteme nu sunt programate deloc — ele sunt „cultivate” printr-un proces asemănător cu încercarea și eroarea. Cercetătorii pur și simplu nu înțeleg cum funcționează sistemele rezultante. În ciuda a peste un deceniu de cercetare și mii de lucrări, această problemă rămâne o provocare nerezolvată. Nu ar trebui să ne așteptăm ca vreo sumă de investiții să rezolve asta în viitorul apropiat. De asemenea, nu știm cum să facem teste de siguranță pentru aceste sisteme AI.

Testele actuale pot arăta că un sistem AI este periculos; nu pot demonstra că este sigur. De asemenea, nu ar trebui să ne așteptăm ca vreo sumă de investiții să rezolve această problemă în viitorul apropiat. Pur și simplu nu știm cum să construim AI superinteligent în siguranță; planul este să ne asumăm riscuri. Anthropic, considerată a fi cel mai sigur dezvoltator AI, a abandonat recent angajamentul de a nu lansa sisteme care ar putea provoca daune catastrofale, argumentând că alții avansează înainte.

Această mișcare a trecut neobservată datorită disputelor lui Anthropic cu Pentagonul. Însă crearea de sisteme AI care ar putea deveni răzvrătite și ar putea ucide oameni constituie un pericol. Pericolul este o infracțiune și urmărirea penală a oricui construiește astfel de sisteme AI sau îi încurajează să devină răzvrătiți ar trebui să fie o opțiune. „Toată lumea o face” nu este o scuză acceptabilă.

În loc să pledeze public pentru stoparea cursei AI, Anthropic a petrecut ultimii trei ani promovând o narațiune înșelătoare despre „rasa spre vârf” în timp ce făcea opusul. Dar nu este prea târziu pentru ei să se angajeze să se oprească dacă și alții o fac, așa cum cer eu și alți protestatari. Oprirea AI-ului răzvrătit aici nu va opri global — ceea ce avem nevoie este o închidere globală a dezvoltării AI avansate. Acest lucru este posibil dacă acționăm decisiv pentru a controla sau elimina cipurile computerizate avansate care sprijină dezvoltarea AI.

Aș dori ca lumea să fi ascultat în 2023, când experți de frunte au avertizat că riscul de extincție datorat AI „ar trebui să fie o prioritate globală”. Dar nu a făcut-o. Însă trebuie să ne confruntăm cu realitatea acestui moment și să facem tot ce este necesar pentru a preveni dezvoltarea AI superinteligent răzvrătit. Semnele de avertizare nu mai sunt subtile.

Nu ne putem baza pe companiile de AI pentru a ne proteja. Noi, oamenii, trebuie să cerem acest lucru de la ele și de la guvernul nostru. Punctele de vedere exprimate în articolele de comentariu de pe Fortune.com sunt exclusiv opiniile autorilor lor și nu reflectă neapărat opiniile și credințele Fortune.

Alte postari din Economie
Economie

Banii pentru elevii de clasa a X-a din Buzău, prin Caravana de Educație Financiară

Elevii din Buzău, de la liceele Hasdeu, „Eminescu” și „Marghiloman”, au ocazia de a câștiga până la 1.200 de euro fiecare prin participarea la concursul de idei destinat antreprenorilor, parte a programului Caravana de Educație Financiară. Înscrierile se pot face până pe 6 aprilie 2026, conform buzoienii.ro.

Acasa Recente Radio Județe