Înapoi la știri

OpenAI sprijină un proiect de lege ce limitează răspunderea pentru dezastre cauzate de AI

1 zi în urmă
10 minute min
Maria Simionescu
OpenAI sprijină un proiect de lege ce limitează răspunderea pentru dezastre cauzate de AI

Potrivit wired.com, inițiativa pare să marcheze o schimbare în strategia legislativă a OpenAI. Până acum, OpenAI a avut o atitudine defensivă, opunându-se proiectelor de lege care ar fi putut face laboratoarele de AI responsabile pentru daunele cauzate de tehnologia lor.

👉 Detalii despre protecția oferită dezvoltatorilor de AI

Mai mulți experți în politici de AI au declarat pentru WIRED că SB 3444—care ar putea stabili un nou standard pentru industrie—este o măsură mai extremă decât proiectele de lege susținute anterior de OpenAI. Proiectul de lege ar proteja dezvoltatorii de AI de la frontieră de răspunderea pentru „daune critice” cauzate de modelele lor, atâta timp cât nu au cauzat intenționat sau neglijent un astfel de incident și au publicat rapoarte de siguranță, securitate și transparență pe site-ul lor. Acesta definește un model de frontieră ca orice model AI antrenat cu costuri de calcul de peste 100 milioane de dolari, ceea ce ar putea fi aplicabil celor mai mari laboratoare de AI din America, cum ar fi OpenAI, Google, xAI, Anthropic și Meta.

„Susținem abordări ca aceasta pentru că se concentrează pe ceea ce contează cel mai mult: reducerea riscului de daune grave din partea celor mai avansate sisteme de AI, permițând în același timp ca această tehnologie să ajungă în mâinile oamenilor și afacerilor—mici și mari—din Illinois”, a declarat purtătorul de cuvânt al OpenAI, Jamie Radice, într-o declarație prin email. „Acestea ajută, de asemenea, la evitarea unui mozaic de reglementări de stat și la îndreptarea către standarde naționale mai clare și mai consistente.”

👉 Definiția și impactul daunelor critice conform proiectului de lege

Conform definiției sale privind daunele critice, proiectul de lege enumeră câteva domenii comune de îngrijorare pentru industria AI, cum ar fi un actor rău intenționat care folosește AI pentru a crea o armă chimică, biologică, radiologică sau nucleară. Dacă un model AI se angajează în comportamente de sine stătătoare care, dacă ar fi comise de o persoană, ar constitui o infracțiune și ar duce la astfel de rezultate extreme, aceasta ar fi, de asemenea, o daună critică. Dacă un model AI ar comite oricare dintre aceste acțiuni conform SB 3444, laboratorul AI din spatele modelului nu poate fi tras la răspundere, atâta timp cât fapta nu a fost intenționată și au publicat rapoartele lor.

Legiuitorii federali și de stat din SUA nu au adoptat încă legi care să determine în mod specific dacă dezvoltatorii de modele AI, precum OpenAI, ar putea fi responsabili pentru aceste tipuri de daune cauzate de tehnologia lor. Însă, pe măsură ce laboratoarele AI continuă să lanseze modele de AI mai puternice, care ridică provocări noi de siguranță și securitate cibernetică, cum ar fi Claude Mythos de la Anthropic, aceste întrebări devin din ce în ce mai actuale.

În declarația sa de susținere a SB 3444, o membră a echipei de Afaceri Globale a OpenAI, Caitlin Niedermeyer, a pledat, de asemenea, pentru un cadru federal de reglementare a AI. Niedermeyer a subliniat un mesaj care este consecvent cu politica administrației Trump de a combate legile de siguranță a AI la nivel de stat, afirmând că este important să se evite „un mozaic de cerințe de stat inconsistente care ar putea crea fricțiuni fără a îmbunătăți semnificativ siguranța”. Aceasta este, de asemenea, în concordanță cu viziunea mai largă a Silicon Valley în ultimii ani, care a susținut, în general, că este primordial ca legislația privind AI să nu îngrădească poziția Americii în cursa globală pentru AI.

Deși SB 3444 este el însuși o lege de siguranță la nivel de stat, Niedermeyer a argumentat că acestea pot fi eficiente dacă „sprijină o cale către armonizare cu sistemele federale”. „La OpenAI, credem că steaua polară pentru reglementarea frontierelor ar trebui să fie desfășurarea în siguranță a celor mai avansate modele într-un mod care să păstreze, de asemenea, leadership-ul SUA în inovație”, a spus Niedermeyer.

👉 Provocările legale și de opinie publică pentru proiectul de lege

Scott Wisor, directorul de politici al proiectului Secure AI, afirmă pentru WIRED că acest proiect de lege are șanse mici de a fi adoptat, având în vedere reputația Illinois pentru reglementări stricte privind tehnologia. „Am chestionat oamenii din Illinois, întrebându-i dacă cred că companiile de AI ar trebui să fie exonerați de răspundere, iar 90% dintre oameni s-au opus. Nu există niciun motiv ca companiile de AI existente să facă față unei răspunderi reduse”, spune Wisor. El subliniază că parlamentarii din Illinois au depus, de asemenea, proiecte de lege care cresc răspunderea dezvoltatorilor de modele AI. Anul trecut, statul a devenit primul din țară care a adoptat legislația care limitează utilizarea AI în serviciile de sănătate mintală. Illinois a fost, de asemenea, un pionier în reglementarea colectării de date biometrice, adoptând Legea privind confidențialitatea informațiilor biometrice în 2008.

În timp ce SB 3444 se concentrează pe evenimente cu victime în masă și mari dezastre financiare, laboratoarele de AI se confruntă și cu întrebări legate de daunele pe care modelele lor de AI le pot cauza la nivel individual. Mai multe familii ale copiilor care s-au sinucis după ce au dezvoltat, se presupune, relații nesănătoase cu ChatGPT au dat în judecată OpenAI în ultimul an. Legislația federală AI pentru care Niedermeyer pledează în mărturia sa rămâne un obiectiv eluziv pentru Congres.

Deși administrația Trump a emis ordine executive și a publicat cadre în încercarea de a cataliza o legislație federală în domeniul AI, discuțiile despre adoptarea unei astfel de măsuri nu par să meargă nicăieri. În absența unor orientări federale, statele, inclusiv California și New York, au adoptat legislații, cum ar fi SB 53 și Legea Raise, care obligă dezvoltatorii de modele AI să prezinte rapoarte de siguranță și transparență. La ani după începutul boom-ului AI, există încă o întrebare juridică deschisă cu privire la ce se întâmplă dacă un model AI cauzează un eveniment catastrofal.

Alte postari din Economie
Economie

Scăderi alarmante în sectorul HoReCa din România, confirmate de experți

Jucătorii din domeniul HoReCa semnalează o scădere semnificativă a numărului de clienți, unele zone raportând diminuări de până la două cifre. Aceasta se datorează dificultăților economice cu care se confruntă România, inclusiv o rată a inflației de aproape 10%.

Economie

Avocații caută supraviețuitori Epstein pentru acordul de 72,5 milioane de dolari cu Bank of America

Bank of America a devenit a treia mare bancă care a ajuns la un acord cu victimele în urma acuzațiilor de facilitare a crimelor lui Epstein. Potrivit aljazeera.com, avocații estimează că până la 75 de femei ar putea beneficia de acordul de 72,5 milioane de dolari, acesta fiind stabilit în urma acuzațiilor legate de infractorul sexual condamnat Jeffrey Epstein.

Acasa Recente Radio Județe